新视角:人类与AI的共生未来|赫周刊 #43

新的“数字物种”可能才是更准确的定义!

新视角:人类与AI的共生未来|赫周刊 #43
Tools

在过去的18个月里,超过10亿人的日常生活中已经开始融入了AI,尤其是那些庞大的语言模型(LLMs)。这种融合程度之深,让人不禁思考:AI到底是什么

多年来,我们习惯了将技术视作“工具”——完全受人控制、单一功能的辅助物。然而,AI与螺丝刀、锤子或剪刀这类传统工具截然不同。它们不会自诩博学,从不装作理解复杂的哲学问题。它们的“愚笨”是其效用的保障:工具是被使用的,而不是与之对话的伙伴。

然而,AI模型,尤其是像GPT这样的大型语言模型,以一种近乎神秘的方式展现其能力:它们不仅仅是在进行简单的数据处理,而是在模拟理解和生成语言——这是一种统计上的高级猜测游戏,每一个词和句子都是计算概率的结果。尽管AI在技术上仍然很“笨”,因为它实际上什么也不“知道”,但它展示的潜力使人难以不去想象它未来可能达到的高度。

微软AI首席执行官Mustafa Suleyman在一次TED演讲中提出了一个激动人心的观点,他认为AI像是一种新的数字物种,我们未来的数字伴侣和新伙伴。他的这种看法,不仅是对AI的一种新的认识方式,也预示着我们与这些技术伙伴未来可能的深度合作。

TED: What is an AI anyway?

AI的能力与局限

AI的能力是显而易见的。从撰写文章、编程、到创作诗歌或故事,甚至模拟对话,大型语言模型如GPT系列显示了与人类相似的语言处理能力。它们还能快速分析大量文本,提取关键信息,为法律、医疗和科研等领域提供支持。

AI虽然在处理大量信息和模拟对话上表现卓越,但其局限性也不容忽视。以下是几个具体的例子:

  1. 长期记忆的挑战:传统AI模型,尤其是基于Transformer的模型,虽然在单次交互中表现出色,但它们处理涉及长时间线的信息时效率低下。比如在一个需要追踪过往对话和决策的长篇对话或游戏中,AI可能会丢失关键的上下文信息。这是因为它们主要依赖于短期的“注意力机制”,而不是真正的长期记忆。
  2. 推理和抽象思维的限制:AI在执行具体的、规则明确的任务时表现良好,例如翻译或简单数学计算。然而,当面对需要深层次逻辑推理和抽象思维的问题时,它们的表现就显得不足。例如,在法理学分析或道德哲学问题上,AI无法像人类那样进行深刻的推理和判断。
  3. 情感和社会智能:尽管AI可以生成看似情感丰富的文本,实际上它们并不理解或感受到这些情感。这限制了AI在需要真正的情感交流和理解的应用中的有效性,如心理咨询或个性化教育。
  4. 创造性和创新的缺乏:AI可以在已有的信息和数据驱动的框架内生成创新的解决方案,但它们真正的“创造力”仍受限于训练数据中的模式。AI难以实现真正的创新,即那种超出现有知识和数据模式的创造活动。

未来的发展

Lessons after a half-billion GPT tokens

随着AI技术的迅速发展,公众和专业人士对于未来的通用人工智能(AGI)寄予厚望,希望其能实现类似或超越人类智力的能力。然而,根据Truss公司CEO的分析,这种期待可能需要重新调整,他通过分析大约5亿个令牌后得出了一些令人意外的结论

首先,关于实现AGI的可能性,Truss的CEO明确表示,至少在可预见的未来,我们不会通过当前的Transformer模型加上海量的互联网数据和庞大的资金投入实现真正的AGI。这一点挑战了很多关于AI能够快速达到人类智力水平的乐观预期。

当谈到GPT-4的实用性时,他认为这一模型确实具有实际价值,将其比作互联网的早期阶段,暗示尽管目前成果显著,但我们仍只是在探索这项技术潜力的表面。对于是否会取代所有人的工作,他的回答是否定的,强调AI将成为人类的助手而非替代者

在跟踪AI技术最新发展的建议上,Truss的CEO提出了一种务实的观点:不必过度追求每一个新闻或更新,因为大部分信息可能是次要的。他特别指出,只需关注像GPT-5这样的重大进展即可。

对于GPT-5的预期,他并不认为这一代技术会带来颠覆性的改变。尽管GPT-3到GPT-3.5显示了一定的进步,但他观察到这种进步更多是对数增长而非预期中的超线性提升。这表明,尽管AI的发展速度令人瞩目,其进步的速率和成本效益可能不如预期那样显著。

最后,他用iPhone的版本升级作比,暗示GPT-5可能只是技术性的逐步改进,而非革命性的跨越。这种观点提醒我们,在评估AI的未来潜力时,应保持一定的谨慎和现实主义。

我们应如何应对?

right arrow sign on wall
Photo by Nik / Unsplash

面对这样的预测和技术发展的现实,我们作为用户、开发者和思考者,需要调整期待,合理规划如何与AI合作。我们应该利用AI作为工具的优势,同时清醒地认识到其局限性。在AI的帮助下,我们可以提高工作效率,解放创造力,但也要避免过度依赖或期望AI能完全取代人类的智慧和决策能力。

这里有几个实用的建议:

1. 优化提示问题:

在与AI交互时,清晰且直接的问题通常会得到更好的回答。例如,如果你想知道某种技术的最新研究趋势,直接问“当前哪些是xxxx领域的热门研究趋势?”比列出一长串你已知的信息后再问同样的问题要有效得多。这不仅减少了输入的复杂性,也帮助AI集中在真正的问题上。过度具体化的提示可能会误导AI,导致它在回答时过分依赖于问题中的具体表述,而忽视其能够动用的广泛知识库。

2. 理解AI的表达限制:

AI在处理含糊不清的问题时可能无法给出明确答案。例如,如果问“这个艺术品的价值是多少?”而没有提供具体的艺术品信息,AI可能难以生成有意义的答案。最佳实践是提供足够的背景信息,例如艺术品的名称、作者、历史和艺术流派,然后才询问其价值。这样AI可以根据提供的详细上下文进行分析,给出更加精准的评估。

3. 明确有界的问题:

确保你提出的问题有一个明确的答案或是可以验证的。例如,“比尔·盖茨是微软的创始人吗?”这样的问题很容易验证答案的正确性。相比之下,“什么是生活的真正意义?”这样的问题则太过开放和哲学化,不适合直接用AI来解答。聚焦于具体、有界的问题有助于提高AI的准确性和可靠性。

4. 不要依赖AI做决定:

AI可以提供信息和分析,但最终的决策应由人类做出。利用AI来探索不同的可能性和选项,但不要期待AI为你做出复杂的生活或商业决策。例如,AI可以帮助分析市场数据,预测产品的潜在成功率,但是否决定投资于某个产品,应由具体的业务团队根据全面的考量作出决定。

5. 利用AI的无偏见特性:

AI不受个人情感或偏见的影响,这使它在处理需要客观分析的问题时非常有用。例如,在评估候选人的简历时,AI可以根据预设的标准公正地评分,而不会受到任何非专业因素的干扰。这种无偏见的特性使得AI成为评估和分析任务中的宝贵工具。

通过这些策略,我们可以更有效地与AI合作,同时避免因误解其能力而造成的问题。

随着AI技术的飞速发展,我们正在步入一个全新的时代——一个与数字物种共生的时代。然而,正如任何伟大的发明一样,关键在于我们如何使用它。通过优化我们的互动方式,理解其能力和局限,我们可以使AI成为推动创新、提高效率、丰富人类经验的强大力量。最终,与AI的合作可能会重新定义我们对智能、工作乃至生活的理解。这是一个探索未知、释放潜能、共创未来的历程。

💡
这篇周刊由ChatGPT整理而成,你觉得效果如何?告诉我你的想法吧!

祝你有美好的一周!

董双赫|SHD

Subscribe to 董双赫|SHD

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
jamie@example.com
Subscribe