最近在旧金山与商界领袖共进晚餐时,我的一句话让在场的所有人都不寒而栗。我并没有问我的用餐同伴任何我认为极其失礼的问题:只是问他们是否认为今天的人工智能有朝一日能够达到与人类一样的智能(即 AGI)甚至更高级的智能。
这是一个比你想象的更具争议的话题。
到 2025 年,科技公司 CEO 们仍会大肆宣扬大型语言模型 (LLM) 如何在短期内达到人类水平甚至超越人类的智能。大型语言模型为 ChatGPT 和 Gemini 等聊天机器人提供支持。这些高管认为,功能强大的人工智能将带来广泛且广泛分布的社会效益。
例如,Anthropic 首席执行官 Dario Amodei在一篇文章中写道,极其强大的人工智能可能最早在 2026 年出现,并且“在大多数相关领域都比诺贝尔奖得主更聪明”。与此同时,OpenAI 首席执行官 Sam Altman 最近声称他的公司知道如何构建“超级智能”人工智能,并预测它可能会“大大加速科学发现” 。
然而,并非所有人都认为这些乐观的说法令人信服。
其他 AI 领导者则对当今的 LLM 能否达到 AGI 持怀疑态度,更不用说超级智能了,除非出现一些新奇的创新。这些领导者历来都保持低调,但最近开始有更多人站出来发声。
在本月的一篇文章中,Hugging Face 的联合创始人兼首席科学官托马斯·沃尔夫 (Thomas Wolf) 称 Amodei 愿景的某些部分“充其量只是一厢情愿”。沃尔夫凭借其统计和量子物理学的博士研究成果,认为诺贝尔奖级别的突破不是来自于回答已知问题(这是人工智能擅长的),而是来自于提出没有人想过要问的问题。
在沃尔夫看来,当今的法学硕士还不能胜任这项任务。
“我很想看到这种‘爱因斯坦模型’,但我们需要深入研究如何实现它的细节,”沃尔夫在接受 TechCrunch 采访时表示。“这才是有趣的地方。”
沃尔夫表示,他之所以写这篇文章,是因为他认为人们对通用人工智能的炒作太多,而对如何真正实现这一目标的评估却不够。他认为,就目前情况而言,人工智能确实有可能在不久的将来改变世界,但无法达到人类水平的智能或超级智能。
人工智能领域的许多人都对 AGI 的前景感到欣喜若狂。那些不相信 AGI 可能实现的人经常被贴上“反技术”的标签,或者被误导或心怀不满。
有些人可能会因为这种观点而认为沃尔夫是个悲观主义者,但沃尔夫认为自己是一个“知情的乐观主义者”——一个希望推动人工智能发展但又不失现实的人。当然,他并不是唯一一个对这项技术持保守预测的人工智能领袖。
据报道,谷歌 DeepMind 首席执行官 Demis Hassabis告诉员工,他认为业界可能还需要十年时间才能开发出 AGI——并指出人工智能目前还有很多任务根本无法完成。Meta 首席人工智能科学家 Yann LeCun 也对法学硕士的潜力表示怀疑。周二,LeCun 在 Nvidia GTC 大会上表示,法学硕士可以实现 AGI 的想法是“无稽之谈”,并呼吁采用全新的架构作为超级智能的基石。
肯尼斯·斯坦利 (Kenneth Stanley) 曾任 OpenAI 首席研究员,他是深入研究如何利用当今模型构建高级人工智能的人之一。他现在是 Lila Sciences 的高管,这是一家新成立的初创公司,筹集了 2 亿美元风险投资,旨在通过自动化实验室解锁科学创新。
斯坦利每天都在努力从人工智能模型中提取原创、有创意的想法,这是人工智能研究的一个分支,被称为开放性。Lila Sciences 的目标是创建能够自动化整个科学过程的人工智能模型,包括第一步——提出真正好的问题和假设,最终带来突破。
“我真希望沃尔夫的文章是我写的,因为它真的反映了我的感受,”斯坦利在接受 TechCrunch 采访时说。“他注意到,知识渊博和技能娴熟并不一定能带来真正原创的想法。”
斯坦利认为创造力是迈向 AGI 的关键一步,但他指出,建立一个“有创造力的”人工智能模型说起来容易做起来难。
像 Amodei 这样的乐观主义者指出,人工智能“推理”模型等方法利用更多的计算能力来核实其工作,并更一致地正确回答某些问题,这证明 AGI 距离我们并不遥远。然而,Stanley 表示,提出原创想法和问题可能需要不同类型的智能。
“如果你仔细想想,就会发现推理几乎与创造力背道而驰,”他补充道。“推理模型说,‘这是问题的目标,让我们直接朝着这个目标前进’,这基本上阻止了你投机取巧,阻止你看到目标之外的东西,这样你就可以发散思维,产生很多创造性的想法。”
为了设计出真正智能的人工智能模型,斯坦利建议我们需要通过算法复制人类对有前途的新想法的主观品味。当今的人工智能模型在数学和编程等答案明确的学术领域表现相当出色。然而,斯坦利指出,设计一个人工智能模型来处理需要创造力的主观任务要困难得多,因为这些任务不一定有“正确”的答案。
“人们回避科学中的[主观性]——这个词几乎是有毒的,”斯坦利说。“但没有什么可以阻止我们[用算法]处理主观性。它只是数据流的一部分。”
斯坦利表示,他很高兴看到开放性领域现在受到越来越多的关注,Lila Sciences、Google DeepMind 和 AI 初创公司 Sakana 都设立了专门的研究实验室来研究这个问题。他说,他开始看到越来越多的人谈论 AI 中的创造力——但他认为还有很多工作要做。
Wolf 和 LeCun 可能会同意这一点。如果你愿意的话,可以称他们为 AI 现实主义者:AI 领导者以严肃、扎实的可行性问题来对待 AGI 和超级智能。他们的目标不是对 AI 领域的进步嗤之以鼻。相反,他们的目标是开启关于当今 AI 模型与 AGI 以及超级智能之间现状的宏观对话,并解决这些阻碍因素。