人工智能公司创始人以大胆宣称该技术有潜力重塑各个领域(尤其是科学领域)而闻名。但 Hugging Face 联合创始人兼首席科学官托马斯·沃尔夫 (Thomas Wolf) 的看法更为慎重。
在周四发表于 X 的一篇文章中,沃尔夫表示,他担心如果人工智能研究没有突破,人工智能将成为“服务器上的唯唯诺诺者”。他详细阐述了当前的人工智能发展模式不会产生能够打破常规、创造性解决问题的人工智能——那种能够赢得诺贝尔奖的解决问题的方法。
“人们通常犯的主要错误是认为牛顿或爱因斯坦等人只是优秀学生的放大版,当你线性推断出排名前 10% 的学生时,天才就会诞生,”沃尔夫写道。“要在数据中心创造爱因斯坦,我们不仅需要一个知道所有答案的系统,而且还需要一个能够提出别人从未想过或不敢问的问题的系统。”
沃尔夫的断言与 OpenAI 首席执行官山姆·奥特曼 (Sam Altman) 的观点形成了鲜明对比,后者在今年早些时候的一篇文章中表示,“超级智能”的 AI 可以“极大地加速科学发现”。同样,Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 也预测 AI 可以 帮助研发出治疗大多数类型癌症的方法。
沃尔夫对当今人工智能的不满——以及他认为这项技术的发展方向——在于它无法通过连接以前不相关的事实来产生任何新知识。沃尔夫说,即使互联网已经占据了大部分空间,我们目前所理解的人工智能也大多填补了人类已知知识之间的空白。
包括前谷歌工程师 François Chollet在内的一些人工智能专家也表达了类似的观点,他们认为,虽然人工智能可能能够记住推理模式,但它不太可能根据新情况产生“新推理”。
沃尔夫认为,人工智能实验室培养的本质上是“非常听话的学生”,而不是任何意义上的科学革命者。他说,如今的人工智能没有动力去质疑和提出可能违背其训练数据的想法,而是将其限制在回答已知问题上。
“要在数据中心打造爱因斯坦,我们不仅需要一个知道所有答案的系统,还需要一个能够提出别人未曾想到或不敢问的问题的系统,”沃尔夫说。“当所有教科书、专家和常识都表明情况并非如此时,该系统会写出‘如果每个人都错了怎么办?’。”
沃尔夫认为,人工智能的“评估危机”是造成这种令人失望的状况的部分原因。他指出,通常用于衡量人工智能系统改进的基准,其中大部分都是有明确、明显和“封闭式”答案的问题。
作为解决方案,沃尔夫建议人工智能行业“转向某种知识和推理的衡量标准”,以阐明人工智能是否能够采取“大胆的反事实方法”,根据“微小的暗示”提出一般性建议,并提出通向“新的研究路径”的“非显而易见的问题”。
沃尔夫承认,关键在于弄清楚这个衡量标准是什么。但他认为,这非常值得付出努力。
“科学最重要的方面是提出正确问题和质疑自己所学知识的能力,”沃尔夫说。“我们不需要一个能用常识回答所有问题的 A+ [AI] 学生。我们需要一个能看到并质疑其他人所错过的东西的 B 级学生。”