OpenAI 人工智能推理研究负责人诺姆·布朗 (Noam Brown) 表示,如果研究人员“知道 [正确的] 方法”和算法,某些形式的“推理”人工智能模型可能早在 20 年前就出现了。
“这个研究方向被忽视的原因有很多,”布朗周三在圣何塞举行的Nvidia GTC 会议的一个小组讨论会上表示。“我在研究过程中注意到,好吧,有些东西缺失了。人类在面对困难时会花很多时间思考,然后再采取行动。也许这在人工智能中非常有用。”
布朗指的是他在卡内基梅隆大学研究的人工智能游戏,其中包括在扑克游戏中击败人类精英专业人士的 Pluribus。布朗帮助创建的人工智能在当时是独一无二的,因为它通过问题进行“推理”,而不是尝试更暴力的方法。
Brown 是 o1 的架构师之一,o1 是一个 OpenAI 人工智能模型,它采用一种称为 测试时推理的技术在响应查询之前进行“思考”。测试时推理需要对正在运行的模型应用额外的计算来驱动某种形式的“推理”。一般来说,所谓的推理模型比传统模型更准确、更可靠,尤其是在数学和科学等领域。
在小组讨论中,有人问布朗,鉴于各机构普遍缺乏计算资源,学术界是否有希望进行像 OpenAI 这样的人工智能实验室规模的实验。他承认,近年来,随着模型变得越来越计算密集,这变得越来越困难,但学术界可以通过探索计算需求较少的领域(如模型架构设计)来产生影响。
“这是前沿实验室和学术界合作的机会,”布朗说。“当然,前沿实验室正在研究学术出版物,并仔细思考,好吧,这是否能提出一个令人信服的论点,如果进一步扩大规模,它将非常有效。如果论文中有令人信服的论点,你知道,我们将在这些实验室中调查。”
布朗发表上述言论之际,特朗普政府正在大幅削减科研经费。包括诺贝尔奖得主杰弗里·辛顿在内的人工智能专家批评了这些削减,称这可能会威胁到国内外的人工智能研究工作。
布朗指出,人工智能基准测试是学术界可以发挥重大影响的一个领域。“人工智能基准测试的现状确实很糟糕,而且不需要大量计算,”他说。
正如我们之前所写,当今流行的人工智能基准测试倾向于测试 深奥的知识,并且给出的分数与大多数人关心的任务的熟练程度相关性很低 。这导致人们对模型的功能和改进产生了普遍的 困惑。
太平洋时间下午 4:06 更新:本文的早期版本暗示布朗在最初的评论中指的是像 o1 这样的推理模型。事实上,他指的是他在 OpenAI 任职之前在游戏 AI 方面的工作。我们对这个错误深表遗憾。