上个月,谷歌宣布了“AI 合作科学家”,这是一款旨在帮助科学家创建假设和研究计划的人工智能。谷歌将其定位为一种发现新知识的方法,但专家认为,它以及类似工具远未达到宣传的承诺。
麻省理工学院的计算机视觉研究员萨拉·贝里告诉 TechCrunch:“这个初步的工具虽然有趣,但似乎不太可能被认真使用。我不确定科学界是否真的需要这种假设生成系统。”
谷歌是最新一家提出人工智能将有一天显著加速科学研究的科技巨头,尤其是在文献密集型领域,如生物医学。今年早些时候,OpenAI 首席执行官萨姆·奥尔特曼在一篇文章中表示,“超级智能”的人工智能工具可以“大大加速科学发现和创新”。同样, Anthropic 首席执行官达里奥·阿莫迪大胆预测,人工智能可以帮助找到大多数癌症的治疗方法。
但许多研究人员并不认为今天的人工智能在指导科学过程方面特别有用。他们表示,像谷歌的 AI 合作科学家这样的应用似乎更多的是炒作,而不是其他,没有实证数据支持。
例如,在描述 AI 合作科学家的博客文章中,谷歌表示,该工具已经在药物重新利用用于急性髓性白血病(一种影响骨髓的血液癌症)等领域显示出潜力。然而,结果过于模糊,以至于“没有哪个正经科学家会认真对待这些结果”,亚利桑那州图森市 Northwest 医疗中心的病理科医生法维亚·杜比克说道。
杜比克告诉 TechCrunch:“这可以作为一个很好的研究起点,但……缺乏细节让人担忧,我无法信任它。提供的信息太少,很难理解这是否真的有用。”
这并不是科学界第一次批评谷歌在没有提供重现结果的方法的情况下,大肆宣传所谓的人工智能突破。
2020年,谷歌声称其一个训练用于检测乳腺肿瘤的人工智能系统取得了比人类放射科医生更好的结果。来自哈佛和斯坦福的研究人员在《自然》杂志上发表了一篇反驳文章,称谷歌研究中缺乏详细的方法和代码,“损害了其科学价值”。
科学家们还批评谷歌忽视了其面向科学领域(如材料工程)的人工智能工具的局限性。2023年,该公司表示,在其一个人工智能系统GNoME的帮助下,已经合成了大约40种“新材料”。然而,外部分析发现,这些材料中没有一种是真正的新材料。
罗切斯特理工学院软件工程助理教授阿希克·胡达布克什告诉TechCrunch:“除非谷歌的‘合作科学家’等工具在不同科学领域中经过严格、独立的评估,否则我们无法真正了解它们的优势和局限性。”“人工智能在受控环境中通常表现良好,但在大规模应用时可能会失败。”
复杂过程
开发用于科学发现的人工智能工具的部分挑战是预见无数的混杂因素。人工智能在需要广泛探索的领域可能很有用,比如缩小庞大的可能性列表。但尚不清楚人工智能是否能够进行那种导致科学突破的跳出框架的解决问题。
“纵观历史,我们可以看到,一些最重要的科学进步,比如mRNA疫苗的开发,都是由人类的直和面对怀疑时的坚持所推动的,”KhudaBukhsh说。“而目前的AI可能并不适合复制这种直觉和坚持。”
索尼计算机科学实验室的AI研究员Lana Sinapayen认为,像谷歌的AI科学家这样的工具关注的是错误类型的科学工作。
Sinapayen,AI在自动化技术上困难或繁琐的任务方面具有真正的价值,比如总结新的学术文献或格式化工作以符合资助申请的要求。但是,她说科学界对生成假设的AI科学家的需求并不大——许多研究人员从这项任务中获得了智力上的满足。
Sinapayen告诉TechCrunch:“对于科学家来说,包括我自己,生成假设是工作中最有趣的部分。我为什么要将我的乐趣外包给计算机,然后自己只剩下繁重的工作?总的来说,许多式AI研究人员似乎误解了人类为何做他们所做的事情,我们最终得到的产品提案自动化了我们从中获得乐趣的部分。”
Beery指出,科学过程中困难的步骤往往是设计和实施研究和分析以验证或证伪一个假设——这不一定在当前AI系统的能力范围内。当然,AI不能使用物理进行实验,而且在处理极其有限的数据问题时,AI的表现往往更差。
“大多数科学实验无法完全在虚拟环境中进行——科学过程通常有一个重要的物理部分,比如收集新数据和实验室进行实验,”Beery说。“像谷歌的AI科学家这样的系统相对于实际的科学过程有一个很大的局限性,即它无法了解实验室和使用系统的研究人员的具体研究目标、他们的过去工作、他们的技能以及他们可以访问的资源。”
AI风险
AI的技术缺陷和风险——比如它倾向于“胡乱语”——也使科学家对将其用于严肃工作持谨慎态度。
KhudaBukhsh担心AI工具可能会在科学文献中产生噪音,促进进步。
这已经是一个问题了。最近的一项研究发现,AI伪造的“垃圾科学”正在充斥谷歌学术,谷歌的免费学术文献搜索引擎。
如果不对AI生成的研究进行仔细监控,它可能会用低质量甚至误导性的研究淹没科学领域,使同行评审过程不堪重负,”Khudaukhsh说。“在计算机科学等领域,顶级会议的提交量已经呈指数级增长,同行评审过程已经不堪重负。”
Sinapayen,即使是设计良好的研究也可能会被行为不端的AI所玷污。虽然她喜欢那种可以帮助进行文献综述和综合的工具的想法,但apayen表示,她今天不会信任AI来可靠地执行这项工作。
“这些是各种现有工具声称可以做到的事情,但这些并不是我会委托给当前人工智能的工作,”Sinapayen说,并补充,她对许多人工智能系统的训练方式和它们消耗的能量也持异议。“即使所有伦理问题都得到解决,当前的人工智能也根本不可靠,不能基于它们的输出来开展我的工作。”