伊隆·马斯克的 X 上的一些用户正在转向马斯克的人工智能机器人 Grok 进行事实核查,这引起了人类事实核查员的担忧,他们担心这可能会助长错误信息。
本月初,X允许用户调用 xAI 的 Grok 并针对不同事物提出问题。此举与 Perplexity 类似,后者一直在 X 上运行一个自动化帐户以提供类似的体验。
xAI 在 X 上创建 Grok 自动化账户后不久,用户就开始尝试向它提问。包括印度在内的一些市场的用户开始要求 Grok 对针对特定政治信仰的评论和问题进行事实核查。
事实核查人员对以这种方式使用 Grok(或任何其他此类人工智能助手)感到担忧,因为这些机器人可以将其答案设计得令人信服,即使它们在事实上并不正确。过去曾发现 Grok传播虚假新闻和错误信息的情况。
去年 8 月,在美国大选前夕,Grok 助手生成的误导性信息在社交网络上曝光后,五位国务卿敦促马斯克对 Grok 进行重大改革。
其他聊天机器人,包括 OpenAI 的 ChatGPT 和谷歌的 Gemini,也被发现在去年的选举中生成了不准确的信息。另外,虚假信息研究人员在 2023 年发现,包括 ChatGPT 在内的人工智能聊天机器人很容易被用来制作具有误导性叙述的令人信服的文本。
“像 Grok 这样的人工智能助手非常擅长使用自然语言,并给出听起来像人类说的答案。这样一来,人工智能产品就可以声称其回答自然、听起来真实,即使它们可能非常错误。这就是危险所在,”Poynter 国际事实核查网络 (IFCN) 主管 Angie Holan 告诉 TechCrunch。
与人工智能助手不同,人类事实核查员使用多个可靠来源来验证信息。他们还对自己的调查结果负全部责任,并附上姓名和组织以确保可信度。
印度非营利性事实核查网站 Alt News 的联合创始人普拉蒂克·辛哈 (Pratik Sinha) 表示,尽管 Grok 目前似乎有令人信服的答案,但它的有效性取决于所提供的数据。
他指出:“谁来决定提供什么数据,这就是政府干预等发挥作用的地方。”
“没有透明度。任何缺乏透明度的事情都会造成伤害,因为任何缺乏透明度的事情都可以以任何方式塑造。”
“可能被滥用——传播错误信息”
在本周早些时候发布的其中一条回复中,Grok 的 X 账户承认其“可能会被滥用——传播错误信息和侵犯隐私”。
然而,自动化账户在获得答案时不会向用户显示任何免责声明,这会导致用户产生误解,例如,如果答案是幻觉的话,这就是人工智能的潜在缺点。
果阿多学科研究机构数字未来实验室的研究员 Anushka Jain 向 TechCrunch 表示:“它可能会编造信息来做出回应。”
还有一些问题,比如 Grok 在多大程度上将 X 上的帖子用作训练数据,以及它使用什么质量控制措施来核实这些帖子的事实。去年夏天,它推出了一项变更,似乎允许 Grok 默认使用 X 用户数据。
像 Grok 这样的人工智能助手可以通过社交媒体平台访问,另一个令人担忧的领域是它们在公开场合传递信息——不像 ChatGPT 或其他聊天机器人那样在私下使用。
即使用户很清楚从助手那里获得的信息可能会产生误导或不完全正确,平台上的其他人仍可能会相信它。
这可能会造成严重的社会危害。印度之前就出现过类似的例子,当时通过 WhatsApp 传播的虚假信息导致民众私刑。然而,这些严重事件发生在 GenAI 出现之前,GenAI 让合成内容生成变得更加容易,也更加逼真。
“如果你看到很多这样的 Grok 答案,你会说,嘿,好吧,它们中的大多数都是正确的,也许确实如此,但也有一些是错误的。有多少呢?这不是一个小部分。一些研究表明,人工智能模型的错误率为 20%……一旦出错,可能会产生严重的后果,并对现实世界造成影响,”IFCN 的 Holan 告诉 TechCrunch。
人工智能与真正的事实核查员
虽然包括 xAI 在内的人工智能公司正在改进他们的人工智能模型,使它们能够更像人类一样进行交流,但它们仍然不能取代人类。
过去几个月,科技公司一直在探索减少对人工事实核查员依赖的方法。包括 X 和 Meta 在内的平台开始通过所谓的“社区笔记”接受众包事实核查的新概念。
当然,这样的变化也引起了事实核查人员的担忧。
Alt News 的 Sinha 乐观地认为,人们将学会区分机器和人类事实核查员,并更加重视人类的准确性。
IFCN 的霍兰表示:“我们最终会看到钟摆摆回来,转向更多的事实核查。”
然而,她指出,与此同时,随着人工智能生成的信息的迅速传播,事实核查人员可能需要做更多的工作。
“这个问题很大程度上取决于,你是否真的关心什么是真的或假的?你是否只是在寻找听起来和感觉真实但实际上并非如此的东西的表面现象?因为这就是人工智能的帮助能为你提供的,”她说。
X 和 xAI 没有回应我们的评论请求。