Signal 总裁梅雷迪斯·惠特克 (Meredith Whittaker) 周五警告称,代理人工智能可能会给用户隐私带来风险。
在德克萨斯州奥斯汀举行的 SXSW 大会上,这位安全通信倡导者在台上将使用人工智能代理称为“把大脑放进罐子里”,并警告说,这种新的计算范式——人工智能代表用户执行任务——在隐私和安全方面存在“严重问题”。
惠特克解释了人工智能代理是如何通过为用户处理各种在线任务来为你的生活增添价值的。例如,人工智能代理可以执行查找音乐会、预订门票、在日历上安排活动以及向朋友发送活动预订消息等任务。
“所以我们可以把我们的大脑放进罐子里,因为这个东西在做这件事,而我们不需要去触摸它,对吗?”惠特克沉思道。
然后,她解释了人工智能代理执行这些任务所需的访问类型,包括访问我们的网络浏览器和驱动它的方式,以及访问我们的信用卡信息以支付门票、我们的日历和消息应用程序以向朋友发送文本。
惠特克警告说:“它需要能够以类似 root 权限的方式在整个系统中驱动该过程,访问每一个数据库——可能以明文形式,因为没有模型可以进行加密。”
“如果我们谈论的是足够强大的……人工智能模型,那么这绝不可能在设备上实现,”她继续说道。“这些数据几乎肯定会被发送到云服务器,在那里进行处理并返回。因此,安全和隐私方面存在着一个深层次的问题,它困扰着围绕代理的炒作,最终威胁到打破应用层和操作系统层之间的血脑屏障,将所有这些独立的服务结合在一起[并]混淆它们的数据,”惠特克总结道。
她说,如果 Signal 这样的消息应用程序与人工智能代理集成,就会破坏你的消息隐私。代理必须访问该应用程序才能向你的朋友发送短信,同时提取数据以总结这些短信。
她此前在小组讨论中谈到了人工智能行业如何建立在大规模数据收集的监控模式之上。她表示,“数据越多越好”的人工智能模式可能会带来一些她认为并不好的潜在后果。
惠特克警告称,有了代理人工智能,我们就会以“处理生活紧急事务的神奇精灵机器人”的名义进一步破坏隐私和安全,她总结道。