英国数据保护监管机构已确认,微软旗下的LinkedIn暂时停止处理用于 AI 模型训练的用户数据。
信息专员办公室监管风险执行董事斯蒂芬·阿尔蒙德 (Stephen Almond) 周五在一份声明中写道:“我们很高兴 LinkedIn 已经反思了我们对其使用英国用户相关信息训练生成式 AI 模型的方法提出的担忧。我们欢迎 LinkedIn 确认已暂停此类模型训练,等待与 ICO 进一步交涉。”
眼尖的隐私专家已经发现,在因获取人们的信息来训练人工智能而引发强烈反对后,LinkedIn 对其隐私政策进行了悄然修改——将英国添加到不提供退出选项的欧洲地区名单中,因为它表示不会为此目的处理本地用户的数据。
LinkedIn 总法律顾问 Blake Lawit 在 9 月 18 日发布的最新公司博客文章中写道:“目前,我们尚未启用基于欧洲经济区、瑞士和英国会员数据的生成式 AI 训练,并且在另行通知之前不会向这些地区的会员提供该设置。 ”
这家专业社交网络此前曾明确表示,它不会处理位于欧盟、欧洲经济区或瑞士的用户信息——这些地区适用欧盟的《通用数据保护条例》(GDPR)。然而,英国的数据保护法仍然以欧盟框架为基础,因此当 LinkedIn 发现它没有向英国用户提供同样的优惠时,隐私专家们迅速发出警告。
英国数字版权非营利组织开放权利组织 (ORG) 对 LinkedIn 的行为表示愤怒,并向 ICO 提出新一轮投诉,指控其未经同意处理 AI 数据。但它也批评监管机构未能阻止又一起 AI 数据盗窃案。
最近几周,Facebook 和 Instagram 的所有者 Meta 解除了之前暂停处理其本地用户数据以训练其 AI 的禁令,并恢复了收集英国用户信息的默认设置。这意味着,如果账户与英国有关联,用户如果不希望 Meta 使用他们的个人数据来丰富其算法,就必须再次主动选择退出。
尽管 ICO 此前曾对 Meta 的做法表示担忧,但监管机构迄今为止袖手旁观,看着这家广告科技巨头恢复数据收集行为。
ORG 的法律和政策官马里亚诺·德利·桑蒂 (Mariano delli Santi) 在周三发表的一份声明中警告称,只要强大的平台在设置中隐藏了退出选项,它们就可以随心所欲地处理用户的信息,这种做法是不平衡的。相反,他认为,它们应该被要求事先获得用户的肯定同意。
“事实证明,选择退出模式再一次完全不足以保护我们的权利:公众不可能监视和追踪每一家决定使用我们的数据来训练人工智能的网络公司,”他写道。“选择加入的同意不仅是法律规定的,也是常识性的要求。”
我们已经就问题联系了 ICO 和微软,如果收到回复,我们将更新此报告。
更新: LinkedIn 发言人 Leonna Spilman 通过电子邮件发来一份声明,公司在声明中写道:“目前,我们无法使用来自欧洲经济区 (EEA)、瑞士和英国的会员数据来训练生成式人工智能。我们欢迎有机会继续与 ICO 进行建设性合作。”
在进一步谈及将用户数据用于 AI 训练时,LinkedIn 补充道:“我们认为我们的会员应该有能力控制自己的数据,这就是为什么我们在开展这项服务的国家/地区提供用于内容生成的 AI 模型训练的退出设置。我们一直在 LinkedIn 产品中使用某种形式的自动化,我们一直明确表示,用户可以选择如何使用他们的数据。我们目前的现实情况是,很多人都在寻求帮助,以获得简历的初稿,帮助他们在 LinkedIn 个人资料上撰写摘要,帮助他们撰写给招聘人员的信息,以获得下一个职业机会。归根结底,人们希望在职业生涯中获得优势,而我们的 gen-AI 服务所做的就是为他们提供这种帮助。”