对中国农村贫困的抱怨。关于腐败共产党员的新闻报道。对腐败警察敲诈企业家的求助。
这些只是输入到复杂的大型语言模型中的 133,000 个示例中的一小部分,该模型旨在自动标记任何被中国政府视为敏感的内容。
TechCrunch 看到的一份泄露数据库显示,中国已经开发出一种人工智能系统,可以为其本已强大的审查机器提供超强动力,其范围远远超出了天安门大屠杀等传统禁忌。
该系统似乎主要用于在线审查中国公民,但也可以用于其他目的,例如改进中国人工智能模型 已经很广泛的审查制度。
加州大学伯克利分校研究中国审查制度的研究员肖强也研究了该数据集,他告诉 TechCrunch,这是中国政府或其附属机构希望利用法学硕士学位来加强压制的“明确证据”。
强先生告诉 TechCrunch:“与依赖人力进行基于关键词的过滤和人工审查的传统审查机制不同,接受过此类指令培训的法学硕士将显著提高国家主导的信息控制的效率和精细度。”
这进一步表明,独裁政权正在迅速采用最新的人工智能技术。例如,今年 2 月,OpenAI 表示,它发现多家中国实体利用 LLM 追踪反政府帖子并抹黑中国异见人士。
中国驻华盛顿特区大使馆在一份声明中向 TechCrunch 表示,反对“对中国的无端攻击和诽谤”,中国高度重视发展道德的人工智能。
显而易见的数据
该数据集是由安全研究员 NetAskari发现的,他发现该数据集存储在百度服务器上托管的不安全的 Elasticsearch 数据库中,并与 TechCrunch 分享了一个样本。
这并不表明任何一家公司参与其中——各种组织都将其数据存储在这些提供商处。
没有迹象表明究竟是谁建立了该数据集,但记录显示数据是最近的,最新条目可以追溯到 2024 年 12 月。
检测异议的法学硕士
该系统的创建者使用一种令人毛骨悚然的语言,让人联想到人们提示 ChatGPT 的方式,即要求一位未透露姓名的法学硕士确定某段内容是否与政治、社会生活和军事等敏感话题有关。此类内容被视为“最高优先级”,需要立即标记。
最受关注的话题包括污染和食品安全丑闻、金融欺诈以及劳资纠纷,这些都是中国的热点问题,有时会引起公众抗议,例如2012年的什邡污染抗议事件。
任何形式的“政治讽刺”都明确被针对。例如,如果有人使用历史类比来表达对“当前政治人物”的看法,就必须立即举报,任何与“台湾政治”有关的内容也必须立即举报。军事问题被广泛针对,包括有关军事调动、演习和武器的报道。
下面是数据集的片段。其中的代码引用了提示标记和 LLM,确认系统使用 AI 模型来执行其命令:
训练数据内部
从这个 LLM 必须评估是否经过审查的 133,000 个庞大的例子中,TechCrunch 收集了10 个具有代表性的内容。
可能引发社会动荡的话题是一个反复出现的主题。例如,其中一段是一位企业主发的帖子,抱怨腐败的地方警察敲诈企业家,这是中国经济陷入困境时日益严重的问题。
另一篇内容哀叹中国农村的贫困,描述了破败的城镇,只有老人和孩子。还有一则新闻报道说,中国共产党因严重腐败和相信“迷信”而不是马克思主义而开除了一名地方官员。
有大量与台湾和军事相关的材料,例如对台湾军事能力的评论和有关中国新型喷气式战斗机的详细信息。TechCrunch 的搜索显示,仅中文“台湾”一词在数据中就被提及了 15,000 多次。
微妙的异议似乎也成了攻击目标。数据库中收录的一段话是关于权力易逝的轶事,用了一句流行的中国成语“树倒猢狲散”。
由于中国的威权政治体制,权力交接在中国是一个特别敏感的话题。
为“舆论工作”而建
该数据集不包含有关其创建者的任何信息。但其中确实说,它的目的是“舆论工作”,这有力地表明,它是为了实现中国政府的目标,一位专家告诉 TechCrunch。
人权组织第十九条亚洲项目经理迈克尔·卡斯特解释说,“舆论工作”受到中国政府强有力的监管机构——国家互联网信息办公室(CAC)的监督,通常指审查和宣传工作。
最终目标是确保中国政府的言论在网上受到保护,同时清除任何不同意见。中国国家主席习近平本人曾将互联网描述为中共“舆论工作”的“前线”。
镇压越来越聪明
TechCrunch 检查的数据集是专制政府试图利用人工智能进行镇压的最新证据。
OpenAI上个月发布了一份报告,披露一名可能来自中国的身份不明的行为者利用生成人工智能监控社交媒体对话(特别是那些倡导反华人权抗议的对话),并将其转发给中国政府。
OpenAI 还发现,该技术被用来生成对中国著名异见人士蔡霞进行严厉批评的评论。
传统上,中国的审查方法依赖于更基本的算法,这些算法会自动屏蔽提及黑名单术语的内容,例如“天安门大屠杀”或“习近平”,正如许多用户第一次使用 DeepSeek 时所体验到的那样。
但较新的人工智能技术(如法学硕士)可以通过大规模发现哪怕是最细微的批评来提高审查效率。一些人工智能系统还可以随着吞噬越来越多的数据而不断改进。
伯克利研究员肖告诉 TechCrunch:“我认为必须强调人工智能驱动的审查制度是如何演变的,这使得国家对公共话语的控制更加复杂,特别是在 DeepSeek 等中国人工智能模型掀起波澜的时候。”