MindWave AI快报 聚合 AI 前沿动态,筛出值得关注的信号。

白宫AI审查争议:先有「像审药一样审AI」,后称「被断章取义」

白宫围绕AI模型发布前审查机制的政策信号混乱,Kevin Hassett提出类FDA审批方案后仅24小时,白宫即出面降温澄清,但情报机构和国防部仍在推动预评估框架落地。

References

白宫AI审查争议:先有「像审药一样审AI」,后称「被断章取义」

白宫围绕AI模型发布前审查机制的政策信号陷入混乱。据多家媒体报道,5月初白宫内部就建立类FDA审批机制展开激辩,但24小时内即出现政策「转向」,引发外界对特朗普政府AI监管真实意图的猜测。

事件经过

5月4日,《纽约时报》披露白宫正讨论成立专门工作组,对AI模型实施发布前审查。两天后,白宫国家经济委员会主任Kevin Hassett在Fox Business节目中明确表示,政府正在研究一项行政令,要求AI模型在上线前通过政府审查,「就像FDA审批药物一样」。

然而不到24小时,白宫即出面灭火。一名高级官员周四发声,称Hassett的言论被「断章取义」,白宫寻求的是与企业建立「合作伙伴关系」,而非「政府监管」。白宫幕僚长Susie Wiles周三深夜在X平台发帖强调,政府「不会指定AI赢家或输家」,安全部署应由创新者而非官僚推动。这是她创建官方账号以来的第四条帖子。

争议焦点:Anthropic的Mythos模型

引发此轮政策讨论的直接触发点是Anthropic上月披露的Mythos模型。该模型的漏洞挖掘能力强到无法公开发布,引发白宫对前沿AI安全风险的担忧。

然而白宫与Anthropic的关系颇为微妙。据《Politico》报道,特朗普此前签署行政令禁止联邦机构使用Anthropic产品、批评其高管为「左翼疯子」,但各联邦机构却争相要求接入Mythos来检测自身系统安全漏洞。

政策仍在推进

尽管口风软化,实际动作并未停止。三名知情人士向《Politico》透露,白宫正在讨论让情报机构在新模型公开发布前进行预先评估,目的之一是确保美国情报部门能在俄罗斯和中国之前研究并利用这些工具。

国防部副部长Emil Michael在华盛顿一场AI会议上公开支持预评估,称Mythos本质上是个网络安全问题,「这些模型迟早会来」,政府必须建好应对机制。

与此同时,商务部下属的AI标准与创新中心(CAISI)本周扩大了自愿评估协议范围,继OpenAI和Anthropic之后,新增谷歌DeepMind、微软和xAI三家参与方。

业界担忧

强制预审在业界引发反弹。信息技术与创新基金会主席Daniel Castro指出:「如果审批可以被扣住不给,对任何公司都是大问题。一家拿到批准另一家没拿到,几周或几个月的市场准入差距影响巨大。」

此轮政策争议折射出特朗普政府在AI发展与安全管控之间的深层矛盾:在撤销拜登AI安全行政令后,又不得不面对前沿模型带来的国家安全风险,最终形成「名义上反对监管、实质上强化管控」的矛盾局面。