分享人工智能相关新闻和分析的板块。
AI早间简报 | Anthropic起诉美国政府 2026年3月10日(星期二
AI早间简报 | Anthropic起诉美国政府
2026年3月10日(星期二)| 韩国标准时间
金京镇律师的AI法律与政策通讯
第一部分 今日头条
一、Anthropic向联邦法院起诉美国国防部——AI伦理与国家权力的历史性法庭对决
二、软银为投资OpenAI寻求高达400亿美元贷款——可能创下其史上最大借款规模
三、英国政府对xAI的Grok生成仇恨言论展开严厉调查
四、美国AI监管关键期限临近——3月11日联邦行动在即
五、韩国关税厅成立"AI关税行政推进团"
第二部分 深度分析
1. Anthropic与五角大楼的冲突
美国国防部要求Anthropic移除其AI模型Claude中内置的安全护栏——禁止自主致命武器和大规模监控美国公民的限制。Anthropic拒绝了。五角大楼终止了一份2亿美元的合同,并将Anthropic列为"供应链风险"。这一标签此前仅用于华为等涉嫌间谍活动的外国公司,从未被用于美国国内企业。
"当AI企业在国家安全相关领域运营时,与政府的关系成为业务可持续性的关键变量。Anthropic案例表明,仅凭技术优势无法规避监管风险。" —— 金京镇律师评论
2. 美国AI监管:3月11日联邦期限的意义
根据特朗普总统签署的"确保人工智能国家政策框架"行政命令,两项重要的联邦行动将于2026年3月11日前发布。
(一)商务部长须发布评估报告,识别与联邦政策冲突的繁琐州级AI法律。
(二)联邦贸易委员会(FTC)将发布关于将FTC法第5条(禁止不公平和欺骗性行为)适用于AI模型的政策声明。
(三)司法部AI诉讼工作组有权在联邦法院对州级AI法律提出挑战。
"联邦政府试图削弱州级AI监管的举措可能反而会增加企业面临的监管不确定性。联邦与州之间的监管冲突很可能通过诉讼解决,这要求AI企业同时为两套监管框架做好准备。" —— 金京镇律师评论
第三部分 全球AI动向
1. 生成式AI企业动态
(1)OpenAI将在ChatGPT中引入广告,显示受对话内容影响的"赞助"标签。部分付费订阅用户将可选择无广告版本。
(2)Anthropic推出Claude记忆导入功能,允许从ChatGPT和Gemini传输上下文。
(3)谷歌发布Gemini 3.1 Flash-Lite,这是一款面向大规模开发者工作负载的低成本高速模型,每百万输入token仅需0.25美元。
2. AI芯片竞争
华为在MWC 2026上发布了"Atlas 950 SuperPod"AI计算平台,声称可实现8 exaflops(EF)性能。华为表示,该平台的计算性能约为英伟达下一代GPU"Vera Rubin"的6.7倍。
3. 英国AI监管
英国政府正在对xAI的"Grok"AI聊天机器人生成种族主义和仇恨内容的争议进行严厉调查。X(原Twitter)已启动紧急调查。英国政府将于2026年3月18日前发布两份关于AI和版权的报告。
第四部分 韩国AI动向
一、韩国关税厅于2026年3月6日在首尔海关举行"AI关税行政推进团"成立仪式,正式开启AI时代关税行政创新之路。
二、国防部于3月6日召开国防数据人工智能委员会会议,重点关注通过军民合作利用国防数据构建AI生态系统。
三、Amotech开始量产AI用多层陶瓷电容器(MLCC),并向美国无晶圆厂半导体公司Marvell供应首批产品。这些产品安装在数据中心互连器用DSP中,是AI服务器的核心部件。
"各政府部门AI推进团的成立表明,公共部门AI应用正在全面展开。然而,隐私保护、算法透明度和责任归属等法律框架必须同步完善。" —— 金京镇律师评论
深度简报
Anthropic诉五角大楼——谁来掌控AI的开关
"人工智能的最终开关,掌握在谁的手中?"
第1部分 事件经过
一边是美国国防部。"要打赢战争,就不要给AI设限。"另一边是Anthropic。"我们的AI不能用于监控公民,也不能用于自主杀人的武器。"公司拒绝了。
五角大楼终止了合同——一份价值2亿美元的协议。但事情并未就此结束。五角大楼将Anthropic列为"供应链风险"。这个标签原本是为涉嫌间谍活动的外国公司而设的,比如华为。它从未被用于一家美国公司。
2026年3月9日,Anthropic向联邦法院提起诉讼。它同时在两家法院提交了诉状——加利福尼亚州联邦地方法院和华盛顿特区联邦上诉法院。诉讼主张:"政府践踏了我们的宪法权利。"
1. 事件时间线
| 日期 | 事件 |
| 2月24日 | 国防部长赫格塞斯要求Anthropic CEO移除安全护栏;威胁终止合同并列入供应链风险 |
| 2月26日 | Anthropic CEO达里奥·阿莫迪正式拒绝:"我们无法放弃对大规模监控和自主武器的限制" |
| 2月27日 | 特朗普总统签署行政命令,禁止所有联邦机构使用Anthropic;2亿美元合同终止;OpenAI获得替代合同 |
| 2月28日 | "史诗之怒"对伊朗军事行动开始——尽管禁令已下,美军在作战中继续使用Claude |
| 3月4日 | 五角大楼正式将Anthropic列为"供应链风险";禁止所有军事承包商使用Anthropic产品 |
| 3月9日 | Anthropic向联邦法院提起宪法诉讼;30余名谷歌和OpenAI研究人员提交支持Anthropic的法庭之友意见书 |
第2部分 这家公司为何成为靶心
Anthropic走了一条与其他AI公司不同的路。它确立了一套名为"宪法AI"(Constitutional AI)的理念——将人权保护、透明性和无害性等原则直接嵌入AI模型,训练模型自行拒绝危险指令。
这种做法使Claude在2024年6月成为首个部署在美国最高机密网络上的民间AI。CIA和NSA等情报机构用Claude进行情报分析和网络作战。公司估值达到3800亿美元,年付费超过100万美元的客户超过500家。
碰撞恰恰发生在这个交汇点。政府想要的和公司要守护的,无法兼容。五角大楼说:"我们将不受限制地将其用于所有合法目的。"Anthropic说:"不能用于自主武器,不能用于大规模监控。"政府称这种拒绝为"觉醒AI"(woke AI)。Anthropic称之为"良心问题"。
第3部分 法律战场
1. 一部为抓外国间谍而制定的法律,能否用来惩罚国内企业?
五角大楼对Anthropic动用的法律武器是《联邦采购供应链安全法》(FASCSA)和《美国法典》第10编第3252条。这些法律的制定目的只有一个:阻止华为、中兴等中国公司在美军通信网络中植入间谍设备或恶意代码。
Anthropic是一家总部位于美国的美国公司。没有间谍指控,也从未发现安全漏洞。恰恰相反,它的安全性经过了充分验证,才得以部署在美国最高机密系统上。明尼苏达大学法学教授艾伦·罗森施泰因将这种适用称为"直接违背立法意图的行政权力滥用",并将其描述为"对国内企业实施的经济制裁"。
法律的初衷:阻止敌对外国企业的间谍和破坏活动
实际用途:因伦理分歧惩罚一家国内企业
2. 政府是否采用了最小限制手段——还是最极端的手段?
法律附有一个重要条件。当国防部长援引该法律时,应对措施必须采用"最小限制手段"。
五角大楼有多种选择。最轻的是修改具体合同条款。其次是终止那一份合同。五角大楼跳过了这些选项。它选择了最重的武器:将Anthropic逐出整个军事采购体系。更进一步,它发出全面禁令,宣布"与军方有业务往来的任何公司不得与Anthropic进行任何商业活动"——试图连Anthropic的民用业务也一并切断。
法律要求的:伤害最小的方法
政府选择的:伤害最大的方法
3. 政府能否因企业的良心而进行报复?
Anthropic的宪法论据建立在两大支柱之上。
(一)违反第一修正案——美国宪法保护企业持有并公开表达其观点的权利。Anthropic所说的"我们的AI不应被用于监控公民或自主杀人"属于受保护言论。因为这种言论而威胁企业生存,正是宪法所禁止的报复行为。
(二)违反第五修正案——未经正当法律程序,不得剥夺任何人的财产。五角大楼的"供应链风险"认定没有经过任何客观的安全评估——只有高层官员的情绪化决定。特朗普总统在社交媒体上发布"解雇!"(Fired!),白宫发言人称Anthropic为"激进左翼公司"。这些言论表明,该决定是政治惩罚,而非安全评估。
Anthropic做了什么:凭良心为AI设置限制
政府如何回应:动用国家安全法威胁企业生存
第4部分 矛盾:封禁一个AI,却在战争中使用它
这场风波中最戏剧性的一幕发生在战场上。
特朗普总统于2026年2月27日星期五下午签署了封禁Anthropic的行政命令。第二天,2月28日,美以联军发动了代号"史诗之怒"(Operation Epic Fury)的对伊朗军事行动。头12个小时内,执行了900次精确打击。伊朗最高领袖哈梅内伊被清除,防空网络和导弹设施遭到摧毁。
《华尔街日报》和Axios证实的事实是:美国中央司令部(CENTCOM)在整个行动中将Anthropic的Claude作为核心组件使用。Claude嵌入在Palantir的机密情报平台中,分析无人机画面、筛选打击目标、运行作战推演、审查是否符合国际法。
总统的命令:立即停止使用Anthropic
战场的现实:没有Anthropic,行动无法运行
特朗普政府最终撤回了禁令。它悄悄给予了一个宽限期,表示在军事系统中完全替代Claude需要六个月。
这个矛盾在诉讼中具有决定性分量。五角大楼称Anthropic为"供应链风险"——但如果系统真的危险,它不会被允许在战争进行中继续运行六个月。这恰恰证明,惩罚不是因为技术危险,而是因为公司的态度不受欢迎。
"一个真正危险的系统,不会给它宽限期,而是立即关闭。六个月的宽限期本身就证明,这不是安全措施,而是政治报复。" —— 金京镇律师评论
第5部分 谁受到了伤害
1. 支持Anthropic的企业
五角大楼的禁令不止于Anthropic一家。"与军方有业务往来的任何公司不得与Anthropic进行任何交易"的命令,让整个大型科技行业陷入了动荡。
(一)亚马逊向Anthropic投资了80亿美元。Claude运行在亚马逊的云服务(AWS)上。与此同时,亚马逊持有数百亿美元的五角大楼云计算合同。为了保住五角大楼的业务,亚马逊可能不得不从Anthropic撤资。
(二)谷歌投资了约20亿美元。它面临同样的两难困境。
(三)英伟达作为向所有AI公司供应芯片的厂商,保持着中立立场。如果被归类为军事供应商,它将被迫切断对Anthropic的芯片销售。一家市值3万亿美元公司的商业模式由此动摇。
剑指的对象:Anthropic一家公司
一同被割伤的:亚马逊、谷歌、英伟达、微软
2. AI行业的标准正在改变
这场危机造成的最危险转变在于政府合同的评审标准。过去,AI模型以性能、速度和安全性来衡量。现在的标准变成了对政府指令的服从程度。
投入建设安全护栏的企业受到惩罚,而移除护栏的企业获得奖励。Anthropic的合同被终止后,OpenAI取而代之——新的游戏规则由此可见。
旧标准:造得最好的AI拿到合同
新标准:最听话的AI拿到合同
第6部分 竞争对手的研究人员为何走上法庭
2026年3月9日,来自竞争对手Google DeepMind和OpenAI的30多名研究人员向法院提交了支持Anthropic的法庭之友意见书。谷歌的传奇首席科学家、Gemini项目的核心推动者杰夫·迪恩(Jeff Dean)领衔签署。
竞争对手在法庭上携手,这是前所未有的。在高管层面,围绕数十亿美元的国防合同,激烈的竞争正在上演。然而,设计核心技术的研究人员们选择了团结,而不是忠于各自的公司。
他们在法庭上陈述的担忧有三点:
(一)AI安全研究将受到寒蝉效应。如果警告模型风险就可能被贴上"国家安全威胁"的标签,没有研究人员会再公开讨论AI的危险性。
(二)必须对权力滥用进行制约。如果合同不合适,终止合同就够了。没有必要毁掉整家公司。
(三)顶尖人才将逃离国防领域。如果政府如此对待企业,全世界最优秀的AI研究人员将拒绝参与国家安全项目。美国的技术优势将被削弱。
高管们的逻辑:我们需要赢得合同
研究人员的逻辑:我们需要守护AI安全
第7部分 这场诉讼留下的问题
联邦上诉法院必须裁定两个问题:五角大楼是否遵守了供应链安全法的"最小限制手段"原则,以及政府的行为是否违反了第一和第五修正案。
无论判决结果如何,这场诉讼提出了一个根本性的问题。人工智能这种前所未有的力量,最终的开关掌握在谁手中?是声称人权与安全的私营企业?还是发动战争、实施监控的国家权力?这个问题的答案,将决定AI技术在未来数十年里如何塑造人类社会。
"如果Anthropic败诉,今后将没有任何AI企业能够再对政府说'不'。如果Anthropic胜诉,一个新的先例将被确立——私营企业可以对国家如何使用其武器附加条件。无论哪种结果,这一判决都将重新划定人工智能时代的权力版图。" —— 金京镇律师评论
#AI早间简报 #Anthropic诉讼 #Anthropic #美国国防部 #AI伦理 #宪法AI #Claude #供应链风险 #ChatGPT #Gemini #OpenAI #谷歌AI #xAI格罗克 #AI监管 #美国AI政策 #特朗普AI行政令 #FTC #史诗之怒行动 #自主武器 #AI监控 #AI芯片 #华为Atlas #软银 #韩国AI #关税AI #生成式AI #AI治理 #金京镇律师 #AI法律 #第一修正案
KIMKJ.COM — POLITICAL ARCHIVE
© 2026 金京镇. 版权所有.