人工智能板块

分享人工智能相关新闻和分析的板块。

Dario Amodei 采访 — Anthropic与美国国防部冲突

Author
김 경진
Date
2026-03-01 01:07
Views
71


Dario Amodei 采访 — Anthropic与美国国防部冲突

概要
时长:约27分钟
类型:新闻采访
主题:Anthropic向美国国防部提供AI的条件冲突、供应链风险认定、自主武器及国内大规模监控限制

参与者
主持人:采访者
Dario Amodei:Anthropic CEO

——————————————————

正文

主持人:感谢您抽出时间。您是Anthropic的CEO Dario Amodei,对吧?

Dario Amodei:是的,没错。

主持人:好的。我的第一个问题是,为什么您不愿意将Anthropic的AI无限制地提供给美国政府?

Dario Amodei:是的,我想我们需要先说一下背景。Anthropic实际上是所有AI公司中与美国政府和美国军方合作最积极的。我们是第一家将模型部署在机密云上的公司。我们是第一家为国家安全目的制作定制模型的公司。我们在情报界和军方的网络安全、作战支援等各种应用中都有部署。

我们这样做的原因是,我相信我们必须保卫我们的国家。我相信我们必须保卫我们的国家免受中国和俄罗斯等专制对手的威胁。所以我们一直非常积极主动。我们有一个规模可观的公共部门团队。

但我一直相信,在我们抵御专制对手的同时,必须以捍卫和保护我们民主价值观的方式来做。所以我们告诉国防部,我们同意所有用例,基本上是他们想做的98%或99%的用例,除了我们担忧的两个。

第一个是国内大规模监控。我们担心的是,AI可能使以前不可能的事情变得可能。一个例子是,将私营公司收集的数据由政府购买,然后通过AI进行大规模分析。这实际上并不违法。只是在AI时代之前从未有用过。所以国内大规模监控在某种程度上走在了法律前面。技术发展得太快,与法律不同步。这是第一种情况。

第二种情况是完全自主武器。这不是在乌克兰使用的或目前可能在台湾使用的部分自主武器。这是制造无需任何人类参与即可开火的武器的概念。当然,我认为我们的对手可能在某个时候会拥有它们。所以也许它们在某个时候可能是保卫民主所必需的。但我们对此有一些担忧。

首先,当今的AI系统远远不够可靠,不足以制造完全自主武器。任何使用过AI模型的人都理解,从纯技术角度来看,存在一种我们尚未解决的基本不可预测性。还有一个监督问题。如果你有一支可以在没有任何人类监督的情况下运行的大型无人机或机器人部队,没有人类士兵来决定瞄准谁、向谁开枪,这就会引起担忧,我们需要讨论如何对此进行监督。而我们还没有进行这样的对话。所以我们强烈认为,这两种用例不应该被允许。

主持人:五角大楼告诉我们,他们原则上同意了这两项限制,并希望达成协议。为什么无法达成协议?

Dario Amodei:这个过程经历了几个阶段,都很快完成,都由他们给我们的非常有限的3天窗口决定。他们给了我们最后通牒,要求在3天内同意他们的条款,否则就被认定为供应链风险或适用国防生产法。这个以后再说。

在那段时间里,有几次来回沟通。有一次他们发给我们的措辞表面上看似满足了我们的条件,但里面有各种各样的措辞,比如"如果五角大楼认为适当"或"做任何符合法律的事情"。所以实际上并没有做出任何实质性让步。后续的步骤也没有做出任何实质性让步。

我们从一开始就想达成协议。如果你想了解五角大楼的立场,五角大楼发言人Sean Parnell前一天发推重申了他们的立场:"我们只允许所有合法使用。"这与他们发给我们的条款一样。所以他们没有让步,也没有以任何有意义的方式同意我们的例外条款。

主持人:总统今天就这一情况发帖说,"他们的自私"——指Anthropic——"正在将美国人的生命置于危险之中,使我们的军队陷入危险,使我们的国家安全受到威胁。"您怎么看?您的回应是什么?

Dario Amodei:在我们昨天和今天发布的声明中,我们说,即使国防部或特朗普政府对我们采取这些前所未有的措施,这种通常用于对付外国敌对势力的供应链认定,即使他们采取这些极端行动,我们也会尽一切努力支持国防部,提供技术,直到他们完成对我们的下线并上线一个愿意做我们不愿意做的事情的竞争对手。

主持人:准备退出了。

Dario Amodei:是的。我们提供了连续性保障。我们实际上对此深感担忧。我们对服务中断深感担忧,而这正是我们被认定为供应链风险时发生的事情。当我们被认定为供应链风险时,他们说,你必须从我们所有系统中撤出。我与现场的人交谈过,现役军官们说这是必不可少的。没有这个会让我们倒退六个月、十二个月,甚至更长。

所以这就是为什么我们如此努力地试图达成协议。但同样,3天的最后通牒,将我们认定为供应链风险的威胁,整个时间线都是由国防部驱动的,不是我们。我们正在努力提供连续性。我们正在努力提供服务。我们正在努力达成协议。

主持人:那么这对美国人的安全意味着什么?

Dario Amodei:我想说几点。短期内,这取决于国防部。我们仍在努力与他们达成协议。仍在努力与他们对话。

主持人:他们在和你们对话吗?

Dario Amodei:我们收到了各种通信。但我们没有看到任何满足我们关切的内容。但我的意思是,从广义上说,只要符合我们的红线,我们仍然有兴趣与他们合作。

主持人:但听起来你们的立场差距仍然很大。现在Hegseth部长已经将你们认定为供应链风险,并说了他说的话。你认为在这一点上达成协议还有可能吗?

Dario Amodei:你知道,达成协议需要双方。我们这边愿意为这个国家的国家安全服务。我们愿意在我们提供的条款下、在我们的红线下,向包括国防部、情报界、更民用的政府部门在内的所有政府部门提供我们的模型。我们始终愿意这样做。

我们不会因此感到冒犯。我们以这种方式提供技术的原因是我们想支持美国的国家安全。我们不是为了五角大楼官员这样做。不是为了某个特定政府这样做。我们这样做是因为这对美国的国家安全有益,我们将继续这样做。

主持人:为什么你认为Anthropic,一家私营公司,比五角大楼本身在军事AI使用方面有更大的发言权更好?

Dario Amodei:首先我要说,我认为这是一个重要的观点,据我们所知,实际上没有人在现场遇到过这些例外条款的限制。这是1%的用例,我们没有看到在现场实际执行的证据。当然,我不能说他们的计划是什么,那我们不知道。但我们没有证据表明这些用例实际上遇到了困难。我们在国防部和政府其他部门广泛部署,没有遇到任何这些问题。

关于这一两个狭窄的例外,我实际上同意从长远来看,我们需要进行民主对话。从长远来看,我确实认为这是国会的职责。例如,如果存在国内大规模监控的可能性,政府购买关于美国人的批量数据——位置、个人信息、政治倾向——来建立档案,现在可以用AI来分析。这是合法的这一事实,似乎意味着对第四修正案的司法解释没有跟上,或者国会通过的法律没有跟上。

从长远来看,我们认为国会应该跟上技术发展的方向。但国会不是世界上行动最快的机构,目前在前线看到这项技术的是我们。我本来期望国防部会对这些问题深思熟虑,主动思考这些问题。所以我本来期望他们不会有任何顾虑,我们可以进行对话。但在缺乏这种对话的情况下,我们需要审视技术,审视它在可靠性方面的能力,审视它走在法律前面和偏离法律意图的方式。

这些是非常狭窄的领域,但我认为它们很重要。这些是对美国人来说根本性的东西。不被政府监视的权利。军官们自己做出战争决定而不是完全交给机器的权利。这些是根本性的原则。

主持人:但以根本原则的名义,为什么美国人应该信任你,一家私营公司的CEO,来做这些决定,而不是联邦政府?

Dario Amodei:我给出两个答案。第一,我们是一家私营公司。我们可以选择卖或不卖任何我们想要的东西。还有其他供应商。如果国防部、政府不喜欢我们提供的服务或我们提供服务的方式,他们可以使用其他承包商。这本来是处理此事的正常方式。我虽然不会同意,但如果他们说"我们不想和Anthropic合作。我们的原则与你们不一致。我们要选择其他模型",我会尊重他们。

但他们把这扩展到了国防部以外的政府部门,并试图惩罚性地撤销我们在国防部以外的合同。他们做了这个供应链认定,基本上是说如果你是另一家拥有军事合同的私营公司,你不能在涉及那些军事合同的部分使用Anthropic。他们在干预私营企业的行为。很难将此解释为惩罚性之外的任何含义。

据我们所知,供应链认定从未应用于美国公司。它只被应用于对手,比如被怀疑与俄罗斯政府有联系的俄罗斯网络安全公司Kaspersky Labs、中国芯片供应商。被归入他们的行列,考虑到我们为美国国家安全所做的一切,这感觉非常具有惩罚性且不合适。

主持人:你说你为美国国家安全做了很多。你坚持你想保留的这两项限制。你认为Anthropic比五角大楼更了解这个问题吗?

Dario Amodei:不。看,自由市场和自由企业的特点之一是,不同的人可以在不同的原则下提供不同的产品。记住,这不仅仅是关于使用条款。不仅仅是"这是我们的模型在法律上被允许做的事情"。我们的模型有个性。它能做某些事情。它能可靠地做某些事情,也不能可靠地做某些事情。我认为我们是判断我们的模型能可靠地做什么和不能可靠地做什么的好裁判。我认为我们确实对技术如何再次走在法律前面有很好的洞察。

我再说一次,我实际上同意这在长期内是不可持续的。我不认为私营公司和五角大楼就此争论是正确的长期解决方案。我认为国会需要在这里采取行动,我们正在考虑这个问题。我们正在考虑国会可以做什么来施加一些不妨碍我们击败对手能力的防护措施,同时允许我们以符合我们国家价值观的方式击败对手。

主持人:但如你所知,国会行动不快。

Dario Amodei:对。

主持人:所以,我认为在此期间,我们确实需要划出一条底线。

主持人:那么,在国会采取行动之前,你是说你将在这里坚持立场。但有很多其他公司与美国政府做生意。波音为美军制造飞机。波音不会告诉美军如何使用那架飞机。这有什么不同?

Dario Amodei:我再说两个不同之处。一是,我再次指出技术的新颖性。当一项技术已经成熟时,将军对飞机如何运作有相当好的理解。飞机已经存在很长时间了。

主持人:但航空航天工业内部有很多创新。

Dario Amodei:当然,但不是以我们在AI中看到的速度。AI发展得非常快。我经常谈到AI处于指数级趋势上。投入模型的计算量每四个月翻一番。我们从未见过如此快的创新速度。

主持人:但如果这种速度持续下去,美国政府将永远追不上。那么,如果你一直主张要与美国政府合作提供适当的国家安全保障,如果在可预见的未来发展会如此之快,国会追不上,那为什么要转身离开?

Dario Amodei:我认为只需要追赶一次。技术的速度很快,但出现的问题很少但非常重要。再说一次,我们只有这两个:国内大规模监控,完全自主武器。我们需要与国会对话,帮助他们理解与此相关的一些风险。再说一次,这是世界上最具美国特色的事情。没有人想被美国政府监视。没有人想被美国政府监视。

主持人:与此同时,我们一些最大的对手拥有正在快速赶上我们的技术,或者最终会赶上,也许已经赶上了。因此,如果我们的军队对保卫美国人民至关重要,对我们的民主、自由、共和国至关重要,为什么要保持这个立场说不,我们不合作?

Dario Amodei:那是一个抽象的论点,但让我们看看实际的两种用途。国内大规模监控并不能帮助美国赶上对手。即使在技术上合法的情况下,国内大规模监控也是对政府权力的滥用。所以那个可以排除。

完全自主武器,我确实担心我们可能需要跟上。技术还没有准备好。所以,正如我所说,我们并不绝对反对完全自主武器。我们只是认为可靠性还不够,需要进行关于监督的对话。我们已经提议与国防部合作开发这些技术,在沙盒中制作原型。但除非他们从一开始就能为所欲为,否则他们对此不感兴趣。

所以,我们需要平衡这种存在性需求。没有人比我更强调击败对手的必要性。但我们需要以正确的方式战斗。这就像说,有很多国家、对手犯下战争罪行。我们也应该犯战争罪行吗?我不是说这等同于战争罪行。我要说的是,我们价值观的本质是,我们必须找到一种保护这些价值观的方式来赢得胜利。不能只是一场完全的向底部竞争。我们必须有一些原则。

而且这些非常少。这项技术可以从根本上加速我们军队能做的事情。我和海军上将交谈过。和将军们交谈过。和战区司令官们交谈过,他们说这彻底改变了我们能做的事情。而且这些只是我们迄今部署的非常有限的用例。那么为什么要纠结于违背我们价值观的1%的用例,而我们可以追求推进我们民主价值观并保卫这个国家的99%的用例呢?而且我们甚至可以研究最后那1%的用例,看看是否有符合我们价值观的方式来实现。这就是我们的立场,我认为这非常合理。

主持人:给我举一两个可能出错的例子。

Dario Amodei:我能想到可能出错的事情有两类。第一类还是关于可靠性的问题,就是瞄准了错误的人。射杀了平民。没有表现出人类士兵会表现出的判断力。友军误伤或射杀平民,或者各种错误的事情。我们不想出售我们认为不可靠的东西,不想出售可能导致我们自己人被杀或无辜的人被杀的东西。

第二类是监督问题。想一想,人类士兵有一整套问责链,假设人类会运用常识。假设我有一支由一个人或少数人协调的一千万架无人机组成的军队。我想很容易看出这里存在问责问题,对吧?这么高度集中的权力行不通。这并不意味着我们不应该拥有这支舰队。再说一次,我不知道,也许我们在某个时候需要它,因为我们的对手会拥有它。但我们需要讨论问责制,讨论谁按着按钮,谁可以说不。我认为这非常合理。

主持人:特朗普总统称Anthropic为左翼觉醒(woke)公司。这个决定是由意识形态驱动的吗?

Dario Amodei:看,我无法评论其他方在做什么。

主持人:但你和Anthropic呢?

Dario Amodei:是的,看,我认为我们一直努力保持非常中立。我们在我们有专业知识的AI政策问题上发声。我们对一般政治问题没有立场,也不考虑。我们尽量在有共同基础的地方合作。

例如,我去了宾夕法尼亚州的一个活动,和总统、McCormick参议员一起,讨论能源供应,确保有足够的能源来驱动我们的AI模型,在美国部署我们的AI模型。我和总统交谈了。我表示同意他所做的许多方面。我们还做了一个关于将AI用于健康领域的承诺,还做了许多其他事情。

当政府的AI行动计划出台时,我们说其中许多,也许大多数方面我们都同意。所以认为我们在某种程度上是党派性的或不公正的这种看法,我们一直极其谨慎地保持公正。

而且,我们无法控制某个人,即使是总统,对我们有什么看法。那不在我们的控制范围内。在我们控制范围内的是,我们可以合理、中立,并坚持我们的信念。

主持人:在1到10的范围内,未来会与联邦政府就此达成协议吗,还是你认为这已经结束了?

Dario Amodei:看,我没有水晶球。就我们而言,我们的立场很明确。我们有这两条红线。从第一天起就有了。我们仍在倡导这些红线。我们不会在这些红线上让步。如果我们能与国防部达到观点一致的地步,那也许可以达成协议。就我们而言,为了美国国家安全,我们继续希望使这件事成功。但同样,达成协议需要双方。

主持人:如果你现在今晚能和总统有一刻交流,你会对他说什么?

Dario Amodei:我还是会说,我们是爱国的美国人。我们所做的一切都是为了这个国家,为了支持美国国家安全。我们积极向军方部署模型是因为我们相信这个国家。我们相信击败我们的专制对手。我们相信保卫美国。

我们划定的红线,是因为我们相信跨越这些红线违背了美国的价值观,我们想要捍卫美国的价值观。当我们受到供应链认定和国防生产法的威胁——这是政府对私营经济前所未有的干预——我们行使了经典的第一修正案权利,发出声音并表达对政府的异议。对政府持异议是世界上最具美国特色的事情,在这里我们所做的一切中,我们都是爱国者。我们捍卫了这个国家的价值观。

主持人:你认为Anthropic在商业上能挺过这一关吗?

Dario Amodei:当总统、当Hegseth部长在推特上公布供应链认定时,他说了一些不准确的内容,远远超出了他们的合法权限。他说任何拥有军事合同的公司都不能与Anthropic做任何生意。法律说的不是这样。我们发表了一份声明指出了法律规定。法律所说的是,作为其军事合同的一部分,任何公司不能在这些军事合同中使用Anthropic。这是一个范围小得多的影响。

主持人:那你有信心Anthropic能挺过这一关?

Dario Amodei:不仅能挺过,我们会没事的。这个认定的影响相当小。部长发出的推特的性质是为了制造不确定性,制造一种让人们相信影响会大得多的局面,是为了制造恐惧、不确定性和疑虑。但我们不会让这种策略得逞。我们会没事的。

主持人:批评者称五角大楼和白宫的做法是滥用权力。你认为这是滥用权力吗?

Dario Amodei:我再次回到这是前所未有的这一点。

主持人:但这是滥用权力吗?

Dario Amodei:这以前从未发生过。这种认定从未对美国公司发生过。我认为他们的一些声明、一些措辞中,非常清楚地表明这是报复性和惩罚性的。我不知道还能称之为什么。报复性和惩罚性。

主持人:那么,你会采取法律行动吗?

Dario Amodei:正如我在声明中所说,我们收到的只是一条推特。我们没有收到实际的供应链认定。政府没有采取任何实际行动。只有声称他们将要做什么的推文。

主持人:你没有收到任何正式信息?

Dario Amodei:我们完全没有收到任何正式信息。我们看到的只是总统和Hegseth部长的推文。当我们收到某种正式行动时,我们会审视它,理解它,并在法庭上对其提出挑战。

主持人:如果这就是你所说的他们与你沟通的方式,你认为这对他们处理重大国家安全问题的能力说明了什么?

Dario Amodei:同样,我不想让这个问题变成关于某个特定政府的事。我不想让这变成关于某些特定人物的事。我们正在尽一切努力支持美国国家安全。这就是为什么我们致力于寻求协议。如果找不到协议,这就是为什么我们致力于以平稳的方式下线,让我们的作战人员在进入冲突时继续得到支持。这就是为什么我们致力于反对我们认为不符合这个国家价值观的行动。这不是关于任何特定的人。不是关于任何特定的政府。而是关于坚持正确立场的原则。

主持人:Anthropic CEO Dario Amodei先生。非常感谢。

Dario Amodei:非常感谢邀请我。

#达里奥阿莫代 #Anthropic首席执行官 #Anthropic与美国政府冲突 #AI国家安全 #AI伦理指南 #国内大规模监控AI #全自动杀伤性武器 #五角大楼AI谈判 #供应链风险指定 #国防生产法AI应用 #特朗普政府AI政策 #皮特海格塞斯国防部长 #AI红线设定 #针对Anthropic的惩罚性措施 #第一修正案言论自由 #民主价值观与AI #中俄AI竞争 #AI技术创新速度 #AI算力指数增长 #AI系统缺乏可靠性 #AI人工监督机制 #Anthropic服务连续性保障 #AI数据隐私侵犯 #政府AI监控权力滥用 #Anthropic法律诉讼预告 #特朗普批评Anthropic内容 #觉醒AI公司争议 #AI政策保持中立 #机密云AI部署 #国家安全定制模型 #五角大楼发言人帕内尔 #AI沙盒原型开发 #国会AI立法角色 #AI指数级增长趋势 #Anthropic官方声明 #美国国防部取消AI合同 #网络安全AI应用 #战斗支援AI应用 #AI误伤风险 #自律型无人机问责 #Anthropic企业生存力 #政府AI技术差距 #AI供应链风险案例 #Anthropic推特舆论战 #AI权力滥用争议 #私企AI指南决定权 #Anthropic能源供应合作 #AI健康领域誓言 #Anthropic爱国主义强调 #未来AI监管框架
滚动至顶部