인공지능게시판

Dario Amodei 인터뷰 — Anthropic과 미국 국방부 갈등

작성자
김 경진
작성일
2026-03-01 00:59
조회
198
Anthropic CEO Dario Amodei 인터뷰: AI 가이드라인과 국가 안보




진행자: 시간을 내주셔서 감사합니다. Anthropic의 CEO이신 다리오 아모데이(Dario Amodei) 씨가 맞으시죠?

다리오 아모데이: 네, 맞습니다.

진행자: 좋습니다. 제 첫 번째 질문은 이것입니다. 왜 Anthropic의 AI를 미국 정부에 아무런 제한 없이 제공하지 않으려는 것입니까?

다리오 아모데이: 네, 그 부분에 대해서는 약간의 배경 설명과 맥락이 필요할 것 같습니다. 사실 Anthropic은 모든 AI 기업 중 미국 정부 및 미군과 협력하는 데 있어 가장 적극적으로 앞장서 왔습니다.

우리는 모델을 기밀 클라우드(Classified Cloud)에 배치한 최초의 기업이었고, 국가 안보 목적으로 맞춤형 모델을 제작한 최초의 기업이기도 했습니다. 현재 우리 모델은 사이버 보안, 전투 지원 작전 등 다양한 용도로 정보 부처와 군 전반에 배치되어 있습니다.

우리가 이렇게 해온 이유는 제가 우리 국가를 지켜야 한다고 믿기 때문입니다. 중국이나 러시아 같은 전제주의 적대국들로부터 국가를 방어해야 한다고 믿습니다. 그래서 우리는 매우 적극적으로 임해왔고, 상당한 규모의 공공 부문 팀도 운영하고 있습니다.

하지만 저는 우리가 독재적인 적대국들에 맞서 자신을 방어할 때, 반드시 우리의 민주적 가치를 옹호하고 보존하는 방식으로 해야 한다고 항상 믿어왔습니다. 그래서 우리는 '전쟁부(Department of War)'에 그들이 원하는 사용 사례의 98~99%는 모두 괜찮지만, 우리가 우려하는 두 가지 사례만은 제외하겠다고 말했습니다.

첫 번째는 **'국내 대량 감시(Domestic Mass Surveillance)'**입니다. 우리는 과거에는 불가능했던 일들이 AI로 인해 가능해질 것을 우려하고 있습니다. 예를 들어, 민간 기업이 수집한 데이터를 정부가 구매하여 AI를 통해 대량으로 분석하는 방식입니다. 이는 현재 불법은 아닙니다. 다만 AI 시대 이전에는 유용하지 않았을 뿐입니다. 즉, 국내 대량 감시 기술이 법보다 앞서 나가고 있는 상황입니다. 기술이 너무 빨리 발전해서 법과의 보조가 맞지 않는 첫 번째 사례입니다.

두 번째 사례는 **'완전 자율 살상 무기(Fully Autonomous Weapons)'**입니다. 이는 현재 우크라이나나 대만에서 사용될 가능성이 있는 '부분 자율 무기'를 말하는 것이 아닙니다. 인간의 개입 없이 스스로 발사되는 무기를 만드는 개념을 말합니다.

언젠가는 우리의 적대국들이 이런 무기를 보유하게 될 것이고, 민주주의 수호를 위해 우리에게도 필요할 때가 올 수도 있습니다. 하지만 우리는 이에 대해 몇 가지 우려를 가지고 있습니다. 우선, 오늘날의 AI 시스템은 완전 자율 무기를 만들 만큼 신뢰도가 높지 않습니다. AI 모델을 다뤄본 사람이라면 누구나 기술적으로 아직 해결되지 않은 근본적인 예측 불가능성이 있다는 점을 이해할 것입니다.

또한 감시의 문제도 있습니다. 만약 인간의 감독 없이 작동하는 수만 대의 드론이나 로봇 군단이 있다면, 누구를 표적으로 삼고 누구에게 사격할지 결정하는 인간 병사가 없는 상황에서 누가 이를 책임질 것인가에 대한 우려가 생깁니다. 우리는 이 감독 체계에 대해 논의해야 하지만, 아직 그 논의가 이루어지지 않았습니다. 그래서 우리는 이 두 가지 사용 사례만큼은 허용되어서는 안 된다고 강력하게 느끼고 있습니다.

진행자: 펜타곤(국방부) 측은 이 두 가지 제한 사항에 원칙적으로 동의했으며 협상을 원한다고 밝혔습니다. 그런데 왜 합의에 이르지 못한 것입니까?

다리오 아모데이: 그 과정에는 몇 단계의 절차가 있었고, 모든 것이 매우 빠르게 진행되었습니다. 결정적으로 그들이 우리에게 준 시간이 단 3일뿐이었습니다. 그들은 3일 안에 자신들의 조건에 동의하지 않으면 '공급망 위험 요소(Supply Chain Risk)'로 지정하거나 '국방물자생산법(Defense Production Act)'을 적용하겠다는 최후통첩을 보냈습니다. 이 부분은 나중에 다시 이야기하죠.

그 짧은 기간 동안 몇 번의 의견 교환이 있었습니다. 한 번은 그들이 겉보기에는 우리의 조건을 충족하는 듯한 문구를 보내왔지만, 그 안에는 '펜타곤이 적절하다고 판단하는 경우'라거나 '법에 부합하는 모든 행위를 하기 위해' 같은 표현들이 가득했습니다. 즉, 실질적인 양보는 전혀 없었던 셈입니다.

그 이후 단계들도 마찬가지로 의미 있는 양보는 없었습니다. 우리는 처음부터 합의를 원했습니다. 펜타곤의 입장을 이해하시려면, 펜타곤 대변인 션 파넬(Sean Parnell)이 며칠 전 트위터에서 언급한 내용을 보시면 됩니다. 그는 "우리는 합법적인 사용만을 허용한다"는 입장을 반복했는데, 이는 그들이 우리에게 보낸 조건과 동일했습니다. 즉, 그들은 우리의 예외 조항에 대해 실질적으로 어떤 방식으로든 동의하지 않았습니다.

진행자: 대통령은 오늘 이 상황에 대해 "그들의 이기주의(Anthropic을 지칭)가 미국인의 생명을 위협하고, 우리 군을 위험에 빠뜨리며, 국가 안보를 위태롭게 하고 있다"고 게시했습니다. 이에 대해 어떻게 생각하십니까?

다리오 아모데이: 우리는 어제와 오늘 발표한 성명에서 명확히 밝혔습니다. 설령 전쟁부나 트럼프 행정부가 우리에게 전례 없는 조치를 취하더라도 말입니다. 보통 외국 적대국에게나 적용하는 '공급망 위험 지정' 같은 극단적인 조치를 취하더라도, 우리는 전쟁부가 우리 기술을 사용하는 동안 필요한 모든 지원을 다 할 것입니다. 우리가 기꺼이 하지 않으려는 일들을 대신 해줄 경쟁 업체로 서비스가 완전히 이전될 때까지, 그 연속성을 보장하기 위해 최선을 다할 것입니다.

진행자: 철수할 준비가 되었다는 말씀인가요?

다리오 아모데이: 네, 우리는 서비스의 연속성을 제안했습니다. 사실 우리는 이 문제에 대해 깊이 우려하고 있습니다. 우리가 '공급망 위험'으로 지정되면 서비스 중단이 발생하는데, 이는 우리가 원하는 바가 아닙니다.

공급망 위험으로 지정된다는 것은 그들이 "우리의 모든 시스템에서 너희를 제거해야 한다"라고 말하는 것과 같습니다. 현장에 있는 군 관계자들과 이야기를 나눠보니, 우리 모델이 필수적이라고 합니다. 이것이 없으면 6개월, 12개월, 혹은 그 이상 뒤처지게 될 것이라고 하더군요.

그래서 우리는 합의를 이끌어내기 위해 필사적으로 노력했습니다. 하지만 다시 말씀드리지만, 3일간의 최후통첩과 공급망 위험 지정 위협 등 모든 일정은 우리가 아니라 전쟁부가 주도한 것입니다. 우리는 계속 서비스를 제공하고 합의에 도달하려고 노력하고 있습니다.

진행자: 그렇다면 이것이 미국인들의 안전에 어떤 의미를 갖게 될까요?

다리오 아모데이: 몇 가지 말씀드릴 수 있습니다. 단기적으로는 전쟁부의 결정에 달려 있습니다. 우리는 여전히 그들과 합의하기 위해 노력하고 있고, 대화를 시도하고 있습니다.

진행자: 그들이 당신들과 대화를 하고 있습니까?

다리오 아모데이: 다양한 소통 채널이 있긴 합니다. 하지만 아직 우리의 우려를 충족시키는 내용은 보지 못했습니다. 다만 우리는 우리의 '레드라인(최저 한계선)' 범위 내에서라면 언제든 그들과 협력할 의사가 있다는 점을 말씀드리고 싶습니다.

진행자: 하지만 여전히 양측의 입장 차이가 매우 커 보입니다. 피트 헤그세스(Pete Hegseth) 장관은 여러분을 공급망 위험으로 규정했고 그런 발언들을 쏟아냈습니다. 이 시점에서 합의가 가능하다고 보십니까?

다리오 아모데이: 합의에는 양측의 노력이 필요합니다. 우리 쪽에서는 이 국가의 안보를 위해 봉사할 용의가 충분히 있습니다. 전쟁부, 정보 부처, 그리고 더 민간에 가까운 정부 부처를 포함한 모든 정부 기관에 우리가 제시한 조건과 레드라인 하에서 모델을 제공할 의사가 있습니다.

우리는 이 상황을 감정적으로 받아들이지 않습니다. 우리가 기술을 제공하는 이유는 펜타곤 관료들이나 특정 행정부를 위해서가 아니라, 미국의 국가 안보에 도움이 되기 때문입니다. 우리는 앞으로도 그 일을 계속할 것입니다.

진행자: 펜타곤보다 사기업인 Anthropic이 군에서의 AI 사용 방식에 대해 더 많은 발언권을 가져야 하는 이유가 무엇이라고 생각하십니까?

다리오 아모데이: 우선 중요한 점을 말씀드리자면, 현재 현장에서 일하는 사람들 중 누구도 우리가 제시한 예외 조항 때문에 한계에 부딪힌 적이 없다는 점입니다. 이 사례들은 전체 사용 사례의 1%에 불과하며, 현장에서 실제로 실행되었다는 증거도 없습니다.

물론 그들의 향후 계획이 무엇인지는 알 수 없습니다. 하지만 지금까지 우리가 전쟁부와 다른 정부 부처 전반에 확산되는 동안 이러한 문제로 어려움을 겪은 적은 없었습니다.

이 한두 가지 좁은 예외 조항에 대해서는, 장기적으로 민주적인 논의가 필요하다는 점에 저도 동의합니다. 장기적으로는 그것이 의회(Congress)의 역할이라고 믿습니다. 예를 들어 국내 대량 감시의 가능성, 즉 미국인에 대해 생성된 위치 정보, 개인 정보, 정치적 성향 등의 방대한 데이터를 정부가 구매하여 AI로 프로필을 만들어 분석하는 일 말입니다.

이것이 현재 합법이라는 사실은 수정헌법 제4조에 대한 사법적 해석이나 의회가 통과시킨 법률이 기술을 따라잡지 못했음을 의미합니다. 따라서 장기적으로는 의회가 기술의 발전 속도에 맞춰 법을 정비해야 합니다.

하지만 의회는 세상에서 그리 빨리 움직이는 조직이 아닙니다. 지금 이 순간, 이 기술의 최전선을 보고 있는 것은 우리입니다. 저는 전쟁부가 이러한 문제들에 대해 사려 깊게 고민하고 선제적으로 대처하기를 기대했습니다. 그래서 저는 그들이 우리의 제안에 우려를 표하기보다 대화를 원할 것이라 예상했습니다.

하지만 그런 대화가 부재한 상황에서, 우리는 기술이 무엇을 할 수 있는지, 신뢰성은 어느 정도인지, 그리고 기술이 어떻게 법망을 앞질러 법의 취지를 벗어나고 있는지 살펴봐야 합니다. 매우 좁은 영역들이지만 매우 중요합니다. 이는 정부로부터 감시받지 않을 권리, 우리 군인들이 전쟁에 대한 결정을 기계에 완전히 넘기지 않고 스스로 내릴 권리 등 미국인들에게 근본적인 원칙들입니다.

진행자: 하지만 그런 근본적인 원칙이라는 이름 아래, 왜 미국인들이 연방 정부 대신 사기업의 CEO인 당신이 이런 결정을 내리도록 믿어야 합니까?

다리오 아모데이: 두 가지로 답하겠습니다. 첫째, 우리는 사기업입니다. 우리는 우리가 원하는 것을 팔거나 팔지 않을 선택권이 있습니다. 그리고 다른 공급업체들도 있습니다. 만약 정부가 우리가 제공하는 서비스나 방식이 마음에 들지 않는다면 다른 계약업체를 이용하면 됩니다.

이것이 정상적인 처리 방식이었을 것입니다. 비록 저는 동의하지 않았겠지만, 그들이 "우리는 Anthropic과 일하고 싶지 않다. 우리의 원칙이 당신들과 맞지 않으니 다른 모델을 선택하겠다"라고 했다면 그 결정을 존중했을 것입니다.

하지만 그들은 전쟁부를 넘어 정부의 다른 부처로까지 영향력을 확대했고, 전쟁부 이외의 계약까지 징벌적으로 취소하려 했습니다. 또한 공급망 위험 지정을 통해, 군과 계약 관계에 있는 다른 민간 기업들조차 그 계약과 관련된 업무에 Anthropic을 사용하지 못하게 했습니다. 이는 민간 기업의 행위에까지 개입하는 것이며, 징벌적 조치 외에는 해석하기 어렵습니다.

우리가 알기로 공급망 위험 지정이 미국 기업에 적용된 사례는 단 한 번도 없었습니다. 이는 오직 러시아 정부와 연계된 의혹이 있는 카스퍼스키 랩(Kaspersky Labs)이나 중국 반도체 공급업체 같은 적대 세력에게만 적용되었습니다. 미국 국가 안보를 위해 우리가 해온 일을 고려할 때, 그들과 같은 취급을 받는 것은 매우 부적절하고 징벌적인 조치라고 느껴집니다.

진행자: 국가 안보를 위해 많은 일을 하셨다고 하셨고, 두 가지 제한 사항을 고수하고 계십니다. Anthropic이 이 부분에서 펜타곤보다 더 잘 알고 있다고 생각하십니까?

다리오 아모데이: 그렇지 않습니다. 자유 시장과 자유 기업의 특징 중 하나는 서로 다른 원칙 아래 서로 다른 제품을 제공할 수 있다는 점입니다. 이는 단순히 '사용 약관'의 문제가 아닙니다.

우리 모델은 고유의 특성(Personality)을 가지고 있습니다. 신뢰할 수 있게 할 수 있는 일이 있고, 그렇지 못한 일이 있습니다. 우리는 우리 모델이 무엇을 안정적으로 수행할 수 있는지에 대해 가장 잘 판단할 수 있는 위치에 있습니다. 또한 기술이 어떻게 법을 앞서가고 있는지도 잘 보고 있습니다.

다시 강조하지만, 저도 이것이 장기적으로 지속 가능한 해결책은 아니라는 점에 동의합니다. 사기업과 펜타곤이 이 문제를 두고 다투는 것이 정답은 아닙니다. 의회가 나서야 합니다. 우리는 의회가 적대국을 물리치는 능력을 저해하지 않으면서도, 우리 국가의 가치에 부합하는 방식으로 대처할 수 있도록 어떤 가드레일을 설정할 수 있을지 고민하고 있습니다.

진행자: 아시다시피 의회는 빠르지 않습니다.

다리오 아모데이: 그렇습니다. 그래서 그사이에 우리는 명확한 선을 그어야 한다고 생각합니다.

진행자: 의회가 움직이기 전까지는 확고한 입장을 유지하겠다는 말씀이군요. 하지만 미국 정부와 거래하는 수많은 다른 기업들이 있습니다. 보잉(Boeing)은 미군을 위해 항공기를 제작하지만, 미군에게 그 항공기로 무엇을 하라고 지시하지 않습니다. 이 경우는 무엇이 다릅니까?

다리오 아모데이: 두 가지 면에서 다릅니다. 첫째, 기술의 새로움입니다. 기술이 정착되면 이야기가 다르겠지만, 항공기는 오래전부터 존재해 왔고 장군들도 항공기가 어떻게 작동하는지 꽤 잘 알고 있습니다.

진행자: 항공우주 산업 내부에도 수많은 혁신이 있지 않습니까?

다리오 아모데이: 물론입니다. 하지만 AI와 같은 속도는 아닙니다. AI는 기하급수적인 추세로 움직이고 있습니다. 모델에 들어가는 연산량은 4개월마다 두 배로 늘어납니다. 우리는 이런 혁신의 속도를 본 적이 없습니다.

진행자: 하지만 그 속도가 계속 유지된다면 미국 정부는 영원히 따라잡지 못할 것입니다. 예측 가능한 미래에 기술이 계속 빠르게 발전하고 의회가 따라잡지 못한다면, 국가 안보를 위해 협력하겠다고 주장해 온 당신의 논리가 어떻게 적용될 수 있습니까? 왜 등을 돌리는 것입니까?

다리오 아모데이: 따라잡아야 할 부분은 한 번뿐이라고 생각합니다. 기술의 속도는 빠르지만, 발생하는 핵심 쟁점은 적으면서도 매우 중요합니다. 다시 말씀드리지만, 우리는 오직 두 가지만을 말하고 있습니다. '국내 대량 감시'와 '완전 자율 무기'입니다.

우리는 의회가 이와 관련된 위험을 이해하도록 도와야 합니다. 이것은 세상에서 가장 '미국적인' 일입니다. 어느 누구도 미국 정부에 의해 감시당하고 싶어 하지 않습니다.

진행자: 동시에 우리의 강력한 적대국들은 우리를 빠르게 추격하고 있거나 이미 따라잡았을 수도 있는 기술을 보유하고 있습니다. 우리 군이 미국 국민과 민주주의, 자유, 공화국을 지키는 데 필수적이라면, 왜 협력하지 않겠다고 거부하며 이 입장을 고수하는 것입니까?

다리오 아모데이: 그것은 추상적인 논쟁입니다. 실제 두 가지 사례를 구체적으로 보죠. '국내 대량 감시'는 미국이 적대국을 추격하는 데 아무런 도움이 되지 않습니다. 이는 기술적으로 합법일지라도 정부 권한의 남용일 뿐입니다. 따라서 그 부분은 제외할 수 있습니다.

'완전 자율 무기'에 대해서는 저 역시 우리가 뒤처지지 않아야 한다는 점을 우려하고 있습니다. 다만 현재 기술이 준비되지 않았을 뿐입니다. 말씀드린 대로 우리가 완전 자율 무기를 무조건 반대하는 것이 아닙니다. 단지 아직 신뢰성이 확보되지 않았고, 감독 체계에 대한 논의가 필요하다는 것입니다.

우리는 전쟁부와 협력하여 이러한 기술을 개발하고 '샌드박스' 내에서 프로토타입을 만드는 데 도움을 주겠다고 제안했습니다. 하지만 그들은 처음부터 자신들이 원하는 대로 다 할 수 있는 경우가 아니면 관심이 없었습니다.

우리는 적대국을 물리쳐야 한다는 절박한 필요성(그 누구보다 제가 강조해 왔던 부분입니다)과, 올바른 방식으로 싸워야 한다는 가치 사이의 균형을 맞춰야 합니다. 적대국들이 전쟁 범죄를 저지른다고 해서 우리도 전쟁 범죄를 저질러야 합니까?

제가 이 사례들이 전쟁 범죄라고 말하는 것은 아닙니다. 제 말의 요지는 우리 가치의 본질은 그 가치를 보존하면서 승리하는 방법을 찾는 데 있다는 것입니다. 단순히 밑바닥을 향한 경쟁이 되어서는 안 됩니다. 원칙이 있어야 하며, 우리의 원칙은 매우 소수입니다.

이 기술은 우리 군의 능력을 획기적으로 가속화할 수 있습니다. 제가 만나본 제독, 장군, 전투 사령관들은 이것이 자신들의 능력을 혁명적으로 변화시켰다고 말합니다. 그리고 이는 지금까지 우리가 배포한 아주 제한적인 사용 사례들에 불과합니다.

왜 우리의 민주적 가치를 증진하고 국가를 방어하는 99%의 사용 사례를 추구할 수 있는데, 우리 가치에 반하는 1%의 사례에만 집착하는 것입니까? 우리는 심지어 그 마지막 1%의 사례조차 가치와 조화를 이루며 수행할 수 있는 방법이 있는지 연구해 보자고 제안했습니다. 이것이 우리의 입장이며 매우 타당하다고 생각합니다.

진행자: 무엇이 잘못될 수 있는지 한두 가지 예를 들어주십시오.

다리오 아모데이: 두 가지 부류가 있습니다. 하나는 '신뢰성'의 문제입니다. 잘못된 대상을 표적으로 삼아 민간인을 쏘는 것입니다. 인간 병사가 보여주는 판단력을 보여주지 못하는 것이죠. 아군 오사나 민간인 살상 등은 기술적으로 신뢰할 수 없는 제품을 팔고 싶지 않은 이유이며, 우리 국민이나 무고한 사람들이 죽는 것을 원치 않기 때문입니다.

둘째는 '감독'의 문제입니다. 인간 병사의 경우 인간의 상식에 기반한 책임 체계가 존재합니다. 그런데 만약 한 사람이나 소수의 인원이 통제하는 1,000만 대의 드론 군단이 있다고 가정해 봅시다. 여기서 발생하는 책임의 문제는 분명합니다. 권력이 그렇게까지 집중되는 것은 작동하지 않습니다.

물론 언젠가 적대국들이 보유하게 되어 우리도 그런 군단이 필요할 수도 있습니다. 하지만 누가 버튼을 쥐고 있으며 누가 '아니오'라고 말할 수 있는지, 즉 책임 소재에 대한 대화가 반드시 선행되어야 합니다. 이는 매우 합리적인 요구입니다.

진행자: 트럼프 대통령은 Anthropic을 '좌파적이고 PC(woke)에 찌든 기업'이라고 불렀습니다. 이 결정이 이데올로기에 의해 주도된 것입니까?

다리오 아모데이: 다른 당사자들이 왜 그런 행동과 발언을 하는지에 대해서는 제가 말할 수 없습니다.

진행자: 하지만 Anthropic 내부에서는 어떻습니까?

다리오 아모데이: 우리는 매우 중립적이고자 노력해 왔습니다. 우리는 우리가 전문성을 가진 AI 정책 문제에 대해서는 목소리를 내지만, 일반적인 정치적 사안에 대해서는 의견을 갖지 않습니다.

공통의 이해관계가 있다면 언제든 협력합니다. 예를 들어 저는 펜실베이니아에서 대통령, 맥코믹(McCormick) 의원과 함께 미국 내 AI 모델 구동을 위한 충분한 에너지 공급에 관한 행사에 참석했습니다. 저는 대통령에게 그가 추진하는 많은 측면에 동의한다고 말했습니다. 또한 보건 분야에서의 AI 사용에 관한 서약도 했고, 정부의 AI 행동 계획이 나왔을 때 그 대부분의 측면에 동의한다고 밝혔습니다.

우리가 편파적이라거나 공정하지 않다는 생각은 사실과 다릅니다. 우리는 철저하게 공정성을 지켜왔습니다. 대통령을 포함한 누군가가 우리에 대해 어떤 의견을 갖는지는 우리가 통제할 수 없습니다. 우리가 할 수 있는 일은 합리적이고 중립적이며, 우리가 믿는 바를 지키는 것뿐입니다.

진행자: 1점부터 10점까지 점수를 매긴다면, 앞으로 연방 정부와 합의에 도달할 가능성이 어느 정도라고 보십니까? 아니면 이제 끝났다고 보십니까?

다리오 아모데이: 저에게는 수정구슬이 없습니다. 다만 우리 입장은 명확합니다. 우리는 첫날부터 이 두 가지 레드라인을 가졌고, 여전히 그것을 옹호하고 있습니다. 우리는 레드라인에서 물러나지 않을 것입니다. 만약 정부 부처와 우리가 같은 방향을 바라볼 수 있는 지점에 도달한다면, 국가 안보를 위해 합의가 가능할 수도 있습니다. 우리는 여전히 이 일이 잘 풀리기를 원합니다. 하지만 합의에는 두 당사자가 필요합니다.

진행자: 만약 지금 이 순간 대통령과 만날 기회가 있다면 그에게 뭐라고 말씀하시겠습니까?

다리오 아모데이: 우리는 애국적인 미국인이라고 말하겠습니다. 우리가 한 모든 일은 이 국가를 위해서, 그리고 미국의 국가 안보를 지원하기 위해서였습니다. 우리가 군과 함께 모델을 배포하는 데 적극적이었던 이유는 이 나라를 믿고, 독재적인 적대국들을 물리치고 미국을 방어하는 것을 믿기 때문입니다.

우리가 설정한 레드라인은 그 선을 넘는 것이 미국적 가치에 반한다고 믿기 때문에, 그 가치를 지키기 위해 설정한 것입니다. 그리고 우리가 정부로부터 민간 경제에 대한 전례 없는 침해인 '공급망 위험 지정'과 '국방물자생산법' 적용 위협을 받았을 때, 우리는 정부에 반대 의견을 낼 수 있는 수정헌법 제1조의 권리를 행사했습니다. 정부에 동의하지 않는 것은 세상에서 가장 미국적인 일이며, 우리는 이 과정에서 애국자로서 행동했습니다. 우리는 이 나라의 가치를 수호했습니다.

진행자: Anthropic이 비즈니스적으로 이 상황을 견뎌낼 수 있다고 보십니까?

다리오 아모데이: 헤그세스 장관이 공급망 위험 지정을 트윗했을 때, 그는 법적 권한을 크게 벗어난 부정확한 내용을 말했습니다. 그는 군과 계약 관계에 있는 모든 회사가 Anthropic과 전혀 거래할 수 없다고 했지만, 그것은 법의 내용이 아닙니다.

우리는 성명을 통해 법의 내용을 짚어주었습니다. 법은 단지 '군 계약의 일부로서' 어떤 회사도 Anthropic을 그 군 계약의 수행에 사용할 수 없다는 것뿐입니다. 이는 훨씬 제한적인 영향입니다.

진행자: 그래서 Anthropic이 살아남을 것이라고 확신하십니까?

다리오 아모데이: 살아남는 정도가 아니라 우리는 괜찮을 것입니다. 이 지정의 실제 영향은 상당히 미미합니다. 장관이 올린 트윗의 본질은 불확실성을 조성하고, 영향이 훨씬 클 것이라는 믿음을 심어주며, 공포와 의심을 불러일으키기 위해 설계된 것이지만 우리는 그것이 성공하게 두지 않을 것입니다. 우리는 괜찮을 것입니다.

진행자: 비판론자들은 펜타곤과 백악관의 행보를 권력 남용이라고 부릅니다. 이것이 권력 남용이라고 믿으십니까?

다리오 아모데이: 다시 말씀드리지만, 이는 전례가 없는 일입니다.

진행자: 하지만 그것이 권력 남용입니까?

다리오 아모데이: 미국 기업에 대해 이런 지정이 내려진 적이 없습니다. 그리고 그들의 성명과 언어에서 이것이 보복적이고 징벌적이라는 점이 매우 명확하게 드러났다고 생각합니다. 보복적이고 징벌적인 것 외에 달리 무엇이라 불러야 할지 모르겠습니다.

진행자: 그렇다면 법적 대응을 하실 건가요?

다리오 아모데이: 우리가 받은 것은 오직 트윗뿐입니다. 실제 공급망 위험 지정 문서를 받지 못했습니다. 즉, 정부에 의한 실제 행정 조치는 없었고, 그들이 하겠다고 주장하는 트윗만 있었을 뿐입니다.

진행자: 공식적인 정보는 아무것도 받지 못했나요?

다리오 아모데이: 전혀 받지 못했습니다. 대통령과 헤그세스 장관의 트윗이 전부입니다. 우리가 어떤 형태로든 공식적인 조치를 받게 된다면, 그것을 검토하고 이해한 뒤 법정에서 다툴 것입니다.

진행자: 만약 그들이 당신과 소통하는 방식이 이렇다면, 주요 국가 안보 문제를 다루는 그들의 능력에 대해 어떻게 생각하십니까?

다리오 아모데이: 특정 행정부나 특정 개인의 문제로 만들고 싶지 않습니다. 우리는 미국의 국가 안보를 지원하기 위해 할 수 있는 모든 것을 하려 노력 중입니다. 그래서 우리는 합의를 찾기 위해 노력하고 있으며, 합의에 이르지 못하더라도 우리 장병들이 계속 지원받을 수 있도록 원활한 서비스 이전(Offboarding)을 위해 최선을 다할 것입니다. 동시에 우리는 이 나라의 가치에 부합하지 않는 조치들에 맞서 싸울 것입니다. 이것은 특정 개인이나 행정부의 문제가 아니라, 옳은 일을 위해 일어서는 원칙의 문제입니다.

진행자: Anthropic의 CEO 다리오 아모데이 씨, 대단히 감사합니다.

다리오 아모데이: 초대해 주셔서 감사합니다.

#다리오아모데이 #AnthropicCEO #앤스로픽미국정부갈등 #AI국가안보 #인공지능윤리가이드라인 #국내대량감시AI #완전자율살상무기 #펜타곤AI협상 #공급망위험지정이유 #국방물자생산법AI적용 #트럼프행정부AI정책 #피트헤그세스국방장관 #AI레드라인설정 #앤스로픽징벌적조치 #미국수정헌법제1조표현의자유 #민주적가치와AI #중국러시아AI경쟁 #AI기술발전속도 #AI연산량증가주기 #AI시스템신뢰성결여 #자율무기인간감독체계 #앤스로픽서비스연속성보장 #AI데이터프라이버시침해 #정부AI감시권한남용 #앤스로픽법적대응예고 #트럼프앤스로픽비판내용 #워크기업논란 #AI정책중립성유지 #기밀클라우드AI배치 #맞춤형국가안보모델 #앤스로픽션파넬대변인 #AI샌드박스프로토타입개발 #인공지능의회입법역할 #AI기하급수적성장추세 #앤스로픽공식성명서 #미국국방부AI계약취소 #사이버보안AI응용사례 #전투지원작전AI활용 #AI오인사격위험성 #자율형드론군단책임소재 #앤스로픽비즈니스생존력 #정부AI기술격차해소 #AI공급망리스크사례 #앤스로픽트위터여론전 #인공지능권력남용논란 #사기업AI가이드라인결정권 #앤스로픽에너지공급협력 #AI보건분야서약 #앤스로픽애국주의강조 #미래AI규제프레임워크
전체 0

위로 스크롤