디지털 최전선: Anthropic, 국방부, 그리고 윤리적 AI를 둘러싼 국가안보의 전쟁
게시일: 2026년 2월 28일 | 원문 게시일: 2026년 2월 28일 | 인터뷰: CBS News 조 링 켄트(Jo Ling Kent) | 원문 보기
핵심 요약
헤그세스 국방장관[1]이 Anthropic을 ‘공급망 리스크’로 지정한 직후, CEO 다리오 아모데이가 CBS News와 가진 단독 인터뷰의 핵심 내용입니다.
- 두 개의 레드라인 — Anthropic은 AI를 활용한 국내 대규모 감시와 완전 자율 살상 무기에 대해 명확한 거부 입장을 밝혔어요.
- 72시간 최후통첩과 보복 — 행정부는 Anthropic에 3일 내 레드라인 철회를 요구했고, 거부 후 ‘공급망 리스크’ 지정이라는 전례 없는 제재를 가했어요.
- 법과 기술의 속도 차이 — AI의 기하급수적 발전 속도를 의회와 사법부가 따라잡지 못하면서, 민간 기업이 헌법적 가치의 최전선 수호자가 되는 새로운 현실이 펼쳐지고 있어요.
- 애국심의 재정의 — 아모데이는 정부에 반대할 권리야말로 가장 미국적인 행위라며, 민주적 가치를 지키는 것이야말로 국가안보를 진정으로 강화하는 길이라고 주장해요.
• • •
1. 갈등의 배경: Anthropic과 국방부의 교착 상태
최첨단 AI 연구소와 국방부 사이의 관계는 현대 국가안보의 핵심 축으로 부상했어요. AI가 전장에서 이론적 우위를 넘어 실질적 필수 요소로 자리 잡으면서, 최첨단 AI 모델의 개발 속도와 기존 규제 체계가 따라가는 속도 사이에 깊은 마찰이 생기고 있어요. 지금의 분쟁은 단순한 조달 계약 문제가 아니에요. 빠른 기술 패권 확보와 민주주의의 안전장치 보존이라는, 양립하기 어려운 두 가치 사이의 근본적 충돌이에요.
Anthropic CEO 다리오 아모데이는 CBS News 단독 인터뷰에서 행정부와의 관계를 “적극적으로 다가간다(lean forward)“고 표현하며, 미국의 이익 강화에 선제적으로 협력해 왔다고 설명해요. 2025년 7월, Anthropic은 국방부와 2억 달러 규모의 계약을 체결했고, 기밀 등급 네트워크에 AI를 배치한 유일한 기업이에요. Anthropic이 취한 주요 전략적 행동은 다음과 같아요:
- 기밀 클라우드 배포[2] — AI 기업 최초이자 유일하게 기밀 등급 정부 인프라에 프론티어 모델을 호스팅해, 민감한 데이터의 안전한 처리를 가능하게 했어요.
- 맞춤형 모델 개발 — 국가안보 목표, 정보 분석, 사이버 방어에 최적화된 맞춤형 AI 솔루션을 개발했어요.
- 실전 통합 — 정보 기관과 군에서 전투 지원 작전, 자동화된 위협 탐지 등 고위험 임무에 적극 배치됐어요.
Anthropic은 국방 참여를 두 가지 사명이 공존하는 문제로 봐요. 한쪽에서는 중국, 러시아 같은 권위주의 적대 세력을 물리쳐야 하고, 다른 한쪽에서는 민주적 가치를 지켜야 한다는 거예요. 아모데이는 적의 전술을 그대로 따라 한다면 미국의 안보는 껍데기에 불과하다고 말해요. 바로 이 가치 중심의 국방 철학이 특정 “레드라인”을 설정하게 했고, 지금의 고위험 전략적 갈등을 촉발했어요.
• • •
2. 레드라인: 국내 감시와 자율 살상
Anthropic이 이런 경계선을 긋는 건 단순한 윤리적 취향 때문이 아니에요. 기술이 현행 법 체계를 근본적으로 앞질러 나가는 상황을 막기 위한 전략적 필수 조치예요. 이 레드라인은 헌법적 규범이 무너지고, 지휘 체계에 통제할 수 없는 위험이 침투하는 것을 막아주는 보호장치인 셈이에요.
I. 국내 대규모 감시: 기능적 허점
첫 번째 제한은 정부가 상업적 데이터 브로커에게서 구매한 대량의 개인 데이터를 AI로 분석하는 것에 관한 거예요. 위치 기록, 인맥 관계, 개인정보 같은 데이터죠. 이런 데이터를 구매하는 것 자체는 현행법상 기술적으로 합법이에요. 하지만 이전에는 데이터 양이 너무 방대해서 실질적으로 활용하기 어려웠어요.
전략적 함의: AI가 대규모 데이터 마이닝을 처음으로 현실적으로 가능하게 만들어, 현행법을 무용지물로 만들었어요. Anthropic은 이런 식의 AI 기반 프로파일링에 협력하길 거부해요. 수정헌법 제4조[3]가 보호하려던 사생활의 영역을 기술로 우회하는 감시 국가가 되어서는 안 된다는 입장이에요.
II. 완전 자율 무기: 신뢰성의 격차
두 번째 제한은 인간의 개입 없이 표적을 선정하고 교전할 수 있는 살상 시스템에 관한 거예요. 이것은 현재 우크라이나 같은 전장에 배치된 “부분 자율” 시스템과는 구별돼요. 아모데이는 이 거부의 이유를 기술적 현실에서 찾아요. AI 모델에는 일종의 “성격”이 있어서 “근본적으로 예측할 수 없는” 부분이 존재해요. 이건 아직 누구도 해결하지 못한 공학적 한계예요.
전략적 함의: 신뢰성에 대한 해결책 없이 소수의 인원이 조율하는 “1천만 대의 드론 군대”를 배치하면, 책임 체계가 완전히 붕괴돼요. 아군 오사와 민간인 사상이라는, 그 어떤 기계도 책임질 수 없는 결과를 초래할 위험이 있어요.
“우리는 올바른 방식으로 싸워야 합니다. 이건 마치 이런 거예요—전쟁 범죄를 저지르는 적대국이 많으니까, 우리도 전쟁 범죄를 저질러야 하느냐는 거죠. (…) 우리 가치의 본질은, 그 가치를 지키면서 이길 수 있는 방법을 찾아야 한다는 거예요. 바닥을 향한 경쟁이 되어서는 안 됩니다.” — Dario Amodei
AI 전쟁에서 밑바닥을 향한 경쟁을 막기 위한 이 경계선들은 국방부와 백악관으로부터 공격적이고 전례 없는 대응을 불러왔어요.
• • •
3. 에스컬레이션: 최후통첩과 징벌적 지정
협상의 결렬은 행정부가 대화에서 강압으로 전환하면서 급격히 고조됐어요. 국방물자생산법(DPA)[4]과 “공급망 리스크” 지정이라는 행정 도구를 동원한 거예요. 이 조치들은 보통 해외 적대 세력에 적용되는 것으로, 이런 조치를 국내 기술 선도 기업에 적용한 것 자체가 민간 경제에 대한 전례 없는 개입이에요.
국방부의 대응 타임라인은 대결적인 “트윗으로 정책 수행” 방식을 여실히 보여줘요:
- 72시간 최후통첩 — 행정부는 Anthropic에 레드라인을 철회하지 않으면 심각한 행정적 제재를 가하겠다는 3일 기한을 제시했어요. 마감 시한은 금요일 오후 5시 1분이었어요.
- 에밀 마이클의 제안 — 펜타곤 CTO 에밀 마이클(Emil Michael)[5]은 Anthropic이 레드라인을 철회하면 서면 확약서를 제공하겠다고 제안했어요. 하지만 아모데이는 이 서면 확약이 법적 구속력이 없다고 판단했어요.
- 공급망 리스크 지정 — 기한 만료 후, 헤그세스 장관은 Anthropic을 “잘난 척하는(sanctimonious)” 기업이라 부르며 “전투원들이 빅테크의 이념적 변덕에 인질로 잡혀 있다”고 선언했어요. 역사적으로 ‘공급망 리스크’라는 꼬리표는 카스퍼스키 랩[6]이나 적대적 정보기관과 연계가 의심되는 중국 하드웨어 공급업체에 붙여지던 것이에요.
- 대통령 행정명령 — 트럼프 대통령은 한 발 더 나아가 모든 연방 기관에 Anthropic 사용을 중단하라는 명령을 내렸어요. 군사 계약에 국한되지 않는 전면적 조치였어요.
- 언어적 모호화 — 국방부는 공개적으로 AI의 “합법적 사용”만을 추구한다고 주장했지만, Anthropic에 보낸 공식 문서의 실제 문구는 펜타곤이 “적절하다고 판단할 때” 언제든 제한을 우회할 수 있게 허용해, 실질적인 법적 구속력이 없었어요.
아모데이는 이런 행동들이 “보복적이고 징벌적(retaliatory and punitive)“이라고 규정해요. 결정적으로, Anthropic은 이 지정에 대한 공식적 통보를 받지 못했어요. 모든 공격이 소셜 미디어를 통해 이뤄지고 있다는 점이 핵심이에요. 이는 행정부의 실제 법적 권한을 넘어서는 행위예요. 동시에 Anthropic과 거래하는 기업들 사이에 “공포, 불확실성, 의심(FUD)“[7]을 퍼뜨리는 효과도 노리고 있어요.
• • •
4. 제도적 지체: AI 속도를 따라잡지 못하는 법
이 갈등의 핵심 축은 AI 개발의 “기하급수적 추세”예요. 연산 능력과 모델 성능이 4개월마다 두 배씩 늘어나면서, 혁신의 속도가 의회와 사법부의 심의 과정과 마찰점을 만들어내고 있어요.
아모데이는 수정헌법 제4조가 현재 “지체” 상태에 있다고 주장해요. 법원이 AI가 대량의 데이터를 즉시 활용 가능한 정보로 바꾸는 능력을 아직 제대로 반영하지 못하고 있다는 거예요. 이 공백 속에서 Anthropic은 “최전선 게이트키퍼”로 행동할 수밖에 없게 됐어요.
이 점이 AI 분야를 항공우주 같은 기존 방위산업과 구별해요. “보잉 모델”은 수십 년에 걸쳐 정립된 규범과 교리로 관리되는 기술을 다루지만, “AI 모델”은 전통적 조달 방식에 비해 너무 빠르게 진화하고 있어요. 이 기술이 하룻밤 새에 권력의 균형을 근본적으로 변화시킬 수 있기 때문에, 아모데이는 관료제가 아닌 코드의 속도에 맞춰 움직이는 새로운 감시 체계가 필요하다고 믿어요.
• • •
5. 이념 대 애국심: “워크” 비난에 대한 대응
이 분쟁은 불가피하게 당파적 수사와 교차했어요. 트럼프 대통령은 Anthropic을 “급진 좌파, 워크 기업(radical left, woke company)“[8]이라 부르며 “미국인의 생명이 위험에 처해 있다(AMERICAN LIVES at risk)“고 주장했어요. 하지만 아모데이는 CBS News 인터뷰에서 Anthropic의 제한이 전체 사용 사례의 1%에 불과하다고 반박했어요. 나머지 99%의 국방 활용에는 아무런 제약이 없다는 거예요.
양극화된 국가안보 환경에서 Anthropic은 “신중한 중립”을 유지하려 노력해 왔어요. 당파적 이념이 아닌, 객관적인 기술적 한계와 헌법 원칙에 집중하겠다는 거예요.
Anthropic의 방어 논리는 행정부의 전략적 우선순위에 대한 일관된 협력을 강조해요:
- 인프라 & 에너지 — 아모데이는 대통령, 매코믹 상원의원[9]과 적극적으로 협력하여 미국이 국내 AI 연산 분야에서 선두를 유지하도록 에너지 공급 문제를 해결해 왔어요.
- AI 행동계획 — Anthropic은 의료 분야 AI 활용 약속을 포함해 행정부의 AI 행동계획 대부분에 동조해 왔어요.
아모데이는 “워크”라는 딱지를 거부하며, 회사의 반대 의견을 “애국적 행위”로 재정의해요. 정부에 반대할 수정헌법 제1조[10]의 권리야말로 가장 “미국적인” 행위라고 주장해요. 여기서 애국심은 행정부의 최후통첩에 대한 맹목적 복종이 아니라, 감시받지 않을 권리 같은 건국 이념에 대한 헌신으로 정의돼요.
• • •
6. 앞으로의 길: 서비스 연속성, 이관, 법적 대응
경영진 수준에서 갈등이 벌어지고 있지만, Anthropic은 현장 인력을 위한 “서비스 연속성”을 약속했어요. 현재 전투원들이 필수 임무에 Anthropic의 모델을 의존하고 있거든요. 갑작스러운 서비스 중단은 미국의 역량을 6~12개월 후퇴시킬 수 있어요. 아모데이는 CBS News 인터뷰에서 최소 6개월의 단계적 이관 기간이 필요하다고 밝혔어요. 기밀 네트워크에 배치된 유일한 AI 기업인 만큼, 즉각적인 서비스 중단은 국가안보에 실질적 공백을 초래할 수 있기 때문이에요.
전략적 비교: 갈등에 대한 시각 대조
| 항목 | 국방부의 묘사 | Anthropic의 실제 입장 |
|---|---|---|
| 작전 영향 | Anthropic의 “이기심”이 병사들을 즉각적 위험에 빠뜨린다고 주장 | 원활한 이관 기간 중 기술과 연속성을 제공하겠다는 약속 |
| 법적 권한 | 트윗을 통해 모든 기업이 Anthropic과 거래를 중단해야 한다고 주장 | 법률은 특정 군사 계약 내에서만 Anthropic 사용을 제한; “트윗 정책”은 합법적 권한을 초과 |
| 협상 태도 | Anthropic을 비협조적 이념적 이단아로 묘사 | 자율 시스템 테스트를 위한 “샌드박스” 프로토타입을 제안했으나 3일 최후통첩으로 대응받음 |
앞으로 Anthropic의 전략에는 윤리적 제한을 두지 않는 경쟁사로 국방부 업무를 이관하는 전환 계획이 포함돼 있어요. 하지만 신뢰성을 보장하기 위해 엄격한 감독 하에 자율 무기의 프로토타입을 만들 수 있는 “샌드박스” 모델에는 여전히 열려 있어요.
마지막으로, Anthropic은 공식적인 행정 조치가 내려질 경우 법원에서 이의를 제기하겠다는 의지를 밝혔어요. 아모데이는 행정부와 직접적으로 맞서더라도 민주적 원칙을 지키는 것이야말로 국가안보에 대한 궁극적 봉사라고 말해요. 회사의 입장은 확고해요: 옳다고 믿는 가치를 지켜내는 것만이, AI가 이끄는 미래를 민주적인 미래로 만들 수 있는 유일한 길이라는 거예요.
역자 주
- 피트 헤그세스(Pete Hegseth)는 폭스 뉴스(Fox News) 진행자 출신으로, 2025년 트럼프 2기 행정부에서 국방장관으로 임명됐어요. 군 복무 경험은 있지만, 방위산업이나 국방 정책이 아닌 보수 미디어 경력이 주된 배경이라는 점에서 논란이 된 인사였어요. ↩
- 기밀 클라우드(Classified Cloud)는 미국 정부의 기밀 정보를 처리할 수 있도록 특별히 인증된 클라우드 컴퓨팅 환경이에요. 일반 상용 클라우드와 물리적으로 분리되어 있으며, 극도로 엄격한 보안 인증을 통과해야 해요. AI 기업이 이 환경에 모델을 배치했다는 것은 미국 정부와 최고 수준의 신뢰 관계가 구축되었다는 의미예요. ↩
- 미국 수정헌법 제4조(Fourth Amendment)는 불합리한 수색과 압수로부터 개인을 보호하는 조항이에요. 정부가 개인의 신체, 주거, 서류, 소유물을 수색하려면 원칙적으로 법원의 영장이 필요해요. 데이터 브로커를 통한 대량 데이터 구매는 이 영장 요건을 기술적으로 우회하는 방법이에요. ↩
- 국방물자생산법(Defense Production Act, DPA)은 1950년 한국전쟁 시기에 제정된 미국 연방법으로, 대통령에게 국방을 위해 민간 기업에 특정 물자의 생산을 명령하거나 자원을 배분할 수 있는 광범위한 권한을 부여해요. 평시에는 거의 사용되지 않지만, 코로나 팬데믹 당시 마스크와 인공호흡기 생산에도 활용된 바 있어요. ↩
- 에밀 마이클(Emil Michael)은 우버(Uber)의 전 수석부사장으로, 우버 재직 시절 비판적인 기자들의 사생활을 조사하겠다는 발언으로 논란을 빚은 인물이에요. 트럼프 2기 행정부에서 펜타곤 최고기술책임자(CTO)로 임명됐어요. ↩
- 카스퍼스키 랩(Kaspersky Lab)은 러시아 모스크바에 본사를 둔 사이버보안 기업이에요. 2017년 미국 정부는 러시아 정보기관과의 연계 의혹을 이유로 모든 연방 기관에서 카스퍼스키 소프트웨어 사용을 금지했어요. ‘공급망 리스크’ 지정의 대표적 사례로 꼽혀요. ↩
- FUD(Fear, Uncertainty, and Doubt)는 원래 IT 업계에서 경쟁사를 견제하기 위해 근거 없는 불안감을 퍼뜨리는 전략을 가리키는 용어예요. 여기서는 행정부가 공식적인 법적 조치 없이 소셜 미디어를 통해 Anthropic의 사업 파트너들에게 거래 중단 압박을 가하는 전략을 뜻해요. ↩
- “워크(Woke)“는 원래 사회적 불의에 대한 ‘깨어 있는’ 인식을 뜻하는 미국 흑인 커뮤니티 용어였지만, 2020년대 미국 보수 정치권에서는 ‘지나친 진보적 정치 성향’을 비하하는 표현으로 전용돼요. 기업에 이 딱지를 붙이는 것은 해당 기업이 이념적으로 편향되어 있다는 정치적 공격이에요. ↩
- 데이브 매코믹(Dave McCormick)은 펜실베이니아주 공화당 상원의원으로, 세계 최대 헤지펀드 브릿지워터 어소시에이츠(Bridgewater Associates)의 전 CEO 출신이에요. AI와 에너지 인프라 정책에 관심이 많은 의원으로, Anthropic이 공화당 의원과도 적극 협력하고 있다는 점을 보여주는 사례예요. ↩
- 미국 수정헌법 제1조(First Amendment)는 표현의 자유, 언론의 자유, 종교의 자유, 집회의 자유, 그리고 정부에 대한 청원의 권리를 보장하는 조항이에요. 정부에 대한 비판과 반대 의견 표명을 헌법적으로 보호하는 미국 민주주의의 가장 근본적인 조항 중 하나예요. ↩
인터뷰이 소개: Dario Amodei는 Anthropic의 CEO이자 공동 창립자로, 이전에 OpenAI의 연구 부사장을 역임했어요. AI 안전성 연구의 선구자로서, 책임 있는 AI 개발을 위한 Anthropic의 비전을 이끌고 있어요.
인터뷰어: 조 링 켄트(Jo Ling Kent), CBS News 기자
참고: 이 글은 CBS News 단독 인터뷰 내용을 번역하고 정리한 것입니다. 헤그세스 국방장관이 Anthropic을 ‘공급망 리스크’로 지정한 직후에 진행된 인터뷰예요. 인터뷰 내용에 관련 보도의 배경 정보(계약 규모, 행정명령 등)를 추가하여 정리했어요.
원문: CBS News Exclusive: Anthropic CEO Dario Amodei Interview (2026년 2월 28일)
생성: Claude (Anthropic)