트럼프 금지령에도 Claude로 이란 폭격했다: AI 통제 불가능의 현실
2026년 2월 28일 금요일 저녁 8시, 미국과 이스라엘의 군용기와 미사일이 이란을 향해 발사되기 시작했다. 개전 첫 12시간 동안 약 900회의 공습이 이란 영토를 강타했고, 이란의 최고지도자 아야톨라 알리 하메네이는 이스라엘 미사일에 숨졌다.1 이란 국영 미디어에 따르면 사망자는 555명에 달했으며, 그 중에는 이란 남부의 초등학교에서 발생한 165명의 희생자도 포함되어 있었다.2
이 공습에는 또 다른 주연이 있었다. 인공지능 스타트업 Anthropic의 언어 모델 Claude(클로드)였다.
그런데 더 기묘한 사실이 있다. 공습이 시작되기 불과 몇 시간 전, 도널드 트럼프 대통령은 모든 연방 기관에 Anthropic의 제품 사용을 즉시 중단하라고 명령했다. 명령이 떨어진 같은 날, 같은 회사의 AI가 이란 상공을 날아다니는 폭격기의 표적 선정을 돕고 있었던 것이다.
시작은 베네수엘라였다
이 사태의 발단은 2026년 1월로 거슬러 올라간다. 미군은 니콜라스 마두로 베네수엘라 대통령을 체포하기 위한 기습 작전을 감행했고, 이 작전에 Claude가 사용되었다는 사실이 2월 13일 월스트리트저널(WSJ) 보도를 통해 알려졌다.3 베네수엘라 국방부는 수도 카라카스에 대한 폭격으로 83명이 숨졌다고 밝혔다.
Anthropic의 이용 약관에는 Claude를 “폭력적 목적”이나 “무기 개발”, “감시”에 사용하는 것을 금지한다는 조항이 명시되어 있다. 그러나 미 국방부는 2024년 Anthropic과 최대 2억 달러(약 2,800억 원) 규모의 계약을 체결했고, Claude는 이미 미 중부사령부(CENTCOM)를 포함한 기밀 군사 네트워크에 깊숙이 통합되어 있었다.4 Palantir가 구축한 이 시스템 안에서 Claude는 정보 분석, 전쟁 시뮬레이션, 표적 식별 등 핵심 임무를 수행하고 있었다.
트럼프의 폭발, 그리고 금지령
베네수엘라 작전에서 Claude가 사용되었다는 사실이 알려지면서 Anthropic과 펜타곤 사이의 긴장이 급격히 고조되었다. 국방부는 Anthropic에 최후통첩을 보냈다. 2026년 2월 28일 오후 5시 1분(미 동부 시각)까지 Claude의 이용 제한 조항 — 구체적으로는 미국 시민에 대한 대규모 감시와 완전 자율 무기 시스템에의 활용 금지 — 을 삭제하지 않으면 계약을 파기하겠다는 내용이었다.
Anthropic은 굽히지 않았다. 최후통첩 기한이 지나자 피트 헤그세스 국방장관은 X(구 트위터)에 장문의 글을 올려 Anthropic을 “공급망 안보 위협(Supply-Chain Risk to National Security)“으로 지정한다고 선언했다.5
곧이어 트럼프 대통령이 Truth Social에 직접 나섰다.
“Anthropic의 좌파 미치광이들이 전쟁부(Department of War)를 STRONG-ARM하려 한 것은 DISASTROUS MISTAKE다. 나는 미국 연방 정부의 모든 기관이 Anthropic의 기술 사용을 즉시 중단하도록 지시한다. 우리는 그것이 필요하지 않고, 원하지 않으며, 다시는 거래하지 않겠다!”6
트럼프는 이 금지령에 6개월의 단계적 종료 기간을 부여했다. 군 작전에서 Claude를 갑자기 걷어낼 수 없는 현실을 인정한 것이다.
금지령 당일, 이란 폭격
그리고 불과 몇 시간 뒤, 공습이 시작되었다.
WSJ은 이란 공습이 진행되는 와중에 미 중부사령부가 Claude를 활용하여 드론 영상과 신호 정보를 실시간으로 분석하고 이란 내 표적을 선별했다고 보도했다.7 Axios도 별도의 소식통을 인용해 같은 내용을 확인했다.8
이 사실이 갖는 아이러니는 단순한 아이러니가 아니었다. 트럼프가 Anthropic을 “급진 좌파 AI 기업”이라고 낙인찍은 그 기업의 AI가, 같은 날 미국 군대의 전쟁 수행을 돕고 있었던 것이다.
Anthropic 측의 입장은 복잡했다. 회사는 성명을 통해 자율 무기와 대규모 감시에 대한 우려를 표명해 왔지만, 표적 선정 지원 자체는 약관이 금지하는 “폭력적 목적”의 직접적 범주에 해당하지 않는다는 해석이 가능했다. 국가 안보 전문 저널리스트 스펜서 애커맨은 이 점을 날카롭게 지적했다.
“Amodei는 외국인에 대한 감시 판옵티콘을 구축하는 것을 문제로 등록하지 않는다는 점이 매우 두드러진다. 걱정해야 할 시점은 그가 버리기 싫어했던 군사 계약에 서명하기 전이었다.”9
전쟁에서 AI가 하는 일
이번 이란 공습은 군사 전문가들이 말하는 결정 압축(decision compression) 현상이 실전에서 작동한 최초의 대규모 사례 중 하나였다.
뉴캐슬 대학교의 크레이그 존스 정치지리학 교수는 이렇게 설명했다.
“AI 기계는 무엇을 표적으로 삼을지 권고안을 만들어내는데, 어떤 면에서는 인간의 사고 속도보다 훨씬 빠르다. 규모와 속도가 동시에 작용하고 있다.”10
Palantir가 구축한 시스템 안에서 Claude는 다음과 같은 역할을 수행했다.
| 역할 | 내용 |
|---|---|
| 정보 분석 | 드론 영상, 통신 감청, 인간 정보를 실시간으로 종합 |
| 표적 식별·우선순위화 | 군사 표적 분류 및 타격 순서 권고 |
| 전쟁 시뮬레이션 | 타격 시나리오별 결과 예측 |
| 법적 평가 | 개전법(jus in bello) 관련 자동화 추론 |
런던 퀸메리 대학교의 데이비드 레슬리 교수는 이러한 구조가 가져오는 인지적 위험을 경고했다. AI가 분석과 권고를 모두 처리하고 나면, 인간 의사결정자에게 주어지는 검토 시간은 극히 짧아진다. 기계가 생성한 옵션을 좁은 시간대 안에 평가해야 하는 상황은, 사실상 자동화된 계획을 인간이 “승인”하는 구조에 가까워진다.11
남부 이란의 초등학교를 강타한 미사일 공격 — 165명이 숨진 이 공습 — 이 어떤 절차를 거쳐 결정되었는지는 현재까지 공식적으로 밝혀지지 않았다. 유엔은 이를 “국제인도법의 중대한 위반”이라고 규정했다.2
계약 해지의 연쇄
이란 공습 이후 사흘 동안, 미국 정부 기관들은 도미노처럼 Anthropic과의 관계를 끊기 시작했다.
- 재무부: 스콧 베센트 재무장관이 3월 2일 X에 Anthropic 제품의 사용을 중단한다고 밝혔다.12
- 국무부: OpenAI로의 전환을 공식화했다.12
- 보건복지부(HHS): 단계적 종료를 확인했다.12
- 연방주택금융청(FHFA): 빌 풀트 청장이 패니매, 프레디맥을 포함해 Anthropic 제품 사용을 전면 종료한다고 선언했다.13
- 총무청(GSA): Anthropic 서비스를 다수공급자 일정(Multiple Award Schedule) 플랫폼에서 제거하겠다고 밝혔다.12
OpenAI의 샘 올트먼은 이 틈을 놓치지 않았다. 트럼프의 금지령이 떨어진 직후 국방부와의 협약을 발표하며, 자사도 “완전 자율 무기 금지”와 “인간의 무력 사용 최종 결정” 원칙을 계약에 명시했다고 밝혔다.6
그러나 Claude는 여전히 작동 중이다. “6개월 단계적 종료” 조항이 붙었기 때문이다. Nextgov는 소식통을 인용해 현재 Claude는 미군의 기밀 네트워크에서 사실상 유일하게 운용 가능한 AI 모델이며, 이를 대체하는 데 최소 수개월이 걸릴 것이라고 보도했다.14
중국이 주목하는 이유
이 사건은 미국 국내의 기업-정부 갈등으로만 읽히지 않는다. 중국 사이버 보안 기업 Webray의 부사장 윌리엄 웨이는 사우스차이나모닝포스트(SCMP)와의 인터뷰에서 이렇게 말했다.
“미국의 AI 군사화는 산업 전체에 경보를 울리고 있다. 중국의 기술 자립 필요성이 그 어느 때보다 절실해졌다.”15
AI가 전쟁에서 어떻게 쓰이는지를 실시간으로 보여준 이번 사건은, 군사 AI 개발 경쟁에서 뒤처지지 않으려는 중국의 의지를 더욱 강하게 자극하고 있다. 이란이 자체 AI 개발에 국제 제재로 발이 묶인 상황과 대조적으로, 중국은 DeepSeek을 앞세워 군사 AI 분야에서 빠르게 역량을 키우고 있다.
통제 불가능의 구조
이 사태가 드러낸 본질은 간단하다. 대통령이 “즉시 중단”을 명령해도 군사 작전에서 AI는 멈추지 않는다는 것이다.
이것은 개별 기업이나 정치인의 실패가 아니다. AI 시스템이 핵심 인프라에 깊이 뿌리내리는 방식과, 그 속도를 제도가 따라가지 못하는 구조적 문제다. 국방부 스스로도 “즉각적인 대안이 없다”는 사실을 인정하며 6개월의 여유를 요청했다.
Anthropic은 처음부터 이 계약에 주의를 기울였어야 했다. 서명하는 순간, 자사의 AI가 어떻게 쓰일지를 통제할 실질적 권한은 사라졌다. 사후에 이용 약관을 내세우며 “우리는 반대했다”고 말하는 것은, 결과적으로 명분을 지키기 위해 실제 통제를 포기한 것과 다르지 않다.
한편, 트럼프 행정부의 행동도 모순적이기는 마찬가지였다. “좌파 기업의 제품”을 쓰지 않겠다고 선언하면서도 전쟁이 시작되자 그 기업의 AI에 의존했다. 이념적 선언과 기술적 현실 사이의 간극을 이보다 선명하게 보여주는 사례를 찾기 어렵다.
AI가 “결정을 내리는” 것이 아니라 “권고한다”는 말은 맞다. 그러나 인간이 AI의 권고를 거부할 시간과 정보, 의지를 갖추고 있는지는 별개의 문제다. 900회의 공습이 12시간 안에 이루어졌다. 그 속도 앞에서 “인간의 최종 결정”이 얼마나 실질적이었는지는, 우리가 영원히 알 수 없을지도 모른다.
Footnotes
-
The Guardian, “Iran war heralds era of AI-powered bombing quicker than ‘speed of thought’”, 2026년 3월 3일. https://www.theguardian.com/technology/2026/mar/03/iran-war-heralds-era-of-ai-powered-bombing-quicker-than-speed-of-thought ↩
-
Futurism, “US Military Using Claude to Select Targets in Iran Strikes”, 2026년 3월 1일. https://futurism.com/artificial-intelligence/claude-anthropic-military-iran ↩ ↩2
-
The Guardian, “US military used Anthropic’s AI model Claude in Venezuela raid, report says”, 2026년 2월 14일. https://www.theguardian.com/technology/2026/feb/14/us-military-anthropic-ai-model-claude-venezuela-raid ↩
-
The Guardian, “US military reportedly used Claude in Iran strikes despite Trump’s ban”, 2026년 3월 1일. https://www.theguardian.com/technology/2026/mar/01/claude-anthropic-iran-strikes-us-military ↩
-
NPR, “OpenAI announces Pentagon deal after Trump bans Anthropic”, 2026년 2월 27일. https://www.npr.org/2026/02/27/nx-s1-5729118/trump-anthropic-pentagon-openai-ai-weapons-ban ↩
-
AP News, “Trump orders US agencies to stop using Anthropic technology in clash over AI safety”, 2026년 2월 27일. https://apnews.com/article/anthropic-pentagon-ai-hegseth-dario-amodei-b72d1894bc842d9acf026df3867bee8a ↩ ↩2
-
Wall Street Journal (Guardian 재인용), “U.S. Strikes in Middle East Use Anthropic Hours After Trump Ban”, 2026년 3월 1일. https://www.wsj.com/livecoverage/iran-strikes-2026/card/u-s-strikes-in-middle-east-use-anthropic-hours-after-trump-ban-ozNO0iClZpfpL7K7ElJ2 ↩
-
Ynet News, “Anthropic’s Claude AI used by US military in Iran strike hours after Trump ban, report says”, 2026년 3월 1일. https://www.ynetnews.com/tech-and-digital/article/hj9wp6gfwg ↩
-
Spencer Ackerman, “America doesn’t make Oppenheimers like we used to”, Forever Wars, 2026년 3월 1일. https://www.forever-wars.com/america-doesnt-make-oppenheimers-like-we-used-to/ ↩
-
The Guardian, “Iran war heralds era of AI-powered bombing quicker than ‘speed of thought’”, 2026년 3월 3일. https://www.theguardian.com/technology/2026/mar/03/iran-war-heralds-era-of-ai-powered-bombing-quicker-than-speed-of-thought ↩
-
위의 기사. ↩
-
Nextgov/FCW, “Agencies begin to shed Anthropic contracts following Trump’s directive”, 2026년 3월 2일. https://www.nextgov.com/acquisition/2026/03/agencies-begin-shed-anthropic-contracts-following-trumps-directive/411823/ ↩ ↩2 ↩3 ↩4
-
MarketScreener, “FHFA’s Pulte: U.S. Federal Housing, Fannie Mae and Freddie Mac are terminating all use of Anthropic products”, 2026년 3월 2일. https://www.marketscreener.com/news/fhfa-s-pulte-u-s-federal-housing-fannie-mae-and-freddie-mac-are-terminating-all-use-of-anthropic-ce7e5cddd880f726 ↩
-
Nextgov/FCW, “It would take the Pentagon months to replace Anthropic’s AI tools, sources say”, 2026년 2월 26일. https://www.nextgov.com/emerging-tech/2026/02/it-would-take-pentagon-months-replace-anthropics-ai-tools-sources/411746/ ↩
-
Seoul Economic Daily (영문판), “Anthropic’s Claude AI Used in Iran Strike Amid Surge in US Downloads”, 2026년 3월 3일. https://en.sedaily.com/international/2026/03/03/anthropics-claude-ai-used-in-iran-strike-amid-surge-in-us ↩
댓글