펜타곤 vs Anthropic — AI 안전의 하드 리밋이 사라진 날
2026년 2월 24일 화요일 오전, Anthropic의 CEO Dario Amodei는 국방부 청사에서 국방장관 Pete Hegseth와 회의를 가졌다. 회의 분위기는 표면상 “우호적”이었다고 알려졌지만, 내용은 달랐다. Hegseth는 금요일 오후까지 Anthropic의 AI 모델에 대한 군사 제한을 해제하지 않으면 $200M 규모의 국방 계약을 종료하겠다고 통보했다. 그리고 같은 날, Anthropic은 자사의 핵심 안전 정책인 RSP(Responsible Scaling Policy)의 세 번째 버전을 조용히 발표했다. RSP v3.0은 회사 설립 이후 가장 중요한 안전 공약으로 꼽히던 ‘훈련 중단 하드 리밋’을 삭제한 문서였다.12
두 사건이 같은 날 발생했다는 사실은 즉각적으로 논란을 불러일으켰다. AP, CNN, Bloomberg, Politico, Fox News, CNBC, BBC, The Register, TIME, Fortune, Business Insider, Axios 등 10개 이상의 매체가 동시에 이 사안을 집중 보도했다.
사건의 배경: Anthropic이 유일하게 거부한 이유
Anthropic은 지난해 여름 미 국방부로부터 최대 $200M 규모의 계약을 수주했다. 같은 시기 Google, OpenAI, Elon Musk의 xAI도 각각 동일한 규모의 계약을 받았다.3 이 계약은 AI 기업들이 Pentagon의 군사 네트워크에 자사 모델을 공급하는 것을 골자로 한다.
그러나 국방부가 요구한 조건에서 Anthropic만 유독 걸렸다. 국방부는 계약 업체들이 “모든 합법적 용도(all lawful use cases)“에 자사 AI를 제공해야 한다는 표준 조건을 내걸었다. OpenAI, Google, xAI, Meta는 이 조건에 동의했다. Anthropic만이 두 가지 레드라인을 이유로 거부했다. 첫째는 AI가 최종 타격 결정을 내리는 완전 자율 무기 시스템이고, 둘째는 미국 시민을 대상으로 한 국내 대량 감시였다.4
CEO Amodei는 1월 에세이에서 이렇게 썼다. “수십억 건의 대화를 분석하는 강력한 AI가 여론을 측정하고, 형성 중인 불충 집단을 감지하고, 그것이 성장하기 전에 소멸시킬 수 있다.” 자사 AI가 그러한 도구로 사용되는 것을 Anthropic은 받아들일 수 없었다.
최후통첩의 무게: 계약 종료에서 국방물자생산법까지
Pentagon이 꺼내든 카드는 세 가지였다.
첫 번째는 계약 종료였다. $200M 계약을 파기하는 것은 상징적 타격이기도 했다. Anthropic은 2025년 미 군 분류 네트워크에 처음 승인된 AI 기업이라는 지위를 갖고 있었다. Palantir, AWS와 손잡고 기밀 분야에서 활동해온 Anthropic에게 그 지위를 잃는 것은 레퓨테이션 손실이 금전적 손실만큼 컸다.
두 번째는 ‘공급망 위험(supply chain risk)’ 지정이었다. 이 지정은 통상 적대적 외국 세력에 적용되는 것으로, 한번 붙으면 미국 정부와 거래하는 모든 업체가 Anthropic 제품 사용을 금지해야 한다. 국방부 발주 공급망 전체에서 Anthropic이 배제되는 셈이었다.5
세 번째가 가장 강력했다. 국방물자생산법(Defense Production Act, DPA) 발동이었다. DPA는 국가 안보에 필요하다고 판단될 경우 대통령(또는 그가 위임한 국방장관)이 민간 기업에 특정 계약 수락을 강제할 수 있는 권한을 부여한다. 실제로 발동되면 Anthropic이 원하지 않더라도 Pentagon이 자사 AI를 사용하는 것을 법적으로 막을 수 없게 된다.6
Pentagon 고위 관리는 The Register에 이렇게 말했다. “합법적 용도 내에서 Anthropic AI를 사용하는 것은 최종 사용자인 국방부의 책임이지, Anthropic의 책임이 아니다.” Anthropic이 통제를 주장할 영역 자체를 부정하는 논리였다.
RSP v2 vs v3: 정확히 무엇이 삭제되었나
Anthropic의 RSP는 2023년 9월 처음 발표되었다. 핵심은 ASL(AI Safety Level) 프레임워크였다. AI 모델이 일정 위험 역량 임계치를 넘으면 더 엄격한 안전 기준(ASL-3, ASL-4)을 적용하고, 그 기준을 충족하지 못할 경우 모델의 훈련이나 배포를 중단한다는 구조였다.
RSP v1·v2에 담겨 있던 핵심 문장은 다음과 같았다.
“Anthropic의 ASL 체계를 따른다는 것은, 우리가 모델을 스케일업하는 능력이 해당 ASL의 안전 절차를 준수하는 능력을 초과할 때마다 스케일링을 일시 중단하거나 새 모델의 배포를 지연하기로 약속함을 의미한다.”7
이것이 하드 리밋이었다. 안전 기준을 충족하지 못하면 훈련 자체를 멈춘다는 무조건적 선언이었다.
RSP v3.0(유효일: 2026년 2월 24일)은 이 문장을 삭제했다. 그 자리에 들어온 것은 이중 조건부 약속이다. 두 조건이 동시에 충족될 때만 개발을 지연한다는 내용이다. 첫째, Anthropic이 AI 경쟁에서 선두에 있다고 내부적으로 판단할 것. 둘째, 재앙적 위험이 ‘실질적(material)‘이라고 판단할 것.2
두 조건이 모두 충족되어야 한다는 구조 자체가 방아쇠 임계치를 대폭 높였다. 과거에는 안전 기준 미충족이 곧 정지 조건이었다면, 이제는 경영진의 복합적 판단을 거쳐야 한다.
그 대신 RSP v3.0은 투명성 의무를 추가했다. Anthropic은 미래 안전 조치 목표를 담은 ‘프론티어 안전 로드맵(Frontier Safety Roadmap)‘을 정기 발행하고, 역량·위협 모델·완화 조치의 관계를 설명하는 ‘위험 리포트(Risk Report)‘를 3–6개월마다 공개하기로 약속했다. 외부 독립 검토자도 갈등 이해관계 없이 리포트에 접근할 수 있게 했다.2
Futurism의 표현을 빌리면, “구속력 있는 하드 커밋먼트 대신, 진행 상황을 공개 평가하겠다는 공개 목표로 이동했다.”8
Anthropic의 논리: 단독 정지는 오히려 위험하다
Anthropic의 최고과학책임자(CSO) Jared Kaplan은 TIME과의 독점 인터뷰에서 변화의 이유를 설명했다.
“우리가 AI 모델 훈련을 중단하는 것이 실제로 누구에게도 도움이 되지 않는다는 결론에 이르렀습니다. AI가 급속도로 발전하는 상황에서, 경쟁자들이 맹렬히 앞서나가는 가운데 우리가 단독으로 약속을 이행하는 것이 의미 있다고 느끼지 못했습니다.”9
RSP v3.0 서문에는 그 논리가 명문화되어 있다. “한 AI 개발자가 안전 조치를 구현하기 위해 개발을 멈추는 동안 다른 개발자들이 강력한 완화 없이 훈련과 배포를 진행한다면, 더 위험한 세상이 될 수 있다. 가장 약한 보호막을 가진 개발자들이 속도를 결정하게 되고, 책임 있는 개발자들은 안전 연구를 할 능력을 잃는다.”2
내부에서도 변화가 불가피하다는 인식이 있었다. RSP v3.0을 주도적으로 설계한 Anthropic 직원은 LessWrong에 자신의 견해를 게재하며, 변화의 방향 자체에는 동의한다는 입장을 밝혔다. 독립 검토자 역할로 초안을 검토한 METR의 정책 책임자 Chris Painter는 달랐다. 그는 TIME에 이렇게 말했다. “이것은 Anthropic이 역량 진전 속도에 맞춰 위험 평가 및 완화 방법이 따라가지 못하고 있다고 판단했음을 의미합니다. 사회가 AI가 제기하는 잠재적 재앙적 위험에 준비되지 않았다는 추가적인 증거입니다.”9
다른 기업들의 선택: 경쟁자들은 이미 응했다
Anthropic이 군사 제한 철회를 거부하는 동안, 경쟁사들은 이미 다른 길을 택했다.
xAI의 Grok은 2026년 초 기준으로 Pentagon의 기밀 네트워크 두 번째 진입 기업이 되었다. 과거에 Grok이 동의 없이 사람들의 딥페이크 성적 이미지를 생성해 말레이시아·인도네시아 정부의 차단 조치를 받은 것과 대조적으로, 군사 제한 없는 배포는 가능하다고 판단한 것이었다.3
OpenAI는 2026년 2월 초 비공개 Pentagon AI 네트워크인 GenAI.mil에 합류했다. 서비스 대원들이 기밀 외 업무에 맞춤형 ChatGPT를 사용할 수 있게 되었다.3
Hegseth는 1월 텍사스 SpaceX 시설에서 한 연설에서 이렇게 말했다. “전쟁을 허용하지 않는 AI 모델은 배제할 것이다.” 그는 Pentagon의 AI 시스템이 “이념적 제약 없이 합법적 군사 응용을 지원하며 작동할 것”이라고 밝히며, “Pentagon의 AI는 ‘woke’하지 않을 것”이라는 표현을 덧붙였다.3
국방부 관리 Emil Michael은 이전에 OpenAI, Google, xAI, Anthropic 모두에게 “모든 합법적 용도에 모델을 사용할 수 있어야 한다”는 요건을 제시했다. Axios에 따르면 이들 중 이미 한 곳은 “모든 합법적 용도에 동의한다”고 Pentagon에 통보했다.10
RSP 면에서도 차이가 있다. OpenAI는 GPT-5 시스템 카드에 생물무기 관련 분류기를 도입하는 등 Anthropic의 ASL 프레임워크와 유사한 방향으로 안전 정책을 구성했다. Google DeepMind도 Frontier Safety Framework라는 유사 체계를 갖추고 있다. 그러나 두 기업 모두 Anthropic이 RSP v1·v2에서 명문화했던 것과 같은 ‘훈련 중단 하드 리밋’을 공개적으로 선언한 적은 없었다. Anthropic이 업계에서 유일하게 그 약속을 했고, 이제 유일하게 그것을 철회했다.11
시간적 일치: 우연인가 압박인가
RSP v3.0의 공개 시점은 논란의 핵심이다. 문서의 유효일은 2026년 2월 24일이다. Hegseth가 Amodei에게 최후통첩을 전달한 날도 2026년 2월 24일이다. The Register는 두 사건이 같은 날 발생했음을 직접 명시했다.6
Anthropic은 변화를 “수개월에 걸친 내부 논의의 결과”로 설명했다. Kaplan은 TIME에 “거의 1년간 RSP 재설계 방안을 논의했다”고 말했다. 2026년 2월, Amodei가 새 훈련을 계속하기로 결정했다고도 덧붙였다.9 RSP v3.0은 따라서 군사 압박과 무관하게 이미 진행 중이던 프로세스의 산물이라는 것이 회사 측 입장이다.
비판론자들은 다른 시각을 갖는다. Anthropic이 $380억 밸류에이션의 $300억 펀딩 라운드를 막 마무리했고(2026년 2월), 연간 매출이 전년 대비 10배 속도로 성장하며 $1M 이상 지출 고객이 500곳을 넘어선 시점이었다는 점을 짚는다. 상업적 성공과 정부 계약 압력이 동시에 최고조에 달한 시점에 안전 정책이 후퇴했다는 것이다.
군사 압박이 직접적 원인인지 여부와 무관하게, 결과적 구조는 명확하다. Pentagon이 요구한 “제한 없는 군사 사용”과 삭제된 “안전 미확보 시 훈련 중단” 조항은 같은 방향을 향한다. 외부 압박과 내부 결정이 정렬된 방향이 일치했다.
남겨진 레드라인과 그 한계
주목할 것은 Anthropic이 모든 것을 양보한 것은 아니라는 점이다. Amodei는 회의에서 두 가지 레드라인을 끝까지 지켰다. 완전 자율 타격 결정 시스템과 미국 시민 국내 감시였다. Pentagon은 이 두 가지 역시 “합법적 용도”를 준수한다면 문제없다는 입장을 유지했다.4
그러나 레드라인 유지와 하드 리밋 삭제는 별개의 문제다. 배포 제한을 두는 것(레드라인)과 훈련 자체를 멈출 수 있는 메커니즘(하드 리밋)은 다른 층위에 있다. 전자는 용도의 한계를 정하는 것이고, 후자는 역량 확장 자체에 브레이크를 걸 수 있는 구조적 장치였다.
RSP v3.0의 신체계에서 ‘위험 리포트’와 ‘프론티어 안전 로드맵’은 투명성 도구이지 집행 도구가 아니다. 그 리포트가 어떤 내용을 담든, 개발을 멈추는 결정은 내부 경영진의 이중 판단을 통과해야 한다. Painter의 표현이 정확하다. “공개를 약속하는 것과 중단을 약속하는 것은 구조적으로 다르다.”9
산업 전체가 보낸 신호
Anthropic의 RSP는 단순한 내부 문서가 아니었다. 2023년 9월 첫 공개 이후 수개월 내에 OpenAI와 Google DeepMind가 유사한 프레임워크를 채택했다. Anthropic이 업계 기준선을 높이는 효과를 낳았다는 것은 회사 스스로도 인정하는 사실이다.2
RSP v3.0에서 하드 리밋이 사라졌다는 사실은 역방향 신호가 될 수 있다. 업계의 사실상 최고 기준을 설정했던 기업이 그 기준을 완화했을 때, 다른 기업들이 그보다 높은 기준을 자발적으로 유지할 유인은 줄어든다.
캘리포니아 SB 53, 뉴욕 RAISE Act, EU AI Act 실행 강령 등 Anthropic의 RSP를 참조해 설계된 제도들도 같은 질문에 직면한다. 선도 기업의 자발적 기준이 후퇴할 때, 규제 설계자들은 어떤 기준을 참조해야 하는가.
Georgetown 대학 안보·신흥기술센터의 Owen Daniels는 AP에 이렇게 말했다. “Anthropic의 동료 기업들인 Meta, Google, xAI는 모든 합법적 응용을 위한 모델 사용이라는 부서 정책을 기꺼이 준수했습니다. Anthropic의 협상력은 제한적이고, 국방부의 AI 채택 과정에서 영향력을 잃을 위험이 있습니다.”4
2026년 2월 24일 하루에 벌어진 두 사건은 하나의 질문을 남겼다. AI 안전을 위한 하드 리밋은 — 군사 압박이든, 경쟁 압박이든, 정치적 환경이든 — 외부 조건이 충분히 강해지면 결국 제거될 수 있는가. Anthropic이 그 질문에 먼저 데이터를 제공했다.
Footnotes
-
AP News, “Hegseth pressures Anthropic to give military broader access to its AI tech, AP source says”, 2026년 2월 24일. ↩
-
Anthropic, “Responsible Scaling Policy Version 3.0”, 2026년 2월 24일 발효. ↩ ↩2 ↩3 ↩4 ↩5
-
AP News, “Anthropic will no longer be the only AI company approved for classified military networks”, 2026년 2월 24일. ↩ ↩2 ↩3 ↩4
-
CNN Business, “Pentagon threatens to make Anthropic a pariah if it refuses to drop AI guardrails”, 2026년 2월 24일. ↩ ↩2 ↩3
-
CNBC, “Anthropic faces Friday deadline in Defense AI clash with Hegseth”, 2026년 2월 24일. ↩
-
The Register, “All your bots are belong to US if you don’t play ball, DoD tells Anthropic”, 2026년 2월 25일. ↩ ↩2
-
XDA Developers, “Anthropic just dropped its core AI safety promise”, 2026년 2월 25일. (RSP v2 원문 인용 포함) ↩
-
Vocal Media / Futurism, “Anthropic Softens Its Signature Safety Promise While Battling the Pentagon Over ‘Red Lines’“. ↩
-
TIME, “Exclusive: Anthropic Drops Flagship Safety Pledge”, 2026년 2월 24일. ↩ ↩2 ↩3 ↩4
-
Axios, “Pentagon-Anthropic battle pushes other AI labs into major dilemma”, 2026년 2월 19일. ↩
-
Winbuzzer, “Anthropic Drops Hard Safety Limits From its AI Scaling Policy”, 2026년 2월 25일. ↩
댓글