ChatGPT 앱 삭제 295% 폭증: OpenAI 군사 계약이 불러온 역풍

· # AI 뉴스
OpenAI ChatGPT 국방부 DoD AI 윤리 Anthropic Claude

2026년 2월 28일 토요일, 스마트폰 사용자들이 대거 ChatGPT 앱을 삭제하기 시작했다. 시장조사업체 Sensor Tower(센서타워)의 데이터에 따르면, 당일 미국 내 ChatGPT 모바일 앱 삭제 건수는 전일 대비 295% 폭증했다.1 불과 24시간 전만 해도 신규 다운로드가 14% 증가세였던 앱이, 단 하루 만에 반전됐다. 도화선은 OpenAI가 미국 국방부(Department of Defense, 트럼프 행정부에서 ‘전쟁부’로 재명명)와 체결한 군사용 AI 계약 발표였다.

flowchart LR
    A["2/27 금<br/>트럼프, Anthropic<br/>퇴출 행정명령"] --> B["2/27 금 야간<br/>OpenAI, DoD<br/>계약 체결 발표"]
    B --> C["2/28 토<br/>앱 삭제 +295%<br/>Claude 앱스토어 급등"]
    C --> D["3/3 월<br/>Altman 공개 사과<br/>계약 조항 수정"]
    D --> E["3/4 화<br/>NATO 계약 검토<br/>추가 논란"]

사건의 발단: Anthropic 퇴출과 OpenAI의 빠른 등판

이 사태를 이해하려면 하루 앞인 2월 27일 금요일로 돌아가야 한다. 그날 오후 5시 1분, 트럼프 대통령은 연방 기관이 Anthropic(앤트로픽)의 AI 기술 사용을 6개월 내 전면 중단하라는 행정명령에 서명했다. Pete Hegseth 국방장관은 Anthropic을 “공급망 위험” 기업으로 지정했다. 발단은 Anthropic이 군사 계약 협상 과정에서 두 가지 조건을 고수했기 때문이었다. 미국 내 대규모 민간인 감시에 AI를 사용하지 않을 것, 그리고 아직 충분히 안전하지 않은 완전 자율 무기체계에는 AI를 투입하지 않을 것. 국방부는 이 조건들을 받아들이지 않았고, 협상은 결렬됐다.2

OpenAI는 그날 밤, 같은 금요일 늦게 국방부와의 계약 체결을 발표했다. 타이밍은 완벽했다 — 아니, 너무 완벽했다. Anthropic이 쫓겨난 자리를 OpenAI가 불과 몇 시간 만에 채운 것이었다.

숫자로 본 역풍

앱 삭제 수치만이 아니었다. Sensor Tower 데이터는 사용자 반응의 다층적인 면모를 보여줬다.1

지표변화기준일
앱 삭제+295%2월 28일(토) 전일 대비
신규 다운로드-13%2월 28일(토) 전일 대비
신규 다운로드-5% 추가3월 1일(일) 전일 대비
1점 리뷰+775%2월 28일(토)
Anthropic Claude 다운로드+37%2월 27일(금)
Anthropic Claude 다운로드+51%2월 28일(토)

이 숫자들은 단순한 반사적 분노가 아니었다. Claude는 그 주말 미국 앱스토어에서 무료 앱 1위에 올랐다. 일주일 전(2월 22일)과 비교하면 20계단 이상 급등한 순위였다.3 캐나다, 독일, 스위스를 포함한 6개국에서도 Claude가 무료 아이폰 앱 1위를 기록했다. 사용자들이 단순히 ChatGPT를 지운 게 아니라, 명확한 대안을 선택한 이동이었다.

Sam Altman의 사과: “기회주의적이고 부주의해 보였다”

역풍이 거세지자, Sam Altman OpenAI(오픈AI) CEO는 3월 3일 월요일 내부 메모를 X(구 트위터)에 공개했다.4 그 핵심 문장은 다음과 같았다.

[!QUOTE] “We were genuinely trying to de-escalate things and avoid a much worse outcome, but I think it just looked opportunistic and sloppy.” — Sam Altman, OpenAI CEO

그는 또 “우리는 그 계약을 금요일에 그렇게 서둘러 발표해서는 안 됐다”고 인정했다. 이 발언의 의미는 분명했다. 자신이 직접 행동의 취지를 인정하면서도, 결과적으로 나쁜 인상을 줬다는 점을 사내에 시인한 것이었다.

그러면서 Altman은 계약 수정 사항을 공개했다. 핵심은 세 가지였다. 첫째, OpenAI의 AI 시스템은 미국 헌법 수정 제4조, 1947년 국가안보법, 1978년 외국인정보감시법에 따라 “미국 시민 및 국적자에 대한 국내 감시”에 의도적으로 사용되어서는 안 된다는 명시적 금지 조항 추가. 둘째, NSA(국가안보국), NGA(국가지형정보국), DIA(국방정보국) 등 국방정보기관은 별도의 계약 수정 없이는 OpenAI 시스템을 사용할 수 없다는 조항 추가. 셋째, 위치정보, 피트니스 앱 데이터 같은 상업적으로 구매한 데이터에 대한 명시적 사용 제한.5

이에 대해 법률 전문가들은 이 조항들이 실제로 얼마나 강제력을 가질 수 있는지에 대한 의문을 제기했다.

계약의 내용과 논란의 실체

OpenAI는 계약 발표 다음 날인 3월 1일 상세 내용을 공개했다.6 계약에 따르면 OpenAI의 AI 모델은 기밀 환경(classified environments)에 배포된다. OpenAI 측은 “이전의 어떤 기밀 AI 배포 계약보다 더 많은 안전장치를 갖추고 있다”고 주장하며, Anthropic의 계약보다도 우월한 보호 장치를 갖췄다고 강조했다.

그러나 비판론자들이 지적한 핵심은 다른 곳에 있었다. OpenAI는 2022년 설립 이후 사용 정책(usage policy)에서 “무기 개발”, “군사 및 전쟁 목적”에 대한 사용을 금지해왔다. 그런데 2024년 초 슬그머니 해당 조항을 삭제했다. 그리고 2026년 2월, 국방부 계약을 체결했다. 이 일련의 흐름이 우연이 아니라는 것은 누구나 알 수 있었다.

사용자들이 분노한 이유는 단순히 “군대와 계약했다”는 사실 자체가 아니었다. 오히려 “AI 안전”을 표방하며 수십억 달러의 사용자 신뢰를 쌓아온 회사가, 정작 안전 조건을 내세운 경쟁사가 퇴출당하는 그 자리를 재빠르게 채웠다는 점이었다. 타이밍이 전부였다.

NATO 계약까지: 확장되는 군사화 행보

Anthropic 퇴출 발표에서 국방부 계약 체결, 계약 수정 발표까지 불과 6일이 지난 3월 4일, 또 다른 뉴스가 나왔다. Sam Altman이 사내 미팅에서 NATO의 “모든 기밀 네트워크”에 AI를 배포하는 방안을 검토 중이라고 발언한 것이었다. OpenAI 대변인은 이후 Altman이 “실수로 발언했다”고 수정했고, 실제 논의 대상은 “비기밀 네트워크”라고 정정했다.7

그러나 “기밀”이냐 “비기밀”이냐를 떠나, 방향성 자체는 명확해졌다. OpenAI는 미국 국방부에 이어 NATO, 즉 32개 회원국 군사 동맹의 네트워크 진입도 목표로 삼고 있었다. 로이터 통신이 이 사실을 보도했고, 사용자들의 반응은 또 한 번 달궈졌다.

Anthropic의 역설: 퇴출됐는데 오히려 성장

이 모든 혼란 속에서 아이러니한 상황이 펼쳐졌다. 트럼프 대통령에게 퇴출 선언을 받은 Anthropic은 오히려 최고의 한 주를 보냈다.

2026년 3월 4일, Anthropic CEO Dario Amodei(다리오 아모데이)는 모건스탠리 TMT(Technology, Media & Telecommunications) 컨퍼런스에서 Anthropic의 ARR(연간반복수익)이 190억 달러를 돌파했다고 발표했다.8 2월 한 달에만 60억 달러가 추가됐다. 불과 3개월 전인 2025년 12월의 90억 달러에서 2배 이상 성장한 수치였다. 200억 달러 돌파는 시간문제였다.

앱스토어 순위, 매출 지표 모두 같은 방향을 가리켰다. OpenAI가 국방부 계약으로 군사 시장을 향해 돌진하는 동안, Anthropic은 “거절”이 브랜드 자산이 된다는 사실을 증명하고 있었다.

방산업체의 딜레마: Anthropic 제거 착수

그러나 Anthropic의 수난이 끝난 것은 아니었다. 국방부는 군사 계약을 맺은 기업들에게 공급망에서 Anthropic의 AI 도구를 모두 제거하라는 지시를 내렸다. Lockheed Martin(록히드 마틴) 등 주요 방산업체들이 직원들에게 Claude 사용 중단을 지시하고, 다른 AI 모델로 전환하기 시작했다.9

Lockheed Martin을 비롯한 방산업체들의 공식 입장은 “Claude의 기능적 단점이 아닌, 규정 준수 차원의 결정”이라고 했다. 즉, 성능 문제가 아니라 정치적 판단이었다.

그러나 Anthropic은 즉각 반격에 나섰다. Anthropic 법무팀은 “국방부는 자사 계약업체들에게 Claude 사용을 금지할 법적 권한이 없다”고 주장했다.10 실제로 정부 계약 및 기술 분야 법률 전문가들 사이에서는 이 이슈가 법정으로 갈 가능성이 있다는 분석이 나왔다. 국방부의 공급망 통제 권한이 어디까지 미치는지에 대한 법적 해석이 엇갈렸기 때문이었다.

AI 기업과 군사 협력: 신뢰의 문제

ChatGPT 삭제 사태를 단순히 PR 실패나 타이밍 문제로 보는 것은 핵심을 놓치는 것이다. 이 사건은 현재 AI 산업이 직면한 근본적 긴장을 드러냈다.

AI 기업들은 수년간 “책임 있는 AI”, “안전 우선” 등의 메시지로 대중의 신뢰를 쌓아왔다. OpenAI의 경우 특히 강했다. “AI 안전”을 창업 정신으로 내세웠고, 비영리 조직에서 출발했으며, AGI의 위험성을 경고하는 가장 목소리 큰 기업 중 하나였다.

그런데 지금 그 회사가, 동일한 “AI 안전”을 이유로 계약을 거부한 경쟁사가 추방당하는 그 자리에서, 군사용 기밀 시스템에 AI를 제공하는 계약에 서명했다. 사용자 입장에서 이것은 단순한 사업적 결정이 아니었다. 가치 체계에 대한 선택이었다.

Google(구글)은 2018년 Project Maven(프로젝트 메이븐)에서 군 드론의 이미지 분석에 AI를 활용하려다 직원 4,000명 이상의 반발에 직면해 계약을 갱신하지 않았다. 당시 그 결정은 AI 윤리의 이정표로 기록됐다. 그런데 2026년, 같은 논쟁이 다시 펼쳐지고 있다. 7년이 지났고, 회사들은 달라졌으며, AI의 군사적 활용도는 비교할 수 없이 높아졌다.

Altman이 사내 메모에서 쓴 “기회주의적이고 부주의해 보였다”는 표현은 솔직한 자기 인식이었다. 하지만 문제는 인상의 문제가 아니었다. 사용자들이 묻는 것은 “우리가 매일 쓰는 이 AI 도구가, 우리가 동의하지 않는 목적으로도 쓰이고 있는가”였다.

[!KEY] 사용자들이 분노한 것은 군사 계약 자체가 아니었다. “AI 안전”을 표방하며 신뢰를 쌓아온 회사가, 같은 이유로 퇴출당한 경쟁사의 자리를 몇 시간 만에 채웠다는 타이밍의 문제였다. 295%라는 숫자는 그 불신의 무게였다.

앞으로 남은 질문들

이 사태가 남긴 질문들은 쉽게 해소되지 않는다.

OpenAI가 추가한 국내 감시 금지 조항은 실제로 집행 가능한가. 법률 전문가들은 의문을 표했다. 군사 계약에서 민간 AI 기업이 사용 제한을 어떻게 강제할 수 있는지의 메커니즘이 불분명하기 때문이다.

NATO 계약이 현실화되면, 32개국 군사 네트워크에서 AI가 어떤 역할을 하게 되는가. 비기밀 네트워크라는 한정이 붙었지만, 군사 작전 지원에서 “기밀”과 “비기밀”의 경계가 실제로는 얼마나 유의미한가.

Anthropic은 “거절”로 단기 성장을 달성했다. 그러나 국방부의 공급망 제거 압박이 지속된다면, 기업 고객들이 Anthropic을 계속 선택할 수 있을까. AI 업계에서 군사·정보기관은 점점 더 큰 고객이 되어가고 있다.

그리고 가장 근본적인 질문. AI 기업이 사용자에게 제공하는 서비스와, 정부·군대에 제공하는 서비스 사이에 정보의 분리가 보장되는가. OpenAI의 수정 계약에서도 이 질문에 대한 명확한 답은 없었다.

2월 28일의 295%라는 숫자는 사용자들이 이 질문에 직접 행동으로 답한 결과였다. Sam Altman은 “서두르지 말았어야 했다”고 말했다. 하지만 사용자들이 삭제를 서두른 것은 아니었다.


Footnotes

  1. Aisha Malik, “ChatGPT uninstalls surged by 295% after DoD deal,” TechCrunch, March 2, 2026. https://techcrunch.com/2026/03/02/chatgpt-uninstalls-surged-by-295-after-dod-deal/ 2

  2. Cade Metz & Karen Weise, “OpenAI Reaches A.I. Agreement With Defense Dept. After Anthropic Clash,” The New York Times, February 27, 2026. https://www.nytimes.com/2026/02/27/technology/openai-agreement-pentagon-ai.html

  3. Aisha Malik, “Anthropic’s Claude rises to No. 2 in the App Store following Pentagon dispute,” TechCrunch, March 1, 2026. https://techcrunch.com/2026/03/01/anthropics-claude-rises-to-no-2-in-the-app-store-following-pentagon-dispute/

  4. Sam Altman (@sama), internal memo reposted on X, March 3, 2026. 원문 인용: “We were genuinely trying to de-escalate things and avoid a much worse outcome, but I think it just looked opportunistic and sloppy.”

  5. Jennifer Elias, “OpenAI’s Altman admits defense deal ‘looked opportunistic and sloppy’ amid backlash,” CNBC, March 3, 2026. https://www.cnbc.com/2026/03/03/openai-sam-altman-pentagon-deal-amended-surveillance-limits.html

  6. Devin Coldewey, “OpenAI reveals more details about its agreement with the Pentagon,” TechCrunch, March 1, 2026. https://techcrunch.com/2026/03/01/openai-shares-more-details-about-its-agreement-with-the-pentagon/

  7. Reuters, “OpenAI looking at contract with NATO, source says,” March 4, 2026. https://www.reuters.com/technology/openai-looking-contract-with-nato-source-says-2026-03-04/

  8. Investing.com, “Anthropic ARR surges to $19 billion on Claude Code strength,” Yahoo Finance, March 4, 2026. https://uk.finance.yahoo.com/news/anthropic-arr-surges-19-billion-151210607.html

  9. Reuters, “Defense contractors, like Lockheed, seen removing Anthropic’s AI after Trump ban,” March 4, 2026. https://www.reuters.com/sustainability/society-equity/defense-contractors-like-lockheed-seen-removing-anthropics-ai-after-trump-ban-2026-03-04/

  10. Jennifer Elias, “Defense tech companies are dropping Claude after Pentagon’s Anthropic blacklist,” CNBC, March 4, 2026. https://www.cnbc.com/2026/03/04/pentagon-blacklist-anthropic-defense-tech-claude.html

이 글이 도움됐다면 눌러주세요