앤스로픽이 펜타곤의 AI 무제한 사용 요구를 거부하자, 트럼프 행정부가 모든 연방기관에 앤스로픽 기술 사용 중단을 명령하고 공급망 위험 기업으로 지정했다. AI 안전과 국가 안보가 정면 충돌한 이 사건은 AI 거버넌스의 새로운 전선을 열었다.
2억 달러 계약에서 블랙리스트까지
앤스로픽(Anthropic)이 미국 국방부(펜타곤)의 AI 무제한 사용 요구를 거부한 대가로 연방정부 블랙리스트에 올랐다. 2025년 7월 앤스로픽은 펜타곤과 2억 달러(약 2,900억 원) 규모의 계약을 체결하고, 자사 AI 모델 클로드(Claude)를 기밀 군사 네트워크에 배치했다. 클로드는 해당 네트워크에 배치된 유일한 프론티어 AI 모델이었다. 그러나 펜타곤이 “모든 합법적 용도”에 대한 사용 제한 철폐를 요구하면서 양측의 갈등이 폭발했다.
피터 헤그세스(Peter Hegseth) 국방장관은 앤스로픽에 최후통첩을 보냈다. 2월 27일 오후 5시까지 대규모 국내 감시와 완전 자율 무기를 포함한 모든 합법적 군사 용도에 클로드 사용을 허용하라는 요구였다. 다리오 아모데이(Dario Amodei) 앤스로픽 CEO는 “양심상 해당 요구에 동의할 수 없다”며 이를 공식 거부했다. 앤스로픽은 대규모 국내 감시와 완전 자율 무기 시스템에 대한 사용 제한을 양보할 수 없는 원칙으로 제시한 것이다.
트럼프, 전 연방기관 사용 중단 명령
앤스로픽의 거부 직후 트럼프 대통령은 모든 연방기관에 앤스로픽 기술 사용 즉시 중단을 명령했다. 헤그세스 국방장관은 “앤스로픽의 입장은 미국 원칙에 근본적으로 양립할 수 없다”고 선언했다. 행정부는 앤스로픽을 공급망 위험 기업으로 지정했는데, 이는 통상 중국 등 적대국 기업에만 적용되는 극단적 조치이다. 나아가 국방물자생산법(DPA) 발동까지 검토 중인 것으로 알려졌다.
| 항목 | 내용 |
|---|---|
| 계약 규모 | 2억 달러(약 2,900억 원) |
| 앤스로픽 연간 매출 | 140억 달러(약 20조 3,000억 원) |
| 클로드 대체 소요 기간 | 3~12개월 |
| 전환 기간 | 6개월 부여 |
| 공급망 위험 지정 | 통상 적대국 기업에만 적용 |
행정부는 기존 계약에 대해 6개월의 전환 기간을 부여했다. 그러나 클로드를 대체할 AI 모델을 군사 기밀 네트워크에 새로 배치하려면 3개월에서 최대 12개월이 소요될 것으로 전문가들은 전망한다. 사실상 펜타곤의 AI 역량에 공백이 불가피한 상황이다.
도화선은 베네수엘라 작전
이번 갈등의 도화선은 베네수엘라 작전에 클로드가 사용된 의혹이다. 앤스로픽이 설정한 사용 제한 정책에 위배될 수 있는 군사 작전에 클로드가 활용됐다는 정황이 포착되면서, 앤스로픽은 사용 범위에 대한 재검토를 요청했다. 이에 펜타곤은 오히려 모든 제한 철폐를 역으로 요구한 것이다.
업계의 반응은 엇갈린다. 오픈AI(OpenAI) CEO 샘 올트먼(Sam Altman)은 앤스로픽이 설정한 “레드라인”에 공감을 표명했다. 그러나 오픈AI, 구글(Google), xAI는 각각 2억 달러 규모의 국방 계약을 보유하고 있으며, “모든 합법적 용도” 사용에 동의한 상태이다. 앤스로픽만이 사실상 유일하게 사용 제한을 고수한 셈이다.
의회 반응도 양분됐다. 톰 틸리스(Thom Tillis) 공화당 상원의원은 국방부의 대응 방식을 비판하면서, 공급망 위험 지정이 미국 자국 기업에 적용된 것은 전례 없는 일이라고 지적했다. 마크 워너(Mark Warner) 민주당 상원의원은 이번 사태가 AI 거버넌스 체계의 부재를 여실히 드러냈다며, 체계적인 AI 규제 프레임워크 마련의 필요성을 강조했다.
앤스로픽의 연간 매출은 140억 달러(약 20조 3,000억 원)에 달하며, 기업공개(IPO)를 준비 중이다. 블랙리스트 지정이 IPO 일정과 기업 가치에 미칠 영향도 주목된다. 연방정부 계약 차단은 매출 자체보다 기업 신뢰도와 규제 리스크 측면에서 치명적일 수 있다.
이번 사태는 한국 AI 기업과 정부에도 중요한 시사점을 던진다. 한국 역시 국방 분야에 AI 도입을 적극 추진 중이며, 네이버, 카카오 등 국내 AI 기업이 정부 사업에 참여할 때 유사한 윤리적 갈등에 직면할 수 있다. AI 기술의 군사적 활용 범위, 자율 무기 사용 제한, 감시 목적 활용 등에 대한 명확한 가이드라인이 선제적으로 마련되어야 한다.
특히 공급망 위험 지정이라는 극단적 수단이 자국 기업에까지 적용된 전례는, AI 안전 원칙을 고수하는 기업이 정부와 충돌할 경우 어떤 결과를 맞을 수 있는지를 보여준다. AI 안전과 국가 안보 사이의 균형점을 찾는 글로벌 논의가 본격화될 전망이며, 한국도 이 논의에서 뒤처져서는 안 될 것이다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


