오픈AI가 미 국방부(펜타곤)와 체결한 기밀 네트워크 AI 배치 계약의 세부사항을 추가 공개했다. 앤스로픽이 군사 AI 윤리 기준을 이유로 퇴출당한 직후 체결된 이 계약은 AI 업계의 군사 협력 경계선을 둘러싼 논쟁을 촉발하고 있다.
24시간 만에 뒤바뀐 판도
2월 27일, AI 업계에 전례 없는 격변이 일어났다. 앤스로픽(Anthropic)이 자율 무기와 국내 대규모 감시에 AI를 사용하지 않겠다는 명시적 계약 조항 삽입을 요구하며 미 국방부와의 협상이 결렬된 지 불과 몇 시간 만에, 오픈AI(OpenAI)가 펜타곤과 새로운 계약을 체결했다.
도널드 트럼프 대통령은 즉각 소셜미디어에서 앤스로픽을 “좌파 극단주의자들(left-wing nut jobs)”이라고 비난하며, 연방기관의 앤스로픽 제품 사용 중단을 지시했다. 피트 헤그세스(Pete Hegseth) 국방장관은 한 발 더 나아가 앤스로픽을 ‘공급망 리스크(supply chain risk)’로 지정했다. 이는 미국 기업에 대해 이 조치가 적용된 최초의 사례이다.
오픈AI 계약 세부사항: ‘합법적 목적’ 사용 허용
3월 1일, 샘 올트먼(Sam Altman) 오픈AI CEO는 테크크런치(TechCrunch) 인터뷰를 통해 계약 세부사항을 추가 공개했다. 계약 규모는 최대 2억 달러(약 2,900억 원)로 추정되며, 핵심 내용은 다음과 같다.
오픈AI는 미 국방부 기밀 네트워크에 자사 AI 모델을 배치한다. 국방부는 이 모델을 ‘합법적 목적(any lawful purpose)’으로 사용할 수 있되, 오픈AI의 ‘안전 스택(safety stack)’이 적용된다. 오픈AI가 제시한 3대 레드라인은 국내 대규모 감시 금지, 자율 무기 체계 지휘 금지, 고위험 자동화 결정(사회적 신용점수 시스템 등) 금지이다.
기술적 안전장치로는 클라우드 전용 배치(무기체계·센서에 직접 탑재 불가), 보안 인가를 받은 오픈AI 인력의 상시 참여, 계약 위반 시 강력한 보호 조항 등이 포함된다. 올트먼은 “우리의 가장 중요한 안전 원칙 두 가지는 국내 대규모 감시 금지와 자율 무기 체계를 포함한 무력 사용에 대한 인간의 책임”이라고 밝혔다.
그러나 올트먼은 이 계약이 “분명히 서둘러 이루어졌다”며 “외관상 좋아 보이지 않는다”고도 인정했다. 또한 “미군이 외국인에 대해 어느 정도의 감시를 할 것이라는 점은 받아들였다”고 발언해, 국내 감시만 금지하고 해외 감시는 허용하는 구조임을 시사했다.
오픈AI vs 앤스로픽: 같은 원칙, 다른 접근
| 구분 | 오픈AI | 앤스로픽 |
|---|---|---|
| 핵심 입장 | ‘합법적 목적’ 사용 허용 + 자체 안전 스택 | 명시적 금지 조항 계약서 삽입 요구 |
| 레드라인 | 국내 감시·자율 무기·고위험 자동화 금지 | 국내 감시·자율 무기 금지 (동일) |
| 이행 방식 | 기존 법률 + 다층적 기술 안전장치 의존 | 계약서 명시 의무화 |
| 해외 감시 | 사실상 허용 (올트먼 발언) | 금지 요구 |
| 계약 결과 | 최대 2억 달러 계약 체결 | 계약 취소 + 공급망 리스크 지정 |
| CEO 입장 | “국방부는 유연했고, 지원하고 싶다” | “양심에 따라 요구에 응할 수 없다” |
오픈AI는 자사 계약이 “앤스로픽의 계약을 포함해 기밀 AI 배치를 위한 어떤 기존 계약보다 더 많은 가드레일을 갖추고 있다”고 주장한다. 그러나 비판자들은 ‘합법적 목적’ 사용을 허용하면서 동시에 제한 조항을 주장하는 것이 모순이라고 지적한다. 특히 미국인의 공개 정보 수집을 명시적으로 금지하지 않는 점이 앤스로픽과의 핵심 차이로 꼽힌다.
업계 반발과 소비자 반응
오픈AI 내부에서도 반발이 일어났다. 오픈AI 직원 60명 이상과 구글 직원 300명 이상이 앤스로픽의 입장을 지지하는 공개서한에 서명했다. 서한은 “차이를 제쳐두고 함께 서자”며 앤스로픽이 주장한 경계를 지키자고 촉구했다.
소비자 반응은 더 극적이었다. 앤스로픽의 클로드(Claude) 앱이 미국 앱스토어 무료 앱 1위에 등극하며 챗GPT를 추월했다. 1월 대비 무료 사용자가 60% 이상 증가했고, 유료 구독자는 올해 들어 2배 이상 늘었다. 레딧(Reddit)에서는 챗GPT 해지를 촉구하는 게시물이 3만 추천을 받았다.
앤스로픽의 다리오 아모데이(Dario Amodei) CEO는 “우리는 양심에 따라 그들의 요구에 응할 수 없다”고 선언했다. 법률 전문가들은 앤스로픽에 대한 공급망 리스크 지정이 “거의 확실히 불법”이라고 평가하며, 필수 리스크 평가와 의회 통보가 이루어지지 않은 것으로 보인다고 분석했다. 앤스로픽은 법적 대응 방침을 발표했다.
앤스로픽에 대한 공급망 리스크 지정은 직접적인 2억 달러(약 2,900억 원) 계약 취소를 넘어, 아마존·구글·엔비디아 등 주요 투자자와 기업 고객에까지 타격을 줄 수 있다. 연간 매출 180억 달러(약 26조 1,000억 원) 이상으로 전망되고 최근 300억 달러(약 43조 5,000억 원) 규모 펀딩 라운드를 완료한 앤스로픽이지만, 2026년 후반 예정된 기업공개(IPO)에도 악영향이 우려된다.
동맹국 군사 AI 기준에 직접 영향
이번 사태는 한국에도 직접적인 영향을 미친다. 한국은 미국과 국방 과학기술 집행위원회 설립을 추진 중이며, AI 기반 합동전영역지휘통제(JADC2) 체계 구축에서 미국 AI 기업의 기술을 활용할 가능성이 높다. 미 국방부가 오픈AI 모델을 기밀 네트워크에 배치하는 선례는 한미 연합 작전에서의 AI 활용 방식에 직접적 영향을 미칠 수 있다.
한화시스템, LIG넥스원 등 한국 방산업체들은 AI 기반 무기체계를 개발 중이다. 미국의 AI 군사 활용 기준이 ‘합법적 목적’으로 설정되면서, 한국 방산업체들도 미군 호환 AI 체계 개발 시 이 기준을 참고해야 할 것이다. 한국 국방부는 2026년까지 군사 AI·SW 인력 5만 명 양성을 목표로 하고 있다.
2026년 1월 시행된 한국의 ‘AI 기본법’도 시험대에 오른다. 앤스로픽과 국방부의 갈등은 AI 기업의 윤리 기준과 정부의 군사 활용 요구 사이의 긴장을 보여주며, 한국도 군사 AI 활용 시 유사한 윤리적 경계 설정이 불가피하다.
올트먼은 “현재 상황이 흘러가는 방향은 앤스로픽, 건강한 경쟁, 그리고 미국에 위험하다”고 경고했다. AI 기술의 군사 활용을 둘러싼 이번 격변은 단순한 기업 간 경쟁이 아니다. AI 안전의 기준을 누가 설정하고, 그 기준이 어떻게 이행되어야 하는가라는 근본적 질문을 던지고 있다. 두 기업의 대조적 행보가 보여주는 것은, AI 시대에 ‘책임 있는 기술’의 정의가 아직 합의에 이르지 못했다는 현실이다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


