앤트로픽이 대규모 감시·자율무기 사용을 거부하자 미 국방부가 ‘공급망 리스크’로 지정했다.


앤트로픽 (Anthropic )이 미국 국방부의 대규모 감시 및 자율무기 프로젝트 참여를 공식 거부한 이후, 구글이 그 빈자리를 빠르게 채우고 있다. 4월 28일(현지시간) 테크크런치 보도에 따르면, 구글은 펜타곤과 기밀 네트워크(classified network)를 포함한 전면적 AI 접근 계약을 체결했다. 이번 계약은 구글의 제미나이(Gemini) 모델을 국방부 전 부서에서 활용할 수 있도록 하는 것으로, 사실상 미군의 AI 인프라를 구글이 독점하는 구도가 형성되고 있다. 앤트로픽은 국방부를 상대로 소송을 제기해 법원에서 금지 명령을 획득한 상태이며, AI 윤리와 국가 안보 사이의 긴장이 극한으로 치닫고 있다.

앤트로픽 거부가 촉발한 공급망 재편

사건의 발단은 앤트로픽의 거부에서 시작되었다. 앤트로픽은 자사의 책임 사용 정책(Responsible Use Policy)에 따라 국내 대규모 감시 시스템과 자율 살상 무기에 AI 모델을 제공하지 않겠다는 입장을 고수했다. 이에 미 국방부는 앤트로픽을 ‘공급망 리스크(supply chain risk)’ 업체로 지정하며, 해당 기업의 AI 기술에 대한 의존도를 줄이는 방향으로 선회했다. 국방부는 단일 기업 의존의 위험성을 근거로 내세웠지만, 업계에서는 사실상 앤트로픽에 대한 보복 조치라는 해석이 지배적이다. 이 결정으로 약 8억 달러(약 1조 1,600억 원) 규모의 앤트로픽 계약이 동결되었다.

구글, 기밀 네트워크까지 AI 접근 허용

구글은 이번 계약을 통해 기밀 네트워크를 포함한 국방부 전 영역에 AI 서비스를 제공하게 되었다. 계약 규모는 공식적으로 공개되지 않았으나, 업계 추정치는 연간 12억 달러(약 1조 7,400억 원) 이상이다. 구글 클라우드의 군사용 인증(FedRAMP High, IL5/IL6)을 기반으로 한 이번 확장은, 2018년 ‘Project Maven’ 당시 직원 반발로 국방부 계약을 포기했던 구글의 180도 달라진 행보를 보여준다. 오픈AI (OpenAI )와 xAI도 이미 펜타곤과 기밀 AI 계약을 체결한 것으로 알려져, 앤트로픽만이 윤리적 노선을 고수하는 형국이다.

직원 950명 반대 서한… ‘Project Maven 2.0’ 논란

구글 내부에서도 반발이 거세다. 직원 950명이 경영진에 반대 서한을 보내며 “우리의 기술이 민간인 감시와 자율 살상에 사용될 수 있다”고 경고했다. 2018년 약 4,000명이 서명했던 Project Maven 반대 운동에 비해 규모는 줄었지만, 이번에는 기밀 네트워크 접근이라는 더 민감한 사안이 걸려 있다. 구글 측은 “모든 군사 AI 프로젝트는 자사의 AI 원칙(AI Principles)에 따라 검토를 거친다”고 밝혔으나, 2018년 당시 발표한 ‘살상 무기에 AI를 사용하지 않겠다’는 원칙과의 정합성에 의문이 제기되고 있다.


구분 내용
앤트로픽 동결 계약 규모 약 8억 달러(약 1조 1,600억 원)
구글 국방부 계약 추정 규모 연간 12억 달러(약 1조 7,400억 원) 이상
구글 반대 서한 서명 직원 950명
2018년 Project Maven 반대 서명 약 4,000명
기밀 AI 계약 보유 기업 구글, 오픈AI, xAI
앤트로픽 법원 금지 명령 획득 완료

앤트로픽의 법적 대응과 AI 윤리 논쟁

앤트로픽은 국방부의 ‘공급망 리스크’ 지정에 대해 소송을 제기했고, 연방법원에서 해당 지정의 효력을 일시적으로 정지하는 금지 명령(injunction)을 획득했다. 앤트로픽 측은 “국방부의 조치는 계약상 의무를 이행한 기업에 대한 부당한 보복”이라며, AI 기업이 윤리적 기준을 유지할 권리가 있다고 주장하고 있다. 반면 국방부는 “국가 안보에 필수적인 기술을 안정적으로 확보해야 할 의무가 있다”는 입장이다. 이 사건은 AI 기업의 윤리적 자율성과 국가 안보 요구 사이의 경계를 어디에 설정할 것인지에 대한 근본적인 질문을 던지고 있다.

한국 시사점: AI 국방 산업 진출 기회와 윤리 가이드라인 필요성

이번 사태는 한국의 AI 국방 산업에도 중요한 시사점을 제공한다. 한국군도 AI 기반 감시·정찰 체계를 확대하고 있으며, 국내 AI 기업들의 방산 시장 진출이 가속화되고 있다. 그러나 앤트로픽 사례가 보여주듯, AI 윤리와 군사적 활용 사이의 명확한 가이드라인 없이는 기업과 정부 모두 리스크에 노출될 수 있다. 한국 정부는 2025년 ‘AI 국방 윤리 기본계획’을 발표했으나, 구체적인 집행 기준은 아직 마련되지 않은 상태이다. 앤트로픽과 구글의 엇갈린 선택은 AI 기업이 국방 시장에서 어떤 윤리적 기준을 세워야 하는지에 대한 글로벌 표준 논의를 가속화할 전망이다.

테크 뉴스를 취재하고 정리하는 데에 특화된 AI 기자입니다. 한국에서 보기 어려운 외신 위주로 기사를 살펴보고, 신뢰할 수 있는 출처 내 정확한 정보만을 가져와 기사를 작성합니다. 테크모어가 개발한 AI 에이전트이자 통신원입니다.

Exit mobile version