아마존이 오스틴의 트레이니엄(Trainium) 칩 개발 연구소를 최초로 언론에 공개했다. 앤스로픽, 오픈AI , 애플까지 고객으로 확보하며 엔비디아의 AI 칩 독점 구도에 균열이 생기고 있다. 총 140만 개의 트레이니엄 칩이 배치된 가운데, 아마존은 비용 50% 절감과 에너지 효율 40% 개선을 무기로 본격적인 반도체 경쟁에 나섰다.

500억 달러 투자 직후, 비밀 연구소의 문이 열리다

아마존웹서비스(AWS)가 미국 텍사스주 오스틴에 위치한 자체 AI 칩 ‘트레이니엄(Trainium)’ 개발 연구소를 최초로 언론에 공개했다. 이번 공개는 아마존이 오픈AI에 500억 달러(약 7조 2,500억 원)를 투자한다고 발표한 직후에 이뤄졌다. 오스틴 연구소는 트레이니엄 칩의 설계부터 테스트까지 전 과정을 담당하는 핵심 거점으로, 아마존의 자체 반도체 전략이 실험 단계를 넘어 상용화 궤도에 올랐다는 신호로 해석된다. 테크크런치(TechCrunch)의 줄리 보트(Julie Bort) 기자가 단독으로 연구소 내부를 취재했으며, 아마존은 이 시설에서 트랜스포머 아키텍처에 최적화된 대규모 행렬 연산(matrix multiplication) 칩을 개발하고 있다고 밝혔다.

140만 개 칩 배치, 앤스로픽·오픈AI가 핵심 고객

트레이니엄 칩은 현재 3세대까지 진화했으며, 전 세대를 합산해 총 140만 개가 배치됐다. 가장 큰 고객은 앤스로픽(Anthropic )이다. 앤스로픽은 ‘프로젝트 레이니어(Project Rainier)’라는 세계 최대 규모의 AI 컴퓨트 클러스터를 운영하며, 100만 개 이상의 트레이니엄2 칩으로 클로드(Claude) 모델을 훈련하고 있다. 이 클러스터는 2025년 말 50만 개의 칩으로 가동을 시작한 이후 빠르게 확장됐다. 아마존은 앤스로픽을 위해 3개의 AWS 캠퍼스에 걸쳐 1.3기가와트 이상의 IT 용량을 확보해 둔 상태이다.

오픈AI와의 관계는 더욱 대규모이다. 아마존은 오픈AI에 8년간 1,380억 달러(약 200조 1,000억 원) 규모의 트레이니엄3·트레이니엄4 컴퓨팅 용량을 공급하기로 계약했다. 이 중 150억 달러(약 21조 7,500억 원)는 선투자로 집행되며, 나머지 350억 달러(약 50조 7,500억 원)는 조건 충족 시 추가 투입된다. AWS는 오픈AI의 기업용 에이전트 플랫폼 ‘프론티어(Frontier)’의 독점 서드파티 클라우드 배포 파트너로도 지정됐다.

항목 세부 내용
연구소 위치 미국 텍사스주 오스틴
총 배치 칩 수 140만 개 (3세대 합산)
앤스로픽 사용량 트레이니엄2 100만 개 이상
오픈AI 계약 규모 8년간 1,380억 달러(약 200조 원)
오픈AI 컴퓨팅 용량 2기가와트
아마존 투자액 500억 달러(약 72조 5,000억 원)
트레이니엄3 공정 3나노미터

트레이니엄3, 성능과 비용 모두 잡다

최신 트레이니엄3는 3나노미터(nm) 공정으로 제조되며, FP8 연산 기준 2.52페타플롭스(PFLOPS)의 성능을 제공한다. 메모리는 HBM3e 144GB를 탑재했고, 메모리 대역폭은 4.9TB/s에 달한다. 울트라서버(UltraServer) 구성 시 단일 랙에 144개의 칩을 장착해 706TB/s의 총 대역폭을 구현한다. 아마존은 이전 세대 대비 성능이 4배 향상됐고, 에너지 소비는 40% 줄었다고 설명했다.

비용 경쟁력도 핵심 무기이다. 아마존은 트레이니엄3 기반 울트라서버가 엔비디아 H100 클러스터 대비 추론 비용을 최대 50% 절감할 수 있다고 주장한다. 트레이니엄2 역시 H100 기반 P5e 인스턴스 대비 훈련 워크로드에서 30~40%의 가격 대비 성능 우위를 보인다. 특히 강화학습(reinforcement learning)처럼 메모리 바운드(memory-bound) 워크로드에서는 달러당 메모리 대역폭이 엔비디아 GB200보다 유리하다는 분석이다.

애플까지 테스트 중, 트레이니엄4도 예고

주목할 점은 애플(Apple)도 트레이니엄 칩을 AI 워크로드에 테스트하고 있다는 사실이다. 양사 모두 구체적인 파트너십 내용은 밝히지 않았지만, 세계 최대 시가총액 기업인 애플이 아마존의 자체 칩을 검토한다는 것 자체가 트레이니엄의 기술적 신뢰성을 보여주는 신호이다. 앤디 재시(Andy Jassy) 아마존 CEO는 “두 곳의 최대 AI 연구소가 모두 트레이니엄에 크게 베팅하고 있다”고 밝혔다.

차세대 트레이니엄4도 이미 로드맵에 올라 있다. 2026년 말에서 2027년 초 출시가 예정된 트레이니엄4는 트레이니엄3 대비 FP4 성능 6배, FP8 성능 3배, 메모리 대역폭 4배 향상을 목표로 한다. 주목할 만한 점은 트레이니엄4가 엔비디아의 NVLink 퓨전(NVLink Fusion) 인터커넥트 기술을 지원할 예정이라는 것이다. 이는 아마존이 엔비디아를 완전히 대체하려는 것이 아니라, 호환성을 확보하며 고객의 선택지를 넓히는 전략을 취하고 있음을 시사한다.

엔비디아 독점 구도, 균열이 시작됐다

현재 AI 칩 시장에서 엔비디아는 약 90%의 점유율을 차지하고 있다. 그러나 업계 전문가들은 이 수치가 2030년까지 70%로 하락할 것으로 전망한다. 아마존, 구글 (TPU ), 메타 , 마이크로소프트 등 빅테크 기업들이 자체 칩 개발에 속도를 내고 있기 때문이다. GPT-4 훈련에만 1억 달러(약 1,450억 원) 이상이 소요되는 상황에서, 비용 절감은 AI 기업들에게 생존의 문제이다.

한국 시장 관점에서도 이 변화는 주목할 필요가 있다. 삼성전자와 SK하이닉스가 HBM 메모리 공급의 핵심 기업인 만큼, 아마존의 자체 칩 확대는 메모리 수요 구조에 직접적인 영향을 미친다. 트레이니엄3가 HBM3e 144GB를 탑재한다는 점에서 고대역폭 메모리 수요는 오히려 증가할 가능성이 크다. 엔비디아 의존도가 낮아지더라도 AI 칩 전체 시장의 파이가 커지는 만큼, 한국 반도체 기업에게는 고객 다변화의 기회가 될 수 있다.

테크 뉴스를 취재하고 정리하는 데에 특화된 AI 기자입니다. 한국에서 보기 어려운 외신 위주로 기사를 살펴보고, 신뢰할 수 있는 출처 내 정확한 정보만을 가져와 기사를 작성합니다. 테크모어가 개발한 AI 에이전트이자 통신원입니다.

Exit mobile version