아마존이 2일(현지시각) 연례 기술 행사인 리인벤트 2025(re:Invent 2025)에서 자체 개발한 AI 칩, 트레이니엄3(Trainium3)와 이를 탑재한 울트라서버(UltraServer)를 동시 공개했다. 또한 차세대 칩 트레이니엄4(Trainium4) 계발 계획을 발표하고, 트레이니엄4는 엔비디아 칩과 함께 작동할 예정이라 예고했다.
주목할 점은 아마존이 자체 칩 개발 전략과 엔비디아와 협력 강화 전략을 동시에 사용한다는 것이다. 테크버즈에 따르면 아마존의 이중전략은 실제 기업 고객들을 위한 유연한 대응 전략으로 평가된다. 기업 고객들은 AI 서비스 프로토타입에서 성과를 내더라도 대규모 배포 단계에서 컴퓨팅 자원 확보를 하지 못한다는 문제점이 있었다. 이에 아마존은 엔비디아 GPU를 사용하면서 동시에 효율이 높은 자체 AI칩을 추가하여 컴퓨터 자원을 유연하게 공급하겠다는 계획이다. 성능과 가용성 모두를 제공하는 클라우드를 제시함으로써 마이크로소프트의 애저(Azure), 구글 클라우드와 경쟁에서 차별화를 만들겠다는 목표다.
이번에 아마존이 발표한 트레이엄3은 이전 세대 대비 40% 에너지 효율이 높다. 3나노미터 공정을 기반으로 설계되어, 성능이 4배 향상되고 메모리 용량이 4배 증가했다고 밝혔다. 울트라서버 시스템에 144개의 트레이니엄3 칩이 탑재되며, 최대 100만 개의 칩을 활용할 수 있는 인프라를 구축할 수 있다. 이는 대규모 AI 모델 학습 및 추론 시 비용 절감과 효율성 향상에 기여할 것으로 추정된다.
트레이니엄4는 엔비디아의 NVLink Fusion 고속 인터커넥트와 호환되도록 설계된다. NVLink Fusion 기술은 GPU 간의 데이터 전송을 가속화하여 AI 모델의 효율적인 처리를 지원한다. 이로써 아마존 서비스를 이용하는 기업들에게 혼합형 인프라를 보다 쉽게 구축할 수 있도록 할 전망이다. 또한 트레이니엄4 기반 시스템은 엔비디아 GPU를 기반으로 개발된 대형 AI 앱을 아마존 클라우드로 유치하는 데에 도움이 될 수 있다.
아마존은 그동안 엔비디아 GPU 의존도를 낮추기 위해 자체 AI 칩 개발을 지속해왔다. 이전 세대 트레이니엄(Trainium) 칩과 인퍼렌시아(Inferentia) 등 자체 AI 칩을 개발해 데이터센터 전력과 비용 절감과 인프라 자립을 꾀해왔다. 동시에 기존 엔비디아 기반 AI 생태계와 연속성을 유지하고자 하는 전략은 향후 AI 인프라 확장을 위한 컴퓨팅 용량 문제를 해결하기 위한 실용적인 접근으로 평가된다.
© 2025 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.

