우버(Uber)가 AWS와의 클라우드 계약을 대폭 확대하고, 차량 호출 핵심 기능을 아마존 자체 AI 칩 위에서 운영하기로 했다. 그래비톤 사용량을 늘리는 동시에 신형 트레이니움3 트라이얼도 시작한다. 2023년 오라클·구글과 7년 멀티 클라우드 계약을 체결한 직후의 노선 변화다.
우버 테크놀로지스(Uber)가 4월 7일(현지 시간) AWS(Amazon Web Services)와의 클라우드 컴퓨팅 계약을 대폭 확대한다고 발표했다. 핵심은 두 가지다. 첫째, 저전력 ARM 기반 서버 CPU ‘그래비톤(Graviton)’의 사용량을 늘려 차량 호출(라이드 헤일링) 서비스의 더 많은 기능을 아마존 자체 실리콘 위에서 돌린다. 둘째, 엔비디아(Nvidia) GPU에 정면으로 맞서는 아마존의 차세대 AI 칩 ‘트레이니움3(Trainium3)’를 신규 트라이얼로 도입한다. 우버는 이를 통해 추론(Inference) 비용을 대폭 낮추겠다는 입장이다.
이번 결정이 흥미로운 이유는 우버가 불과 3년 전 정반대 노선을 택했기 때문이다. 우버는 2023년 자체 데이터센터를 닫고, 오라클(Oracle)과 구글 클라우드(Google Cloud)와 각각 7년짜리 대형 멀티 클라우드 계약을 체결했다. 당시 우버 CTO 알베르트 그레프(Albert Greve)는 “두 클라우드 사업자에게 인프라를 분산 배치해 가용성과 비용을 최적화하겠다”고 밝혔다. 그러나 AI 워크로드가 폭증하면서 동일한 워크로드를 어디서 돌리는 게 가장 저렴한지가 다시 핵심 변수로 떠올랐고, 우버는 아마존 쪽으로 무게중심을 옮겼다.
테크크런치는 이 거래를 두고 “엔비디아에 대한 위협이라기보다는, AWS가 구글·오라클이라는 클라우드 경쟁자에게 던진 정중한 야유”라고 평가했다. 그도 그럴 것이, 우버는 앤트로픽(Anthropic), 오픈AI(OpenAI), 애플(Apple)에 이어 AWS 자체 실리콘을 도입한 빅테크 명단에 합류했다. 트레이니움이 단순한 코스트 다운 카드가 아니라, 사실상 ‘엔비디아 GPU의 현실적 대안’으로 자리 잡고 있다는 점이 분명해졌다.
| 항목 | 내용 |
|---|---|
| 발표일 | 2026년 4월 7일 |
| 핵심 칩 | AWS 그래비톤(서버 CPU), 트레이니움3(AI 칩) |
| 도입 영역 | 라이드 헤일링 서비스, AI 추론 워크로드 |
| 기존 계약 | 2023년 오라클·구글과 7년 멀티 클라우드 계약 |
| 연관 빅테크 | 앤트로픽, 오픈AI, 애플 (트레이니움 도입) |
| 전략적 의미 | AI 워크로드 → AWS 자체 실리콘으로 이동 |
이번 결정의 진짜 의미는 클라우드 3사 경쟁의 무게중심이 옮겨가고 있다는 점이다. 과거 클라우드 경쟁의 핵심은 ‘GPU 확보량’이었다. 누가 더 많은 엔비디아 H100·B200을 빨리 확보하느냐가 사실상 시장 점유율을 결정했다. 하지만 트레이니움·인퍼런시아(Inferentia)·구글 TPU 등 자체 실리콘이 본격 양산되기 시작하면서, 경쟁의 축이 ‘자체 실리콘 + 워크로드 락인(lock-in)’ 쪽으로 빠르게 이동하고 있다. 한 번 들어온 AI 워크로드를 다른 클라우드로 옮기는 비용이 점점 더 커지고 있기 때문이다.
한국 산업계 입장에서는 두 가지 시사점이 있다. 첫째, 네이버 클라우드·NHN 클라우드 같은 국내 클라우드 사업자들 역시 단순 GPU 임대 사업만으로는 글로벌 빅테크와 경쟁하기 어려운 단계에 진입했다. 자체 실리콘 또는 최소한 차별화된 운영 효율 없이는 고객을 묶어둘 무기가 부족하다. 둘째, 엔비디아에 절대적으로 의존해 온 한국 메모리 산업(HBM 공급)도 트레이니움·TPU·MTIA 등 자체 실리콘 진영의 비중이 커지면서 고객 다변화 기회를 얻고 있다. 트레이니움3 역시 SK하이닉스의 HBM3E를 채용한 것으로 알려져 있다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


