메타(Meta)가 자체 설계 AI 반도체 MTIA 시리즈 4세대(300/400/450/500)를 일괄 공개했다. 6개월 주기로 신칩을 출시해 2027년까지 전 세대 배치를 완료하겠다는 계획이다. 추론 워크로드 최적화에 초점을 맞춘 이번 전략은 엔비디아(NVIDIA) 의존도를 구조적으로 줄이려는 빅테크의 ‘실리콘 자립’ 흐름을 가속화하고 있다.
메타, MTIA 4세대 칩 라인업 전격 공개
메타가 3월 12일(현지 시간) 자체 설계 AI 가속기 MTIA(Meta Training and Inference Accelerator) 시리즈의 4세대 칩을 한꺼번에 공개했다. MTIA 300, 400, 450, 500으로 구성된 이번 라인업은 추론(Inference) 워크로드에 특화된 커스텀 실리콘이다. 알렉시스 비올린(Alexis Bjorlin) 메타 인프라 부사장은 “우리는 정보의 다음 시대로 전환하는 한가운데에 있다. AI 워크로드는 2년마다 1,000배씩 성장하고 있다”며 자체 칩 개발의 배경을 설명했다. MTIA 300은 이미 프로덕션 환경에 수십만 개가 배치되어 랭킹 및 추천 시스템 학습에 활용되고 있으며, MTIA 400은 랩 테스트를 완료하고 데이터센터 배치가 진행 중이다. MTIA 450과 500은 각각 2027년 초와 하반기에 대량 배치될 예정이다. 메타는 6개월 이하 주기로 신칩을 출시한다는 방침을 밝혔는데, 이는 업계 평균 1~2년 주기와 비교하면 파격적으로 빠른 속도이다.
MTIA 300부터 500까지: 성능 25배 도약의 로드맵
MTIA 시리즈의 핵심은 세대별 급격한 성능 향상이다. 1세대에 해당하는 MTIA 300은 RISC-V 벡터 코어 기반으로 FP8 연산 성능 1.2 PFLOPs, HBM 용량 216GB, 대역폭 6.1 TB/s를 제공한다. 소비전력(TDP)은 800W이다. 최신 세대인 MTIA 500은 FP8 기준 10 PFLOPs, MX4 기준 30 PFLOPs의 연산 성능을 달성하며, HBM 용량은 최대 512GB, 대역폭은 27.6 TB/s에 이른다. MTIA 300에서 500까지 HBM 대역폭은 4.5배, 컴퓨팅 성능은 25배 증가한 셈이다. 비올린 부사장은 “하루 40억 건의 영상을 처리하고 전달하는 작업을 우리가 원하는 만큼 효율적으로 처리할 수 있는 상용 제품이 없었다”며 자체 개발의 동기를 밝혔다. 특히 MTIA 400/450/500은 동일한 섀시, 랙, 네트워크 인프라를 공유해 칩만 교체하면 즉시 업그레이드가 가능한 모듈형 설계를 채택했다. 이는 데이터센터 운영 비용을 절감하고 배치 속도를 높이는 핵심 전략이다.
| 항목 | MTIA 300 | MTIA 400 | MTIA 450 | MTIA 500 |
|---|---|---|---|---|
| 상태 | 프로덕션 배치 | 데이터센터 배치 중 | 2027년 초 배치 | 2027년 하반기 배치 |
| FP8 성능 | 1.2 PFLOPs | 6 PFLOPs | 7 PFLOPs | 10 PFLOPs |
| MX4 성능 | – | 12 PFLOPs | 21 PFLOPs | 30 PFLOPs |
| HBM 용량 | 216GB | 288GB | 288GB | 384~512GB |
| HBM 대역폭 | 6.1 TB/s | 9.2 TB/s | 18.4 TB/s | 27.6 TB/s |
| TDP | 800W | 1,200W | 1,400W | 1,700W |
| 주요 용도 | 랭킹·추천 학습 | GenAI 추론 + R&R | GenAI 추론(이미지·영상) | 최신 GenAI 모델 추론 |
엔비디아 GPU와 공존하는 ‘하이브리드 전략’
메타의 MTIA 전략은 엔비디아 GPU를 완전히 대체하는 것이 아니다. 대형 언어모델(LLM) 학습에는 여전히 엔비디아 GPU를 사용하고, 추론 워크로드에 자체 칩을 투입하는 포트폴리오 접근법을 취하고 있다. 실제로 메타는 2026년 2월 엔비디아와 최대 500억 달러(약 72조 5,000억 원) 규모의 블랙웰(Blackwell)/루빈(Rubin) GPU 공급 계약을 체결했고, 같은 달 AMD와도 최대 1,000억 달러(약 145조 원) 규모의 다년간 GPU 공급 계약을 맺었다. 이준 송(Yijun Song) 메타 부사장은 “6개월마다 새 칩을 출시하는 것은 이례적으로 빠른 주기다. 우리는 생산 능력을 매우 빠르게 확대하고 있다”고 말했다. 메타의 2026년 자본지출(CAPEX)은 1,150억~1,350억 달러(약 166조 7,500억~195조 7,500억 원)로 전년 대비 약 2배 증가할 전망이며, 이는 예상 매출의 55~67%에 달하는 전례 없는 수준이다. 수전 리(Susan Li) 메타 최고재무책임자(CFO)는 “내년 자본지출 증가폭은 현저히 더 클 것이다. 우리의 컴퓨팅 수요는 지난 분기 자체 예상치보다도 의미 있게 확대됐다”고 밝혔다.
빅테크 커스텀 칩 경쟁, 전방위로 확산
메타의 커스텀 칩 전략은 고립된 사례가 아니다. 구글(Google)은 아이언우드(Ironwood, TPU v7)를 출시해 칩당 4,614 TFLOPS 성능을 달성했으며, 커스텀 클라우드 AI 가속기 시장에서 58%의 점유율을 확보하고 있다. 아마존(Amazon)은 트레이니엄2(Trainium2)를 배치 중이며, 2026년 초 트레이니엄3 출시를 예고하면서 다른 벤더 대비 30~40% 더 나은 가격 대비 성능을 주장한다. 마이크로소프트(Microsoft)도 자체 AI 칩 마이아(Maia) 200을 2026년 1월부터 대규모 배치하고 있다. 다만 메타의 MTIA는 구글·아마존과 달리 클라우드 고객에게 제공하지 않는 내부 전용 칩이라는 점에서 차별화된다. 대니얼 뉴먼(Daniel Newman) 퓨처럼 그룹(Futurum Group) 애널리스트는 “커스텀 ASIC은 향후 몇 년간 GPU 시장보다 더 빠르게 성장할 것”이라고 전망했다. 제조는 TSMC가 3nm 공정과 CoWoS-S 패키징으로 담당하며, 브로드컴(Broadcom)이 칩 설계 및 I/O 서비스를 제공한다. 마크 저커버그(Mark Zuckerberg) 메타 CEO는 “세계 모든 사람에게 개인용 초지능(personal superintelligence)을 제공하겠다”는 비전을 제시하며 인프라 투자의 당위성을 강조했다.
한국 반도체 산업에 미치는 영향: HBM 수요 폭증의 기회와 리스크
메타의 MTIA 4세대 칩 전략은 한국 반도체 산업에 직접적인 영향을 미친다. 4세대 칩 모두 고대역폭메모리(HBM)를 탑재하며, 용량은 MTIA 300의 216GB에서 MTIA 500의 최대 512GB까지 확대된다. 삼성전자(Samsung Electronics)와 SK하이닉스(SK Hynix)가 HBM 공급을 담당하고 있으며, 6개월 주기의 칩 출시 전략은 메모리 수요를 가파르게 끌어올릴 전망이다. 이준 송 부사장은 “우리는 HBM 공급에 대해 매우 우려하고 있다. 계획된 생산 물량에 대한 메모리 공급은 확보했다고 믿는다”고 밝혀, HBM 공급 부족이 업계 전반의 핵심 리스크임을 시사했다. 메타는 2028년까지 미국 인프라에 6,000억 달러(약 870조 원)를 투자할 계획이며, 오하이오 1GW 데이터센터와 루이지애나 5GW 확장 가능 시설을 건설 중이다. 하이퍼스케일러들이 단축된 칩 개발 주기에 맞춰 수년치 메모리 공급을 장기 계약으로 확보하는 움직임은 삼성전자와 SK하이닉스에 HBM3E·HBM4 수주 기회를 제공하는 동시에, 공급망 관리의 복잡성을 높이는 양날의 검이 될 수 있다. 빅테크의 실리콘 자립 전략이 가속화될수록 한국 메모리 업체의 전략적 중요성도 함께 커지고 있다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


