엔비디아(NVIDIA) CEO 젠슨 황(Jensen Huang)이 AI 산업을 에너지·칩·인프라·모델·애플리케이션의 5개 층으로 정의하는 프레임워크를 제시했다. 3월 16일 GTC 2026 키노트를 앞두고, 엔비디아는 시가총액 4조 6,000억 달러(약 6,670조 원)를 기반으로 ‘베라 루빈(Vera Rubin)’ 차세대 칩과 에이전트 AI 플랫폼 ‘네모클로(NemoClaw)’를 공개할 예정이다. 황은 “우리는 이제 겨우 수천억 달러를 투입한 수준이며, 수조 달러의 인프라가 더 필요하다”고 밝혔다.
AI는 단일 기술이 아닌 ‘5층 인프라’
엔비디아의 젠슨 황 CEO가 3월 10일 공개한 블로그 포스트에서 AI 산업의 본질을 재정의했다. 황은 AI를 단순한 소프트웨어 기술이 아닌 “전기와 인터넷에 비견되는 필수 인프라”로 규정하며, 에너지(Energy)→칩(Chips)→인프라(Infrastructure)→모델(Models)→애플리케이션(Applications)의 5개 층으로 구성된 프레임워크를 제시했다. 그는 “성공적인 모든 애플리케이션은 그 아래의 모든 층을 끌어당기며, 결국 전력을 공급하는 발전소까지 연결된다”고 설명했다. 이 프레임워크의 핵심 메시지는 명확하다. 5개 층이 동시에 확장되지 않으면 AI의 경제적 잠재력은 실현될 수 없다는 것이다. 엔비디아가 단순한 칩 제조사가 아닌 AI 산업 전체의 수직 통합 플랫폼 기업으로 변모하고 있음을 공식 선언한 셈이다.
1층: 에너지, AI의 ‘제1원칙’
황이 케이크의 맨 아래층으로 지목한 것은 에너지다. 그는 “실시간으로 생성되는 지능은 실시간으로 생성되는 전력을 필요로 한다”고 단언했다. 에너지는 AI 인프라의 ‘제1원칙’이자 “시스템이 생산할 수 있는 지능의 총량을 결정하는 구속 조건”이라는 것이다. 실제로 AI 데이터센터의 전력 소비는 기하급수적으로 증가하고 있다. 엔비디아의 차세대 칩 베라 루빈(Vera Rubin) NVL72 랙은 200TB/s 이상의 대역폭을 처리하면서도, 에너지 효율을 극대화하기 위해 실리콘 포토닉스(Silicon Photonics) 기술을 도입한다. 이 기술은 기존 구리 인터커넥트를 광 기반 데이터 전송으로 대체해 데이터센터의 전력 효율 위기를 해결하는 것을 목표로 한다. 황은 에너지 아래에는 “어떤 추상화 계층도 존재하지 않는다”고 강조하며, 원자력·재생에너지 등 전력원 확보가 AI 경쟁의 근본적 승부처가 될 것임을 시사했다.
2~3층: 칩과 인프라, ‘인류 역사상 최대 건설’
케이크의 2층과 3층은 칩과 물리적 인프라다. 황은 “칩 계층의 발전 속도가 AI의 확장 속도와 지능의 경제성을 결정한다”고 밝혔다. GTC 2026에서 공개될 베라 루빈 플랫폼은 이 비전의 구체적 결실이다. 커스텀 올림푸스(Olympus) Armv9 CPU 코어와 6세대 HBM4 메모리를 탑재한 VR200 NVL72는 블랙웰 울트라(Blackwell Ultra) GB300 NVL72 대비 추론 성능 3.3배, 토큰당 비용 10배 절감을 달성하며, 칩 하나에 3,360억 개의 트랜지스터를 집적한다. 인프라 층에서 황은 현재까지 “수천억 달러”가 투입되었으나, “수조 달러의 인프라가 아직 건설되어야 한다”고 밝혔다. 그가 “인류 역사상 최대 규모의 인프라 건설”이라 부른 이 프로젝트에 엔비디아는 이미 대규모 자본을 투입하고 있다.
| 항목 | 세부 내용 |
|---|---|
| 5층 프레임워크 | 에너지 → 칩 → 인프라 → 모델 → 애플리케이션 |
| GTC 2026 | 3월 16~19일, SAP 센터(새너제이), 190개국 3만 명 이상 |
| 베라 루빈 VR200 NVL72 | 추론 성능 3.3배↑, 토큰 비용 10배↓, 3,360억 트랜지스터 |
| 네비우스(Nebius) 투자 | 20억 달러(약 2조 9,000억 원) |
| 인텔 투자 | 50억 달러(약 7조 2,500억 원) 커스텀 x86 CPU |
| 엔비디아 Q4 FY2026 매출 | 681억 달러(약 98조 7,000억 원), 전년 대비 73%↑ |
| 차기 아키텍처 | 파인만(Feynman), 2028년, TSMC 1.6nm 공정 |
4~5층: 모델과 애플리케이션, 에이전트 AI 시대
프레임워크의 상위 2개 층인 모델과 애플리케이션에서 엔비디아의 전략은 더욱 공격적이다. 황은 “언어 모델은 하나의 범주에 불과하다”며, 단백질 AI·화학 AI·로봇 공학·물리 시뮬레이션 등 다양한 도메인으로 모델의 영역이 확장되고 있음을 강조했다. GTC 2026에서 공개될 네모클로(NemoClaw)는 이 비전을 구현하는 핵심 소프트웨어 플랫폼이다. 기업용 오픈소스 AI 에이전트 플랫폼인 네모클로는 세일즈포스(Salesforce), 시스코(Cisco), 구글(Google), 어도비(Adobe), 크라우드스트라이크(CrowdStrike) 등 주요 엔터프라이즈 소프트웨어 기업들에 이미 소개되었다. 에이전트가 ‘사고’하고 ‘행동’할 수 있도록 하는 소프트웨어 오케스트레이션 계층으로, 엔비디아는 하드웨어뿐 아니라 소프트웨어 생태계까지 장악해 개발자들을 자사 칩 수요로 유도하는 전략을 구사하고 있다. 딥시크(DeepSeek)-R1 같은 강력한 오픈소스 추론 모델의 등장이 오히려 “훈련·인프라·칩·에너지에 대한 수요를 증가시켰다”는 황의 분석은, 모델 층의 민주화가 하위 층 전체의 성장을 견인하는 선순환 구조를 보여준다.
엔비디아의 투자 포트폴리오: 5개 층 전방위 베팅
엔비디아는 5층 프레임워크의 각 층에 전방위적 투자를 단행하고 있다. AI 클라우드 기업 네비우스(Nebius)에 20억 달러(약 2조 9,000억 원), 인텔에 50억 달러(약 7조 2,500억 원)를 투자해 커스텀 x86 CPU 생산을 의뢰했으며, 오픈소스 모델 이니셔티브에는 최대 260억 달러(약 37조 7,000억 원)를 투입하는 것으로 알려졌다. 미라 무라티(Mira Murati)의 스타트업 씽킹 머신즈(Thinking Machines)에는 1GW 이상의 엔비디아 칩을 공급하기로 했다. 이러한 투자 행보는 엔비디아가 GPU 판매에 그치지 않고, 에너지부터 애플리케이션까지 AI 가치 사슬 전체에 깊숙이 관여하겠다는 의지를 보여준다. FY2026 4분기 매출이 681억 달러(약 98조 7,000억 원)로 전년 대비 73% 성장한 실적은 이 전략이 이미 시장에서 검증받고 있음을 증명한다.
한국 산업에의 시사점: AI 인프라 경쟁의 새 판
젠슨 황의 5층 케이크 프레임워크는 한국 기술 산업에 중요한 시사점을 던진다. 첫째, AI 경쟁이 단순한 모델 개발을 넘어 에너지·반도체·데이터센터 건설이라는 물리적 인프라 전쟁으로 확대되고 있다는 점이다. 삼성전자와 SK하이닉스가 공급하는 HBM 메모리는 이 프레임워크에서 2층(칩)의 핵심 부품으로, 베라 루빈의 HBM4 채택은 한국 반도체 기업들에 직접적인 기회가 된다. 둘째, 황이 AI 공장에 “전기기사, 배관공, 철골공, 네트워크 기술자”가 필요하다고 언급한 것처럼, AI 인프라 구축은 광범위한 일자리 창출로 이어질 전망이다. 셋째, 2028년 파인만(Feynman) 아키텍처가 TSMC 1.6nm 공정을 채택할 경우, 파운드리 경쟁에서 삼성 파운드리의 대응 전략이 다시 시험대에 오르게 된다. 3월 16일 시작되는 GTC 2026 키노트에서 황이 “세상을 놀라게 할 칩”이라 예고한 발표의 전모가 드러나면, AI 인프라 투자의 다음 장이 본격적으로 열릴 것이다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


