엔비디아가 일본어 특화 소규모 언어모델 ‘네모트론 나노 9B v2 재패니스’를 공개했다. 일본어 벤치마크에서 100억 파라미터 미만 모델 중 1위를 기록했으며, 600만 개의 일본 문화 맞춤 페르소나 데이터셋도 함께 공개됐다. 한국도 5개 컨소시엄 기반 소버린 AI 개발이 진행 중이다.
엔비디아가 각 국가의 언어와 문화를 반영한 ‘소버린 AI(Sovereign AI)’ 전략을 구체화하고 있다. 2월 17일 엔비디아는 일본어에 특화된 소규모 언어모델(SLM) ‘네모트론 나노 9B v2 재패니스(Nemotron-Nano-9B-v2-Japanese)’를 허깅페이스를 통해 공개했다. 90억 개(9B)의 파라미터로 구성된 이 모델은 일본 최대 대규모언어모델(LLM) 벤치마크 플랫폼인 네주미 리더보드 4(Nejumi Leaderboard 4)에서 100억 파라미터 미만 모델 중 1위를 기록했다. 약 40개 벤치마크에서 평가돼 총 평균 점수 0.711을 달성했으며, 이는 경쟁 모델인 알리바바의 큐웬3-8B(Qwen3-8B)의 0.690을 앞선다.
이 모델의 기술적 특징은 맘바2-트랜스포머 하이브리드(Mamba2-Transformer Hybrid) 아키텍처를 채택했다는 점이다. 주로 맘바-2(Mamba-2)와 다층 퍼셉트론(MLP) 레이어에 4개의 어텐션 레이어를 결합한 구조로, 최대 12만 8,000(128K) 토큰의 컨텍스트 길이를 지원한다.
10조 개 이상의 토큰으로 학습됐으며, 오픈소스 대안 대비 최대 6배 빠른 처리량을 제공한다. 특히 환각(hallucination) 평가에서 0.960을 기록해 큐웬3-8B의 0.800을 크게 앞섰고, 도구 호출(tool-calling) 벤치마크인 BFCL v3에서도 0.649 대 0.608로 우위를 보였다. 진실성(JTruthfulQA) 평가에서도 0.498 대 0.433으로 유의미한 차이를 나타냈다.
| 평가 항목 | 네모트론 나노 9B | 큐웬3-8B |
|---|---|---|
| 총 평균 | 0.711 | 0.690 |
| 환각 평가 | 0.960 | 0.800 |
| 도구 호출(BFCL v3) | 0.649 | 0.608 |
| 진실성(JTruthfulQA) | 0.498 | 0.433 |
| 독성 평가 | 0.814 | 0.782 |
| MT-벤치 | 0.892 | 0.906 |
엔비디아는 모델과 함께 ‘네모트론 페르소나 재팬(Nemotron-Personas-Japan)’ 데이터셋도 공개했다. 600만 개의 일본 인구 분포, 지리적 패턴, 성격 특성에 기반한 문화적으로 정확한 페르소나를 담고 있으며, 합성 데이터 생성의 시드셋으로 활용된다. CC BY 4.0 오픈소스 라이선스로 공개돼 누구나 사용할 수 있다.
젠슨 황 “모든 나라가 자국의 지능을 소유해야”
이번 모델 공개는 엔비디아의 소버린 AI 전략의 일환이다. 소버린 AI란 국가가 자국의 인프라, 데이터, 인력을 활용해 자체적으로 AI를 생산하는 역량을 의미한다. 젠슨 황 엔비디아 CEO는 세계정부정상회의에서 “모든 나라가 자국의 지능(intelligence) 생산을 소유해야 한다”며 “이는 여러분의 문화, 사회의 지성, 상식, 역사를 체계화하는 것”이라고 강조한 바 있다. 그는 AI 서밋 재팬에서도 “모든 산업, 모든 기업, 모든 나라가 새로운 산업혁명을 일으켜야 한다”고 역설했다.
일본은 소버린 AI에 가장 적극적인 나라 중 하나다. 2025년 12월 일본 내각은 최초의 국가 AI 기본계획을 승인했으며, 2026 회계연도부터 5년간 1조 엔(약 66억 달러·약 9,570억 원)을 투자한다. 소프트뱅크 그룹 등 약 10개 기업이 참여하는 컨소시엄을 구성해 1조 파라미터 규모의 기초 AI 모델을 개발할 계획이다. 소프트뱅크는 이미 엔비디아 DGX B200 기반 세계 최대 DGX 슈퍼포드(SuperPOD)를 구축했으며, 1만 개 이상의 GPU로 13.7엑사플롭스(Exaflops) 성능을 구현했다.
한국 소버린 AI, 5개 컨소시엄 경쟁… 투자 규모는 과제
한국도 소버린 AI 경쟁에 뛰어들었다. 과학기술정보통신부 주도로 LG AI 리서치, SK텔레콤, 네이버, NC AI, 업스테이지 등 5개 컨소시엄이 파운데이션 모델 개발에 참여하고 있다. LG의 엑사원(Exaone), 네이버의 하이퍼클로바X(HyperClova X), 업스테이지의 솔라 프로(Solar Pro), SK텔레콤의 A.X 시리즈, 카카오의 카나나(Kanana), NC AI의 바르코(Varco) 등이 개발 중이다. 2025년 12월 말 1차 평가로 5팀에서 4팀으로 축소됐으며, 2027년까지 2팀으로 좁혀진다. 한국은 AI 기본법도 2026년 1월 22일부터 시행해 일본보다 법제화 속도에서 앞서고 있다.
다만 투자 규모에서는 격차가 존재한다. 일본의 민관 합계 투자가 2030년까지 1,350억 달러(약 195조 7,500억 원)에 달하는 반면, 한국의 소버린 AI 투자 규모는 이에 크게 못 미친다. 엔비디아의 네모트론 페르소나 데이터셋에도 아직 한국 버전은 포함되지 않았다.
현재 일본, 미국, 인도, 싱가포르, 브라질만 존재하며, 한국어 페르소나 데이터셋 출시 여부가 한국 소버린 AI 생태계 발전의 변수가 될 수 있다. 한국에는 25만 개 이상의 엔비디아 GPU가 배치돼 있고, 국가AI컴퓨팅센터에 5만 개 이상의 최신 GPU가 가동 중이다. 삼성전자와 SK하이닉스가 엔비디아 GPU의 핵심 HBM 메모리를 공급하는 만큼, 소버린 AI 인프라 확산은 한국 반도체 산업에도 수혜로 작용할 전망이다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


