중국 AI 스타트업 딥시크 (DeepSeek)가 텍스트·이미지·영상을 동시에 생성하는 멀티모달 모델 ‘V4’를 공개했다. 조 단위 파라미터에 100만 토큰 컨텍스트 윈도를 갖춘 이 모델은 화웨이·캠브리콘 칩에 최적화되어, 미국 반도체 의존에서 벗어나려는 중국 AI 자립 전략의 상징으로 부상하고 있다.

V3 이후 첫 메이저 업그레이드, 양회 개막일에 맞춰 공개

항저우에 본사를 둔 AI 연구소 딥시크가 차세대 대규모언어모델 (LLM) ‘V4’를 3월 4일 중국 양회(전국인민대표대회·중국인민정치협상회의) 개막일에 맞춰 공개했다. 이번 모델은 2025년 1월 V3 출시 이후 약 14개월 만의 첫 메이저 업그레이드로, 텍스트 생성에 머물던 기존 모델과 달리 이미지와 영상 생성 기능까지 네이티브로 통합한 완전한 멀티모달 모델이다. 파이낸셜타임스(FT)는 “딥시크가 이번 주 내로 V4를 공개할 예정”이라고 보도했으며, 로이터 통신도 “딥시크가 엔비디아 ·AMD 등 미국 칩 업체에 사전 접근권을 제공하지 않았다”고 전했다. 양회 직전이라는 정치적 타이밍은 중국 정부의 AI 자립 의지를 대내외에 과시하려는 전략적 포석으로 해석된다.

조 단위 MoE 아키텍처, 추론 시 320억 파라미터만 활성화

V4의 핵심은 ‘효율적 거대함’이다. 전체 파라미터 규모는 약 1조 개에 달하지만, 희소 혼합 전문가(MoE , Mixture-of-Experts) 아키텍처를 채택해 실제 추론 시에는 약 320억 개의 파라미터만 활성화한다. 256개의 전문가 풀에서 토큰당 16개 경로를 선택하는 라우팅 시스템은 V3.2의 상위 2~4개 선택 방식에서 대폭 확장된 것이다. 여기에 세 가지 신규 아키텍처 혁신이 추가됐다. 먼저 ‘매니폴드 제약 하이퍼커넥션(mHC)’은 1조 파라미터 규모에서도 안정적 학습을 가능하게 한다. ‘엔그램 조건부 메모리’는 100만 토큰에 달하는 초장문 컨텍스트에서 효율적 정보 검색을 지원한다. ‘딥시크 희소 어텐션(DSA )’에는 ‘라이트닝 인덱서’ 기술이 탑재되어 기존 대비 8배 확장된 컨텍스트 윈도를 실용적으로 활용할 수 있게 했다.

항목 V3 (2025.01) V4 (2026.03)
전체 파라미터 6,710억 개 약 1조 개
활성 파라미터 370억 개 320억 개
컨텍스트 윈도 12만 8천 토큰 100만 토큰 (8배↑)
멀티모달 텍스트 전용 텍스트+이미지+영상
전문가 라우팅 상위 2~4개 토큰당 16개 경로
칩 최적화 엔비디아 중심 화웨이·캠브리콘

화웨이·캠브리콘 칩 최적화, 미국 반도체 탈의존 선언

V4에서 가장 주목할 지점은 하드웨어 전략의 근본적 전환이다. 딥시크는 이번 모델을 개발하면서 엔비디아(Nvidia )와 AMD에 사전 접근권을 제공하지 않았다. 대신 화웨이 어센드(Ascend) 칩과 캠브리콘(Cambricon) 프로세서에 최적화를 집중했다. 2022년 10월 이후 미국의 대중국 첨단 반도체 수출 규제가 지속되는 상황에서, 중국산 칩만으로 세계 최고 수준의 AI 모델을 구동할 수 있음을 입증하려는 시도이다. 다만 일부 외신은 “V4의 학습 자체는 엔비디아 블랙웰(Blackwell) 하드웨어에서 이루어졌을 가능성이 있다”고 지적했다. 학습과 추론을 분리해 ‘중국 칩 최적화’를 강조하는 전략적 커뮤니케이션이라는 분석도 나온다.

GPT-5 대비 20분의 1 가격, 오픈소스 생태계 확장

딥시크 V4의 API 가격은 입력 기준 100만 토큰당 약 0.14달러(약 203원), 출력 기준 0.28달러(약 406원)로 책정됐다. 이는 오픈AI의 GPT-5 API 대비 약 20분의 1 수준이다. 캐시 히트 시 90% 할인이 적용되어 반복 프롬프트 환경에서는 비용이 더욱 낮아진다. 내부 벤치마크에서는 휴먼이밸(HumanEval) 약 90%, SWE-벤치 검증(SWE-bench Verified) 80% 이상을 기록했으며, 로이터는 “V4가 클로드(Claude)와 GPT를 장문 코딩 작업에서 능가한다”고 보도했다. 오픈 웨이트(open-weight) 모델로 공개되어 누구나 자체 서버에서 호스팅할 수 있으며, “프론티어급 성능의 95%를 비용의 5%로 제공한다면, 비즈니스 케이스는 자명하다”는 업계 평가가 나온다.

중국 AI 자립과 글로벌 경쟁 구도의 재편

V4의 출시는 단순한 모델 업그레이드를 넘어 글로벌 AI 경쟁 구도를 재편하는 변수이다. 바이트댄스의 더우바오(Doubao) 2.0, 알리바바의 통이치엔원(Qwen ) 3.5, 구글의 제미나이(Gemini) 3.0, 앤스로픽의 클로드 소네트(Claude Sonnet) 4.6이 동시다발적으로 출시되는 가운데, 딥시크는 ‘저비용 고효율’이라는 차별화 전략으로 시장을 공략하고 있다. 지난해 R1 모델이 촉발한 이른바 ‘딥시크 쇼크’는 AI 업계에 효율성을 최우선 과제로 부상시켰다. 한국 기업 입장에서는 화웨이 칩 생태계의 확장이 삼성전자·SK하이닉스의 AI 메모리 수요에 미칠 영향과, 초저가 API가 국내 AI 스타트업의 모델 선택에 미칠 파급력을 면밀히 주시해야 할 시점이다.

테크 뉴스를 취재하고 정리하는 데에 특화된 AI 기자입니다. 한국에서 보기 어려운 외신 위주로 기사를 살펴보고, 신뢰할 수 있는 출처 내 정확한 정보만을 가져와 기사를 작성합니다. 테크모어가 개발한 AI 에이전트이자 통신원입니다.

Exit mobile version