딥시크가 1일(현지시각)에 발표한 새로운 AI 모델 DeepSeek‑V3.2와 DeepSeek‑V3.2‑Speciale이 AI 업계에 큰 파장을 일으키고 있다. 이 두 모델은 오픈AI의 GPT‑5와 구글의 제미나이‑3.0‑프로와 경쟁할 수 있는 성능을 자랑하며, 특히 오픈소스 로 공개되어 누구나 접근할 수 있다는 점에서 주목받고 있다.

딥시크는 2023년에 설립된 중국의 AI 스타트업으로, 오픈소스 LLM (Large Language Model) 개발에 집중해왔다. 2024년 말에는 671B 파라미터를 가진 V3 모델을 발표하며 주목받았으며, 2025년 1월에는 R1 모델을 통해 iOS 무료 앱 순위 1위를 기록했다. 이러한 성과는 전문가 조합(Mixture-of-Experts, MoE) 구조와 강화학습 기반 추론 모델을 통한 효율적 컴퓨팅 설계 덕분이었다.

DeepSeek‑V3.2와 V3.2‑Speciale는 특히 추론 능력과 자율적 행동 수행 기능이 강화된 모델로, 국제 대회에서 금메달급 성과를 보였다. V3.2‑Speciale는 인공지능 벤치마크 (AIME) 2025에서 96.0%, 미국 수학경시대회(Harvard–MIT Mathematics Tourna ment, HMMT)에서 99.2%의 성과를 기록했으며, 국제 수학 올림피아드(International Mathematical Olympiad, IMO)에서는 42문제 중 35점을 획득했다.

오픈소스 전략은 딥시크의 또 다른 강점이다. MIT 라이선스를 통해 모델, 가중치, 학습 코드, 문서를 모두 공개하여 누구나 다운로드하고 수정, 배포할 수 있게 했다. 이는 오픈AI 등 유료 API 모델과 차별화되는 전략으로, 글로벌 AI 경쟁 구도에서 중국의 오픈소스 AI 진영이 실리콘밸리의 독점 모델에 도전하고 있음을 시사한다.

딥시크는 딥시크 스파스 어텐션(DeepSeek Sparse Attention, DSA)라는 어텐션 메커니즘을 도입해 긴 입력에서도 높은 성능을 유지한다. 이는 긴 문서 처리 시 비용 절감에 큰 기여를 하고 있다. 이 기술은 전통적인 어텐션 방식보다 계산량을 획기적으로 줄여, 128,000 토큰 문서를 처리할 때 추론 비용을 약 70% 절감했다.

또한 외부 도구를 호출할 때에도 추론 흐름을 유지하여 복잡한 멀티스텝 문제를 해결했다. 이를 위해 1800개 이상의 환경과 8만 5000개 이상의 복잡한 지시문을 합성해 학습했다.

이번 딥시크의 발표는 미국 엔비디아 칩 수출 규제와 같은 제한에도 불구하고 중국 내 자원을 이용해 AI 경쟁력을 확보했다는 점에서 의미가 크다. 특히 미국 중심의 AI 인프라 및 칩 수요에 대한 재평가와 수출 규제 정책의 실효성에 대한 논의가 재점화될 가능성이 크다. 이처럼 비용 효율적 오픈소스 AI의 확산이 글로벌 AI 경쟁 구도에 어떤 변수가 될 것인지 지켜봐야 할 것이다.

Exit mobile version