구글이 2026 책임감 있는 AI 진행 보고서를 발표하며 AI 안전과 거버넌스 강화 성과를 공개했다. AI 생성 콘텐츠를 식별하는 신스ID는 100억 건 이상의 콘텐츠에 워터마크를 적용했으며, 제미나이 앱에서 2,000만 회 이상 검증에 사용됐다.
구글이 AI 안전성에 대한 업계의 관심이 높아지는 가운데 자사의 AI 거버넌스 성과를 집대성한 보고서를 내놓았다. 2월 17일 공개된 ‘2026 책임감 있는 AI 진행 보고서(2026 Responsible AI Progress Report)’는 구글의 신뢰·안전 부문 부사장 로리 리처드슨(Laurie Richardson)이 주도했다. 보고서의 핵심은 구글이 미국 국립표준기술연구소(NIST)의 AI 위험관리 프레임워크에 맞춰 ‘거버넌스(Govern)-매핑(Map)-측정(Measure)-관리(Manage)’ 4단계 체계를 구축했다는 점이다. 구글 클라우드 AI는 NIST 위험관리 프레임워크에서 ‘성숙(mature)’ 등급을 획득했다.
신스ID, AI 생성 콘텐츠 100억 건에 워터마크 적용
보고서에서 가장 주목할 만한 성과는 AI 생성 콘텐츠 식별 기술 신스ID(SynthID)의 확산이다. 구글 딥마인드가 개발한 이 기술은 AI가 생성한 이미지, 텍스트, 오디오, 비디오에 디지털 워터마크를 삽입해 진위를 식별할 수 있게 한다. 2025년 11월 출시 이후 제미나이(Gemini) 앱에서 다양한 언어로 2,000만 회 이상 검증에 사용됐으며, 총 100억 건 이상의 콘텐츠에 워터마크가 적용됐다. 구글은 신스ID 텍스트 버전을 허깅페이스(Hugging Face)와 구글의 책임감 있는 생성형 AI 툴킷을 통해 오픈소스로 공개하며 업계 전반의 AI 출처 추적 확산을 촉진하고 있다.
보고서 발표 시점에 주목할 만한 것은 업계 전반의 AI 안전 수준이다. 생명의미래연구소(Future of Life Institute)가 발표한 AI 안전 지수에 따르면 앤트로픽만이 C등급으로 최고점을 받았고, 구글 딥마인드와 오픈AI는 D+ 이하, 메타는 낙제 수준이다. 존재적 안전 전략(AGI가 인간의 가치와 일치하도록 보장하는 전략)을 명확히 밝힌 기업은 앤트로픽, 구글 딥마인드, 오픈AI 세 곳뿐이다. 구글은 이번 보고서를 통해 보안 중심 레드팀과 콘텐츠 중심 레드팀을 모두 운영하며, AI 지원 레드팀 기법을 도입해 머신러닝으로 자동으로 취약점을 탐지하는 체계를 갖추었다고 강조했다. 제미나이, 알파폴드, 젬마(Gemma) 등 주요 프로젝트에 이 레드팀 프로세스가 적용되고 있다.
해석학 도구 분야에서도 성과를 냈다. 구글은 젬마 스코프 2(Gemma Scope 2)를 공개했는데, 이는 젬마 3 모델 전체 크기에 대한 포괄적인 오픈소스 해석학 도구 모음이다. 구글은 이를 “AI 연구소가 공개한 가장 대규모의 오픈소스 해석학 도구”라고 밝혔다. 모델 환각, 모델이 알고 있는 비밀 식별, 더 안전한 모델 학습 등 핵심 안전 분야의 연구를 지원한다.
구글의 보고서 발표는 글로벌 AI 규제 강화라는 맥락에서 전략적 의미가 있다. 유럽연합(EU)의 AI법(AI Act)은 고위험 AI 시스템에 대한 엄격한 규제를 수 주 내에 본격 시행할 예정이며, 한국의 AI 기본법도 2026년 1월 22일부터 시행에 들어갔다. 구글은 1억 2,000만 달러(약 1,740억 원)의 AI 교육 투자가 EU AI법의 법적 의무를 충족하기 위한 것이라고 명시했으며, EU AI 행동강령(EU AI Code)에도 서명했다.
한국에서는 구글 코리아의 디지털 책임위원회가 2025년 두 차례의 ‘책임감 있는 AI 포럼’을 개최한 바 있다. 법률, 정책, IT·기술, 스타트업 분야의 14명의 전문가가 참여해 고영향 AI의 정의와 기준, 국내외 AI 규제 동향을 논의했다. 한국 AI 기본법은 외국 기업에도 한국 대리인 지정, AI 사용 고지, 고영향 AI에 대한 영향평가 등을 요구하고 있어, 구글의 NIST 기반 거버넌스 프레임워크와 신스ID의 투명성 기능은 한국 법제 대응에도 직접적으로 활용될 수 있다. AI 기업들의 안전성 경쟁이 본격화되는 가운데, 규제 준수 역량이 곧 시장 경쟁력이 되는 시대가 열리고 있다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


