최근 인공지능(AI)이 만든 콘텐츠가 쏟아지면서 무엇이 진짜인지 가려내는 일이 중요해졌다. 이러한 상황에서 구글이 AI 콘텐츠를 투명하게 관리하기 위한 새로운 AI 영상 검증 기능을 19일(현지시각) 발표했다.
구글은 AI 콘텐츠에 눈에 보이지 않는 워터마크인 ‘신스ID(SynthID)’를 심어 출처를 추적하는 기술을 개발했다. 딥페이크처럼 진짜와 구별하기 힘든 AI 기술이 퍼지는 상황에서 이 기술은 중요성은 높아지고 있다. 이제는 AI가 만든 콘텐츠를 알아보고 이해하는 능력인 ‘AI 리터러시’가 현대 사회의 필수 기술로 자리 잡았기 때문이다.
구글의 제미나이(Gemini) 앱은 AI 영상을 검증하는 기능을 추가하며 투명성을 높이는 데 앞장서고 있다. 사용자가 영상을 업로드하고 “이 영상이 구글 AI로 생성된 것인가요?”라는 질문을 입력하면, 제미나이는 SynthID 워터마크를 시각 및 오디오 트랙에서 탐지하여 찾아내 어느 부분이 AI로 만들어졌는지 상세히 알려준다. 영상 용량은 최대 100MB, 길이가 90초 이내로만 확인이 가능하다. 이 기능은 최근 공개된 ‘제미나이 3 플래시(Gemini 3 Flash)’라는 새로운 AI 모델이 나오면서 함께 공개되었다.
틱톡에서 ‘쇼툴즈AI(@showtoolsai)’라는 계정으로 활동하는 제레미 카라스코는 AI 영상을 구별하는 법을 알려 주목을 받았다. 그는 흐릿한 질감, 흔들리는 눈동자, 배경에서 갑자기 나타났다 사라지는 물체 등을 잘 살펴봐야 한다고 조언한다. 카라스코는 “AI 영상이 점점 정교해져 사람이 직접 구별하기는 힘들어질 것”이라고 경고하며, AI 콘텐츠가 나쁜 용도로 쓰이는 상황을 우려했다.
AI 콘텐츠는 창작자들의 생태계에 위협이 될 수 있다. 여러 플랫폼이 AI 콘텐츠를 투명하게 밝히지 않으면, 진짜 창작자들이 대중의 관심을 받기 어려워지고 수익을 내기도 힘들어진다. 따라서 플랫폼이 적극적으로 나서서 투명성을 강화해야 한다는 목소리가 높다.
지금은 제미나이가 생성한 영상에 한정되어 검증이 가능하지만 앞으로는 다른 회사의 생성 모델로 만든 영상까지도 검증이 가능하도록 확대될 수 있다. C2PA와 같은 콘텐츠 출처 인증 표준과의 통합할 가능성도 크다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


