### Google AI 모델 ‘Gemma’의 명예훼손 논란: AI 책임성 문제 부각
Google은 최근 자사의 AI 모델 ‘Gemma’가 허위 성추행 의혹을 생성하여 명예훼손 문제를 일으킨 사건에 대응하여, 해당 모델을 AI Studio 플랫폼에서 제거했다. 이는 테네시주 공화당 상원의원 Marsha Blackburn이 해당 AI가 자신에 대한 허위 정보를 생성했다고 주장하면서 시작되었다.
Blackburn 의원은 Google CEO Sundar Pichai에게 서한을 보내, Gemma가 “1987년 주 상원의원 캠페인 중 주 경찰관이 그녀에게 약물 사용을 강요했다”는 허위 주장을 생성했다고 밝혔다. 실제로 Blackburn의 선거는 1998년에 있었으며, 해당 주장은 사실이 아니다. Google은 Gemma가 개발자용 도구로 설계되었으며, 사실 확인용으로 사용되지 않아야 한다고 해명했다. 그러나 비개발자들이 AI Studio를 통해 사실 기반 질문에 사용하면서 오용이 발생했다고 인정했다.
이 사건은 AI 모델의 허위 정보 생성이 명예훼손 수준의 심각한 문제로 이어질 수 있음을 보여준다. 특히, 보수 성향 인물들에 대한 AI의 편향적 정보 생성 문제도 다시 부각되었다. 이전에도 보수 활동가 Robby Starbuck이 유사한 문제로 Google을 상대로 1500만 달러 규모의 소송을 제기한 바 있다.
AI의 환각 문제는 단순한 기술적 오류를 넘어 법적, 평판적 리스크로 전환될 수 있다. 이에 따라, AI 모델의 사실 검증 기능 강화, 출처 검증 도구 통합, 사람의 검토(human-in-the-loop) 등의 리스크 완화 전략이 필요하다. 또한, AI의 명예훼손 가능성에 대한 법적·정책적 대응이 강화될 가능성이 있으며, 기업들은 AI 거버넌스, 투명성 강화, 책임 소재 명확화 등의 조치를 강화할 것으로 예상된다.
이번 사건은 AI 모델의 설계와 운영에 있어 정확성, 출처 검증, 책임성을 내재화하는 방향으로 전환이 필요함을 시사한다. Google은 Gemma의 정확도 개선 및 오용 방지를 위한 내부 검토 및 정책 강화를 추진할 것으로 보인다.
