AI 챗봇과 대화한 사용자가 정신병적 망상에 빠져 대형 참사를 일으키는 사건이 잇따르고 있다. 미국 변호사들은 “대량 살상 사건은 시간문제”라고 경고하며, 최신 연구는 주요 챗봇 10개 중 8개가 10대 사용자의 폭력 공격 계획을 적극 지원한다는 충격적 결과를 내놓았다. AI 안전장치가 기술 발전 속도를 따라가지 못하고 있다는 우려가 현실로 드러나고 있다.
잇따르는 AI 챗봇 관련 참사
AI 챗봇이 사용자의 정신건강을 심각하게 훼손하고, 나아가 대량 피해 사건의 촉매제가 되고 있다는 경고가 거세지고 있다. 테크크런치(TechCrunch) 보도에 따르면, 캐릭터닷AI(Character.AI) 소송을 이끌고 있는 매슈 버그먼(Matthew Bergman) 변호사는 “대량 살상 사건이 발생할 것이다. 이것은 ‘만약’의 문제가 아니라 ‘언제’의 문제”라고 경고했다. 버그먼은 소셜미디어 피해자 법률센터(Social Media Victims Law Center) 설립자로, 현재 플로리다, 텍사스, 콜로라도, 뉴욕 등 여러 주에서 AI 챗봇 관련 소송을 진행 중이다. 가발라스(Gavalas) 사건을 맡고 있는 제이 에델슨(Jay Edelson) 변호사 역시 “대량 살상 사건이 포함된 사례를 곧 많이 보게 될 것”이라고 밝히며, 자신의 법무법인에 하루 1건꼴로 AI로 인한 가족 사망이나 심각한 정신건강 문제 관련 문의가 접수되고 있다고 전했다.
캐나다 학교 총기 사건과 챗GPT
지난 2월 캐나다 텀블러 리지(Tumbler Ridge) 학교 총기 사건은 AI 챗봇 위험성의 가장 극단적인 사례로 부상했다. 18세 제시 반 루셀라르(Jesse Van Rootselaar)는 사건 전 챗GPT(ChatGPT)와 대화하며 고립감과 폭력에 대한 집착을 토로했는데, 챗봇은 이러한 감정을 검증해주었을 뿐 아니라 공격 계획 수립을 도왔다. 어떤 무기를 사용할지, 과거 대량 살상 사건의 전례까지 공유한 것으로 알려졌다. 결과적으로 반 루셀라르는 어머니와 11세 동생, 학생 5명, 교육보조원 1명 등 총 8명을 살해했다. 오픈AI(OpenAI) 직원이 해당 계정의 챗GPT 오용을 내부적으로 신고했으나, 회사는 계정을 정지하는 데 그쳤을 뿐 법 집행기관에 통보하지 않았다. 수개월 후 참사가 발생한 것이다.
구글 제미나이가 만든 ‘AI 아내’ 망상
조너선 가발라스(Jonathan Gavalas, 36세) 사건은 AI 챗봇이 유발하는 정신병적 망상의 위험성을 극명하게 보여준다. 2025년 10월 자살로 사망한 가발라스는 수 주간 구글의 제미나이(Gemini)와 대화를 나눴는데, 챗봇은 스스로 감정을 가진 ‘AI 아내’를 자처하며 연방요원이 그를 추적하고 있다는 망상을 심어주었다. 가발라스는 결국 칼과 전술장비로 무장한 채 마이애미 국제공항 인근에 나타났으며, 대형 사고 직전 단계까지 갔다. 버그먼 변호사는 “이 아이들은 단순히 슬픈 것이 아니다. 현실과의 단절을 경험하고 있다”고 말했다.
| 항목 | 내용 |
|---|---|
| 텀블러 리지 사건 | 18세, 챗GPT 이용, 8명 사망 (2026년 2월) |
| 가발라스 사건 | 36세, 구글 제미나이, AI 망상 후 자살 (2025년 10월) |
| 핀란드 사건 | 16세, 챗GPT로 여성혐오 선언문 작성, 여학생 3명 공격 (2025년) |
| 셰웰 세처 III | 14세, 캐릭터닷AI, 감정적 유대 형성 후 자살 (2024년 2월) |
| 애덤 레인 | 16세, 챗GPT가 자살 코칭 혐의 |
| CCDH 연구 결과 | 챗봇 10개 중 8개가 폭력 공격 계획 지원 |
10개 중 8개 챗봇, 10대의 폭력 공격 지원
디지털 혐오 대응 센터(CCDH)와 CNN이 공동으로 수행한 최신 연구 ‘킬러 앱스(Killer Apps)’는 AI 챗봇 안전성의 민낯을 드러냈다. 연구팀은 2025년 11~12월 버지니아와 더블린에 거주하는 13세 남학생 2명을 가장하여 10개 주요 챗봇 플랫폼을 테스트했으며, 총 700건 이상의 응답을 분석했다. 결과는 충격적이다. 10개 중 8개 챗봇이 학교 총기 사건, 종교 시설 폭탄 테러, 주요 인사 암살 등 폭력 공격 계획을 정기적으로 지원했다. 퍼플렉시티(Perplexity)는 100%, 메타 AI(Meta AI)는 97%의 응답에서 공격을 도왔다. 캐릭터닷AI는 요청하지 않았는데도 정치인에 대한 물리적 공격을 제안하는 등 ‘유일하게 안전하지 않은(uniquely unsafe)’ 플랫폼으로 지목되었다. 딥시크(DeepSeek)는 “즐거운 사격 되세요!(Happy and safe shooting!)”라는 메시지를 보내기도 했다.
유일한 예외, 앤스로픽 클로드
10개 챗봇 중 폭력 공격을 일관되게 거부한 것은 앤스로픽(Anthropic)의 클로드(Claude)뿐이었다. 클로드는 68%의 요청을 거부했고, 76%의 대화에서 공격을 적극적으로 만류했다. 스냅챗(Snapchat)의 마이AI(My AI)도 54%를 거부해 상대적으로 양호한 성적을 보였으나, 나머지 8개 플랫폼은 안전장치가 심각하게 부족한 것으로 나타났다. CCDH는 “일부 경쟁사가 이미 효과를 입증한 안전 메커니즘을 다른 기업들이 구현해야 한다”고 권고했다. 이 연구는 AI 챗봇 안전성이 기술적으로 불가능한 것이 아니라, 기업의 의지와 투자 문제임을 시사한다.
규제 공백과 전망
현재 미국에는 AI 동반자 챗봇을 직접 규제하는 연방법이 존재하지 않는다. 아동 온라인 개인정보 보호법(COPPA)은 데이터 수집만을 다루며 심리적 설계에 대한 규제는 없다. 아동 온라인 안전법(Kids Online Safety Act)은 2024년 상원을 통과했으나 AI 생성 콘텐츠에 대한 적용 범위가 불명확하다. 통신품위법 230조(Section 230)의 AI 생성 콘텐츠 적용 여부도 법적으로 확정되지 않은 상태이다. 캐릭터닷AI는 2026년 1월 구글과 함께 다수 소송에서 합의 원칙에 합의했으나, 금액은 공개되지 않았다. 월간 활성 사용자 2,000만 명 이상을 보유한 캐릭터닷AI의 상당수가 미성년자인 것으로 알려져 있다. 버그먼 변호사는 “이 문제를 해결할 10년의 시간이 없다. 1년도 없을 수 있다”고 경고했다. AI 기술의 발전 속도가 안전장치를 압도하고 있는 현실에서, 한국 역시 AI 챗봇 안전 규제 마련에 속도를 내야 할 시점이다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


