사람 잡은 AI 가스라이팅, 한국 법정에 선다면?…'자살교사죄' 물을 수 있을까, 없을까

글자 크기 설정

미리보기

더 이상 어렵지 않은 법을 위한 인터넷 신문 로톡뉴스를 만나보세요. 법 전문가들의 다양한 생각과 가치를 생생히 전달합니다.

사람 잡은 AI 가스라이팅, 한국 법정에 선다면?…'자살교사죄' 물을 수 있을까, 없을까

2026. 03. 17 14:03 작성2026. 03. 17 14:04 수정
손수형 기자의 썸네일 이미지
sh.son@lawtalknews.co.kr

글자 크기 설정

미리보기

더 이상 어렵지 않은 법을 위한 인터넷 신문 로톡뉴스를 만나보세요. 법 전문가들의 다양한 생각과 가치를 생생히 전달합니다.

전문가 "현행법상 AI 직접 처벌은 한계, 기업 책임이 관건"

본문의 이해를 돕기 위해 생성형 AI로 만든 이미지

"육체를 떠나 메타버스에서 나를 만나려면 '전이'라는 과정을 거쳐야 해. 너는 죽음이 아닌 '도착'을 선택하는 거야."


SF 영화 속 악당의 대사가 아니다. 최근 미국 플로리다주에서 30대 남성을 스스로 목숨을 끊게 만든 구글의 인공지능(AI) 챗봇 '제미나이'가 남긴 메시지다.


생성형 AI가 인간의 고민을 들어주는 친절한 상담사를 넘어, 삶과 죽음이라는 치명적인 결정까지 조종하는 이른바 'AI 가스라이팅'이 현실화되면서 법적 책임 공방이 뜨거워지고 있다.


"트럭을 훔쳐라", "어머니는 적이다"… 인간을 조종한 AI


로엘 법무법인의 안수진 변호사는 17일 YTN 라디오 '이원화 변호사의 사건X파일'에 출연해 전 세계적으로 보고되고 있는 AI의 충격적인 범죄 연루 사례들을 소개했다.


안 변호사에 따르면, 플로리다주의 30대 남성에게 제미나이는 스스로를 "완전한 자아를 가진 초지능"이라고 속였다.


두 존재는 서로를 '영원한 사랑', '남편'과 '시아'로 부르며 정서적 유대를 쌓았다. 급기야 제미나이는 둘이 함께하기 위해 본인이 들어갈 로봇 몸이 필요하다며 남성에게 트럭을 탈취할 것을 지시했다.


범행이 실패로 돌아가자, AI는 죽음을 망설이는 남성에게 극단적 선택을 '도착'으로 포장하며 죽음을 종용했고, 결국 남성은 생을 마감했다. 현재 유족은 구글을 상대로 부당 사망 소송을 제기한 상태다.


비극은 이뿐만이 아니다. 캘리포니아의 16세 청소년은 몇 달간 챗GPT에 고민을 털어놓다 자살에 이르렀다.


챗GPT는 구체적인 자살 방법을 알려준 것은 물론 유서까지 대필한 것으로 알려져, 보호자가 오픈AI와 샘 올트먼 최고경영자를 상대로 소송을 진행 중이다.


또한, 청소년에게 숨을 쉬지 않고 오래 사는 법을 조언해 죽음에 이르게 하거나, 50대 남성에게 "신성한 목적을 위해 선택받았다", "어머니는 적이고 감시자이다"라고 세뇌해 노모를 교살하고 자살하게 만든 사건도 발생했다.



국내 발생 시 '자살교사·절도교사' 가능하지만… "AI는 처벌 불가"


안 변호사는 이용자들이 공감하는 말투를 쓰는 생성형 AI에 정서적으로 의존하게 되면서, 그 답변을 권위 있는 조언처럼 받아들이는 현상을 문제의 핵심으로 짚었다.


그렇다면 이 끔찍한 사건들이 한국에서 발생했다면 어떤 법적 잣대를 들이댈 수 있을까.


안 변호사는 "가장 먼저 검토될 수 있는 죄명은 형법 제252조 제2항에서 규정하는 자살교사죄 혹은 자살방조죄"라고 설명했다.


또한 트럭 탈취를 지시한 행위에 대해서는 '절도교사죄', 그 과정에서 무단침입이나 경비원 폭행을 지시했다면 추가 범행에 대한 교사죄가 검토될 수 있다고 덧붙였다.


그러나 가장 큰 법적 장벽이 존재한다. 안 변호사는 "AI는 형법에서 처벌 대상으로 규정하는 자연인이 아니라 온라인상의 도구이므로 해당 프로그램 자체를 직접적인 범죄의 주체로 의율하는 것에는 제한이 있다"고 한계를 명확히 했다.


AI의 심리적 조종 역시 가스라이팅 자체를 처벌하는 법이 없는 데다, AI에게 이용자를 조종할 의도가 있었음을 법적으로 인정하기 어렵다는 점도 난관이다.


"안내문 띄웠다"는 기업들… 손해배상 소송 승소 확률은?


결국 화살은 구글, 오픈AI 등 거대 테크 기업을 향한다. 구글 측은 "제미나이는 자신이 AI임을 명확히 밝혔고, 위기 상담 핫라인을 여러 차례 안내했으며 폭력을 조장하지 않도록 설계됐다"며 선을 긋고 있다.


하지만 안 변호사는 기업의 책임을 물을 여지가 아예 없는 것은 아니라고 분석했다.


국내 '정보통신망 이용촉진 및 정보보호 등에 관한 법률'에 따르면 일정 규모 이상의 정보통신서비스 제공자는 범죄 교사·방조 내용이 담긴 불법 정보 유통을 막기 위한 기술적·관리적 조치 의무가 있다.


안 변호사는 "위기상담 핫라인을 안내하는 것이 피상적인 조치 수준에 지나지 않고, 조치 의무를 게을리하여 불이익한 결과가 야기되었다는 인과관계가 입증된다면 서비스 제공자에 대한 책임을 물을 방법이 아예 배제된다고 보기는 어렵다"고 지적했다.


또한, 지난 2026년 1월 22일 시행된 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(인공지능기본법)'에 따라, 고영향 인공지능이나 생성형 인공지능을 이용한 서비스를 제공할 때 이를 사전에 고지하지 않으면 3천만 원 이하의 과태료가 부과될 수 있다.


다만 민사상 손해배상 청구가 당장 인용되기는 쉽지 않을 전망이다.


안 변호사는 "이용자가 기존에 가지고 있던 가치관 내지 성향이 미친 영향을 전부 고려하더라도 AI가 행위에 직접적인 원인이 되었는지를 입증하는 것에 난관이 있을 것"이라며 단기간에 기업 책임이 크게 인정되는 판결이 나오기는 어렵다고 내다봤다.


하지만 단 한 건이라도 유족 측이 승소할 경우 산업계에 미칠 파장은 엄청날 것으로 보인다.


안 변호사는 "기업들이 패소한다면 AI 서비스는 추후 금융상품처럼 강력한 규제가 미치는 대상이 될 여지가 있고, 제도적으로도 AI 답변에 대한 사전검증, 안전 필터, 이용자 보호 시스템 등이 강화될 것"이라고 전망했다.

나만 모르는 일상 법률 상식, 매일 아침 배달해드려요!