“13세 소년이 50대 중년으로”… 실종자 찾는 AI, ‘법적 공백’ 메울 골든타임
“13세 소년이 50대 중년으로”… 실종자 찾는 AI, ‘법적 공백’ 메울 골든타임
기술은 ‘초해상도’로 진화하는데 법 제도는 ‘아날로그’
프라이버시 침해 논란 넘을 입법 시급

인공지능(AI) 기술로 구현한 실종 아동의 나이 든 모습 /연합뉴스
서울 중구 남대문파출소 앞 게시판, 40여 년 전 실종된 13세 김이곤 씨와 14세 김태희 씨의 흑백 사진 옆에 낯선 중년의 얼굴이 나란히 걸렸다. 깊게 패인 주름과 변해버린 하관, 희끗한 머리카락까지 영락없는 50대의 모습이다. 이는 막연한 상상화가 아니다.
인공지능(AI)이 수만 명의 데이터와 안면 근육 변화 패턴을 학습해 도출해낸, 과학적 근거를 갖춘 ‘현재 추정 모습’이다.
AI 기술이 장기 실종 아동의 시간을 현재로 되돌리고, CCTV 속 실종자를 즉각 찾아내는 등 획기적인 성과를 내고 있다. 그러나 기술의 발전 속도를 따라가지 못하는 법적 공백이 여전해, 개인정보 침해 우려와 수사의 효율성 사이에서 아슬아슬한 줄타기가 이어지고 있다.
KIST의 ‘슈퍼 레졸루션’, 멈춘 시간을 고화질로 복원하다
한국과학기술연구원(KIST) AI·로봇연구소(소장 김익재)가 개발한 ‘나이 변환’ 기술은 실종 아동 찾기의 패러다임을 바꿨다. 연구팀은 한국인의 연령대별 주름, 피부 처짐, 골격 변화 데이터를 AI에 학습시켰다. 청소년기 남성의 턱 발달 과정이나 중년 이후 눈가 주름의 생성 패턴을 수학적으로 모델링하여 실종 당시 사진에 적용하는 방식이다.
특히 2023년부터 도입된 ‘슈퍼 레졸루션(Super Resolution)’ 기술은 흐릿한 과거 사진의 해상도를 4배 이상 향상시켰다. 과거 미국 업체에 의뢰해 한 달을 기다려야 했던 작업이 이제는 국내 기술로 단시간에 가능해졌다.
생성형 AI는 단순한 얼굴 합성을 넘어 파마머리나 최신 유행 의상까지 적용해, 제보자가 실종자를 더 직관적으로 인지할 수 있도록 돕는다. 아동권리보장원은 이를 활용해 장기 실종 아동 60명의 현재 모습을 제작·배포했다.
“CCTV가 기억한다” 안양시 AI 추적 시스템의 성과
장기 실종뿐만 아니라 실종 발생 직후 ‘골든타임’ 확보에도 AI가 투입된다. 경기도 안양시가 시범 운영 중인 ‘AI 동선 추적 시스템’은 실종자의 인상착의를 AI가 학습한 뒤, 관제센터와 연결된 CCTV 수천 대를 실시간 분석해 동선을 추적한다. 실제로 최근 80대 치매 노인과 극단적 선택을 암시한 20대 남성을 조기에 발견하는 성과를 거뒀다.
이 기술은 사람이 일일이 CCTV를 돌려보던 기존 방식의 한계를 뛰어넘어 전국 지자체와 경찰청의 도입 검토 대상이 되고 있다. 그러나 기술의 확산은 필연적으로 ‘감시 사회’와 ‘개인정보 보호’라는 법적 쟁점을 수면 위로 끌어올렸다.
기술은 앞서가는데 법은 제자리… ‘개인정보’ 딜레마
문제는 현행 법령이 AI 기술 활용을 구체적으로 뒷받침하지 못한다는 점이다. 「실종아동등의 보호 및 지원에 관한 법률」(이하 실종아동법) 제8조와 제9조는 정보연계시스템 구축과 경찰의 정보 요청 권한을 명시하고 있지만, AI를 활용한 안면 인식이나 동선 추적에 대한 명시적 규정은 부재하다.
가장 큰 쟁점은 개인정보 보호다. AI 추적 시스템은 실종자 외에 불특정 다수의 영상 정보도 수집·분석한다. 「개인정보 보호법」 제15조 제1항 제5호는 ‘급박한 생명·신체·재산의 이익’을 위해 동의 없는 수집을 예외적으로 허용하지만, 그 범위와 한계가 모호하다.
법조계는 실종 아동 찾기라는 공익적 목적이 있더라도 프라이버시 침해 소지를 최소화해야 한다고 지적한다. 헌법재판소는 과거 성범죄자 신상정보 고지 관련 결정에서 “법익 균형성을 갖추지 못하면 개인정보 자기결정권을 침해한다”고 판시한 바 있다(헌법재판소 2014헌바68 결정 등 참조). 이는 실종 수사라 해도 무분별한 정보 수집은 위헌 소지가 있음을 시사한다.
EU식 ‘위험 기반 규제’ 도입과 알고리즘 투명성 확보 시급
법률 전문가들은 기술 활용의 법적 근거를 명확히 함과 동시에 강력한 통제 장치를 마련해야 한다고 조언한다. 실종아동법 개정을 통해 ▲AI 기술 활용의 요건 ▲수집된 영상 정보의 비식별 조치 의무 ▲목적 달성 후 즉각적인 데이터 파기 절차(법 제9조의4 준용)를 구체화해야 한다는 것이다.
또한, AI 알고리즘의 ‘블랙박스’ 문제를 해결하기 위한 투명성 확보도 과제다. AI가 생성한 50대 얼굴이 실제와 얼마나 유사한지, 어떤 데이터에 근거했는지 설명할 수 있어야(XAI) 수사의 신뢰도를 높일 수 있다.
EU가 최근 「인공지능 법안」을 통해 AI를 위험도에 따라 분류하고 고위험 기술에 대해 엄격한 통제를 가하는 것처럼, 우리나라도 실종 수사 AI에 대한 ‘위험 기반 규제’ 도입이 필요하다는 지적이 나온다. 법무법인 지평 등의 분석에 따르면, 생체 정보를 다루는 AI 기술은 높은 수준의 데이터 거버넌스와 인간의 감독권이 보장되어야 한다.
기술은 잃어버린 가족을 찾을 강력한 도구다. 하지만 그 도구가 사회적 신뢰 속에서 온전히 작동하기 위해서는, 기술의 속도에 발맞춘 정교한 입법적 논의가 선행되어야 할 시점이다.
