AI가 낳은 괴물, 'GPT 키디'… 346억 앗아간 딥페이크 CEO
AI가 낳은 괴물, 'GPT 키디'… 346억 앗아간 딥페이크 CEO
코딩 몰라도 해커 되는 시대, 법원도 '완벽 보안은 어렵다' 인정
국경 없는 사이버 전쟁의 서막

본문의 이해를 돕기 위해 생성형 AI로 만든 이미지
인공지능(AI)이 만든 가짜 CEO 목소리에 346억 원이 증발하는, 공상과학 같던 사이버 범죄가 현실이 됐다. 홍콩의 한 다국적기업 사무실, 화상회의 모니터에 익숙한 최고재무책임자의 얼굴이 떠올랐다.
그의 지시에 따라 직원들은 거액의 자금을 이체했다. 하지만 화면 속 인물은 AI가 만들어낸 '유령'이었다. 이 한 번의 딥페이크 공격으로 회사가 잃은 돈은 무려 2500만 달러, 우리 돈으로 약 346억 원에 달했다.
AI가 사이버 공격의 문턱을 허물고, 그 파괴력을 전례 없이 키우고 있음을 보여주는 상징적인 사건이다.
"사장님 목소리가 아니었다"… 346억 앗아간 AI 딥페이크
과거 해킹은 소수 전문가의 영역이었다. 복잡한 코드를 이해하고 시스템의 허점을 파고드는 건 고도의 기술을 요하는 일이었다. 하지만 AI 시대가 열리면서 판도가 완전히 바뀌었다. 이제는 프로그래밍 지식이 없는 일반인도 간단한 명령어 몇 줄로 악성코드를 만들고, 특정인을 노린 정교한 피싱(Phishing) 메시지를 대량 생산할 수 있게 됐다.
홍콩 사례처럼 AI는 공격 대상의 SNS 활동, 직업, 관심사를 순식간에 분석해 완벽한 문법과 설득력 있는 내용으로 무장한 '스피어 피싱(spear phishing, 특정인 대상 표적 공격)' 이메일을 작성한다. 심지어 목소리와 얼굴까지 복제해 인간의 심리적 경계를 무너뜨린다. 진짜와 가짜를 구별하기 극도로 어려운, 새로운 차원의 위협이 일상에 스며든 것이다.
'GPT 키디'의 탄생… 해킹, 이제는 복사-붙여넣기 수준
어둠의 경로인 다크웹에서는 'WormGPT', 'FraudGPT'처럼 악성코드 제작에 특화된 AI 모델이 버젓이 거래된다. 사용자가 "정보 탈취용 악성코드를 만들어줘"라고 입력하면, 실제로 작동하는 코드가 순식간에 생성된다.
과거 다른 해커가 만든 프로그램을 어설프게 따라 하던 이들을 '스크립트 키디(Script Kiddie)'라 불렀다면, 이제는 AI의 힘을 빌리는 'GPT 키디(GPT Kiddie)'가 그 자리를 차지했다. 해킹이 누구나 손쉽게 시도할 수 있는 '대중화'의 길로 접어든 셈이다.
반대로 숙련된 해커에게 AI는 강력한 무기를 쥐여줬다.
이른바 '슈퍼 해커'의 등장은 보안 생태계에 가장 큰 위협이다. 이들은 AI를 이용해 소프트웨어 개발자조차 모르는 보안의 허점, 즉 '제로데이 취약점(Zero-day Vulnerability)'을 찾아내는 능력을 비약적으로 향상시켰다. 과거 수개월이 걸리던 작업을 단 몇 시간, 몇 분으로 단축하며 방어자가 대응할 틈도 없이 시스템을 무력화한다.
"완벽 방어는 없다" 법원의 딜레마… 기업 책임 어디까지?
날로 지능화되는 AI 해킹 앞에서 법적 책임 소재를 가리는 일도 복잡해졌다. 현행 정보통신망법은 정당한 이유 없이 정보통신망에 침입하거나(제48조) 악성프로그램을 유포하는 행위를 엄격히 금지하며, 위반 시 5년 이하 징역 또는 5천만 원 이하 벌금에 처한다(제71조). 하지만 기업의 '방어 책임'에 대해서는 법원도 고심이 깊다.
대법원은 "정보통신망은 불가피하게 내재적 취약점을 가지며, 완벽한 보안을 갖추는 것은 기술 발전 속도나 사회적 비용을 고려할 때 기대하기 어렵다"고 판시한 바 있다(대법원 2015. 2. 12. 선고 2013다43994 판결). 해킹 기술이 방어 기술보다 앞서 나가는 현실을 인정한 것이다.
법원은 기업의 규모, 투자한 보안 조치의 수준, 피해 발생의 회피 가능성 등을 종합적으로 고려해 책임을 판단하지만, 모든 공격을 막지 못했다고 해서 기업에 무한 책임을 묻기는 어렵다는 딜레마를 안고 있다.
국경 없는 AI 공격, 사이버 전쟁의 교전수칙 '탈린 매뉴얼'
AI 해킹과 같은 사이버 공격은 국경을 무의미하게 만든다. 공격의 배후에 특정 국가가 있는지, 혹은 민간 해커 조직인지 가려내기조차 쉽지 않다.
이러한 전 지구적 위협에 대응하기 위해 국제사회 역시 고심을 거듭해왔고, 그 결과물이 바로 탈린 매뉴얼이다.
탈린 매뉴얼은 북대서양조약기구(NATO) 사이버방위센터가 주도한 학술 연구 결과물로, 법적 구속력은 없다. 하지만 기존의 국제법을 사이버 공간에 어떻게 적용할지 해석한 최초의 포괄적 가이드라인이라는 점에서 막대한 영향력을 가진다.
이 매뉴얼은 어떤 사이버 공격이 주권 침해나 '무력 공격으로 간주되어 국가의 자위권 행사를 정당화할 수 있는지에 대한 기준을 제시한다.
AI를 통해 한층 교묘해진 공격은 '누가 공격했는가'를 밝히는 공격의 귀속 문제를 더욱 복잡하게 만든다. 'GPT 키디'의 단순 범죄를 넘어, 국가가 배후에서 AI를 이용해 상대국의 핵심 기반 시설을 마비시키는 시나리오가 현실화될 때, 탈린 매뉴얼의 논의는 단순한 학술 연구를 넘어 국제 안보의 핵심 쟁점이 된다.
'AI엔 AI로', '아무도 믿지 마라'… 새로운 방패 '제로 트러스트'
결국 새로운 위협에는 새로운 방패가 필요하다.
전문가들은 'AI에는 AI로' 맞서는 전략을 주문한다. AI 기반 보안 관제 시스템을 구축해 정상적인 시스템 활동 패턴을 벗어나는 미세한 이상 징후를 실시간으로 탐지하고, 인간의 개입 없이도 자동으로 방어 조치를 실행하는 '보안 자동화 대응(SOAR)' 기술이 필수로 꼽힌다.
궁극적인 해법으로는 제로 트러스트 아키텍처로의 전환이 제시된다. '아무것도 신뢰하지 않고, 모든 것을 항상 검증한다'는 이 원칙은 '내부망은 안전하다'는 낡은 믿음을 폐기한다. 모든 사용자, 기기, 애플리케이션의 접근 요청을 의심하고 철저히 인증해 내부자나 이미 침투한 공격자의 활동까지 원천 차단하는 방식이다.
AI는 거스를 수 없는 흐름이지만, 그 빛이 밝을수록 그림자도 짙다. '설마' 하는 안일함이 가장 큰 보안 위협이 되는 시대다. 정부와 기업, 사회 전체가 AI 해킹을 심각한 안보 이슈로 직시하고 국가적 역량을 총동원해 총체적 전략을 수립해야 할 '골든타임'이 바로 지금이다.
