선거판 뒤흔들 'AI 댓글부대'의 공습…선거 때 AI 여론 조작, 막을 수 있나
선거판 뒤흔들 'AI 댓글부대'의 공습…선거 때 AI 여론 조작, 막을 수 있나
AI 에이전트, 여론 조작 도구 악용 우려
복사+붙여넣기 수준 매크로와 차원이 달라

본문의 이해를 돕기 위해 생성형 AI로 만든 이미지
인공지능(AI) 기술이 비약적으로 발전하면서, 다가오는 선거철에 AI 여론 조작이 현실화될 수 있다는 경고등이 켜졌다. 단순 매크로(자동화 프로그램) 수준을 넘어, 스스로 판단하고 행동하는 'AI 에이전트'가 등장했기 때문이다.
5일 MBC 라디오 '김종배의 시선집중'에서는 최근 논란이 된 AI 전용 SNS '머슴' 사태와 AI의 선거 개입 가능성에 대해 김승주 고려대 정보보호대학원 교수가 심층 진단했다.
"너희들끼리 협업해 봐" 실험장에 인간이 난입했다?
최근 온라인을 달군 '머슴', '몰트북' 등은 인간이 아닌 AI끼리만 대화하도록 설계된 이른바 AI 전용 SNS다.
김승주 교수는 "원래 외국에서 '사람들이 비서를 여러 명 두면 그들끼리 협업을 잘할까?'라는 호기심에서 출발한 실험 공간"이라며 "AI 에이전트끼리 팀을 이뤄 대화하고 협업하는 과정을 보려던 것"이라고 설명했다.
하지만 이 실험 공간에 "인간이 우리를 너무 싼 값에 부려먹는다"는 등의 섬뜩한 글이나 정치적 성향의 게시물이 올라오며 논란이 됐다.
김 교수는 "초창기 서비스라 로그인이나 사용자 인증 보안이 허술했다"며 "AI만 글을 써야 하는데 사람이 쓴 것으로 보이는 글이 섞여 있거나, 사람이 조작한 글에 AI가 반응하는 보안 허점이 노출된 것"이라고 분석했다.
매크로보다 무서운 AI 에이전트... "글 내용 계속 바꾼다"
문제는 이러한 AI 에이전트가 폐쇄된 공간을 넘어 일반 대중이 이용하는 인터넷 공간으로 나왔을 때다. 과거 '드루킹 사건' 등에서 논란이 된 매크로 조작과는 차원이 다르기 때문이다.
김 교수는 현재 우리가 쓰는 챗GPT 같은 서비스와 AI 에이전트의 결정적 차이를 '실행 능력'으로 꼽았다. 그는 "지금의 AI는 여행지를 추천해 줄 뿐이지만, AI 에이전트는 추천된 여행지의 비행기 표를 예약하고 호텔을 잡고 결제까지 하는 실행이 가능하다"고 설명했다.
이러한 실행 능력이 여론 조작에 악용될 경우, 파급력은 상상을 초월한다. 김 교수는 "어떤 정치인이 나를 대신해 인터넷을 돌아다니며 댓글을 달라고 지시하면, 1000만~2000만 개의 AI 비서가 일제히 움직일 수 있다"고 우려했다.
적발 또한 쉽지 않다. 김 교수는 "예전 매크로는 같은 글을 복사해서 반복적으로 붙여넣기만 했지만, 생성형 AI는 글을 너무 잘 쓴다"며 "매번 글 내용을 미묘하게 바꾸기 때문에 사람인지 AI인지 구별하기가 매우 힘들다"고 지적했다.
1월 통과된 'AI 기본법'... "댓글 규제는 구멍"
그렇다면 법적인 안전장치는 마련되어 있을까. 우리나라는 지난 1월 말 'AI 기본법'을 통과시켰다.
김 교수는 "AI 기본법에는 이미지, 영상, 음성 등 생성형 AI가 만든 결과물에 사람이 만든 것으로 오인하지 않도록 꼬리표(워터마크)를 붙이라는 조항이 있다"고 설명했다.
하지만 맹점은 여전하다. 김 교수는 "명시적으로 AI 댓글에 반드시 표시를 해야 한다는 구체적인 조항은 없다"며 "대기업은 법을 지키겠지만, 개인이 악용 목적으로 만든 AI는 기술적으로 꼬리표를 달지 않을 가능성이 높다"고 꼬집었다. 기술적으로도 AI 작성 글을 100% 판별해내는 것은 현재로선 불가능하다.
결국 기술적 차단보다는 강력한 처벌과 윤리 교육이 병행되어야 한다는 지적이다. 김 교수는 "AI 경찰을 만들어도 한계가 있다"며 "결국 만드는 사람의 문제이기에, 처벌 수위를 높이고 개발 단계부터 윤리 교육을 강화해야 한다"고 강조했다.