티스토리 뷰
목차
2025년, 인공지능(AI)이 선거에 미치는 영향은 전 세계적으로 큰 관심을 받고 있습니다. 특히 미국과 한국은 민주주의 체계를 유지하면서도 디지털 기술의 최전선에 있는 국가들로, AI를 이용한 Deepfake영상, 여론 조작, 정치 캠페인 자동화와 같은 현상이 선거 환경에 직접적인 영향을 미치고 있습니다. 이 글에서는 미국과 한국의 AI 선거 조작 사례를 비교하고, 각국의 대응 방안과 그 한계점까지 심층 분석합니다.
<미국과 한국 AI 선거 조작> Deepfake, 여론조작: 알고리즘 속 유권자
AI 기술 중에서도 Deepfake는 선거 조작 수단으로 가장 주목받는 기술입니다. 미국에서는 이미 2020년 대선 당시 정치인의 말을 교묘히 조작한 Deepfake 영상이 인터넷에 유포되며 큰 파장을 일으켰습니다. 2024년 대선을 앞두고는 더욱 정교한 AI 모델이 사용되어, 표정·음성·억양까지 진짜처럼 만든 영상들이 SNS에 대량 유포되었습니다. 이로 인해 유권자의 혼란이 심화되었고, 언론과 기술기업, 정부 간 협력 대응이 시급한 과제로 떠올랐습니다. 한국에서도 Deepfake 영상의 선거 악용 가능성은 꾸준히 제기되고 있습니다. 실제로 2022년 지방선거에서는 한 후보자의 얼굴을 다른 사람의 발언 영상에 합성한 콘텐츠가 온라인 커뮤니티를 통해 확산된 바 있습니다. 당시 선관위는 이 영상을 '허위정보'로 규정하고 삭제 요청을 했지만, 이미 유포된 콘텐츠는 회수하기 어려웠습니다. Deepfake는 현실과 허구의 경계를 모호하게 만들고, 유권자의 인지력을 교란시키는 매우 위험한 기술입니다. 특히 선거 기간에는 단 몇 초의 영상이 여론의 방향을 바꿀 수 있기 때문에, 양국 모두 이 기술의 악용을 막기 위한 기술적 감지 시스템과 법적 제재 장치를 강화하고 있습니다. AI를 통한 여론 조작은 단순한 영상 합성을 넘어서, 유권자의 사고와 감정을 직접적으로 조종할 수 있는 수준까지 도달하고 있습니다. 미국에서는 페이스북과 X(구 트위터)에서 '봇 계정'을 이용한 여론 조작이 실제로 확인된 바 있으며, 가짜 여론 형성은 정치적 메시지의 확산과 대중의 판단에 큰 영향을 주었습니다. 한국에서도 온라인 커뮤니티와 댓글 시스템을 활용한 여론 조작이 주요 이슈로 떠오르고 있습니다. 특히 자동화된 프로그램(Macro)이 특정 정치 성향의 게시글에 반복적으로 ‘공감’이나 ‘좋아요’를 누르거나, 비판 글을 자동 차단하는 형태로 작동하기도 합니다. 이는 실제 여론과는 다른 왜곡된 현실을 만들고, 유권자들에게 편향된 정보를 노출시키는 결과를 낳습니다. AI는 단지 빠르고 효율적인 도구가 아니라, 감성 분석 및 개인 맞춤형 메시지 전달이 가능한 고도화된 시스템입니다. 즉, 유권자의 SNS 활동을 분석해 해당 성향에 맞는 메시지를 지속적으로 노출시키며, 특정 이슈에 대한 판단을 유도하는 ‘디지털 선동’이 가능해졌습니다. 이러한 여론 조작 기술은 그 자체로 법적으로 처벌하기 어려운 회색지대에 머물고 있어, 양국 모두 대응책 마련이 시급한 상황입니다.
대응책, 기술과 법 사이의 균형
AI 선거 조작 문제에 대응하기 위해 미국과 한국은 각각 다른 방식으로 접근하고 있습니다. 미국은 기술 기업 중심의 자율 규제를 통해 플랫폼 내부에서 조작 콘텐츠를 사전에 차단하거나, ‘Deepfake표시 라벨’을 붙이는 방식을 사용하고 있습니다. 유튜브, 틱톡, 페이스북은 자체 알고리즘을 통해 비정상적인 트래픽을 탐지하고, 의심스러운 영상에는 출처 경고를 표시하고 있습니다. 반면 한국은 공공기관 중심의 규제를 강화하고 있습니다. 중앙선거관리위원회는 ‘AI 정치 콘텐츠 감시단’을 운영하며, 선거 기간 동안 허위정보에 대한 모니터링과 삭제 요청을 신속히 진행합니다. 또한 선거법을 개정하여 AI로 제작된 콘텐츠에 대한 법적 책임 범위를 명확히 하고, 허위 영상 제작 시 형사 처벌 조항도 추가하고 있습니다. 그러나 여전히 한계도 존재합니다. AI 기술의 발전 속도에 비해 법률과 제도는 후행적이며, 새로운 유형의 조작 방식을 실시간으로 대응하기 어렵습니다. 기술 기업과 공공기관의 협업 강화, 시민 미디어 교육 확대, 국제 공조 체계 구축 등 다층적 접근이 필요한 시점입니다.
글로벌 공조와 시민 교육의 중요성
AI를 활용한 선거 조작은 특정 국가만의 문제가 아닙니다. 인터넷은 국경을 초월하고, AI 기술은 빠르게 확산되기 때문에, 미국과 한국뿐만 아니라 전 세계적인 공조가 반드시 필요합니다. 특히 Deepfake탐지 기술, 악성 봇 식별 알고리즘 등은 국제 기술 기업 및 연구기관 간 협력이 요구되는 분야입니다. 미국은 유럽연합(EU) 및 일본과 함께 ‘AI 선거 윤리 가이드라인’을 논의 중이며, 글로벌 SNS 플랫폼과의 협력을 강화하고 있습니다. 한국 또한 아시아권 국가들과 공동 대응 체계를 구축하고 있으며, 특히 2025년 총선을 앞두고 국제 감시단의 조기 도입을 검토했습니다. 이러한 다자간 협력은 AI 조작의 국제적 확산을 줄이는 데 필수적입니다. 또 하나 중요한 대응 전략은 시민 교육입니다. 아무리 정교한 기술과 제도가 마련되어도, 최종적으로 정보를 해석하고 판단하는 주체는 유권자 개인입니다. 미국은 초·중등 교육 과정에 ‘Digital literacy’ 교육을 의무화하고 있으며, 한국도 언론진흥재단과 선관위를 중심으로 ‘가짜뉴스 구별법’, ‘AI 콘텐츠 판별법’ 교육을 확대하고 있습니다. AI 선거 시대의 유권자는 더 이상 단순한 정보 수용자가 아니라, 능동적 감시자이며 참여자입니다. 따라서 기술·법·교육이 유기적으로 작동하는 3단계 대응 시스템이 민주주의를 지키는 핵심 전략이 될 것입니다. 미국과 한국 모두 AI 기술을 활용한 선거 조작에 직면해 있으며, 각기 다른 방식으로 대응하고 있습니다. Deepfake영상의 확산, 여론 조작 알고리즘의 등장, 그리고 법적 공백은 민주주의의 근간을 위협할 수 있는 요소입니다. 이제는 단순한 기술 문제가 아닌 정치적, 사회적 의제로 접근해야 하며, 기술적 감시와 법적 장치, 시민 교육이 함께 어우러지는 종합적 대응이 필요합니다. 유권자 한 사람 한 사람이 AI 시대의 정보 판별자임을 자각해야 할 때입니다.