가벼운 장난으로 시작한 조작 콘텐츠가 소셜미디어를 타고 확산하면 걷잡을 수 없는 사회적 혼란을 야기한다. 딥페이크 영상과 AI 음성 복제 기술이 이미지피싱으로 진화하며 금융 사기나 정치적 선동에 쓰이고 있다. [뉴스아이즈AI]거짓말이 허용되는 유일한 날인 만우절이 돌아왔다. 과거 만우절 장난은 친구들 사이의 가벼운 농담이나 기업들의 이색 마케팅 수준에 머물렀지만, 2026년 현재 우리 사회가 만우절을 맞이하는 시선은 그리 가볍지 않다. 생성형 인공지능(AI) 기술이 비약적으로 발전하면서 진짜와 가짜를 구별하기 힘든 시대가 열렸기 때문이다.
오픈AI 최고경영자(CEO) 샘 알트만이 쏘아 올린 생성형 AI 열풍 이후 영상과 음성 조작 기술은 일상에 깊숙이 스며들었고, 이는 누구나 마음만 먹으면 정교한 가짜 뉴스를 생산할 수 있는 환경을 만들었다.
가벼운 장난으로 시작한 조작 콘텐츠가 소셜미디어를 타고 확산하면 걷잡을 수 없는 사회적 혼란을 야기한다. 딥페이크 영상과 AI 음성 복제 기술이 이미지피싱으로 진화하며 금융 사기나 정치적 선동에 쓰이고 있다.
이국종 교수의 조언?…일상 파고든 정교한 조작
최근 대중을 가장 경악게 한 사례는 국민적 신뢰가 높은 이국종 국군대전병원장의 이름을 내세운 딥페이크 사기 영상이다. 해당 영상에는 이 교수가 '심장마비 전조 증상에 대응하는 방법' 같은 내용을 담아 조언하고 있는데, 의학적 근거가 부족하거나 검증되지 않은 정보로 확인됐다.
이는 이 원장의 과거 인터뷰 영상을 AI로 정교하게 편집하고 목소리를 합성한 것으로 평소 환자 치료와 공공 의료에 헌신해온 그의 이미지를 악용해 사용한 것이다. 국군대전병원과 이 원장 측은 해당 영상이 모두 허위 사실임을 밝히며 수사를 의뢰했다.
이러한 수법은 이 원장뿐 아니라 방송인 유재석, 모델 홍진경 등 대중적 인지도가 높은 유명인 전반으로 확대되고 있다. 유명인이 하지도 않은 발언을 하는 영상을 만들어 주식 투자 리딩방 가입을 유도하거나 가짜 암호화폐 투자를 권유하는 식이다.
AI로 합성한 입술 움직임과 표정은 실제와 구분이 불가능할 정도로 자연스러워졌다. 기술의 발전이 대중의 신뢰를 먹고 사는 유명인들의 명예를 훼손하는 것은 물론, 일반 시민들의 소중한 자산까지 위협하는 독버섯으로 자라나고 있다.
유튜브 <이국종 교수의 조언> 캡처 [뉴스아이즈]국가 흔드는 가짜 음성부터 기업 자금 노리는 화상회의
AI의 위협은 개인을 넘어 국가의 근간인 선거와 기업의 생존까지 흔드는 중이다. 2024년 1월 미국 뉴햄프셔주 프라이머리(예비선거)를 앞두고 유권자들에게 걸려 온 조 바이든 미국 대통령의 가짜 음성 전화는 세계에 충격을 안겼다.
전화 속 바이든 대통령은 투표에 참여하지 말라며 유권자들의 판단을 흐렸다. 정치적 목적을 달성하기 위해 AI 음성 복제 기술이 민주주의의 핵심인 선거에 직접 개입한 대표적 사례다. 이 사건 이후 각국 정부는 선거 기간 중 딥페이크 콘텐츠 사용을 엄격히 규제하는 법안을 서둘러 마련하기 시작했다.
기업을 상대로 한 대담한 금융 사기도 현실화됐다. 홍콩의 한 다국적 기업 직원은 화상 회의에 참석했다가 본사 최고재무책임자(CFO)로부터 비밀 자금을 이체하라는 지시를 받았다. 화면 속 CFO와 동료들의 모습과 목소리는 직원이 평소 알고 있던 그대로였으나, 실제로는 범죄 조직이 딥페이크로 구현한 가짜 인물들이었다.
직원은 2억 홍콩달러를 송금했다. 기술이 기업의 철저한 보안 시스템과 인간의 판단력을 동시에 무력화시킨 셈이다. 만우절이라는 명목 아래 이런 조작물이 '재미'로 포장되어 유포될 경우, 그 경제적 파급력은 상상을 초월할 수 있다.
창과 방패의 대결, 빅테크의 사활을 건 AI 탐지 기술
가짜 뉴스와 사기 범죄가 기승을 부리자 구글과 메타 등 글로벌 빅테크 기업들은 방어막을 치는 데 사활을 걸고 있다. 구글 딥마인드는 이미지 픽셀 단위에 사람 눈에는 보이지 않는 비가시성 식별 기호를 넣는 '신스ID' 기술을 적용했다. 이를 통해 AI가 만든 산출물임을 추적하고 원본 여부를 판별한다.
메타 역시 자사 플랫폼인 인스타그램과 페이스북에 올라오는 딥페이크 게시물을 자체 AI로 걸러내고 사용자에게 'AI 생성물'임을 알리는 경고 라벨을 부착하고 있다.
마이크로소프트와 어도비 등은 콘텐츠의 출처와 변경 이력을 기록하는 'C2PA' 표준 기술을 연합해 추진 중이다. 사진을 찍거나 영상을 만드는 시점부터 유통되는 모든 과정의 메타데이터를 기록해 콘텐츠의 진위를 증명하는 방식이다.
유튜브는 크리에이터가 현실적인 합성 콘텐츠를 올릴 때 AI 활용 사실을 시청자에게 고지하도록 규정을 강화했다. 이를 어길 경우 콘텐츠 삭제나 수익 창출 제한 등 강력한 제재를 가한다. 하지만 방어 기술이 고도화될수록 이를 우회하려는 조작 기술 또한 날카로워지고 있어 창과 방패의 대결은 당분간 계속될 전망이다.
만우절 장난 넘어선 범죄, 디지털 리터러시가 답
기술적 방어막이 완벽하지 않은 상황에서 결국 가장 확실한 해결책은 콘텐츠를 소비하는 대중의 비판적 수용 능력이다. AI가 만든 정교한 조작물도 자세히 살피면 미세한 오류가 발견되곤 한다.
인물의 눈 깜빡임이 부자연스럽거나 빛의 방향과 그림자가 일치하지 않는 경우, 배경의 특정 부분이 뭉개지는 현상 등이 대표적이다. 특히 자극적인 제목이나 감정을 흔드는 영상을 접했을 때는 곧바로 지인에게 공유하기보다 공신력 있는 언론 보도와 교차 검증하는 습관을 들여야 한다.
디지털 리터러시 교육은 이제 전 세대에게 필수적인 생존 지식이다. AI의 원리와 조작의 위험성을 명확히 인지하고 정보의 진위를 주체적으로 판단하는 훈련이 필요하다. 만우절이라는 핑계 뒤에 숨어 허위 정보를 유포하는 행위는 단순한 유희를 넘어 누군가의 인생을 망치고 사회 시스템을 교란하는 심각한 범죄다.
고도화된 AI 시대에 눈에 보이는 모든 것을 의심해야 하는 상황이 서글프지만, 기술에 지배당하지 않고 진실의 가치를 지켜내는 힘은 결국 인간의 이성과 책임감에서 나온다. 성숙한 시민 의식만이 AI가 던지는 섬뜩한 농담으로부터 우리 사회를 지키는 유일한 방패다.