최근 소셜미디어(SNS)를 중심으로 급속도로 확산된 ‘미 특수부대 델타포스 요원들의 이란군 체포 영상’이 인공지능(AI) 기술로 정교하게 조작된 가짜뉴스로 드러났다.
현재 중동 지역의 군사적 긴장감이 최고조에 달한 상황을 틈타 유포된 이 영상은 전 세계 네티즌들을 혼란에 빠뜨렸으나, 전문가들의 정밀 분석 결과 사실이 아닌 것으로 판명됐다.
■ "손가락 왜곡에 AI 워터마크까지"… 조작 흔적 역력
해당 영상과 사진들은 이란군이 미군 정예 요원들을 제압하고 포로로 잡고 있는 모습을 담고 있다. 외신을 종합해보면, 하지만 이미지 분석 전문가들이 해당 영상을 전수 조사한 결과, 여러 군데에서 결정적인 조작 증거가 발견됐다.
가장 먼저 지목된 것은 시각적 오류다. 영상 속 일부 인물들의 손가락 개수가 부정확하거나 군복의 위장 패턴이 미군의 실제 규격과 일치하지 않는 등 전형적인 'AI 생성물'의 특징이 포착됐다. 특히 일부 프레임에서는 구글의 AI 이미지 생성 도구인 'Gemini'가 삽입하는 특유의 다이아몬드 형태 워터마크가 노출되기도 했다.
■ 미 국방부 "명백한 허위 사실… 정보전의 일환"
미군 당국은 즉각 진화에 나섰다. 미 중부사령부(CENTCOM) 대변인은 아랍권 대표 언론인 알자지라에 보낸 메시지에서 "이란군에 의해 체포되거나 억류된 델타포스 요원은 단 한 명도 없다"고 못 박았다.
미 국방부 관계자는 "현재 중동의 민감한 정세를 이용해 상대방의 사기를 꺾고 국제 여론을 호도하려는 '디지털 정보전(Information Warfare)'의 일환으로 보인다"며 주의를 당부했다. 이란 측 일부 관계자들이 해당 영상을 공유하며 선전에 활용하기도 했으나, 실제 포로의 신원이나 물리적 증거는 제시하지 못하고 있다.
■ "진짜보다 더 진짜 같은 가짜"
이번 사건은 AI 기술이 전장의 물리적 충돌만큼이나 치명적인 '심리전 도구'로 악용될 수 있음을 보여준 대표적 사례다. 특히 알고리즘을 타고 확산되는 가짜뉴스는 사실 여부가 확인되기 전 이미 대중에게 '기정사실'로 받아들여질 위험이 크다.
한 미디어업계 관계자는 "과거에는 조잡한 합성 사진 수준이었으나, 이제는 전문가조차 혀를 내두를 정도로 정교한 영상이 제작되고 있다"며 "정보 수용자들이 공유 버튼을 누르기 전, 출처를 재확인하는 비판적 수용 능력이 그 어느 때보다 절실한 시점"이라고 강조했다.
송원근 기자
