생성형 AI(Generative AI)는 인류의 생산성을 혁신했지만, 동시에 '진실의 종말'이라는 우려 또한 낳고 있다. 과거의 가짜뉴스가 조잡한 합성 사진과 선정적인 문구에 의존했다면, 이제는 고도화된 AI를 통해 전문가조차 분간하기 힘든 정교한 '디지털 조작물'이 실시간으로 쏟아지는 양상이다.
생성형 AI 기술의 가장 큰 폐해는 딥페이크(Deepfake) 기술의 보편화다. 누구나 클릭 몇 번만으로 특정 인물의 얼굴과 목소리를 완벽하게 복제할 수 있게 되면서, 정치적 음해나 사회적 혼란을 목적으로 한 영상들이 기하급수적으로 늘고 있다.
실제로 최근 선거 국면이나 국제 분쟁 지역에서는 정치 지도자가 항복을 선언하거나 차마 입에 담기 힘든 발언을 하는 가짜 영상이 유포되어 대중을 혼란에 빠뜨리는 사례가 빈번하다. 이는 단순한 루머 유포를 넘어 국가의 안보와 민주주의의 근간을 뒤흔드는 '정보 테러'로 진화하고 있다.
◇가짜뉴스 생산의 '자동화'와 '개인화'
AI는 가짜뉴스의 생산 단가를 제로(0)에 가깝게 만들었다. 과거에는 사람이 직접 기사를 작성하고 이미지를 편집해야 했으나, 지금은 생성형 AI에 키워드 몇 개만 입력하면 수천 건의 그럴듯한 가짜 기사와 증거 자료가 순식간에 만들어진다.
더욱 위험한 점은 '타겟팅'이다. AI 알고리즘은 사용자의 정치적 성향, 공포, 욕망을 분석하여 가장 자극적인 맞춤형 가짜뉴스를 생성한다. 소셜 미디어의 알고리즘과 결합한 AI 가짜뉴스는 사용자를 확증 편향의 늪인 '에코 체임버(Echo Chamber)'에 가두고 사회적 분열을 극단화한다.
악의적인 조작뿐만 아니라 AI 모델 자체의 한계인 할루시네이션(Hallucination) 또한 가짜뉴스의 주요 원인이 되고 있다. 생성형 AI가 존재하지 않는 통계나 사건을 사실처럼 꾸며내 답변하고, 이를 검증 없이 수용해 퍼뜨리는 과정에서 '출처 없는 가짜 뉴스'가 양산되는 것이다. 특히 경제 정보나 의학적 조언처럼 전문성이 필요한 분야에서의 AI 오류는 시민들의 재산과 생명에 직접적인 위협이 되고 있다.
◇팩트체크를 넘어선 '디지털 문해력'의 시대
전문가들은 AI가 만든 가짜뉴스에 대응하기 위해 기술적·제도적 장치가 시급하다고 입을 모은다. 콘텐츠 제작 단계에서 AI 생성물임을 알리는 '디지털 워터마크(C2PA 등)' 도입이 의무화되고 있지만, 기술적 우회로가 여전해 한계가 명확하다.
결국 가장 강력한 방어선은 시민들의 비판적 리터러시(Literacy)다. 전문가들은 "AI 시대의 정보 소비는 '의심'에서 시작해야 한다"며, "정보의 출처를 반드시 확인하고, 지나치게 자극적이거나 자신의 신념에 딱 들어맞는 정보일수록 객관적인 팩트체크 과정을 거치는 습관이 필요하다"고 강조한다.
가짜뉴스와 생성형 AI의 결합은 더 이상 기술적 이슈가 아닌 사회적 재난이다. 기술의 편리함 뒤에 숨은 칼날을 직시하고, 진실을 수호하기 위한 사회적 합의와 개인의 각성이 어느 때보다 절실한 시점이란 지적이 나온다.
송원근 기자












