텔아비브 초토화 영상이 가짜? 중동 전쟁 집어삼킨 AI 가짜 뉴스 주의보

지금 SNS를 통해 퍼지고 있는 충격적인 교전 영상들, 어디까지 믿어야 할까요? 이란과 이스라엘의 충돌이 격화되면서 단순한 관심 끌기를 넘어선 ‘의도된 선전물’들이 쏟아지고 있습니다. 팩트체크 결과 드러난 가짜 뉴스의 유형과 식별 방법을 알려드립니다.

1. 장소도 시점도 가짜, 짜깁기 영상의 함정

가장 많이 퍼진 영상 중 하나는 이란의 탄도미사일이 텔아비브를 폭격하는 장면입니다. 하지만 조사 결과, 이는 지난해 6월 이스라엘 방공시스템이 작동한 과거 영상이거나 심지어 지구 반대편 베네수엘라에서 촬영된 미군 공습 장면을 짜깁기한 것이었습니다. 150만 회 넘는 조회수를 기록하며 공포를 확산시켰지만, 실제 이번 교전과는 무관한 조작된 정보였습니다. 소름돋는 사실이죠.

2. 소름 돋는 AI의 기술력, 오열하는 미군의 정체

최근에는 영상 속에 등장하는 인물의 표정과 음성까지 조작하는 딥페이크 기술이 동원되고 있습니다. 동료의 죽음에 오열하며 대통령의 결정을 저주하는 미군 병사의 영상이 대표적인데요. AI 감지 도구로 분석한 결과 조작 가능성이 80% 이상으로 나타났습니다. 건물이 반토막 나는데도 구조가 멀쩡해 보이는 등 자세히 보지 않으면 속기 쉬운 ‘AI의 흔적’이 곳곳에 숨어 있습니다. 무엇을 믿어야할지 고민이 되는 상황입니다.

3. 전쟁보다 무서운 ‘여론전’

외신들은 이란 등 교전 당사국들이 반격 작전의 성과를 부풀리기 위해 이러한 가짜 뉴스를 적극적으로 활용하고 있다고 지적합니다. 결국 피해는 민간인의 몫입니다. 단순한 거짓말을 넘어 전선에 선 군인들의 판단을 흐리게 하고, 민간인들의 공포심을 극대화해 더 큰 인도적 피해를 야기할 수 있습니다. 정보를 접할 때 출처가 불분명한 자극적 영상은 반드시 의심해 보는 태도가 필요한 시점입니다.

딥페이크까지 잡아낼 괴물 스펙 최신 AI 노트북 LG그램 보러가기

이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.

이란 차기 최고지도자, 하메네이 차남 모즈타바 선출 이슈 정리