back
파이낸셜뉴스
AI로 만든 뉴스 영상, 혁신인가 위험인가?
(https://youtu.be/01Um-e3I2vs) 2년 9개월간 계속되고 있는 우크라이나 전쟁이 격화되고 있다. 트럼프 당선인이 대통령이 되면 바로 24시간이내에 전쟁을 끝내겠다고 공언해 우크라이나 전쟁은 휴전을 앞두고 한치 양보없는 격렬한 공방이 벌어지고 있다. 우크라이나 전쟁의 전황은 우크라이나와 러시아 당국자들의 입을 통해 전달되고 있지만 실제로 얼마나 많은 폭격과 민간인 희생이 벌어지고 있는지는 외부로 잘 알려지지 않고 있다. 이같은 이유로 한 언론 매체는 현지인들의 증언을 토대로 뉴스를 제작하는 과정에서 인공지능을 활용해 증언 내용을 애니메이션 형태로 만들어 독자들의 이해를 돕고 있다. 해당 동영상에는 러시아 점령하의 생활에 대한 검증된 직접 증언을 바탕으로 인공지능 도구를 활용해 애니메이션으로 재탄생했다고 밝히고 있다. 또 해당 증언을 한 사람의 이야기에만 의존하지 않고 지역 주민들 다수와 사실 여부를 확인했다고 강조했다. "우크라이나 침공 초기에 러시아 탱크가 키예프 교외를 통과할 때 세르게이 소트니첸코는 집을 떠날 수 없었습니다. 우크라이나 수도 키예프 문 앞에 있는 작은 마을 이르핀에 살던 소트니첸코는 이웃집에 폭탄이 떨어지기 시작하자 노모와 함께 그 자리에 피신할 수밖에 없었습니다. 3월 한 달 내내 러시아군이 키예프를 점령하기 위해 이르핀 전투가 치열하게 벌어졌습니다."위의 내용을 텍스트 기사로 전달하는 것에 한계를 느낀 외국 기자는 좀더 생생하게 주민들의 증언을 전달하기 위해 인터뷰 내용을 애니메이션으로 제작해 유튜브를 통해 전세계에 공개했다. (https://tv.vg.no/serier/norske-forbrytere/s1e2/norske-forbrytere-episode-2?id=268855) 또 다른 사례. 노르웨이의 유력한 미디어 그룹인 VG(Verdens Gang)는 2023년 7월 “노르웨이의 범죄자(Norske forbrytere)라는 실화 범죄 다큐멘터리 시리즈를 공개했다. 이 다큐멘터리는 과거의 범죄들이 발생한 이유를 범죄자의 관점에서 주로 분석하는 흥미로운 제작물인데 이 문제는 이 시리즈에서 다루는 오래된 사건들의 경우 매우 제한적인 영상 자료를 가지고 있다는 것이었다. 그래서 처음에는 다른 실화 범죄 시리즈에서 자주 사용되는 재연 장면을 삽입했다. 재연 전문 배우들이 해당 사건의 경위를 드라마처럼 연기를 해서 보여주는 방식이었다. 하지만 이 방식이 제작비용이나 시청자에게 전달하는 빙식 등에서 여러 논란이 제기되자 인공지능에 이미지 훈련을 시켜 다큐멘터리에서 다루는 범죄 사건들을 설명하는 스토리텔링의 영상을 애니메이션으로 제작했다. 인공지능이 이미지를 넘어 동영상 제작에도 탁월한 기술력을 보여주면서 이제는 애니메이션을 넘어 실사 동영상까지 실제와 구별이 안 될 만큼 정교하게 제작이 가능해졌다. 하지만 위의 사례에서 보듯이 현실을 기반으로 하는 뉴스나 다큐멘터리 영역에서 인공지능을 활용한 실사 동영상 활용은 극도의 위험성이 내재한다. 이는 실제로 촬영한 장면과 인공지능이 만든 동영상의 차이가 불분명해지면 많은 가짜 뉴스를 양산한 가능성이 매우 높기 때문이다. 실제로 지난달 미국에서는 허리케인의 참상을 알리는 사진이 큰 공분을 일으켰다. 강아지를 안고 있는 백인소녀가 수해 지역에서 울음을 터뜨리는 모습이었다. 이 사진은 비에 젖은 머리칼과 눈물이 가득한 눈망울, 그리고 표정까지 너무 사실적이어서 많은 이들의 공감을 자아냈고 미 대선을 앞둔 시점에 바이든 현 행정부의 실정을 비난하는 소재로 활용되기도 했다. 하지만 이 사진이 인공지능으로 만든 가짜 이미지로 판명되면서 뉴스 영역에서도 가짜 이미지를 활용해 거짓된 정보를 확산시켜 여론을 호도할 수 있다는 것을 여실히 보여주었다.현재 인공지능 기술을 이용해 동영상을 제작하는 기술은 하루가 다르게 향상되고 있다. 메타는 '메이크 어 비디오(Make-A-Video)를 선보였고 구글은 '비디오 포엣(Video Poet)', 오픈AI는 소라(Sora)를 공개해 일반인도 프롬프트(지시어) 작성만으로 다양한 분야의 동영상을 직접 제작할수 있다. 하지만 최근 딥페이크 성범죄가 잇따르면 많은 무고한 피해자들이 양산되는 사례에서 보듯이 인공지능 기반 동영상은 거짓을 사실로 믿게 만들수 있는 강력한 도구이다. 따라서 이를 활용해 가짜 뉴스를 양산하고 이를 확산시켜 여론을 호도하는 사례들은 잇따를 것으로 예상된다. 언론사가 뉴스 영역에서만큼은 사진(이미지)는 물론 동영상도 인공지능으로 만든 제작물을 만드는데 극도의 경계심을 갖는것이 이런 이유이다. It's the most excting intelletual project of my lifetime. but it's a little like handling a chainsaw to a toddler.(지금 내가 하는 인공지능 개발은 내 일생에서 가장 흥미진진한 지적 프로젝트입니다. 하지만 그것은 유아에게 전기톱을 다루는 것과 조금 비슷합니다. )지난해 3월 뉴욕 타임즈 기사에서 소개한 인공지능 연구자이자 기업가인 샘 알트먼(Sam Altman)이 한 발언이다. 그는 인공지능 개발을 "내 생애에서 가장 흥미로운 지적 프로젝트"로 묘사하면서도, 그 위험성을 "유아에게 전기톱을 주는 것과 같다"고 비유했다. 딥페이크 확산이 가져다 줄 위험성과 사회적 폐해에서 보듯 동영상 제작 기술 발달은 우리에게 엄청난 재앙이 될 수도 있다. 인공지능으로 더욱 정교해진 이미지와 동영상 제작 능력으로 머지 않아 재판에서 더 이상 사진과 동영상이 증거능력으로 채택되지 않을 가능성도 높아 보인다. 사진과 동영상의 진위 여부를 가리는 공방도 한층 더 가열될 것이다. 하지만 인공지능을 활용한 동영상 제작을 막지는 못할 것이다. 그렇다면 뉴스에서는 인공지능이 제작한 것이라고 알린다는 전제하에 사용하는 것을 허용해도 될까? 아니면 절대로 사용하게 해서는 안되는 금지 규정을 만들고 전면적으로 막는 것이 최선일까? 당신의 생각은? <이상>[이 기사는 한국언론진흥재단 주최 KPF 디플로마-AI저널리즘 과정의 일환으로 제작했습니다.]

올인원 뉴스