SNS에서 떠도는 유명인 영상, 진짜일까 가짜일까… AI 딥페이크 영상이 일으키는 사회적 혼란 우려
우리는 이제 눈으로 보고 귀로 듣는 것조차 의심해야 하는 시대를 살고 있다. 스마트폰으로 사회관계망서비스(SNS)를 보다가 유명 연예인이나 정치인이 충격적인 발언을 하는 영상을 접하게 되면, 과연 그것이 진짜인지 가짜인지 의심부터 하게 된다. 이는 인공지능(AI) 기술이 만들어내는 ‘딥페이크(Deepfake)’ 영상이 우리의 일상을 위협하고 있기 때문이다.
딥페이크는 인공지능 기술을 이용해 실제와 거의 구분하기 어려울 정도로 정교하게 만든 가짜 영상, 음성, 사진을 말한다. 처음에는 영화에서 배우의 얼굴을 바꾸는 등 단순한 재미를 위해 사용되었지만, 이제는 개인과 기업, 나아가 국가 전체에 피해를 줄 수 있는 수준으로 발전했다.
대표적인 사례가 지난해 SNS에서 화제가 된 할리우드 배우 톰 크루즈의 가짜 영상이다. 영상 속 톰 크루즈는 마치 실제처럼 자연스럽게 움직이고 말했지만, 알고 보니 인공지능이 만든 완벽한 가짜였다. 이는 단순한 재미로 끝났지만, 같은 기술이 범죄에 악용된 사례도 있다. 2023년에는 유명 금융인의 모습을 도용한 딥페이크 영상이 퍼져 수많은 사람들이 투자 사기 피해를 당했다. 피해액은 수백만 달러에 달했다.
문제는 이런 가짜 정보가 SNS를 통해 빠르게 퍼진다는 점이다. 영국의 디지털 권리 보호 단체인 파이브라이츠 재단(5Rights Foundation)의 연구에 따르면, SNS의 여러 기능이 오히려 거짓 정보 확산을 도와주고 있다. 실시간 인기 게시물 목록에 진위 여부와 관계없이 화제성 높은 게시물이 올라가고, 자동 재생 기능으로 인해 사람들이 내용을 제대로 확인할 시간도 없이 다음 영상으로 넘어가게 된다.
더 큰 문제는 가짜 계정이 automated bot(자동화된 로봇 프로그램)을 이용해 거짓 정보를 순식간에 퍼뜨린다는 것이다. 이렇게 여러 곳에서 동시에 같은 내용이 올라오면 사람들은 ‘이렇게 많이 공유되는 건 사실이겠지’라고 생각하게 된다. SNS의 추천 시스템도 한몫한다. 이용자가 보고 싶어 하는 내용만 계속 보여주다 보니 같은 의견을 가진 사람들끼리만 모이는 ‘메아리방(Echo Chamber)’ 현상이 생긴다.
그렇다면 우리는 어떻게 딥페이크 영상을 구별할 수 있을까? 전문가들은 몇 가지 의심해볼 만한 특징을 제시한다. 영상 속 인물의 표정이 부자연스럽거나 눈 깜빡임이 지나치게 적은 경우, 목소리가 기계음처럼 들리거나 입 모양과 음성이 맞지 않는 경우 등이 대표적이다. 하지만 기술이 계속 발전하면서 이런 흔적조차 찾기 어려워지고 있어 더욱 주의가 필요하다.
전문가들은 충격적인 내용의 영상을 접했을 때 바로 공유하지 말고 잠시 멈춰 생각해볼 것을 권한다. 해당 내용이 믿을 만한 언론사에서도 보도되었는지 확인하고, 의심스러운 경우에는 스놉스(Snopes)와 같은 사실 확인 사이트를 이용해보는 것이 좋다.
가족이나 친구들과 이야기를 나누면서 서로 거짓 정보를 구별하는 방법을 공유하는 것도 도움이 된다. 특히 스마트폰과 SNS 사용이 익숙하지 않은 어르신들에게는 영상이나 사진이 조작될 수 있다는 사실을 알려주고, 의심스러운 내용은 반드시 주변에 물어보도록 당부하는 것이 중요하다.
인공지능 기술은 앞으로 더욱 발전할 것이고, 그만큼 진짜와 가짜를 구분하기는 더욱 어려워질 것이다. 하지만 우리가 조금만 주의를 기울이고 비판적으로 생각하는 습관을 들인다면, 거짓 정보에 속는 것을 막을 수 있다. 온라인에서 보는 모든 것을 곧이곧대로 믿지 말고, ‘이것이 진짜일까, 아니면 인공지능이 만든 가짜일까?’라고 한 번쯤 생각해보는 자세가 필요한 시대가 된 것이다.