딥페이크 피해 속출, 대책은?
딥페이크 피해 속출, 대책은?
  • 오유진 기자
  • 승인 2024.02.29 20:08
  • 댓글 0
이 기사를 공유합니다

▲’딥브레인AI’의 시연 화면(출처: 인공지능신문)
▲’딥브레인AI’의 시연 화면(출처: 인공지능신문)

 

 

지난 2일 홍콩의 한 다국적기업이 딥페이크 기술을 악용한 가짜 화상회의 영상에 속아 약 340억 원의 손해를 입었다. 이뿐만 아니라 최근 미국의 유명 팝 가수 테일러 스위프트의 얼굴이 음란물에 합성된 영상이 ‘X(전 트위터)’를 통해 전 세계로 확산하면서 ‘딥페이크(Deepfake)’에 대한 위험성이 다시금 수면 위로 드러났다. 

딥페이크는 딥러닝(Deep Learning)과 거짓(Fake)의 합성어로, 인공지능을 통해 특정 인물의 이미지 혹은 음성을 △동영상 △사진 △음성파일 등 디지털 콘텐츠에 합성하는 기술을 말한다. 인공지능의 발전과 함께 딥페이크의 상용화가 이뤄지면서 딥페이크 서비스를 제공하는 수많은 프로그램 및 애플리케이션이 등장했다. 이에 따라 관련 분야 종사자뿐 아니라 일반 대중 또한 손쉽게 딥페이크 콘텐츠를 생산할 수 있게 됐다. 

딥페이크의 악용으로 인한 피해는 △가짜 음란물 생성 및 유포로 인한 성폭력 △금전적 사기 △저작권 침해 △정치적 악용 등 그 종류가 다양하다. 최근에는 올해 4월로 예정된 제22대 국회의원선거(이하 총선)를 앞두고, 정치적 목적을 가진 딥페이크 콘텐츠가 유권자의 시야를 흐릴 수 있지 않냐는 우려의 목소리가 나오고 있다. 미국에서는 이미 올해 있을 대통령 선거에 대해 바이든 대통령의 목소리를 합성한 가짜 전화 음성파일을 통한 선거운동이 이뤄지며 논란이 됐다. 서울여대 정보보호학과 김명주 교수는 “작정하고 만든 딥페이크 영상은 전문가도 구분하기 어렵다”라며, “완성도가 높지 않더라도 열성 당원들의 확증 편향과 결합하면 정치적인 목적의 선전·선동에 악용될 가능성이 높다”라고 말하기도 했다.

유명인뿐만 아니라 일반인들도 딥페이크 콘텐츠의 피해자가 된다. 방송통신심의위원회의 국내 ‘딥페이크 성적 허위 영상물 차단·삭제 시정 요구 사례’는 2020년(1~12월) 473건에서 2023년(1~11월) 5,996건으로 12배 이상 증가했다. 또한 허위 정보 및 소셜 네트워크 연구 기업인 그래피카(Graphika)가 지난해 10월 발표한 자료에 따르면 2023년 9월 한 달간 ‘기존 사진을 음란물에 합성하는 34개 인공지능 서비스’에 대해 약 2,400만 명이 접속한 것으로 집계됐다. 글로벌 IT 컨설팅 업체 가트너(Gartner)는 딥페이크로 인해 2026년에는 기업의 30%가 신원 확인 및 생체 인증 설루션을 단독으로 사용할 수 없을 것이라 예측하기도 했다. 딥페이크를 통한 생체 인증이 가능해져 계정 탈취 등의 범죄가 발생할 수 있다는 것이다.

한편 딥페이크의 발전과 더불어 해당 △동영상 △사진 △음성파일이 딥페이크 기술을 활용해 제작됐는지 아닌지 판별하는 일명 ‘딥페이크 탐지 기술’이 개발되고 있기도 하다. 일례로, 미국의 종합 반도체 기업 ‘인텔’이 지난 2022년 11월 출시한 ‘페이크캐처’는 사람 얼굴의 혈류 변화를 이용해 특정 디지털 콘텐츠의 딥페이크 활용 여부를 판단한다. 해당 프로그램은 96%의 정확도로 딥페이크 동영상을 감지한다. 또한, 우리나라의 생성형 인공지능 전문 기업 ‘딥브레인AI’는 지난 2월 5일 딥페이크로 제작된 음성 합성물에 대한 탐지 기술을 특허 출원했다고 밝혔다. 이 기술은 딥브레인AI의 딥페이크 탐지 설루션에 적용됐으며, 딥브레인AI 장세영 대표는 “앞으로도 음성, 영상 인공지능 기술 고도화를 지속해 생성형 인공지능을 악용한 무분별한 범죄를 저지하기 위해 앞장설 것”이라고 전했다. SNS 플랫폼에서 자체적으로 딥페이크 콘텐츠의 공유를 금지하고 있기도 하다. X는 테일러 스위프트 딥페이크 콘텐츠 확산 이후 ‘신뢰와 안전 센터(Trust and Safety Center of Excellence)’를 신설해 성 착취물 및 허위 정보를 단속할 예정이다. 숏폼 동영상 플랫폼인 ‘틱톡’은 지난 6일 틱톡코리아 본사에서 진행된 미디어 워크숍을 통해 생성형 인공지능으로 제작한 콘텐츠에 대해 식별표시를 부착하도록 할 것이라 밝혔다.

국가 차원에서도 딥페이크의 악용에 대한 규제를 가한다. 미국은 지난해 딥페이크 콘텐츠에 의무적으로 식별표시를 부착하도록 하는 행정명령을 시행했다. EU는 최근 플랫폼 기업에 대해 인공지능 생성물 표시 의무를 부과하는 입법안을 제시했다. 그리고 딥페이크로 만들어낸 사적 이미지를 합의하지 않고 공유하는 것에 대해 범죄로 규정하는 개정안을 내세우기도 했다. 우리나라의 경우 총선을 앞두고 지난달 29일부터 중앙선거관리위원회에서 딥페이크 콘텐츠를 활용한 선거운동을 전면 금지했다. 또한 딥페이크를 악용한 선거운동 의심 사례에 대해 △검증요원 모니터링 △딥페이크 판별 프로그램 검증 △인공지능 전문가 검증의 세 단계를 거치기로 했다. 

인공지능을 비롯한 기술의 발전은 인류에게 편리함을 가져다주기도 하지만 그 악용은 딥페이크 피해와 같은 문제를 야기하기도 한다. 고려대 정보보호대학원 김승주 교수는 딥페이크 피해에 대해 “악용 사례마다 대책을 촘촘하게 세워야 한다”라고 말했다. 이처럼 개개인이 디지털 리터러시를 갖추고 온라인상의 콘텐츠를 비판적인 시선으로 바라봄과 동시에, 국가 차원에서 딥페이크 악용 문제에 경각심을 가지고 구체적인 규제 방안을 마련 및 개선해야 할 것이다.