인공지능을 활용해, 이미지와 음성 등을 조작하는 '딥페이크' 기술. 한국 연예인들이 주요 피해자라고 밝혀졌는데요.

영국 매체 'BBC'가 지난 7일 보도했습니다. 네덜란드 보안 업체 '딥트레이스'의 연구 보고서에 관해 전했죠.

딥페이크 포르노란, 실제 사람의 얼굴과 성인물을 합성한 영상을 말합니다. 최근 기승을 부리고 있는데요.

무려 2배 가까이 늘어났습니다. 지난해 12월 8,000여 개에서, 현재 1만 4,700여 개로 급증했는데요.

영상 중 96%가 포르노였고요. 상대방의 동의 없이 얼굴 등을 오리고 붙여, 영상을 만들어냈는데요.

'롤링스톤즈'에 따르면, 피해자 41%가 미국과 영국 여배우였습니다. 25%는 한국의 가수들이었죠.

연구 분석 책임자는 "해당 데이터들은 한국이 아닌, 중국에서 주로 만들어진다"라고 밝혔는데요.

이를 케이팝이 폭발적으로 성장했고, 세계적으로 인기를 끌게 된 여파로 보기도 했습니다.

다양한 각도에서 찍은 사진들만 있으면, 딥페이크 포르노를 맞춤 제작해주는 곳도 있다는데요.

이에 관해 우려가 쏟아지고 있습니다. 얼굴을 도용당해도, 실제 불법 촬영이 아니라는 건데요.

딥페이크와 관련해 법적 규제 및 처벌 방안이 필요하다는 목소리가 커지고 있습니다.