보안정보
전문화된 보안 관련 자료, 보안 트렌드를 엿볼 수 있는
차세대 통합보안관리 기업 이글루코퍼레이션 보안정보입니다.
사방으로 퍼진 딥페이크(Deepfake) 공포
2024.10.08
21,481

최근 사회적으로 안타까운 사건이 발생하고 이로 인한 여파 역시 일파만파 커지고 있다.
바로 일반인 여성을 대상으로 제작된 불법 딥페이크(Deepfake) 합성물이 암호화 메신저로 알려진 ‘텔레그램(Telegram)’을 통해 무차별적으로 유포되는 사건이 발생한 것이다. 가해자들은 피해자들이 소셜미디어(SNS)에 게시한 평범한 얼굴 사진에 음란물을 합성하여 특정 텔레그램 대화방에 공유 중인 것으로 드러났다. 피해자 중에는 대학생, 교사, 군인을 비롯하여 초·중·고교생 등 미성년자까지 포함된 것으로 알려져 더욱 논란이 되고 있다. SNS 등에 피해 학교 명단으로 알려진 곳만 100곳을 훌쩍 넘어 내 사진 또는 가까운 가족이나 친구의 사진이 이용된 것은 아닌지에 대한 공포심 또한 커지는 분위기다.
딥페이크 기술은 음란물 생성은 물론 정치권에서도 선거에 큰 영향을 미칠 수 있기 때문에 정부에서도 적극적인 대응에 나서고 있는데, 본 기고에서는 최근 딥페이크 기술로 인해 발생하고 있는 부작용과 이에 대한 글로벌 주요국들의 대응 방안에 대해 알아보고자 한다.
01. 딥페이크(Deepfake)란?
‘딥페이크(Deepfake)’는 딥러닝(Deep Learning)과 가짜(Fake)의 합성어로, 딥러닝을 이용해 진위 여부를 구별하기 어려운 가짜 이미지나 동영상을 생성하는 기술이다. 딥페이크는 ‘17년 美 온라인 커뮤니티 레딧(Reddit)의 한 사용자가 ‘deepfakes’라는 닉네임으로 포르노 영상을 올린 데에서 유래되었으나, 관련 기술은 그보다 앞선 ‘14년 미국의 저명한 과학자 이안 굿펠로우(Ian Goodfellow)가 발표한 논문 ‘Generative Adversarial Networks(생성적 적대 신경망, 이하 GAN)’에서 처음 등장했다.
생성적 적대 신경망(GAN)은 딥페이크에 활용되는 딥러닝 알고리즘으로, 생성자(Generator)와 판별자(Discriminator)라는 두 개의 신경망이 서로 경쟁하면서 더 나은 결과를 만들어내는 강화학습(Reinforcement Learning) 방식의 기술이다. 여기서 강화학습이란 에이전트의 행동에 따른 보상을 통해 전략을 학습하는 기계 학습의 한 종류이다. 이안은 GAN을 위조지폐범과 경찰 사이의 게임에 비유했다. 위조지폐범은 최대한 진짜 같은 화폐를 만들어 경찰을 속이기 위해 노력하고, 경찰은 가짜 화폐를 완벽히 판별하여 위조지폐범을 검거하는 것을 목표로 한다. 이 과정에서 가짜 화폐가 더 정교해지듯이, GAN에서도 실제에 가까운 거짓 데이터를 만들 수 있게 된다는 것이다.

GAN은 판별자를 먼저 학습시킨 후 생성자를 학습시키는 과정을 반복한다. 판별자는 진짜 데이터와 생성자에서 만든 가짜 데이터를 입력받아 각각의 데이터를 진짜와 가짜로 분류하도록 학습한다. 생성자의 경우, 직접적으로 데이터의 진위 여부를 알려줄 수 없으므로 자신이 생성한 데이터가 판별자를 속일 수 있도록 학습시킨다. 이러한 과정을 반복하면서 생성자와 판별자는 서로의 전략을 끊임없이 개선해 균형 상태를 찾아간다. 결과적으로 생성자는 판별자를 완벽히 속일 수 있는 데이터를 생성할 수 있게 되고, 판별자는 진짜 데이터와 가짜 데이터를 구분할 수 없게 된다.
본래 GAN은 가상의 이미지를 보다 정밀하게 구별하고 구현하기 위한 기술로 개발되었다. GAN을 활용한 DeepFaceLab, Faceswap 등 오픈소스 영상 합성 프로그램이 배포되면서 딥페이크 콘텐츠는 더욱 성행하기 시작했다. 실제로 딥페이크는 산업적 가치가 높아 광고, 영화, 음반 등 다양한 분야에서 활용되고 있다. ‘19년 英 비디오 생성 AI 스타트업 신디시아(Synthesia)는 축구스타 데이비드 베컴(David Beckham)의 말라리아 퇴치 홍보 캠페인 영상을 딥페이크를 활용하여 9개 언어로 제작했는데, 새로 비디오를 촬영하지 않고도 영상을 제작할 수 있었던 데다가 제작비용도 기존의 1/10 수준으로 절감할 수 있었다고 한다.
02. 딥페이크를 악용한 범죄의 확산
딥페이크는 AI 기술의 무한한 발전 가능성을 보여주었지만 그만큼 악용되면 매우 위험한 기술이다. 또한 딥페이크는 많은 범죄에 사용되고 있어 존재 자체에 대한 찬반 논란까지 벌어지기도 한다. 기술의 발달로 합성물이 진짜인지 가짜인지 분간하기 점점 어려워지는 데다가, 합성물이라는 이유만으로 사진과 영상 유포를 대수롭지 않게 여기는 경우도 많기 때문이다. 가장 심각한 문제로는 합성 포르노와 정치적 활용 등을 꼽을 수 있다. 이와 관련해 美 사이버 보안 업체 시큐리티 히어로(Security Hero)는 지난해 온라인상에서 확인된 9만 5,820개의 딥페이크 영상 중 약 98%가 딥페이크 포르노라는 점을 밝혔다. 또한 대선이 얼마 남지 않은 미국에서는 딥페이크가 정치 선전에 이용되어 대선에 영향을 미칠 것을 우려해 다수의 주(州)에서 딥페이크 규제를 추진 중에 있다.

1) 성범죄에 악용되는 딥페이크 기술
딥페이크 기술이 합성 포르노 등 성범죄에 악용되는 행위는 지난 1월에 발생한 한 사건으로 인해 전 세계적으로 이슈가 됐다. 이전에도 이와 관련된 사건과 우려 등은 다수 존재해왔는데, 세계적인 팝스타인 테일러 스위프트(Taylor Swift)의 얼굴이 합성된 딥페이크 사진이 엑스(X, 舊 트위터)를 중심으로 퍼지면서 큰 파장을 일으킨 것이다. 당시 논란이 커지자 X는 이미지를 삭제하고 ‘테일러 스위프트’를 검색하지 못하도록 조치했으나, 해당 이미지는 다른 SNS에 유포되어 삭제 전까지 4,700만 번이나 조회된 것으로 드러났다. 스위프트의 딥페이크 이미지는 마이크로소프트(Microsoft, 이하 MS)에서 출시한 AI 이미지 생성기 ‘디자이너(Designer)’로 만들어졌다는 주장이 제기되기도 했다. 이에 사티아 나델라(Satya Nadella) MS CEO는 스위프트의 딥페이크 생성물에 대해 매우 끔찍한 일이라고 규탄했으며, MS는 성명을 통해 디자이너의 필터링을 강화하는 조치를 취했다고 밝혔다.
업계에서는 AI 기술의 상용화로 누구나 불법 딥페이크 합성물을 만들 수 있게 되면서 관련 피해가 더욱 심각해지는 것으로 보고 있다. 특히 생성형 AI의 등장으로 프롬프트 입력 창에 간단한 문장을 입력하는 것만으로도 음란물 이미지와 영상의 생성이 가능해졌다. 시큐리티 히어로는 기술 발전으로 인해 얼굴이 잘 나온 사진 한 장만 있다면 1분 길이의 딥페이크 포르노 영상을 무료로 만들기까지 채 25분도 걸리지 않는다고 지적했다.
최근에는 한국에서도 딥페이크 성범죄 문제가 심각하다. 유명인은 물론 회사 동료, 지인, 학생 등 일반인을 대상으로도 피해가 발생하면서 사회적 불안감이 커지고 있다. 시큐리티 히어로가 발표한 ‘2023 딥페이크 현황 보고서(2023 State of Deepfakes)’에 따르면 딥페이크 성착취물에 가장 취약한 국가는 1위가 한국이었고 2위는 미국인 것으로 나타났다. 바로 딥페이크 음란물에 등장하는 개인 중 53%가 한국인이었고 그 다음으로 미국인이 20%로 많았기 때문이다. 또한 韓 조은희 의원실이 경찰청에 요청해 공개한 ‘딥페이크 범죄 현황’에 따르면 지난해 검거된 허위영상물 피의자는 120명인 것으로 나타났다. 충격적이게도 120명 중엔 10대가 무려 91명(75.8%)이나 포함되어 있었다.
이는 그만큼 한국에서 딥페이크를 활용한 성범죄가 널리 퍼져있다는 점을 시사하며, 그 중 청소년 층의 문제가 심각하다는 것을 나타낸다. 관련 전문가들은 청소년들의 딥페이크 범죄가 증가하는 배경으로 2가지를 꼽았다. 먼저 청소년들 사이에서 딥페이크가 범죄라는 인식은 존재하지만, 처벌이 약하고 붙잡힐 염려가 없다는 인식을 학습해왔다는 점이다. 딥페이크를 활용해 생성된 이미지 등을 텔레그램과 같은 암호화 메신저를 통해 전파한다면 수사기관에게 걸리지 않을 것이라는 인식 때문이다. 실제로 딥페이크 생성물 유포가 처벌로 이어진 사례는 많지 않다. 조은희 의원실 공개 자료에 따르면 허위 영상물 관련 범죄 처벌 건수는 ‘21년 156건, ‘22년 160건, ‘23년 180건에 불과하다.
또 다른 배경에는 딥페이크 생성물을 손쉽게 만들 수 있는 도구의 확산이 꼽힌다.

최근 사진을 넣으면 자동으로 음란물을 합성해주는 프로그램인 ‘딥페이크 봇’이 논란이 되고 있다. 소수에게만 공유되는 초대 링크를 타고 텔레그램 대화방에 입장해 딥페이크 봇 메커니즘을 확인해보니, 예상보다 더 쉽게 합성물을 만들 수 있었다. 딥페이크 봇 접근을 가능케 해주는 단체방에 들어가면 이용 방법이 상세히 안내된다. ①약관에 동의하고 ②사진 합성에 사용되는 포인트인 1크레딧(Credit)을 받는다. 크레딧은 딥페이크 봇에서 사용되는 화폐 단위로 1달러(한화 약 1,300원) 충전에 사진 두 장 정도를 합성할 수 있는 크레딧이 부여돼 가격도 높지 않은 편이다. ③이후 봇과의 개별 채팅방이 열리면 사용자가 원하는 사진을 올리고 ④가격표를 참고해 수영복 등 하나를 고르면 ⑤약 1분 뒤 합성된 나체 사진을 받아볼 수 있다.
초대 링크만 있다면 누구나 음란물을 뚝딱 만들 수 있는 구조인 것이다. 봇을 이용하기 전 '미성년자의 이미지를 업로드하고 처리하는 것을 엄격히 금지한다’라는 약관에 동의해야 하지만 이는 허울뿐인 안내에 불과하다. 딥페이크 봇을 통해 실존하지 않는 미성년자의 사진을 형성해 등록해 본 결과, 이를 걸러내는 안전장치는 없었던 것으로 나타났다.
2) 딥페이크, 정치 수단 악용에 긴장 고조

뿐만 아니라 딥페이크는 우리가 매일같이 사용하는 유튜브(YouTube)에서도 등장하고 있다. 해당 영상 속 본인을 러시아인이라고 밝힌 인물들은 중국을 찬양하거나 중국과 러시아 관계를 미화하고 있다. 하지만 해당 영상은 실제 여성의 얼굴과 목소리를 합성한 딥페이크 기술로 만들어 낸 영상이다. 러시아를 지지해야 한다고 말하는 이 영상 속 여성은 러시아와 전쟁을 치르고 있는 우크라이나의 유튜버인데, 자신도 모르는 사이 정치 선전물로 이용되고 있던 것이다.

오는 11월 대선을 앞둔 美 정치권에서도 딥페이크·보이스 주의보가 내려진 상태이다. 지난 5월, 美 연방통신위원회(Federal Communications Commission, 이하 FCC)는 美 조 바이든(Joe Biden) 대통령의 목소리로 가짜 메세지(딥보이스, Deepvoice)를 만든 정치 컨설턴트 스티브 크레이머에게 600만 달러(한화 약 82억 원)의 벌금을 부과했다. 크레이머는 지난 1월 뉴햄프셔 주의 프라이머리(예비선거) 직전 바이든 대통령 말투로 “프라이머리에서 투표하면 11월(대선)에 투표할 수 없다.”라는 허위 정보를 내세우며 주민에게 투표 거부를 독려하는 내용의 전화 메시지를 만든 혐의로 검찰에 기소됐다. FCC는 크레이머에게 큰 금액의 벌금을 부과한 것은 물론, 그의 메시지를 주민들에게 전송한 혐의를 받는 링고 텔레콤(Lingo Telecom)에 대해서도 200만 달러(한화 약 27억 원)의 벌금을 부과했다.
이후 美 연방통신위원회(FCC)는 생성형 AI가 만든 음성으로 자동 녹음 전화를 이용하는 것을 불법으로 규정했다. 이로 인해 딥보이스 기술 등 AI가 생성한 음성은 이제 「전화소비자보호법(Telephone Consumer Protection Act, 이하 TCPA」)에 따라 인위적이거나 사전 녹음된 음성으로 간주된다. 또한 최근 판결에선 관련 범죄자에게 조치를 취할 수 있는 권한을 부여하기도 했다.
이외에도 美 정부에서는 딥페이크 기술을 정치 선전 등에 악용하는 것을 방지하기 위한 다양한 정책을 펼치고 있지만, 그럼에도 불구하고 선거 관련자들은 대선을 앞두고 자신들도 사칭 피해를 입을까 우려하고 있다. 이러한 흐름으로 보아 AI의 등장은 곧 미국 대선의 새로운 양상으로 자리 잡고 있는 것으로 보인다. 그러면서 다양한 대응 방안 마련이 필요하다는 지적 역시 계속 제기되고 있다. 그리고 이번 대선 주기를 통해 신기술의 한계, 미디어 활용 능력의 탄력성, 규제 기관의 역량 등을 테스트할 수 있게 될 것이라고 전망했다.
03. 딥페이크, 막을 방법은 없을까?
생성형 인공지능(Generative AI) 기술의 비약적인 발달과 함께 딥페이크 등의 기술 역시 빠르게 성장하고 있으나, 그 부작용 또한 현실화되고 있다. 앞서 알아본 듯이 딥페이크 기술을 통해 만들어진 포르노 영상·이미지는 다수의 사람들에게 심각한 피해를 끼치고 있으며, 정치인의 이미지 역시 선거 과정에서 막대한 영향을 미칠 수 있다. 이 같은 딥페이크 영상·이미지가 아무런 제한 없이 유통될 경우 발생할 사회적 피해를 막기 위해 최근 글로벌 주요국들은 이에 대한 규제를 가시화하기 시작했다.
1) 유럽연합(EU)
가장 먼저 유럽연합(European Union, 이하 EU)의 EU 이사회(European Council)는 ‘24년 5월, 세계 최초로 AI를 포괄적으로 규제하는 AI 법안인 「AI Act」를 최종 승인했다.
「AI Act」는 AI를 잠재적 위험에 따라 △수용 불가능한 위험(Unacceptable risk) △고위험(High risk) △제한적 위험(Limited risk) △최소한의 위험(Minimal risk)으로 구분하였으며, 딥페이크는 제한적 위험에 해당한다고 보았다. 이를 두고 생성형 AI가 딥페이크를 만들어냈다는 점이 주요 관심사로 떠오르면서 합의에 영향을 미쳤다는 분석이 나왔다. 실제로 마르그레테 베스타게르(Margrethe Vestager) EU 디지털 정책 책임자는 테일러 스위프트의 딥페이크가 SNS에 퍼지면서 새로운 규정의 필요성이 강조됐다고 말했다.

「AI Act」는 딥페이크와 관련하여 AI 시스템 공급자와 사용자에게 ‘투명성 의무(Transparency Obligation)’를 부과하고 있다. 먼저 ‘표시 및 감지 의무’에 따라 합성된 오디오·이미지·비디오 또는 텍스트 콘텐츠를 생성하는 AI 시스템 공급자는 해당 결과물이 기계가 판독할 수 있는 형식으로 표시하고, 인위적으로 생성 또는 조작된 것으로 감지할 수 있어야 한다. 또한 ‘공개 의무’에 따라 딥페이크에 해당하는 이미지·오디오 또는 비디오 콘텐츠를 생성하거나 조작하는 AI 시스템 사용자는 결과물이 인위적으로 생성 또는 조작되었음을 공개해야 한다. 만약 이들이 투명성 의무를 준수하지 않았을 경우 최대 1,500만 유로(한화 약 219억 원) 또는 직전 회계 연도 전 세계 연간 매출액의 3% 중 더 높은 금액이 벌금으로 부과될 수 있다.
EU가 온라인 플랫폼 규제를 위해 마련한 「Digital Service Act(디지털 서비스법)」에도 딥페이크 관련 내용이 명시되어 있다. 디지털서비스법에 따르면 ‘초대형 온라인 플랫폼’과 ‘초대형 온라인 검색엔진서비스 제공자’는 실존 인물·물체·장소 등 진실인 것처럼 보이도록 생성되었거나 조작된 이미지·오디오 또는 비디오로 구성된 정보 항목이 온라인 플랫폼에 노출된 경우 눈에 잘 띄는 표시로 구별할 수 있어야 하고, 서비스 이용자도 쉽게 표시할 수 있는 기능을 제공해야 한다고 규정하고 있다. 이를 준수하지 않을 경우 전 세계 연간 매출액의 최대 6%에 해당하는 벌금이 부과될 수 있다.
2) 미국
그간 美 연방정부는 딥페이크를 직접적으로 규제하는 법을 가지고 있진 않았다. ‘23년 10월 조 바이든 행정부에서 ‘안전한 AI 개발 및 이용에 관한 행정명령(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)’을 발표한 바 있는데, 이후 40개 이상의 주에서 총 407건의 AI 관련 법안이 발의(‘24년 2월 기준) 된 상태였다.

그리고 최근 캘리포니아 주에서 이 중 하나인 딥페이크를 규제하는 일련의 법안이 처리됐다. 캘리포니아 주지사인 개빈 뉴섬(Gavin Newsom)에게 송부된 법안에는 AI로 미성년자를 성 착취하는 내용의 딥페이크는 제작 자체를 금지하는 내용이 담겼다. 현행법에서는 딥페이크 성 착취물 제작은 미성년자를 대상으로 해도 불법(조건적)이 아니다. 표현의 자유를 규정한 미국 수정헌법 1조로 인해 딥페이크 속 인물이 실존하는 인물이 아니면 기소와 처벌이 불가능하다는 것이다. 그러나 이번에 주의회가 처리한 법안은 실존 인물이 아니더라도 딥페이크 아동 성 착취물은 처벌이 가능하도록 규정했다.
또한 캘리포니아 주 의회는 얼마 남지 않은 대선을 앞두고 선거 관련 딥페이크 규제 강화 법안도 처리했다. 선거와 관련된 딥페이크 제작을 금지하고, SNS 기업에 선거 전 120일 전부터 딥페이크를 사용한 선거 콘텐츠를 규제하도록 의무를 부과했다. 선거 당국이나 후보가 딥페이크 선거 콘텐츠를 제작한 사람에 대해 소송을 제기해 손해배상을 받을 수도 있다. 다만 풍자가 목적인 딥페이크에 대해선 규제하지 않는다는 예외 조항도 뒀다.
3) 한국
그렇다면 우리나라는 딥페이크를 어떻게 규제하고 있을까? 현재 국내에는 EU처럼 AI를 전반적으로 포괄하는 기본법은 없다. 딥페이크를 악용한 범죄행위 등에 대해서는 「정보통신망 이용촉진 및 정보보호 등에 관한 법률」 또는 「형법」을 적용하고 있다. 또한 음란물과 관련된 딥페이크 피해에 대해서는 이른바 ‘딥페이크 방지법’으로 불리는 「성폭력범죄의 처벌 등에 관한 특례법」 제14조의 2를 적용하여 대응하고 있다. 다만 딥페이크 영상을 만들었다는 사실이 적발되었다고 하더라도 ‘반포(세상에 널리 퍼뜨려 모두 알게 하는 것)의 목적’이 입증되지 않으면 처벌을 피할 수 있다. 불법 촬영물과 다르게 불법 합성물은 단순 소지·저장·시청하는 행위 역시 처벌이 불가능하다.

지금까지 국회에는 ‘AI 기본법’으로 불리는 「AI 산업 육성 및 신뢰 확보에 관한 법률안」 등 6건의 AI 관련 법안이 발의되어 있었다. 해당 법안들은 대부분 지난 21대 국회에서 결론을 내리지 못한 채 임기 만료로 폐기됐다가 22대 국회에서 재발의되었다. 특히 「AI 산업 육성 및 신뢰 확보에 관한 법률안」 은 AI 생성물에 워터마크나 메타데이터 등 가상의 정보라는 특정 표식을 넣도록 하고, 플랫폼 기업들은 표식이 없는 AI 생성물을 바로 삭제할 것을 의무화하는 내용을 담고 있다. 이 법안이 지난 국회에서 통과됐다면 지금의 딥페이크 범죄를 조기에 차단할 수 있었을 것이라는 아쉬움이 나오는 지점이다.
그리고 최근 딥페이크로 인한 사건이 사회적으로 큰 이슈가 됨에 따라, 윤석열 정부는 딥페이크 등 기술을 활용한 허위 정보에 대응하기 위한 또 다른 방안을 발표했다. 신원식 국가안보실장은 용산 대통령실 브리핑에서 이 같은 내용이 담긴 ‘국가 사이버안보 기본계획’을 추진한다고 지난 9월 1일 발표했다. 기본계획은 지난 2월 국가안보실이 발표한 ‘국가 사이버안보 전략’의 후속 조치로 총 100대 실천 과제로 구성됐다.
정부는 사이버공간 상 ‘영향력 공작’ 대응을 위해 범부처 합동 대응 방안을 마련·실행하고 포털·플랫폼 사업자 자율 규제를 강화하도록 조치하기로 했다. ‘영향력 공작’은 ‘선전·선동, 여론조작 등 비정상적 방법을 동원해 자신의 세력을 확대하는 전략·전법’을 의미한다. 의도를 가진 특정 세력이 사이버 공간에 지역감정·남녀 갈등 등을 유발하는 허위 정보 등을 유포하는 경우 등이 해당한다. 이와 관련해 정부 관계자는 “사이버 공간에서 국론 분열, 사회 혼란을 유발하는 가짜뉴스·허위 뉴스가 많다.”라며 “딥페이크 대응과 관련해서는 공세적 사이버 방어 활동 강화 항목에 포함됐다.”라고 설명했다. ‘공세적 사이버 방어 활동 강화‘의 세부 모표에는 △국가안보 위해 활동에 대한 공세적 대응 강화 △위협정보 수집·분석 기반 강화 △사이버공간상 영향력 공작 대응 △사이버범죄에 대한 예방·대응역량 제고 등이 포함됐으며, 향후 사이버공간에서 국론을 분열하고 사회혼란을 유발하는 '허위정보'에 대한 대응 기반이 마련될 것으로 예상된다.

04. 마무리
불법 딥페이크 합성물과 그에 따른 피해가 연일 사회적 문제로 거론되면서 대책 마련이 시급한 상황이다. 현재 각 국가에서 추진·시행 중인 딥페이크 관련 규제를 살펴보면 공통적으로 딥페이크 콘텐츠에 AI 생성물 표기를 요구하고 있으나 이러한 조치가 얼마나 실효성이 있을지는 의문이다. 딥페이크 영상을 AI로 생성했다는 사실을 표기할 경우, 일차적으로 허위정보의 확산을 막을 수 있고 제작자와 유포자에게 해당 콘텐츠에 대한 책임을 물을 수 있다. 그러나 딥페이크 제작자와 유포자가 AI 생성물 표기를 제거하거나 딥페이크를 활용하지 않았다고 거짓말을 한다면 AI 생성물 표기는 무용지물이 되고 만다.
결국 AI 생성물 표기는 딥페이크로 인한 피해를 줄이기 위한 최소한의 노력일 뿐 이것만으로 딥페이크 악용 문제를 해결할 수는 없다. 불법 딥페이크 피해를 근본적으로 방지하기 위해서는 AI 생성물 표기와 함께 딥페이크 탐지 기술 개발, 이용자의 디지털 리터러시 교육이 병행되어야 한다. 특히, 이용자가 딥페이크 콘텐츠를 구별할 수 있는 능력과 불법적인 딥페이크 사용은 범죄라는 인식을 가질 수 있도록 하는 것이 중요하다. 더불어 법적 대응의 일환으로 제작자 및 유포자에 대한 강력한 처벌과 피해자를 보호를 위한 보상 제도도 마련되어야 한다.
05. 참고자료
“너 맞지? ㅋㅋ” 충격 문자…10대들 딥페이크 음란물 ‘공포’ [이슈+] , 한국경제:
https://www.hankyung.com/article/202408265938i
범죄에 오픈된 ‘오픈소스 AI’…딥페이크 막기 힘든 까닭 [팩플], 중앙일보:
https://www.joongang.co.kr/article/25273605
“딥페이크 성착취물 국가 1위 한국…등장인물 53%, 한국인”, 아주경제:
https://www.ajunews.com/view/20240828135904766
EU 회원국, ‘AI 법’ 최종 승인…”딥페이크가 합의 촉진”, AI타임스:
https://www.aitimes.com/news/articleView.html?idxno=156957
'지인 능욕' 판치는데…낮잠 자는 '딥페이크 방지법'(종합), 연합뉴스:
https://www.yna.co.kr/view/AKR20240827058851017
국가안보실이 발표한 ‘국가 사이버안보 기본계획’… 어떤 내용 담겼나, 보안뉴스:
https://m.boannews.com/html/detail.html?idx=132475