How AI is being abused to create child sexual abuse imagery
인공지능(AI) 기술의 급속한 발전이 가져온 혜택 이면에 심각한 부작용이 드러나고 있다. 영국의 인터넷감시재단(Internet Watch Foundation, IWF)이 최근 발표한 보고서에 따르면, AI로 생성된 아동 성학대 이미지(Child Sexual Abuse Material, CSAM)가 새로운 디지털 위협으로 부상하고 있다. 텍스트 입력만으로 사실적인 이미지를 만들어내는 AI 기술의 발전으로 인해 가상의 아동 성학대 콘텐츠 제작이 용이해졌고, 이는 아동 보호와 법 집행에 심각한 도전이 되고 있다.
AI CSAM의 현황과 특징
IWF가 2023년 9월 한 달간 다크웹 포럼을 조사한 결과, 총 20,254개의 AI 생성 이미지가 발견되었다. 이 중 11,108개를 분석한 결과 2,562개가 영국법상 ‘가짜 사진’으로 분류되는 범죄성 이미지였고, 416개는 ‘금지된 이미지’로 판단되었다.
IWF의 한 분석가는 “AI로 생성된 이미지 중에는 실제 사진과 구별하기 어려울 정도로 사실적인 것들이 있다”며 “AI가 초기 단계임에도 이 정도라는 점이 우려된다”고 밝혔다. 또 다른 분석가는 “AI 생성 이미지를 평가하는 것은 일반적인 CSAM보다 더 어렵다”고 언급하며, “아동인지, 실행 가능한 내용인지, 사진처럼 보이는지 등을 판단하는 데 더 많은 시간이 소요된다”고 설명했다.
AI CSAM 생성 기술의 이해
AI CSAM은 주로 ‘텍스트-투-이미지'(text-to-image) 기술을 이용해 만들어진다. 이 기술은 사용자가 입력한 텍스트 설명을 바탕으로 AI가 이미지를 생성하는 방식이다. 대표적인 모델로는 미드저니(Midjourney), DALL-E, 스테이블 디퓨전(Stable Diffusion) 등이 있다.
이 중 스테이블 디퓨전과 같은 오픈소스 모델이 AI CSAM 제작에 주로 악용되고 있다. 오픈소스 특성상 누구나 접근하고 수정할 수 있어 통제가 어렵기 때문이다. 한 다크웹 포럼 사용자는 “대부분의 사람들이 [이름] 도구를 사용하고 있다. 관련 이미지를 만들려면 온라인 도구가 아닌 로컬에서 실행해야 한다”고 설명했다.
AI CSAM의 위험성
AI CSAM의 가장 큰 위험은 오프라인에서 대량으로 제작 가능하다는 점이다. 한번 AI 모델을 다운로드하면 인터넷 연결 없이 무제한으로 이미지를 생성할 수 있어 적발이 매우 어렵다. IWF 수지 하그리브스(Susie Hargreaves) CEO는 “오프라인에서의 아동 성학대 이미지 생성이 현실이 되었다”고 경고했다.
또한 실제 아동 성학대 피해자나 유명인의 얼굴을 이용해 새로운 AI CSAM을 만들어내는 사례도 발견되고 있다. 하그리브스 CEO는 “이는 기존 피해자들에게 2차 피해를 줄 수 있고, 유명인 자녀들의 피해로 이어질 수 있다”고 우려를 표했다.
더불어 AI CSAM의 상업화 조짐도 포착되고 있다. IWF는 AI로 생성된 아동 이미지를 판매하는 웹사이트들을 발견했으며, 일부는 월 구독료를 받고 맞춤형 콘텐츠를 제공하고 있었다.
법적 문제와 도전 과제
AI CSAM은 기존 법체계에 새로운 도전을 제기한다. 영국의 경우 ‘아동보호법 1978’과 ‘검시관 및 사법법 2009’에 따라 AI CSAM을 규제하고 있지만, 이 두 법률 사이의 경계가 모호해 판단에 어려움이 있다.
특히 AI CSAM이 ‘사진처럼 보이는지’를 판단하는 것이 핵심 쟁점이다. IWF의 한 분석가는 “실제가 아닌 것을 알면서도 그 진실성을 의심해야 하는 것이 이상하게 느껴진다”고 토로했다.
또한 AI CSAM 생성 가이드나 모델의 법적 지위도 명확하지 않다. 현행법상 이러한 가이드나 모델을 소지하는 것은 범죄가 아니지만, 이를 통해 무제한적으로 범죄 이미지를 생성할 수 있다는 점에서 법 개정의 필요성이 제기되고 있다.
대응 방안 모색
AI CSAM에 대한 대응책 마련이 시급한 상황이다. IWF는 영국 정부에 AI CSAM 관련 법안 검토와 국제적 공조 강화를 촉구했다. 또한 AI 기업들에게는 AI 모델 개발 시 아동보호 장치를 의무화할 것을 제안했다.
법 집행기관들도 AI CSAM 식별 훈련과 디지털 포렌식 기술 개발에 나서고 있다. 영국 경찰대학(College of Policing)은 AI 생성 이미지 평가 훈련 과정을 개발 중이다. 또한 AI 이미지 탐지 기술 개발도 활발히 진행되고 있으며, 미국의 비영리단체 쏜(Thorn)은 높은 정확도를 가진 오픈소스 탐지 도구를 개발했다고 밝혔다.
기술 기업들의 역할도 중요하다. 구글은 ‘SynthID’라는 기술을 개발해 AI 생성 이미지에 디지털 워터마크를 삽입하는 방식을 제안했다. 이를 통해 AI 생성 이미지를 쉽게 식별할 수 있게 되기를 기대하고 있다.
사회적 인식 제고와 개인의 대응
AI CSAM 문제 해결을 위해서는 사회적 인식 제고도 중요하다. 많은 사람들이 AI CSAM이 ‘실제 아동에게 해를 끼치지 않는다’고 생각하지만, 연구에 따르면 CSAM을 본 사람들의 37%가 실제 아동과의 접촉을 시도했다고 한다.
일반 시민들도 AI CSAM 근절에 동참할 수 있다. 의심스러운 콘텐츠를 발견하면 즉시 관련 기관에 신고해야 한다. 영국의 경우 IWF 웹사이트를 통해 익명으로 신고할 수 있다. 또한 부모들은 자녀들의 온라인 활동을 모니터링하고, 디지털 안전에 대해 교육하는 것이 중요하다.
전문가들은 “AI CSAM 문제 해결을 위해서는 기술 개발, 법제도 정비, 국제 공조가 함께 이뤄져야 한다”고 입을 모은다. 하그리브스 CEO는 “AI가 만든 문제를 AI로 해결할 수 있기를 희망한다”고 말하며, 기술의 양면성을 강조했다.
AI 기술의 혜택을 누리면서도 아동 보호라는 가치를 지키기 위한 사회적 논의와 대책 마련이 시급한 시점이다. AI CSAM이라는 새로운 위협 앞에서, 우리 사회가 어떻게 대응하고 아동을 보호할 것인지에 대한 진지한 성찰과 행동이 필요한 때이다.
IWF의 보고서 전문은 링크에서 확인할 수 있다.
본 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.
관련 콘텐츠 더보기