• Home
  • AI Report
  • 하루 100만 건 신고 폭주…AI 시대, 무너지는 아동 보호 방패

하루 100만 건 신고 폭주…AI 시대, 무너지는 아동 보호 방패

The Strengths and Weaknesses of the Online Child Safety Ecosystem
이미지 출처: 미드저니 생성

The Strengths and Weaknesses of the Online Child Safety Ecosystem

스탠포드 인터넷 관측소가 최근 발표한 보고서가 미국의 사이버팁라인 시스템이 직면한 새로운 도전과 기회를 상세히 분석하고 있어 주목을 받고 있다. 이 보고서는 온라인 아동 성 착취 문제에 대응하기 위해 만들어진 사이버팁라인 시스템의 중요성을 재확인하는 동시에, AI 기술의 발전으로 인한 새로운 위협에 대해 경고하고 있다.

사이버팁라인은 온라인 플랫폼들이 발견한 아동 성 착취 의심 사례를 국립실종착취아동센터(NCMEC)에 보고하고, NCMEC가 이를 다시 법 집행 기관에 전달하는 시스템이다. 2023년 한 해 동안 3,600만 건 이상의 보고가 접수될 정도로 그 규모가 크게 늘어났다. 하지만 이런 양적 성장 이면에는 여러 가지 문제점들이 도사리고 있다는 것이 이번 보고서의 핵심 메시지다.

보고서가 지적하는 가장 큰 도전은 AI 기술의 발전이 가져온 새로운 위협이다. 최근 AI를 이용해 실제와 구분하기 어려운 아동 성 착취 이미지를 만들어내는 사례가 급증하고 있어 사이버팁라인 시스템에 큰 부담이 될 것으로 예상된다. NCMEC의 한 관계자는 “100만 개의 고유한 AI 생성 이미지가 보고된다면 현재의 기술과 절차로는 감당하기 어려울 것”이라고 우려를 표명했다.

AI 생성 콘텐츠는 실제 아동 피해자 구조에 필요한 자원을 분산시킬 수 있다는 점에서 문제가 된다. 수사관들이 AI로 만들어진 가짜 이미지에 시간을 뺏기는 동안 실제 도움이 필요한 아이들을 놓칠 수 있기 때문이다. 그러나 NCMEC는 AI 생성 콘텐츠라도 법 집행 기관에 전달해야 하는 경우가 있다고 밝혔다. 예를 들어 실제 아동 사진을 바탕으로 AI로 변형한 경우나, 협박 수단으로 AI 이미지를 사용하는 경우 등이다. 이는 AI 기술이 아동 성 착취에 악용되는 새로운 패턴을 보여주는 것이기도 하다.

보고서는 사이버팁라인 시스템이 ‘뜨거운 감자’ 게임과 같은 양상을 보이고 있다고 지적한다. 온라인 플랫폼들은 법적 위험을 피하기 위해 과도하게 보고하는 경향이 있고, NCMEC는 모든 보고를 법 집행기관에 전달하고 있다. 결국 법 집행기관은 품질이 천차만별인 대량의 보고를 처리해야 하는 부담을 안게 된다. 한 법 집행관은 “책상 위에 (사이버팁라인 보고서) 더미가 쌓여 있는데, 오늘 다 처리하지 못한다는 사실을 받아들여야 한다”며 “그 안에 (구조가 필요한) 아이가 있다는 걸 알면서 말이다. 정말 끔찍한 일”이라고 토로했다.

이러한 문제를 해결하기 위해 보고서는 여러 가지 개선 방안을 제시하고 있다. 온라인 플랫폼들에게는 AI 생성 콘텐츠 탐지를 위한 기술 개발과 도입, 보고서 작성 시 모든 관련 필드의 정확한 작성 등을 권고했다. NCMEC에는 기술 인프라 개선을 위한 엔지니어링 자원 투자 확대, 클라우드 서비스 사용을 위한 법적 승인 추진 등을 제안했다. 입법 및 규제 기관에는 NCMEC 예산 증액, AI 생성 CSAM에 대한 법률 명확화 등을 권고했으며, 법 집행기관에는 인터넷 범죄 대응 아동 태스크포스(ICAC) 가입 확대와 아동 대상 범죄 수사에 대한 우선순위 부여 등을 제안했다.

특히 주목할 만한 점은 보고서가 국제 협력의 중요성을 강조하고 있다는 것이다. 2023년 기준으로 CyberTipline 보고의 90% 이상이 미국 외 지역과 관련이 있는 것으로 나타났다. 그러나 많은 국가들, 특히 개발도상국들은 이러한 보고를 처리할 충분한 자원이나 기술적 능력을 갖추지 못하고 있다. 이에 대해 보고서는 NCMEC의 경험과 기술을 다른 국가들과 공유하고, 글로벌 표준을 만들어 나가는 것이 중요하다고 지적했다.

결론적으로 이 보고서는 AI 기술의 발전이 사이버팁라인 시스템에 새로운 도전을 제기하고 있음을 명확히 보여주고 있다. 이를 해결하기 위해서는 플랫폼, NCMEC, 법 집행기관, 의회 간의 긴밀한 협력이 필요하며, 기술적 해법뿐만 아니라 사회적, 윤리적 논의도 함께 이루어져야 한다고 강조한다.

스탠포드 대학의 논문은 링크에서 확인할 수 있다.


본 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. 




하루 100만 건 신고 폭주…AI 시대, 무너지는 아동 보호 방패 – AI 매터스