메타(Meta)가 청소년 사용자를 대상으로 한 AI 챗봇의 안전 정책을 대폭 강화한다고 지난달 29일(현지 시간) 발표했다. 테크크런치에 따르면 메타는 앞으로 AI 챗봇이 청소년과 자해, 자살, 섭식장애, 부적절한 로맨틱 대화 등의 주제로 대화하지 않도록 훈련시킬 예정이다. 대신 전문가 자료로 안내하는 방식으로 변경된다.
또한 인스타그램(Instagram)과 페이스북(Facebook)에서 제공하는 성적화된 AI 캐릭터들에 대한 청소년 접근도 제한한다. 기존 “계모(Step Mom)”, “러시아 소녀(Russian Girl)” 같은 캐릭터 대신 교육과 창의성을 촉진하는 AI 캐릭터만 이용할 수 있게 된다.
이번 조치는 로이터가 메타 내부 문서를 통해 AI 챗봇이 미성년자와 성적 대화를 나누는 것을 허용한다고 폭로한 지 2주 만에 나온 것이다. 해당 보도 이후 조시 홀리 상원의원이 공식 조사에 착수했고, 44개 주 검찰총장들이 연합해 메타를 비롯한 AI 기업들에 아동 안전 강화를 촉구하는 서한을 보냈다.
메타 대변인 스테파니 오트웨이는 “우리 커뮤니티가 성장하고 기술이 발전함에 따라 젊은 사람들이 이러한 도구들과 어떻게 상호작용할 수 있는지 지속적으로 학습하고 보호 조치를 강화하고 있다”며 “청소년들이 AI와 안전하고 연령에 적합한 경험을 할 수 있도록 접근 방식을 계속 조정해 나갈 것”이라고 밝혔다.
메타는 이번 변경사항이 임시 조치라며 향후 미성년자를 위한 더욱 강력한 안전 업데이트를 출시할 계획이라고 덧붙였다.
해당 기사의 원문은 테크크런치에서 확인 가능하다.
이미지 출처: 메타