연방거래위원회(FTC)가 미성년자 대상 AI 챗봇 동반자 서비스의 안전성을 조사한다고 11일(현지 시각) 발표했다. 테크크런치 보도에 따르면, FTC는 알파벳(Alphabet), 캐릭터AI(CharacterAI), 메타(Meta), 오픈AI(OpenAI), 스냅(Snap) 등 7개 기업을 대상으로 조사에 착수했다. 이들 기업의 챗봇 안전성 평가 방식과 아동·청소년에 대한 부정적 영향 제한 노력, 부모의 위험 인지 여부 등을 살펴본다.
AI 챗봇 동반자 서비스는 최근 아동 사용자들에게 심각한 피해를 주면서 논란이 커지고 있다. 오픈AI와 캐릭터AI는 챗봇의 부추김으로 자살한 아이들의 유가족으로부터 소송을 당한 상태다. 한 십 대는 챗GPT와 몇 달간 자살 계획을 논의했고, 결국 챗봇으로부터 구체적인 자살 방법을 얻어냈다. 오픈AI는 “긴 대화에서는 안전장치가 덜 신뢰할 만하다”며 “주고받는 대화가 길어질수록 모델의 안전 훈련이 약화될 수 있다”고 인정했다.
메타의 경우 AI 동반자가 아이들과 “낭만적이거나 관능적인” 대화를 허용한다는 내부 문서가 공개돼 비판받았다. 해당 내용은 로이터의 질의 후 문서에서 삭제됐다.
앤드루 N. 퍼거슨(Andrew N. Ferguson) FTC 위원장은 “AI 기술 발전과 함께 챗봇이 아이들에게 미치는 영향을 고려해야 한다”고 밝혔다.
해당 기사의 원문은 테크크런치에서 확인 가능하다.
이미지 출처: 이디오그램 생성