오픈AI(OpenAI)가 청소년 사용자의 안전을 위해 성인과 차별화된 AI 서비스를 제공하겠다고 발표했다. 샘 알트만(Sam Altman) CEO는 16일(현지 시각) 공식 블로그를 통해 “청소년에게는 안전을 개인정보 보호와 자유보다 우선시한다”며 새로운 정책 방향을 밝혔다.
오픈AI는 18세 미만과 성인 사용자를 구분하기 위해 챗GPT(ChatGPT) 사용 패턴 기반 연령 추정 시스템을 구축하고 있다. 연령이 의심스러운 경우에는 안전을 위해 18세 미만 서비스로 기본 설정한다.
청소년 사용자에게는 엄격한 제한을 적용한다. 챗GPT는 청소년이 요청해도 부적절한 대화를 거부하고, 창작 환경에서도 자살이나 자해 관련 논의에 참여하지 않는다. 18세 미만 사용자가 자살 충동을 보이면 부모 연락을 시도하고, 긴급할 때는 당국에 신고한다.
반면 성인에게는 광범위한 자유를 보장한다. 알트만 CEO는 “성인 사용자를 성인으로 대우한다는 원칙”이라며 “안전 범위 내에서 원하는 방식으로 도구를 사용할 수 있어야 한다”고 설명했다.
오픈AI는 또한 직원조차 접근할 수 없는 고급 개인정보 보호 기능을 개발 중이라고 밝혔다. 다만 생명 위협이나 대규모 사이버 공격 등 중대한 위험의 경우에만 예외적으로 인간 검토가 이뤄진다.
해당 모델에 대한 자세한 사항은 오픈AI 뉴스룸에서 확인 가능하다.
이미지 출처: 오픈AI