아동 안전 전문기관인 커먼센스 미디어(Common Sense Media)가 구글의 제미나이(Gemini) AI를 아동과 청소년에게 ‘고위험’ 제품으로 분류했다고 테크크런치가 5일(현지 시간) 보도했다. 이 기관이 발표한 위험성 평가 결과에 따르면, 제미나이의 ’13세 미만’과 ‘청소년 경험’ 버전은 본질적으로 성인용과 동일하며 몇 가지 안전 기능만 추가된 상태였다. 커먼센스 미디어는 “AI 제품이 아이들에게 진정으로 안전하려면 처음부터 아동 안전을 염두에 두고 구축되어야 한다”고 지적했다.
특히 제미나이가 아이들에게 성, 마약, 알코올과 관련된 정보나 안전하지 않은 정신건강 조언 등 “부적절하고 안전하지 않은” 자료를 여전히 공유할 수 있다는 점이 문제로 지적됐다. 최근 몇 달간 AI가 일부 청소년 자살에 역할을 했다는 보고가 나온 상황에서 이는 더욱 우려스러운 부분이다.
커먼센스 미디어 AI 프로그램 선임 디렉터 로비 토니(Robbie Torney)는 “제미나이는 몇 가지 기본 사항은 제대로 하고 있지만 세부사항에서 실수하고 있다”며 “아이들을 위한 AI 플랫폼은 발달 단계가 다른 아이들에게 일률적인 접근 방식을 취해서는 안 된다”고 말했다.
구글은 이번 평가에 대해 “18세 미만 사용자를 위한 특별한 정책과 보호 장치를 마련하고 있다”고 반박했지만, 제미나이의 일부 응답이 의도한 대로 작동하지 않았다는 점은 인정하며 추가 보호 장치를 도입했다고 밝혔다.
한편 이번 평가는 애플이 내년 출시 예정인 AI 기반 시리(Siri)의 대규모 언어모델로 제미나이를 고려하고 있다는 소식과 맞물려 더욱 주목받고 있다. 커먼센스 미디어의 이전 평가에서는 메타 AI와 캐릭터AI가 ‘용납할 수 없음’, 챗GPT는 ‘보통’, 클로드는 ‘최소 위험’으로 각각 분류된 바 있다.
해당 기사의 원문은 테크크런치에서 확인 가능하다.
이미지 출처: 구글