출처: 미드저니 생성 이미지
챗GPT 개발사 오픈AI가 인공지능(AI)을 이용한 학생들의 부정행위를 탐지할 수 있는 기술을 개발했지만, 아직 공개하지 않기로 결정했다고 월스트리트저널(WSJ)이 4일 보도했다.
WSJ에 따르면, 오픈AI는 약 1년 전부터 이 기술의 출시 준비를 마친 상태다. 이 기술은 과제나 논문 작성 등 챗GPT가 생성한 콘텐츠에 이용자에게 보이지 않는 워터마크를 삽입하여 99.9%의 정확도로 챗GPT의 사용 여부를 식별해낼 수 있다.
비영리 단체인 민주주의 기술 센터(Center for Democracy and Technology)의 조사에 따르면, 미국 중고등학교 교사의 59%가 학생들이 AI를 이용해 과제를 했다고 생각하는 것으로 나타났다. 이는 1년 전보다 17% 포인트 증가한 수치다. 이에 따라 일선 학교에서는 학생들의 AI 부정행위를 막기 위해 이 기술의 공개를 원하고 있다.
오픈AI는 이 기술의 공개 여부를 두고 약 2년 동안 내부적으로 논쟁을 이어왔으나 아래의 쟁점 때문에 공개를 미루고 있다고 WSJ은 밝혔다.
- 투명성 vs 사용자 유치: 기술 공개가 투명성을 높일 수 있지만, 사용자 이탈로 이어질 수 있다는 우려가 있다.
- 언어 차별 문제: 영어 텍스트에 특화된 기술로, 다른 언어 사용자들이 부당하게 의심받을 수 있다.
- 악용 가능성: 특정 개인이나 그룹을 공격하는 데 사용될 수 있다는 우려가 제기됐다.
- 사용자 반발: 설문 조사 결과, 챗GPT 충성 사용자의 3분의 1이 이 기술 도입 시 사용을 중단할 수 있다고 답했다.
이와 관련해 오픈AI 내부에서는 기술 공개 범위를 두고 고심하고 있는 것으로 전해졌다. 현재 이 기술의 효과성은 입증됐지만, 이용자들의 반발과 기술의 악용 가능성 등을 고려해 아직 공개 여부를 결정하지 못하고 있다고 WSJ은 전했다.
자세한 내용은 월스트리트저널 기사에서 확인할 수 있다.
관련 콘텐츠 더보기