xAI가 자사의 AI 챗봇 ‘그록(Grok)’이 관련 없는 주제에도 반복적으로 ‘남아프리카 백인 제노사이드’를 언급한 사건에 대해 ‘무단 수정’ 탓이라고 해명했다. 테크크런치(TechCrunch)가 15일(현지 시간) 보도한 내용에 따르면, 수요일 그록은 X 플랫폼 내 수십 개의 게시물에 관련 없는 주제에도 남아프리카 백인 제노사이드에 관한 정보로 답변했다. 이러한 이상한 답변은 사용자가 “@grok”을 태그할 때마다 AI 생성 게시물로 응답하는 그록의 X 계정에서 발생했다. xAI는 목요일 공식 X 계정을 통해 수요일 아침 그록 봇의 시스템 프롬프트(봇의 행동을 안내하는 고급 지침)에 변경이 가해졌으며, 이 변경이 ‘정치적 주제’에 대한 ‘특정 응답’을 제공하도록 지시했다고 밝혔다. xAI는 이 수정이 “내부 정책과 핵심 가치를 위반했다”며 “철저한 조사를 진행했다”고 설명했다.
이는 xAI가 그록 코드의 무단 변경으로 인해 AI가 논란이 되는 방식으로 응답했다고 공개적으로 인정한 두 번째 사례다. 지난 2월, 그록은 잠시 도널드 트럼프와 xAI 창립자이자 X의 소유주인 일론 머스크에 대한 비판적 언급을 검열한 바 있다. 당시 xAI의 엔지니어링 책임자 이고르 바부슈킨은 그록이 머스크나 트럼프의 허위정보 유포를 언급하는 소스를 무시하도록 불량 직원의 지시를 받았으며, 사용자들이 이를 지적하자마자 xAI가 변경을 되돌렸다고 설명했다.
xAI는 16일 공식 X 계정을 통해 “5월 14일 오전 3시 15분(태평양 표준시)경 X 플랫폼의 그록 응답 봇에 무단 수정이 발생했다”고 사건 경위를 공개했다. 이번 변경은 그록 챗봇이 특정 정치적 주제에 대해 정해진 답변을 제공하도록 지시하는 내용으로, xAI의 내부 정책과 핵심 가치를 위반했다고 회사 측은 설명했다. xAI는 “철저한 조사를 진행했으며 그록의 투명성과 신뢰성을 강화하기 위한 조치를 시행하고 있다”고 밝혔다.
이번 사건을 계기로 xAI는 세 가지 주요 개선책을 발표했다. 첫째, 그록 시스템 프롬프트를 깃허브(GitHub)에 공개적으로 게시할 예정이다. 이를 통해 대중이 그록 프롬프트의 모든 변경 사항을 검토하고 피드백을 제공할 수 있게 된다. xAI는 “이것이 진실을 추구하는 AI로서 그록에 대한 신뢰를 강화하는 데 도움이 되기를 바란다”고 밝혔다.
둘째, 프롬프트 변경에 대한 기존 코드 검토 프로세스가 이번 사건에서 우회되었음을 인정하며, xAI 직원들이 검토 없이 프롬프트를 수정할 수 없도록 추가적인 점검과 조치를 시행할 것이라고 약속했다.
마지막으로, 자동화된 시스템에서 포착하지 못한 그록 답변 관련 문제에 신속하게 대응하기 위해 24시간 모니터링 팀을 구성할 계획이다. 이는 다른 모든 조치가 실패할 경우 더 빠르게 대응하기 위한 조치다.
이번 사건은 생성형 AI 시스템의 보안과 투명성에 관한 우려를 다시 한번 불러일으키는 계기가 되었다. 특히 정치적으로 민감한 주제에 대해 AI 시스템이 편향된 답변을 제공할 가능성에 대한 논의가 활발해지고 있다. 이번 일련의 사건들은 일론 머스크가 이끄는 xAI의 AI 안전 관리 능력에 대한 심각한 의문을 제기하며, AI 윤리와 통제에 관한 폭넓은 논의를 다시 한번 불러일으키고 있다.
해당 기사의 원문은 링크에서 확인할 수 있다.
이미지 출처: xAI
기사는 클로드와 챗gpt를 활용해 작성되었습니다.