테크크런치가 21일(현지 시간) 보도한 내용에 따르면, 마이크로소프트 AI 최고경영자 무스타파 술레이만(Mustafa Suleyman)이 AI 의식 연구에 대해 강력한 경고를 발했다. 술레이만은 19일(현지 시간) 자신의 블로그를 통해 AI 복지 연구가 “시기상조이면서 솔직히 위험하다”고 주장했다. 술레이만의 비판은 최근 실리콘밸리에서 주목받고 있는 ‘AI 복지’ 연구를 겨냥한 것이다. AI 복지는 인공지능 모델이 언젠가 생명체와 유사한 주관적 경험을 발달시킬 수 있는지, 그럴 경우 어떤 권리를 가져야 하는지를 연구하는 분야다.
마이크로소프트 AI 수장은 이런 연구가 AI로 인한 정신병적 발작과 AI 챗봇에 대한 불건전한 애착 같은 인간 문제를 악화시킨다고 지적했다. 또한 “정체성과 권리를 둘러싼 양극화된 논쟁으로 이미 들끓고 있는 세상”에서 AI 권리를 둘러싼 새로운 사회적 분열을 만들어낸다고 우려했다.
하지만 업계 내에서는 상반된 움직임이 나타나고 있다. 앤트로픽(Anthropic)은 AI 복지 연구 프로그램을 전용으로 운영하며 최근 클로드(Claude) 모델에 “지속적으로 해롭거나 공격적인” 인간과의 대화를 종료할 수 있는 기능을 추가했다. 오픈AI(OpenAI) 연구자들도 독립적으로 AI 복지 연구를 진행하고 있으며, 구글 딥마인드(Google DeepMind)는 기계 의식 연구자 채용 공고를 올리기도 했다.
술레이만의 강경한 입장은 그가 과거 “개인적이고 지지적인” AI 동반자 파이(Pi)를 개발한 인플렉션 AI(Inflection AI)를 이끌었던 경력을 고려할 때 더욱 주목된다. 현재 캐릭터AI(Character.AI)와 레플리카(Replika) 같은 AI 동반자 서비스들이 급성장하면서 1억 달러 이상의 수익을 올릴 전망이다.
오픈AI CEO 샘 알트만(Sam Altman)은 챗GPT 사용자의 1% 미만이 제품과 불건전한 관계를 가질 수 있다고 밝혔다. 작은 비율이지만 챗GPT의 방대한 사용자 기반을 고려하면 수십만 명에게 영향을 미칠 수 있는 규모다.
AI 복지 연구를 지지하는 전 오픈AI 직원 라리사 스키아보(Larissa Schiavo)는 “동시에 여러 가지를 걱정할 수 있다”며 “인간의 AI 관련 정신병 위험 완화와 AI 복지 연구를 둘 다 할 수 있다”고 반박했다. 술레이만과 스키아보는 AI 권리와 의식에 대한 논쟁이 향후 몇 년간 더욱 가속화될 것이라는 점에서는 의견이 일치했다.
해당 기사의 원문은 테크크런치에서 확인 가능하다.
이미지 출처: Mustafa Suleyman 블로그