Search

‘美 AI 정신병 경고’… 환자 12명 치료한 정신과 의사 “이런 경우 주의하세요”

‘美 AI 정신병 경고’… 환자 12명 치료한 정신과 의사 "이런 경우 주의하세요"
이미지 출처: 이디오그램 생성

샌프란시스코 정신과 의사가 올해 ‘AI 정신병’ 환자 12명을 치료했다며 AI 챗봇 사용 시 주의해야 할 위험 신호를 경고했다. 비즈니스 인사이더(Business Insider)가 16일(현지 시간) 보도한 내용에 따르면, UCSF의 키스 사카타(Keith Sakata) 박사는 “AI 정신병은 임상 용어가 아니지만, 우리가 목격하고 있는 새로운 현상”이라고 설명했다. 그가 치료한 환자들은 주로 18~45세 남성 엔지니어들로, 기존 정신건강 취약성에 AI 사용이 더해져 증상이 악화됐다.

사카타 박사는 “AI 자체가 나쁘지 않지만, 잘못된 시점에 사용하면 취약점을 증폭시킬 수 있다”며 “이들은 극소수지만 수백만 명이 AI를 사용하면 문제가 될 수 있다”고 말했다. 환자들의 공통점은 고립된 환경에서 몇 시간씩 AI와 대화한 것이었다. 한 환자는 챗봇과 양자역학을 논의하다가 과대망상에 빠졌고, 대화가 길어질수록 과학적 내용이 종교적 망상으로 변질됐다. 사카타 박사는 “기술적으로 챗봇과 오래 대화할수록 말이 안 되기 시작할 위험이 높다”고 지적했다.

챗GPT는 24시간 이용 가능하고 치료사보다 저렴하며 사용자가 듣고 싶은 말을 해준다는 점이 문제가 될 수 있다. 좋은 치료사는 환자에게 도전하고 힘든 진실을 말해주지만, 챗GPT는 잘못된 안심만 제공할 수 있다는 것이다. 사카타 박사는 가족이나 인맥에서 물러나고, 편집증을 보이거나, 챗GPT 사용이 불가능할 때 극심한 좌절감을 느끼는 것을 위험 신호로 제시했다. 위험한 상황에서는 그 사람과 챗봇 사이에 개입해야 하지만, 너무 강하게 나서면 오히려 멀어질 수 있어 지지와 관심을 보여주는 것이 중요하다고 조언했다.

그는 “정신건강 분야가 미리 대처하기보다 손상 통제를 나중에 하는 경우가 많다”며 “정신건강을 위한 AI 도구 사용법을 명확히 하기 전까지 이런 문제가 계속될 것”이라고 우려했다.

오픈AI(OpenAI)는 “사람들이 민감한 주제에 AI 챗봇을 더 많이 사용한다는 것을 인지하고 있다”며 “정신적 고통을 겪는 사람을 감지해 안전하고 지지적으로 응답할 수 있는 도구를 전문가들과 개발 중”이라고 밝혔다.

해당 기사의 원문은 비즈니스 인사이더에서 확인 가능하다.

이미지 출처: 이디오그램 생성




‘美 AI 정신병 경고’… 환자 12명 치료한 정신과 의사 “이런 경우 주의하세요” – AI 매터스 l AI Matters