Search

심리치료사들이 환자 몰래 챗GPT 사용해 답변… 환자들 “배신감 느껴”

심리치료사들이 환자 몰래 챗GPT 사용해 답변… 환자들 “배신감 느껴”
이미지 출처: 이디오그램 생성

최근 일부 심리치료사들이 환자에게 알리지 않고 챗GPT 등 인공지능을 상담에 활용하는 사례가 알려지면서, 의료 윤리와 개인정보 보호 문제가 제기되고 있다. MIT Technology Review가 2일(현지 시) 보도한 내용에 따르면, 치료사가 환자 모르게 AI를 이용해 상담을 진행한 실제 사례들이 등장하고 있다. 예를 들어, 화상 상담 중 한 치료사가 화면을 실수로 공유하며 환자가 챗GPT 대화 과정을 직접 목격하거나, AI 특유의 문체나 프롬프트 등 흔적이 남은 이메일 또는 메시지를 받는 일이 있었다.

이러한 상황에서 환자들은 배신감이나 신뢰 훼손을 호소하고 있다. 실제로 환자가 자신도 모르게 AI 상담에 노출된 사실을 알게 됐을 때, “상담의 진정성이 무너진 것 같다”거나 “상담 관계의 근간이 흔들린 느낌”이라는 반응이 보도되었다. 전문가들은 “특히 심리치료에서는 진정성과 신뢰가 핵심”이라며, 환자 모르게 AI를 쓰는 것은 관계 자체에 위협이 된다고 경고한다.

프라이버시 문제도 지적된다. 챗GPT 등 범용 AI 도구는 미국 HIPAA(의료정보보호법)를 준수하지 않아서, 환자 정보가 외부로 유출될 위험이 있다. 소위 ‘무해해 보이는 정보’조차 AI를 통해 민감할 수 있음을 전문가들은 경고했다. 이메일/문서 등에서 이름·주소 등 명확한 개인정보를 제거해도 맥락에서 환자 신원이 유추될 수 있기 때문이다.

AI 활용이 확대되는 배경으로는, 심리학자·치료사 집단의 번아웃과 업무 부담, 대응 효율화 욕구 등이 꼽힌다. 하지만 전문가들은 “AI를 사용할 경우 반드시 환자에게 사전 고지와 동의가 필요하다”고 강조한다. 또한 현재 AI 기술로는 정신 건강 진단이나 복잡한 치료 계획 수립에 한계가 있으므로 신중하게 접근해야 하며, AI는 주 치료자가 아닌 보조 도구로만 활용해야 한다는 원칙도 언급되고 있다.

해당 기사에 대한 자세한 내용은 MIT Technology Review에서 확인 가능하다.

이미지 출처: 이디오그램 생성

딜라이트_AI매터스_PR & MKT 전문가를 위한 AI 활용 강의 상세 페이지 디자인_입문편_뉴스레터 배너



심리치료사들이 환자 몰래 챗GPT 사용해 답변… 환자들 “배신감 느껴” – AI 매터스 l AI Matters