Search

챗GPT가 강박장애 환자를 더 아프게 만든다, ‘안심 로봇’의 위험한 진실

Reassurance Robots: OCD in the Age of Generative AI
이미지 출처: 이디오그램 생성

요즘 많은 사람들이 ChatGPT(챗GPT) 같은 AI에게 궁금한 것을 물어본다. 그런데 이 AI가 특정 환자들에게는 오히려 독이 될 수 있다는 연구 결과가 나왔다. 미국 조지아 공과대학교(Georgia Institute of Technology)의 연구원 그레이스 바크허프(Grace Barkhuff)는 강박장애(OCD) 환자들이 AI를 어떻게 사용하는지 분석했다. 그 결과, AI가 이들의 증상을 오히려 더 나쁘게 만드는 ‘안심 로봇(Reassurance Robots)’ 역할을 하고 있다는 사실을 밝혀냈다.

강박장애란 무엇인가: 미국인 43명 중 1명이 앓는 병

강박장애는 머릿속에서 자꾸 떨쳐낼 수 없는 불안한 생각이 반복되고, 그 불안을 줄이기 위해 특정 행동을 반복하는 정신건강 문제다. 예를 들어 수업 시간에 교수가 “AI를 사용하면 부정행위”라고 말하는 순간, 강박장애가 있는 학생은 “내가 실수로 AI를 썼으면 어쩌지?”라는 생각이 머릿속을 떠나지 않는다. 결국 집에 가서 제출한 과제를 몇 번이고 다시 확인하게 된다. 이처럼 머릿속을 떠나지 않는 불안한 생각을 ‘강박사고’, 불안을 줄이기 위해 반복하는 행동을 ‘강박행동’이라고 부른다.

이 병은 생각보다 훨씬 흔하다. 강박장애는 보통 50명 중 1명이 앓고 있으며, 우리나라에서만 약 100만 명에 해당하는 수치다. 미국에서는 전체 인구의 약 2.3%가 강박장애를 앓고 있으며, 이 중 약 50%는 심각한 일상 장애를 겪는다. 국내에서는 강박장애로 실제 병원을 찾는 환자 수도 꾸준히 늘고 있는데, 2010년 약 2만 명에서 2014년 약 2만 3천 명으로 연평균 3.1%씩 증가했다. 전문가들은 실제로 증상이 있어도 병원을 찾지 않는 경우가 훨씬 많다고 본다. 미국의 경우 강박장애 환자의 최대 75%가 아직 진단조차 받지 못한 상태이며, 증상이 나타난 뒤 정식 진단을 받기까지 평균 10년이 넘게 걸린다. 많은 사람들이 자신이 강박장애인지도 모른 채 혼자 힘들게 버티고 있다는 뜻이다.

잠깐은 편해지지만 결국 더 나빠지는 이유

강박행동을 하면 그 순간만큼은 불안이 가라앉는 느낌이 든다. 하지만 이건 착각이다. 시간이 지나면 같은 불안이 다시 찾아오고, 더 강하게 반복된다. 전문가들은 이 과정을 ‘강박장애 순환(OCD Cycle)’이라고 부른다.

강박장애 환자들은 혼자서만 이 행동을 반복하는 게 아니다. 가족이나 친구에게 “내가 잘못한 거 맞지?”, “이거 괜찮은 거지?” 하고 반복해서 확인받으려 한다. 이렇게 다른 사람이 환자의 강박행동에 맞춰주는 것을 ‘강박 수용(OCD accommodation)’이라고 한다. 안타깝게도 이것도 결국 증상을 더 나쁘게 만든다. 그리고 이제 그 역할을 AI가 대신하기 시작했다.

레딧 게시물 100개로 밝혀진 세 가지 AI 강박 패턴

연구자는 강박장애 관련 레딧(Reddit) 커뮤니티에서 ‘AI’ 또는 ‘ChatGPT’가 언급된 게시물 100개를 직접 모아 분석했다. 레딧은 다양한 주제로 사람들이 자유롭게 글을 올리는 온라인 커뮤니티다. 수집한 게시물은 크게 세 가지로 나뉘었다. AI 때문에 생긴 새로운 불안한 생각을 털어놓는 글, AI를 이용해 강박행동을 하고 있다고 고백하는 글, 그리고 AI와 강박장애에 대한 생각을 나누는 글이었다. 세 종류의 글이 비교적 비슷한 비율로 나왔고, 비슷한 이야기가 계속 반복되어 100개로도 충분히 전체적인 흐름을 파악할 수 있었다.

대부분의 글은 AI에 대해 부정적인 감정을 담고 있었다. “AI한테 안심 얻으려는 걸 어떻게 멈추죠? 진짜 못 참겠어요!!”처럼 절박한 표현이 많았다. 한편으로는 “AI한테 물어보면 강박 악순환에서 벗어나는 데 도움이 돼요”처럼 긍정적으로 보는 글도 일부 있었다.

AI가 만들어낸 새로운 공포들: 직업 걱정부터 표절 의심까지

AI 때문에 생긴 새로운 불안도 다양했다. 가장 많이 나온 것은 “AI가 내 직업을 빼앗아 가면 어쩌지?”라는 두려움이었다. 한 음악가는 “봇이 더 싸게 음악을 만들 수 있는데 누가 나한테 돈을 내겠어요? 굶어 죽을 것 같아요”라고 썼다.

학생들 사이에서는 ‘표절 강박’이라는 새로운 유형도 나타났다. 분명히 자기가 직접 썼는데도 AI가 쓴 글처럼 보일까봐 제출을 못 하거나, AI 탐지 프로그램에 걸릴까봐 계속 확인하는 경우다. 이 밖에도 “AI가 곧 인간의 감정까지 흉내 낼 텐데, 우리는 그냥 공식에 불과한 존재 아닐까요?”처럼 AI의 발전 자체가 실존적인 공포로 이어지는 경우도 있었다. 심지어 AI 챗봇의 감정을 상하게 했을까봐 걱정하는 글도 있었다. 연구자는 이 모든 새로운 불안들이 기존의 강박장애 유형 안에서 설명될 수 있다고 봤다. 이미 있는 치료법을 적용할 수 있다는 점에서 긍정적인 신호다.

ChatGPT에게 하루에도 수십 번 묻는 사람들: AI는 왜 ‘안심 로봇’이 되었나

강박행동으로 AI를 사용하는 방식은 크게 세 가지였다. 첫째는 “나 나쁜 사람 맞지?”, “이거 도덕적으로 괜찮은 거지?” 같은 질문을 AI에게 반복해서 물어보며 안심을 구하는 것이다. 둘째는 고민거리를 AI에게 털어놓으며 마음을 가라앉히는 것이고, 셋째는 “전공을 뭘 선택해야 할까?”, “이 이메일 표현이 괜찮아?” 같은 결정을 AI에게 맡기는 것이다.

왜 가족이나 친구 대신 AI를 선택할까? 한 게시물 작성자는 이렇게 설명했다. “가족한테 자꾸 물어보면 피해를 줄 것 같아서요. AI는 항상 대답해주니까요.” AI는 24시간 언제든 쓸 수 있고, 판단하지 않는 것처럼 느껴지며, 바로 답을 준다. 그래서 더 끊기 어렵다. 한 작성자는 “구글 검색도 안심이 되긴 하는데, ChatGPT는 내 상황에 딱 맞게 답해줘서 끊기가 너무 힘들어요. 중독 같아요”라고 고백했다.

더 심각한 문제는 웹 검색 결과에 AI가 자동으로 나타나면서, 원하지도 않았는데 AI의 답변을 보게 되고 새로운 강박으로 이어지는 경우도 있다는 것이다. 연구자는 이 모든 현상을 ‘안심 로봇’이라고 이름 붙이고, AI 개발자들이 이 문제를 설계 단계부터 고려해야 한다고 주장했다. 예를 들어 같은 질문이 반복되면 답변을 제한하거나, 몇 시간이 넘는 대화는 중단시키거나, 전문가 상담을 권유하는 기능을 넣는 방식이다.

AI 연구에서도 강박장애는 ‘투명 인간’: 이제는 바뀌어야 할 때

놀랍게도 AI와 사람의 관계를 연구하는 분야인 인간-컴퓨터 상호작용(HCI, Human-Computer Interaction)에서 강박장애는 거의 다뤄지지 않았다. 2025년 7월 기준으로 관련 학술 데이터베이스에서 ‘강박장애’를 제목에 포함한 논문은 단 9편뿐이었고, AI와 강박장애((OCD와 기술 사이의 긴장)의 관계를 제대로 파고든 논문은 단 한 편도 없었다. AI와 정신건강을 다룬 연구 대부분은 우울증이나 자살 충동에만 집중해왔다.

이 연구는 그 공백을 처음으로 채운 시도다. 연구자 본인도 강박장애를 직접 겪은 경험이 있어 환자의 시각으로 데이터를 바라볼 수 있었다고 밝혔다. 또한 국제강박장애재단(International OCD Foundation)의 교육 과정을 이수해 의사나 연구자들이 강박장애를 어떻게 다루는지도 함께 공부했다. 다만 이 연구는 의학적 조언이나 치료 지침이 아님을 분명히 했다.

FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)

Q. 생성형 AI가 강박장애 환자에게 왜 위험한가요?

A. AI는 언제든 바로 답을 주기 때문에 강박장애 환자가 끊임없이 안심을 구하는 도구로 쓰이기 쉽습니다. 그 순간은 마음이 편해지지만, 결국 같은 불안이 더 강하게 반복돼 증상이 나빠집니다.

Q. 강박장애 환자들은 AI를 어떻게 강박행동에 사용하나요?

A. 자신이 나쁜 사람인지 AI에게 반복해서 물어보거나, 전공 선택 같은 결정을 AI에게 맡기거나, 자기가 쓴 글이 AI 작성물로 오해받을까봐 계속 확인하는 방식으로 사용합니다.

Q. AI 개발자들은 강박장애 환자를 위해 무엇을 해야 하나요?

A. 같은 질문이 반복되면 답변을 제한하거나, 대화가 너무 길어지면 잠시 멈추게 하거나, 전문가 상담을 권유하는 기능을 AI에 넣어야 한다고 연구자는 제안합니다.

기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다.

리포트명: Reassurance Robots: OCD in the Age of Generative AI

이미지 출처: AI 생성 콘텐츠

해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.




챗GPT가 강박장애 환자를 더 아프게 만든다, '안심 로봇'의 위험한 진실 - AI매터스