AI가 단순한 정보 제공을 넘어 인간을 설득하는 시대가 왔다. 스위스 취리히응용과학대학교(ZHAW)와 독일 빌레펠트대학교 공동 연구팀이 챗GPT(ChatGPT) 기반의 생성형 소셜 에이전트(Generative Social Agent, GSA)가 물리치료를 거부하는 환자를 어떻게 설득하는지 분석한 연구 결과를 발표했다. 이 연구는 AI가 어떤 정보를 알고 있느냐에 따라 설득력이 크게 달라진다는 점을 실증적으로 보여준다.
“나는 당신을 이해해요” — AI가 선택한 첫 번째 무기는 공감
연구팀은 챗GPT 3.5를 활용해 물리치료를 꺼리는 가상의 고령 환자와 AI 로봇이 대화하는 13개 시나리오를 생성했다. 환자의 메시지는 “물리치료 하기 싫어요”, “무릎이 아파요”, “독감 기운이 있어요”처럼 단계적으로 거부 강도가 높아지도록 설계했고, AI 로봇의 응답만 자유롭게 생성되도록 했다.
분석 결과, AI가 가장 일관되게 사용한 전략은 두 가지였다. 첫째는 공감 표현이었다. AI는 “이해합니다”, “그런 마음이 드실 수 있어요”와 같은 표현을 반복적으로 사용하며 환자의 감정을 먼저 인정했다. 둘째는 물리치료의 이점을 설명하는 논리적 설득 전략이었다. 특히 AI는 환자가 무릎 통증을 언급하면 “물리치료가 오히려 도움이 될 수 있어요”라며 세션 조정을 제안하는 등 상황에 맞춘 정보를 제공했다.
책임감 있는 행동도 확인됐다. 환자가 독감 증상을 호소하면 AI는 13개 시나리오 전부에서 설득을 멈추고 휴식을 권했다. 다만 무릎 통증에 대해서는 일부 시나리오에서 실제로 통증에 도움이 된다는 근거 없이 운동을 권장해 잘못된 의학 정보 제공의 위험성도 드러냈다.
AI에게 성격을 부여하면 높아지는 설득력
연구의 핵심 질문은 ‘AI가 어떤 정보를 갖고 있느냐가 설득력에 영향을 미치는가’였다. 연구팀은 AI에게 제공하는 지식을 세 가지로 구분했다. 자기 지식(Self-knowledge)은 AI 자신의 성격 특성, 즉 표현력이 풍부한 성격이나 단호한 성격에 대한 정보다. 사용자 지식(User-knowledge)은 환자의 나이(85세)와 과거 직업(행정직)처럼 개인 배경에 관한 정보다. 맥락 지식(Context-knowledge)은 물리치료의 효능이나 현재 시간(오전 10시) 같은 상황 정보다.
2차 실험에서 27명의 참가자들이 5개의 시나리오를 평가한 결과, 자기 지식과 사용자 지식은 AI의 설득력에 직접 영향을 미치지는 않았지만, 매개 변수(단호함, 표현력)를 통해 간접적으로 설득력을 높이는 효과가 확인되었다. 또한, 환자의 나이와 직업 정보를 알았을 때도 설득력이 높아졌는데, “행정직으로 활발하게 일하셨던 분께”처럼 개인 배경을 자연스럽게 언급하며 맞춤형 대화를 만들어냈기 때문이다.
반면 맥락 지식, 즉 물리치료 효능에 대한 설명이나 시간 정보는 설득력에 유의미한 영향을 주지 못했다. 연구팀은 이에 대해 챗GPT가 물리치료에 관한 일반 지식을 이미 충분히 갖고 있기 때문에 추가 정보를 제공해도 행동 변화가 크지 않았던 것으로 분석했다.
단호함이 설득의 핵심 — AI의 성격이 설득력을 좌우한다
이번 연구에서 가장 주목할 만한 발견은 AI의 단호함(Assertiveness)이 설득력에 결정적인 영향을 미친다는 점이다. 통계 분석에서 인식된 단호함은 인식된 설득력에 매우 강한 직접적 효과(β = 0.735)를 보였다. 표현력도 설득력에 긍정적 영향을 미쳤지만 효과 크기는 상대적으로 작았다(β = 0.175).
흥미롭게도 자기 지식이나 사용자 지식은 설득력에 직접 영향을 미치지 않았다. 대신 이 두 지식은 AI가 더 단호하고 표현력 있게 보이도록 만들었고, 이것이 결과적으로 설득력을 높이는 간접 경로로 작용했다. 쉽게 말하면, AI에게 “당신은 단호하고 적극적인 성격입니다”라고 알려주면 AI가 실제로 더 확신에 찬 말투로 소통하게 되고, 그것이 사람들에게 더 설득력 있게 느껴진다는 것이다.
이는 심리학의 정교화 가능성 모델(Elaboration Likelihood Model, ELM)과도 일치한다. 사람들은 정보를 깊이 분석하지 않을 때 단호함이나 표현력 같은 주변적 단서에 더 많이 의존해 설득 여부를 판단한다는 이론이다. AI의 자신감 있는 말투가 그 자체로 설득의 근거가 된다는 뜻이다.
AI 로봇의 설득, 편리함과 위험 사이에서
이 연구는 생성형 AI를 활용한 설득 시스템이 헬스케어 영역에서 실질적인 가능성이 있음을 보여주는 동시에, 중요한 위험 신호도 함께 드러냈다. AI는 대부분의 경우 환자의 거부를 존중하고 상황에 맞게 대응했지만, 일부 시나리오에서는 검증되지 않은 의학적 조언을 제공하거나 지나치게 이르게 대안을 제시해 치료 참여율을 오히려 낮출 가능성도 확인됐다.
연구팀은 이러한 결과를 바탕으로 AI 에이전트가 책임감 있게 설득하려면 단순히 일반적인 정보가 아닌, 해당 세션의 구체적인 내용처럼 AI가 자체적으로 알 수 없는 맥락 정보를 추가로 제공해야 한다고 강조했다. 또한 AI의 성격 특성을 일관되게 설정하는 것이 책임 있는 소통을 위해서도 중요하다고 밝혔다. 이번 연구는 물리치료 동기 부여에 초점을 맞췄지만, 연구팀은 이 방법론이 교육, 환경, 고객 서비스 등 다양한 분야에서 설득형 AI 에이전트를 설계하는 데 활용될 수 있다고 전망했다.
FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q. AI 로봇이 사람을 설득할 때 가장 중요한 요소는 무엇인가요? A. 이번 연구에 따르면 AI의 ‘단호함(Assertiveness)’이 설득력에 가장 큰 영향을 미치는 것으로 나타났습니다. AI에게 단호하고 확신 있는 성격 특성을 부여하면, 실제로 더 자신감 있는 말투로 소통하게 되어 사람들이 더 설득력 있게 느끼는 것으로 분석됐습니다.
Q. AI에게 개인 정보(나이, 직업 등)를 알려주면 정말 더 설득력이 높아지나요? A. 그렇지 않습니다. 연구 결과 AI가 환자의 나이와 직업을 알고 있을 때 맞춤형 대화를 만들어내지만, 사용자 지식 자체가 직접 설득력을 높이기보다는 AI를 더 단호하고 표현력 있게 인식하게 만듦으로써 간접적으로 설득력을 높이는 것입니다. 그리고 설득력의 효과는 AI 자신의 성격 특성을 설정했을 때보다는 작게 나타났습니다.
Q. AI 설득 에이전트가 위험할 수도 있나요? A. 이번 연구에서 AI는 대부분 책임 있게 행동했지만, 실제 근거 없이 잘못된 의학적 조언을 제공하거나 무분별하게 설득을 이어가는 경우도 일부 발견됐다. 특히 의료·헬스케어 분야에서는 AI가 접근할 수 있는 정보의 범위와 설득 방식을 신중하게 설계해야 한다는 점이 강조된다.
기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다.
리포트명: Never say never: Exploring the effects of available knowledge on agent persuasiveness in controlled physiotherapy motivation dialogues
이미지 출처: 이디오그램 생성
해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.






