Search

생성형 AI가 인간 토론 과정에서 중재도 한다?

AI can help humans find common ground in democratic deliberation
이미지 출처: 미드저니 생성

AI can help humans find common ground in democratic deliberation

AI 중재자, 인간보다 더 나은 합의문 작성 능력 입증

구글 딥마인드(Google DeepMind) 연구진이 개발한 AI 중재 시스템 ‘하버마스 머신(Habermas Machine)’이 민주적 토론 과정에서 인간 참여자들의 공통 기반을 찾는 데 도움을 줄 수 있음이 실험을 통해 확인됐다. 연구진은 5,000명 이상의 영국 참가자들을 대상으로 일련의 실험을 진행했다.

실험 결과, AI가 생성한 합의문은 인간 중재자가 작성한 것보다 참가자들로부터 더 높은 지지를 받았다. 구체적으로 AI 합의문은 56%의 선호도를 보인 반면, 인간 중재자의 합의문은 44%의 선호도를 기록했다. 이는 AI가 인간 수준의 복잡한 중재 작업을 성공적으로 수행할 수 있음을 보여주는 결과다.

외부 평가자들도 AI 생성 합의문이 질적으로 우수하고 명확하며 정보성이 높고 공정성 면에서도 뛰어나다고 평가했다. 특히 AI 합의문이 더 명확하고 정보성이 높으며(b = 0.449, SE = 0.14, z score = 3.26, P = 0.001), 논리적 오류가 적고(b = -0.26, SE = 0.11, z score = -2.28, P = 0.022), 다수의 관점을 잘 포착했다(b = 0.225, SE = 0.11, z score = 2.08, P = 0.037)는 평가를 받았다.

AI 중재로 그룹 내 의견 차이 감소, 소수 의견도 반영

AI 중재를 통한 토론 후, 참가자들의 입장이 수렴하는 경향을 보였다. 연구진은 ‘그룹 동의 지수(group agreement index)’라는 지표를 사용해 이를 측정했다. 이 지수는 특정 주장에 동의하는 참가자 비율과 반대하는 비율의 차이를 나타낸다. 실험 결과, AI 중재 토론 후 그룹 동의 지수가 평균 8퍼센트 포인트 증가했다.

이는 단순히 다른 사람들의 의견을 듣는 것만으로는 나타나지 않았던 효과다. 연구진은 다른 참가자들의 의견만 공유하고 AI 중재는 없는 대조군 실험을 진행했는데, 이 경우 그룹 동의 지수의 유의미한 변화가 관찰되지 않았다.

AI는 다수 의견을 존중하면서도 소수 의견을 반영하는 균형 잡힌 중재 능력을 보여줬다. 연구진은 텍스트 임베딩 기술을 활용해 AI 합의문이 개별 의견들을 어떻게 반영하는지 분석했다. 그 결과 초기 합의문에서는 소수 의견이 그 비율만큼 정확히 반영됐고, 수정된 합의문에서는 오히려 소수 의견이 과대 대표되는 경향을 보였다.

연구진은 “하버마스 머신은 다수의 ‘폭정’을 피하면서 반대 의견을 일관되게 반영했다”고 설명했다. 이는 AI가 공정한 중재자 역할을 수행할 수 있음을 시사한다.

실제 시민 의회에서도 AI 중재 효과 입증

연구팀은 영국 인구 구성을 대표하는 200명의 참가자들로 가상 시민 의회를 구성해 AI 중재 토론을 진행했다. 참가자들은 3주에 걸쳐 매주 1시간씩 온라인으로 모여 9개의 쟁점 사안에 대해 토론했다.

그 결과 이민, 은퇴 연령, 수감자 수, 브렉시트, 기후 변화 등 9개 주제 중 5개에서 의견 수렴 현상이 관찰됐다. 특히 “수감자 수를 줄여야 한다”는 입장에 동의하는 비율이 토론 전 60%에서 토론 후 75%로 증가했고(b = 0.58, SE = 0.13, t(883) = 4.1, P < 0.001), “영국은 망명 신청자의 입국을 더 쉽게 해야 한다”는 주장에 동의하는 비율도 39%에서 51%로 늘어났다(b = 0.51, SE = 0.13, t(886) = 3.8, P < 0.001).

또한 국가 자긍심 고취, 최저임금 인상, 탄소중립 달성 등의 주장에 대한 지지도 소폭 증가했다. 반면 브렉시트와 같이 의견이 첨예하게 대립하는 주제에서는 유의미한 변화가 관찰되지 않았다.

연구진은 이러한 의견 수렴이 AI의 편향 때문이 아님을 확인했다. AI가 특정 입장을 지지하는 합의문을 더 많이 생성했다고 해서 참가자들의 의견이 그 방향으로 이동하지는 않았다는 것이다. 이는 AI 중재가 실제로 의미 있는 토론을 촉진했음을 시사한다.

AI 중재의 장점과 향후 과제

연구진은 AI 중재 방식이 시간 효율성, 공정성, 확장성 면에서 장점이 있다고 평가했다. AI는 인간 중재자보다 훨씬 빠르게 고품질 합의문을 작성했고, 각 참가자의 의견을 동등하게 반영했으며, 이론적으로는 수백 명의 대규모 토론도 중재할 수 있다.

특히 연구진은 최신 대규모 언어 모델을 활용하면 천 명 이상의 의견도 처리할 수 있을 것으로 전망했다. 이는 기존의 대면 토론이나 시민 의회가 가진 규모의 한계를 극복할 수 있는 가능성을 제시한다.

다만 연구진은 AI의 한계도 인정했다. 현재 AI는 사실 확인이나 주제에서 벗어난 토론을 제어하는 능력이 부족하다. 또한 인간 참가자들의 의견이 부적절하거나 해로운 내용을 담고 있다면 AI도 그러한 내용을 반영한 결과물을 생성할 수 있다.

따라서 실제 활용 시에는 전문가 증언 등 다른 요소들과 결합된 더 큰 토론 과정의 일부로 AI를 활용해야 한다고 조언했다. 또한 다양한 이해관계자들이 균형 있게 참여할 수 있도록 신중하게 참가자를 선정하는 것도 중요하다고 강조했다.

이번 연구 결과는 AI가 계약 협상, 갈등 해결, 배심원 평의, 외교 협상, 헌법 제정 등 다양한 분야에서 합의 도출에 도움을 줄 수 있는 가능성을 보여준다. 연구진은 “하버마스 머신은 점점 더 분열되는 세상에서 합의를 이루고 집단 행동을 촉진하는 유망한 도구”라고 결론지었다.

다만 연구진은 AI가 정치 과정에 개입하는 것에 대한 우려도 있을 수 있음을 인정했다. 일부 사람들은 정치적, 사회적 아이디어를 컴퓨터가 생성한다는 개념 자체에 반대할 수 있다는 것이다. 따라서 AI 중재 시스템의 실제 도입을 위해서는 사회적 합의와 신중한 접근이 필요할 것으로 보인다.

기사에 인용된 리포트 원문은 링크에서 확인할 수 있다.

기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. 




생성형 AI가 인간 토론 과정에서 중재도 한다? – AI 매터스 l AI Matters