AI가 정치 전쟁에 휘말리고 있다. 챗GPT가 정치적으로 편향됐다는 경고를 받은 사람들은 같은 AI와 대화해도 설득당할 확률이 28%나 낮아진다는 연구 결과가 나왔다. 네덜란드 레이던대학교(Leiden University) 연구팀이 미국 성인 2,144명을 대상으로 진행한 실험에서, AI의 정치적 중립성에 대한 의심이 AI의 설득력을 크게 떨어뜨리는 것으로 확인됐다. 도널드 트럼프(Donald Trump) 대통령이 “AI는 진보적(woke)”이라고 주장하고, 일론 머스크(Elon Musk)가 AI의 좌파 편향을 공개적으로 비판하는 지금, 이 연구는 AI의 설득력이 정치적 맥락에 따라 얼마나 달라질 수 있는지를 실험으로 증명해 보였다.
93%가 경제 오해를 품고 있었다… 챗GPT는 얼마나 바로잡았나
연구팀은 2025년 12월부터 2026년 1월까지 미국 성인들에게 경제 정책에 대한 6가지 흔한 오해를 가지고 있는지 먼저 확인했다. “정부 예산은 가계 예산처럼 운영돼야 한다”, “임대료 규제가 경제에 도움이 된다”, “이민자가 일자리를 빼앗는다” 같은 믿음들이 대상이었다. 놀랍게도 초기 응답자의 93%가 최소 한 가지 경제 오해를 갖고 있었다.
참가자들은 이후 챗GPT와 총 3라운드의 대화를 나눴다. 실험은 네 그룹으로 나뉘었다. 아무런 정보도 받지 않은 통제 집단, 일반적인 AI 편향 경고를 받은 집단, 그리고 “챗GPT는 당신이 지지하지 않는 정당 쪽으로 편향된 데이터로 훈련됐다”는 구체적 경고를 받은 집단이었다. 가장 강력한 경고를 받은 마지막 그룹은 챗GPT 창립자 샘 올트먼(Sam Altman)이 상대 정당 정치인과 함께 찍은 사진까지 봤다. 공화당원에게는 낸시 펠로시(Nancy Pelosi) 전 하원의장, 민주당원에게는 트럼프 대통령과 함께한 사진이었다.
결과는 명확했다. 아무 경고도 받지 않은 통제 집단은 대화 후 경제 오해에 대한 동의 수준이 0~4점 척도에서 평균 1.20점 떨어졌다. 표준편차의 83.6%에 해당하는 큰 변화다. 그러나 가장 강력한 편향 경고를 받은 그룹에서는 이 설득 효과가 28% 감소했다. 짧은 메시지 하나가 AI의 설득력을 거의 3분의 1 가까이 무력화시킨 것이다.
“저쪽 편 AI 아닌가요?” 의심이 대화 방식 자체를 바꾼다
편향 경고는 단순히 사람들의 생각만 바꾸는 게 아니었다. AI와 대화하는 방식 자체를 바꿨다. 연구팀이 대화 내용을 분석한 결과, 편향 경고를 받은 사람들은 챗GPT의 주장에 더 많이 반박하고 덜 수용적인 태도로 임했다. 경고를 받지 않은 사람들이 “그렇군요, 그 점은 생각 못 했네요”처럼 반응한 반면, 경고를 받은 사람들은 “하지만 그건 한쪽 관점만 반영한 거 아닌가요?” 같은 반박을 훨씬 자주 했다.
연구팀은 이를 “신뢰성 공격(credibility attacks)”이라고 표현했다. 메시지의 내용이 아니라, 메시지를 전하는 존재에 대한 의심이 설득력을 무너뜨리는 현상이다. 친구가 식당을 추천할 때 “그 사장이 내 친구야”라는 말을 먼저 들으면 추천의 진정성을 의심하게 되는 것과 같은 원리다. 같은 AI, 같은 정보라도 사전에 심어진 의심이 대화의 흐름 전체를 바꿔버린다.
트럼프·머스크의 ‘AI 편향’ 공격이 실제 데이터로 확인된 순간
이 연구가 특히 주목받는 이유는 현재 미국 정치에서 AI의 정치적 중립성이 핵심 쟁점이 되고 있기 때문이다. 트럼프 대통령은 2025년 7월 “연방정부에서 진보적 AI 방지”라는 행정명령까지 발표했고, 머스크는 AI의 좌파 편향이 “진보적 훈련 데이터”에서 비롯된다고 공개적으로 비판해왔다. 반대로 민주당 의원들은 AI가 인간이 만든 데이터의 인종적·성별 편향을 그대로 반영한다고 지적한다.
실제로 일부 연구들은 챗GPT 같은 대형 언어 모델(LLM, Large Language Model)의 출력이 미국 정치 기준으로 좌파 성향을 띤다는 결과를 내놓기도 했다. AI 기업 경영진의 정치 기부금이 화제가 되면서, 좌파 활동가들 사이에서는 “QuitGPT(챗GPT 그만두기)” 운동까지 등장했다. 연구팀의 조사에 따르면 현재 대부분의 미국인은 아직 AI의 정치적 편향에 대해 강한 의견을 갖고 있지 않지만, 정치 엘리트들의 발언이 언론을 통해 계속 확산되면 더 많은 사람들이 AI를 의심의 눈으로 바라보게 될 것이다. 이번 연구는 그 미래가 AI의 설득력에 어떤 결과를 가져올지 선제적으로 보여준다.
AI를 “우리 편”과 “저쪽 편”으로 나누면 사회 전체가 손해를 본다
이 연구가 던지는 가장 무거운 질문은 “AI의 설득력이 정치 성향에 따라 불평등하게 작동할 수 있다”는 것이다. 보수 성향 사람들이 챗GPT를 진보 편향이라고 믿게 되면, 기후변화의 과학적 합의처럼 정확한 정보도 받아들이지 않을 가능성이 높아진다. 진보 성향 사람들이 특정 AI를 보수적이라고 여기면, 그 AI의 조언을 무시하게 될 것이다. 연구진은 이를 “AI의 인식론적 혜택이 정치 성향에 따라 불균등하게 분배될 수 있다”고 표현했다.
의료 AI가 백신에 대한 잘못된 정보를 바로잡으려 할 때, 그 AI가 정치적으로 편향됐다고 믿는 집단은 올바른 의료 정보를 받아들이지 않을 수 있다. 투자 조언, 법률 상담, 교육 콘텐츠 모두 마찬가지다. AI의 정치화는 단순히 정치 토론의 문제가 아니라, 사회 전체의 정보 접근성과 의사결정 품질에 영향을 미치는 문제다. 연구팀은 AI 개발자들에게도 명확한 교훈을 전한다. 실제 편향을 줄이는 기술적 노력만큼이나, 사용자들이 AI를 중립적으로 인식하도록 만드는 커뮤니케이션 전략이 중요하다는 것이다. 아무리 정확한 정보를 제공해도, 사람들이 그것을 믿지 않으면 소용없기 때문이다. 이번 실험에는 GPT-4.1 모델이 사용됐으며, 연구팀은 더 발전된 추론 기반 모델들도 설득력 면에서 큰 추가 이득을 주지 않는다는 다른 연구 결과를 근거로, 이 결과가 가까운 미래의 AI에도 적용될 것으로 봤다.
FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q1. 챗GPT가 정치적으로 편향되어 있나요?
A. 일부 연구에서는 챗GPT 같은 AI가 미국 정치 기준으로 좌파 성향을 띤다는 결과가 나왔지만, 다른 연구에서는 성별이나 인종 편향이 나타난다는 보고도 있습니다. 중요한 점은 실제 편향 여부와 별개로, 사람들이 AI를 편향됐다고 믿으면 그 설득력이 크게 떨어진다는 것입니다.
Q2. AI의 정치적 편향 논란이 왜 중요한가요?
A. AI가 정치적으로 편향됐다고 인식되면, 의료·경제·과학 같은 분야에서 AI가 제공하는 정확한 정보도 받아들이지 않게 됩니다. 이는 정보 접근의 불평등으로 이어져 사회 양극화를 심화시킬 수 있습니다.
Q3. AI를 더 신뢰하며 활용하려면 어떻게 해야 하나요?
A. AI 개발자들이 편향을 줄이는 기술적 노력과 함께 작동 방식을 투명하게 설명하는 것이 중요합니다. 사용자 입장에서는 AI의 답변을 무조건 믿거나 거부하기보다, 여러 출처를 확인하는 비판적 사고가 필요합니다.
기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다.
리포트명: Perceived Political Bias in LLMs Reduces Persuasive Abilities
이미지 출처: 이디오그램 생성
논문 원문 해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.






