인공지능(AI)이 우리 생활 곳곳에 퍼지면서 새로운 문제가 생기고 있다. 챗GPT 같은 AI가 실제 미국 사람들보다 73% 더 진보적인 답변을 한다는 연구 결과가 나왔고, 유튜브 같은 플랫폼의 추천 시스템은 성별에 따라 다른 영상을 보여주면서 남녀 차별을 더 심하게 만들고 있다. 한국지능정보사회진흥원이 발표한 ‘AI 편향으로 인한 사회적 갈등과 정책적 대응’ 보고서는 AI의 편향된 판단이 더 이상 기술적 실수가 아니라 사회 갈등과 극단적 대립을 키우는 구조적 문제라고 경고한다.
국민 10명 중 7명 “뉴스 안 본다”… 정치 편향 때문
한국언론진흥재단 조사에 따르면 우리나라 성인의 72%가 ‘뉴스를 일부러 안 본 적’이 있다고 답했다. 가장 보기 싫은 뉴스는 ‘국내 정치 뉴스’가 44.1%로 1위였고, 뉴스를 안 보는 이유로는 ‘정치적으로 한쪽으로 치우쳐서’와 ‘보기 싫은 사람이 나와서’를 꼽았다. 더 심각한 문제는 이런 뉴스 편향이 개인의 선택을 넘어서 맞춤형 추천 알고리즘이라는 기술 구조에 의해 더 은밀하고 체계적으로 강화되고 있다는 점이다.
챗GPT의 진보 성향도 눈여겨볼 만하다. 2025년 6월 발표된 연구에서 챗GPT가 일반 미국인인 척 답변했을 때, 진보 성향 점수가 0.725로 나왔다. 이는 미국인 평균인 0.447보다 약 73% 높은 수치다. 연구진은 정부 규모, 인종 평등, 공격적 발언 등 19개 주제로 글을 쓰게 했는데, 13개 주제(68%)에서 좌파적 입장이 강하게 나타났다고 밝혔다. 이는 AI가 단순히 정보를 전달하는 게 아니라 특정 의견을 과장하고 증폭시키는 증폭 장치 역할을 할 수 있음을 보여준다.
AI와 잠깐 대화했을 뿐인데… 정치 성향 최대 25% 바뀌어
코넬대학교 연구진의 실험은 AI가 민주주의에 미치는 위험을 실제로 보여준다. 연구 결과 AI 챗봇과 짧은 대화만 나눴는데도 사람들의 정치 후보나 정책 선호도가 기존 정치 광고보다 훨씬 크게 바뀌었다. 특히 야당 지지자들의 태도 변화는 일부 나라에서 최대 10%포인트, 영국 실험에서는 25%포인트까지 관찰됐다.
연구팀은 AI 기반 설득이 기존 정치 광고보다 강력한 이유가 ‘개인화’와 ‘상호작용성’에 있다고 설명했다. AI가 대화 과정에서 사용자의 언어 패턴, 관심사, 인지적 편향을 파악하고 개별 유권자의 심리·인지 편향에 맞춘 미세조정된 메시지를 지속적으로 제공할 가능성에 대한 문제를 제기한다. 이는 AI 기술이 단순한 정보 전달 도구를 넘어 사회적 인식과 민주적 의사 형성 과정 전체에 영향을 미칠 수 있다는 점을 보여준다.
청소년 절반이 알고리즘 영향 받아… 노인도 위험
NIA 스마트폰 과의존 실태조사에 따르면, 우리나라 청소년 10명 중 약 4명이 과의존 위험군에 해당하며, 특히 숏폼 장시간 시청에 있어 알고리즘의 영향을 경험한 청소년은 약 47.8%에 달한다. 한편 뉴스·시사정보를 많이 이용하는 소셜미디어 1순위로 유튜브를 선택한 비율은 60대 82.6%, 70대 93.1%를 기록했다. AI 역량이 부족한 고령층은 1인 미디어를 활용한 뉴스 소비에 크게 의존하고 있으며, 이는 곧 내재된 자신의 편향을 강화하는 악순환에 빠질 가능성이 있다.
스위스 비즈니스 스쿨 연구에서는 AI 도구 사용과 인지적 오프로딩(생각을 외부로 떠넘기는 현상) 간에는 강한 양의 관계가, AI 도구 사용과 비판적 사고력 간에는 강한 음의 관계가 확인됐다. 이는 AI 도구에 더 많이 의존할수록 비판적 사고력이 감소한다는 것을 의미한다. 결국 AI는 보조도구로 활용하며, 최종 판단과 의사결정은 스스로 내리는 습관을 기르는 것이 중요하다.
미국의 AI 편향 대응… 자율과 책임 병행, 이념 편향 제거로
미국은 AI 권리장전 청사진을 발표했다. 이는 백악관 과학기술정책실이 발표한 AI 윤리 지침으로써, 자동화 시스템으로 인한 잠재적 피해로부터 미국인을 보호하기 위한 5가지 원칙을 제시한다. 미국 표준기술연구소(NIST)는 AI 위험 관리 프레임워크에서 편향 관리를 명시했고, AI 편향 범주를 시스템적 편향, 통계적 및 계산적 편향, 인간-인지적 편향 3가지 영역으로 구분하여 각 영역에 대한 지침을 제시한다.
다만 최근 트럼프 정부는 AI 내의 이념적 편향 제거에 대한 행정명령을 발표했다. 해당 행정명령은 정부가 객관적이고 이념적 편향이 없는 대규모 언어모델 개발 업체와만 계약하도록 보장하는 것을 목표로 하며, 이를 위해 진실 추구와 이념적 중립성을 준수하도록 명령한다.
기술 중심 정책의 한계… “통합적 관리 필요”

보고서는 EU, 미국, 영국 등 주요 국가들의 AI 편향 대응이 기술적·규제적 접근에만 집중하고 있다고 지적한다. 기술적 안전장치나 데이터 품질 개선만으로는 학습 모델의 구조적 한계를 제거할 수 없고, 플랫폼 수준에서 추천 알고리즘 투명성이나 선택권을 제공하더라도 사용자가 AI 결과를 무비판적으로 수용하면 사회적 편향은 지속적으로 발생한다는 것이다. 따라서 기술적 안전장치, 정보환경 구조, 사용자 행동, 거버넌스가 맞물려 작동해야 AI 편향을 효과적으로 줄일 수 있다고 강조하며, ‘기술 및 데이터-플랫폼-사용자-거버넌스’ 4개 영역의 통합적 관리 체계를 제안한다.
첫째, 기술 및 데이터 영역에서는 사전 예방적 품질 관리가 필요하다. 인종, 성별, 지역, 이념 등 다양한 변수를 균형 있게 반영하는 데이터 수집 가이드라인 개발, 기업·연구 기관이 자율적으로 알고리즘 편향을 측정할 수 있는 표준화 지표와 오픈소스 도구 제공, AI 모델 출시 전 의도적 공격 시나리오를 통해 편향을 검토하는 Red Teaming 권고 등이 포함된다.
둘째, 플랫폼 영역에서는 알고리즘 투명성 및 선택권 강화가 필요하다. 플랫폼이 추천 알고리즘의 핵심 기준과 가중치를 이해하기 쉬운 언어로 제공하도록 권고하고, 최신순·무작위 순 등 알고리즘 개입 없는 콘텐츠 탐색 옵션을 제공하며, 이용자가 추천 결과에 대해 직접 피드백할 수 있는 기능을 마련해야 한다.
셋째, 사용자 영역에서는 AI 리터러시 함양이 필요하다. 추천 알고리즘 원리, 필터버블과 에코챔버 등 정보 편향 위험성을 다루는 연령별·집단별 맞춤형 교육 프로그램 개발, 국민이 ‘AI 편향’의 정의와 공정성 기준 설정 과정에 참여할 수 있는 참여형 플랫폼 마련, 이용자가 자신이 보는 콘텐츠 편향 정도를 확인할 수 있는 지표·도구 제공 등이 포함된다.
넷째, 거버넌스 영역에서는 편향 평가·관리·책임 체계 확보가 필요하다. 정부, 학계, 시민사회가 참여하는 독립 위원회를 통해 AI 시스템의 편향 여부를 정기적으로 평가·보고하고, 사회적 공론화와 전문가 검토를 통해 편향의 판단 기준을 설정·관리하며, 기업이나 기관이 만든 AI 시스템에서 편향이 발견될 경우 보고 의무와 개선 계획 제출을 규정해야 한다.
FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q1. AI 편향이란 쉽게 말해 무엇인가요?
A. AI 편향이란 인간 사회에 내재된 편견과 구조적 불균형이 AI시스템의 학습 데이터, 모델 설계, 운영 과정 전반에 반영되면서 AI의 판단이나 결과가 특정 방향으로 치우치는 현상을 말합니다. 데이터 편향, 알고리즘 편향, 사용자 편향 등 다양한 단계에서 발생하며, 정보 환경과 AI 활용 맥락에 따라 다양한 형태로 나타날 수 있습니다.
Q2. 필터버블과 에코챔버는 무슨 뜻인가요?
A. 필터버블은 개인화된 검색기술이 제공하는 웹 콘텐츠를 기반으로 개인의 지적 관점이 좁아지거나 제한되는 현상을 말합니다. 에코챔버는 유사한 성향의 사람들과 소통하면서 자신의 가치관과 다르거나 반대되는 관점을 차단하고 스스로 선호하는 관점만을 반복적으로 수용하고 소비하는 정보 환경을 의미합니다.
Q3. AI 편향으로부터 어떻게 나를 보호할 수 있나요?
A. A는 보조 수단으로 활용하되, 최종 판단과 의사 결정은 스스로 내리는 습관을 기르는 것이 중요합니다. 출처를 확인하고, 알고리즘 편향 가능성을 인식하며, AI 없이 창작하는 시간을 가지는 것이 유용합니다. 또한 추천 알고리즘에만 의존하지 않고 다양한 관점의 정보를 능동적으로 찾아보며, AI·디지털 리터러시 교육을 통해 비판적 사고 능력을 키우는 것이 필요합니다.
해당 기사에 인용된 리포트 원문은 한국지능정보원에서 확인 가능하다.
리포트명: AI·디지털 이슈 공론화 리포트 3호 – AI 편향으로 인한 사회적 갈등과 정책적 대응
이미지 출처: 한국지능정보원
해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.





![[12월 24일 AI 뉴스 브리핑] RECORD X, AI 제작 다큐 '트랜스휴먼' 방송 콘텐츠 대상 수상 외](https://aimatters.co.kr/wp-content/uploads/2025/12/AI-매터스-기사-썸네일-12월-24일-AI-뉴스-브리핑.jpg)
