디지털 규범과 AI의 공존: 다자간 학술 네트워크를 통해 조망하는 포용적 디지털 사회
챗지피티(ChatGPT)와 같은 생성형 AI의 폭발적 확산이 디지털 사회의 새로운 전환점을 만들고 있다. 한국지능정보원(NIA)이 발표한 2025년 디지털 규범 이슈 리포트에 따르면, 생성형 AI 기술은 교육, 의료, 법률 자문 등 다양한 분야에서 활용되고 있지만, 동시에 허위 정보 확산과 윤리적 논란도 증가하고 있다. 보고서는 북미에서 허위 뉴스와 가짜 이미지가 대중을 혼란스럽게 만들며 정보 신뢰성을 보장하기 위한 규제가 필요해졌다고 분석했다. 또한 AI와 자동화 기술이 직업 구조에 급격한 변화를 가져오면서 일자리 대체 문제가 대두되고 있으며, 유럽에서는 플랫폼 노동이 확대되면서 노동자 권리 보호를 위한 새로운 규범이 필요하다는 요구가 증가하고 있다고 전했다.
특히 생성형 AI가 대량의 데이터를 기반으로 작동하면서 개인 데이터 보호 문제가 부각되고 있다. 유럽의 일반데이터보호규정(GDPR)이 데이터 보호의 모범 사례로 평가받지만, AI 기술 발전으로 인해 기존 규정의 보완 필요성이 제기되고 있다.
이세돌-알파고 이후 7년, 한국의 ‘AI 윤리기준’과 ‘디지털 권리장전’이 글로벌 모범 사례로
한국은 2016년 이세돌-알파고 바둑 대전 이후 AI 기술 진보에 따른 환경 변화에 적시에 대응해 왔다. 2019년 ‘인공지능 국가전략’을 수립하며 ‘사람 중심의 인공지능 구현’을 3대 전략 중 하나로 제시했고, 2020년에는 정부, 기업, 이용자 등 사회 구성원이 AI 개발 및 활용 전 단계에서 지켜야 할 원칙을 규정한 국가 AI 윤리기준을 수립했다.
이 윤리기준은 ‘인간성을 위한 AI(AI for Humanity)’를 위해 인간 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙이라는 3개 기본원칙과 인권 보장, 프라이버시 보호, 다양성 존중 등 10대 요건을 제시했다. 2021년에는 ‘신뢰할 수 있는 AI 구현 전략’을 통해 AI의 신뢰성 확보와 민간 기업들의 자율적 윤리 기준 준수를 유도하는 구체적인 정책을 마련했다.
2023년 한국 정부는 뉴욕구상을 발전시켜 새로운 디지털 질서 기본방향으로서 「디지털 권리장전」을 발표했다. 뉴욕구상은 뉴욕대학교 디지털 비전포럼에서 발표된 것으로, 디지털 기술을 통해 인류의 보편적 가치를 실현하려는 목표를 제시했다.
이 장전은 국제사회가 추구할 모범적인 미래상을 제시하며 자유와 권리 보장, 공정한 접근과 기회의 균등, 안전과 신뢰 확보, 디지털 혁신 촉진, 인류 후생의 증진이라는 5대 기본원칙을 규정했다.
유럽 vs 미국 vs 한국, 서로 다른 AI 규제 철학과 글로벌 표준 통합의 도전
옥스퍼드대학교(Oxford University)와 데모스(Demos), 브리티시컬럼비아대학교(UBC), 토론토대학교(University of Toronto) 등 주요 연구기관들이 수행한 디지털 규범 연구에 따르면, 각국의 디지털 규범 접근 방식에는 상당한 차이가 존재한다. 유럽연합(EU)은 GDPR과 AI Act와 같은 엄격한 법적 규제를 통해 데이터 보호와 AI 안전성을 강화하며 인권과 공정성 중심의 규범 형성이 특징이다. 반면 북미는 민간 주도의 디지털 규범 접근 방식이 뚜렷하며 기술 혁신과 자유 시장 원칙을 중시하고 데이터 활용의 자율성과 개인 책임을 강조한다.
한국은 AI 윤리기준과 디지털 포용성 강화에 초점을 맞추며 정부 주도의 규범 형성이 두드러지는 특징을 보인다. 특히 공공 데이터 접근과 디지털 소외 계층 보호 정책이 강조되고 있다. 보고서는 이러한 국가별 규범 차이를 조화시키기 위해 경제협력개발기구(OECD) AI 원칙, G20 디지털 협력, 유네스코(UNESCO) AI 윤리 선언 등 글로벌 협력과 표준화가 필요하다고 강조했다.
전 세계 26억 명 인터넷 접근 불가, 한국 고령층 디지털 활용률 30%에 그쳐
디지털 기술의 발전과 사회적 정의 간의 균형을 맞추는 것이 디지털 규범의 핵심 과제로 부상하고 있다. 보고서에 따르면 디지털 기술이 모든 사회 계층에 동등하게 혜택을 제공하지 못하면서 디지털 소외 계층의 문제가 심화되고 있다. 국제전기통신연합(ITU)에 따르면 2023년 기준 전 세계 인터넷 접근성이 26억 명이 인터넷에 접근하지 못하고 있으며, 저소득 국가와 고소득 국가 간 디지털 접근성 격차는 20배 이상으로 나타났다. 한국의 경우 고령층 대상 디지털 기기 활용률은 30%로, 청년층(90% 이상)과 큰 격차를 보이고 있다.
이러한 디지털 접근성 부족은 교육, 직업 기회, 금융 서비스 등에서 소외를 가중시킨다. 코로나19 팬데믹 동안 온라인 학습에 참여하지 못한 학생들의 학업 격차가 확대된 사례가 대표적이다. 또한 디지털 기술을 활용하지 못하는 고령층과 장애인은 일상생활에서 점점 고립되고 있다. 보고서는 디지털 소외 계층을 지원하는 것이 단순히 기술 접근성을 높이는 것을 넘어 사회적 포용과 경제적 잠재력을 실현하며 디지털 기술의 공정성과 신뢰성을 강화하는 데 핵심적인 과제라고 강조했다. 이를 위해 디지털 인프라 확충, 접근성 지원 정책, 디지털 리터러시 강화, 공공-민간 협력을 통한 포괄적이고 지속 가능한 해결책을 마련해야 한다고 제안했다.
클리어뷰AI 무단수집 논란으로 본 AI 학습데이터 투명성 확보의 필요성
AI 시스템의 성능과 공정성은 학습 데이터의 품질과 투명성에 크게 의존한다. 현재 많은 AI 시스템이 편향되거나 불완전한 데이터를 사용하여 학습하고 있어 윤리적 문제와 신뢰성 저하로 이어지고 있다. 보고서에 따르면 AI가 특정 집단을 대표하지 못하는 데이터로 학습할 경우 편향이 발생한다. 예를 들어 의료 AI가 백인 남성 데이터를 중심으로 학습하여 소수 인종이나 여성 환자에 대해 부정확한 진단 결과를 제공하는 사례가 있었다. 데이터 라벨링 과정에서 발생하는 오류도 AI 학습 결과에 부정적인 영향을 미친다.
학습 데이터의 출처가 불분명하거나 불법적으로 수집된 경우 데이터 품질과 윤리적 기준을 보장하기 어렵다. 클리어뷰AI(Clearview AI)의 인터넷 이미지 무단 수집 사례는 데이터 윤리와 법적 기준의 부재를 보여주는 대표적인 사례다. 보고서는 AI 학습 데이터의 투명성과 품질 개선을 위해 다양성 확보, 투명성 강화, 정기적인 데이터 감사와 같은 다각적인 접근이 필요하다고 제안했다. 국제 협력과 기술 혁신이 결합될 때 AI 기술은 편향을 최소화하고 공정한 사회를 구축하는 데 기여할 수 있다고 강조했다.
FAQ
Q: 생성형 AI가 확산되면서 나타나는 주요 윤리적 문제는 무엇인가요?
A: 생성형 AI의 주요 윤리적 문제로는 허위 정보와 가짜 이미지 생성을 통한 정보 신뢰성 훼손, 개인 데이터 무단 사용으로 인한 프라이버시 침해, 편향된 데이터 학습으로 인한 차별적 결과 도출 등이 있습니다. 이를 해결하기 위해 투명성, 공정성, 책임성을 강화하는 윤리적 기준이 필요합니다.
Q: 한국의 디지털 권리장전이 다른 나라와 다른 특징은 무엇인가요?
A: 한국의 디지털 권리장전은 정부 주도의 포용적 접근 방식이 특징입니다. 자유와 권리 보장뿐만 아니라 디지털 소외 계층 보호와 공공 데이터 접근성 확대에 중점을 두며, 기술 혁신과 사회적 가치를 조화롭게 발전시키려는 균형 잡힌 접근을 추구합니다.
Q: AI 시스템의 편향을 방지하기 위한 방법은 무엇인가요?
A: AI 편향 방지를 위해서는 다양한 집단을 대표하는 균형 잡힌 학습 데이터 확보, 데이터 수집과 라벨링 과정의 투명성 강화, 정기적인 알고리즘 감사와 편향성 검토, 설명 가능한 AI(XAI) 기술 도입을 통한 의사결정 과정 공개 등이 필요합니다.
해당 기사에 인용한 리포트 원문은 한국지능정보원에서 확인 가능하다.
이미지 출처: 이디오그램 생성
해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.