MITIGATING SOCIETAL COGNITIVE OVERLOAD IN THE AGE OF AI
: CHALLENGES AND DIRECTIONS
경고: 딥페이크와 필터 버블로 침식되는 사회적 인지 능력
아랍에미리트 Mohamed bin Zayed 인공지능대학교(MBZUAI)의 연구자 Salem Lahlou가 발표한 연구에 따르면, 현대 사회는 디지털 시대의 정보 홍수와 인공지능(AI) 기술의 급속한 확산으로 ‘사회적 인지 과부하(societal cognitive overload)’라는 새로운 위기에 직면해 있다. 사회적 인지 과부하는 단순한 개인 차원의 정보 과부하를 넘어, 사회 전체가 정보와 복잡성을 처리하는 능력이 한계에 도달한 상태를 의미한다. 이는 개인, 기관, 심지어 정부 차원에서 AI 기반 시스템을 탐색하는 과정에서 발생하는 인지적 부담으로 인해 합리적 의사결정 능력이 저하되는 현상으로 나타난다.
이러한 사회적 인지 과부하는 세 가지 핵심 영역에서 뚜렷하게 나타난다. 정보 영역에서는 AI가 생성한 딥페이크와 알고리즘으로 큐레이션된 필터 버블, 허위정보 캠페인이 공통의 사실 기반을 침식시키고 있다. 도덕적 영역에서는 사회가 알고리즘 시스템의 공정성을 정의하고 자동화 시대의 인간 주체성과 책임에 관한 근본적인 윤리적 질문을 해결하기 위해 고군분투하고 있다. 시스템 영역에서는 AI 주도의 상호연결성과 인간 의사결정 능력의 잠재적 약화가 사회 시스템의 취약성을 가중시키고 있다.
더욱 우려되는 점은 이러한 인지 과부하가 현재의 문제를 해결하는 능력을 저하시킬 뿐만 아니라, AI 안전과 잠재적 실존적 위험에 관한 장기적 함의를 다루는 능력도 약화시킨다는 것이다. 쿨베이트(Kulveit) 등의 연구에 따르면, 점진적인 AI 발전이 인간의 노동과 인지를 사회 시스템 전반에서 대체함으로써 ‘점진적 무력화(gradual disempowerment)’라는 또 다른 위험을 초래할 수 있다고 경고한다.
독이 되는 AI, 약이 되는 AI: 알고리즘 조작과 인간 중심 설계의 갈림길
AI 기술은 인지 과부하의 원인이자 동시에 잠재적 해결책으로 작용한다. 과부하 측면에서 AI는 참여 중심의 필터 버블에 사용자를 가두는 알고리즘 조작, 노동 시장을 교란시키는 자동화, 책임을 지지 않는 플랫폼에 권력을 집중시키는 불투명한 시스템으로 문제를 악화시킨다. 반면, AI는 정보 필터링이나 의사결정 지원을 위한 도구를 통해 인간의 인지를 향상시킬 잠재력도 가지고 있다. 그러나 이는 사회적 회복력을 이윤 동기보다 우선시하는 방향으로 설계되어야만 가능하다. 이러한 가능성을 실현하기 위해서는 인간 중심의 AI 설계가 필수적이다.
말론(Malone)의 연구에 따르면, AI는 ‘초지능(superminds)’으로서 집단 지능을 증폭시키는 협업 시스템의 역할을 할 수 있다. 이를 위해 AI 도구는 맥락을 인식하고, 개인의 인지 능력에 적응하며, 인간 주체성을 우선시해야 한다. 효과적인 인간 중심 AI 도구의 개발은 기술적, 설계적 과제를 함께 해결해야 한다.
“무엇이 공정한가”: AI가 강제하는 불편한 사회적 질문들과 ‘인지 엘리트’ 위험성
AI의 부상은 역설적으로 오랫동안 미뤄왔던 근본적인 사회적 질문들을 마주하게 만든다. 사회적 안정기에는 정의, 형평성, 실존적 위험에 관한 불편한 질문들을 직면하지 않을 수 있었지만, AI의 변혁적 힘과 인지 과부하의 심화로 이러한 ‘묻혀있던 질문들’이 새로운 긴급성을 띠고 부상하고 있다. 알고리즘 시스템에서 정의를 정의하는 문제는 대표적인 예이다. 미텔슈타트(Mittelstadt) 등의 연구에 따르면, 공정성 메트릭 간의 충돌은 공정성이 가치 의존적임을 드러낸다. 인지 과부하는 윤리적 담론을 마비시키지만, 동시에 이러한 질문들을 다룰 사회적 필요성을 증폭시킨다. 쌍방향 조율을 위한 가치 합의 없이는 AI가 인간 이익과 조화를 이루는 것이 불가능하며, 이는 사회적 불안과 과부하를 악화시킨다.
자동화 경제에서의 불평등 문제도 AI가 직면하게 하는 중요한 질문이다. 아세모글루(Acemoglu)와 로빈슨(Robinson)은 ‘왜 국가는 실패하는가’에서 ‘추출적’ 제도와 ‘포용적’ 제도를 구분했는데, AI 주도 경제에서 이 구분은 더욱 중요해진다. AI는 부와 권력을 좁은 ‘인지 엘리트’ 집단에 집중시키는 추출적 제도를 강화할 위험이 있다.
2025년 디지털 생존 전략: 독립 감독 기관부터 참여형 거버넌스까지, 인지 지속성 확보 방안
사회적 인지 과부하 문제 해결은 단순한 개인 차원의 부담 경감이 아닌, AI와 인간 가치의 의미 있는 쌍방향 조율을 위한 전제 조건이다. 이를 위해 여러 잠재적 방안이 제시되고 있다. 독립적인 AI 윤리 및 감독 기관의 개발은 고위험 AI 시스템의 투명성과 공정성을 보장하기 위한 감사를 수행하고, AI 개발 및 배포에 대한 윤리적 지침을 개발하며, AI 위험과 이점에 관한 정보 및 교육을 위한 공공 자원으로 기능할 수 있다. 또한 디지털 리터러시와 인지 회복력을 위한 센터에 투자하여 비판적 사고와 미디어 리터러시에 초점을 맞춘 교육과정을 개발하고, 마음챙김 기술 사용과 과부하 관리에 대한 훈련을 제공하는 것이 필요하다.
참여형 AI 거버넌스를 강화하기 위해 정보에 기반한 공공 숙의를 위한 온라인 플랫폼을 만들고, AI 정책 문제에 대한 시민 의견을 수집하며, AI 시스템에 대한 시민 피드백과 감독 채널을 제공하는 방안도 고려해야 한다. 강력한 학제간 연구 의제를 통해 서로 다른 AI 시스템의 인지적, 심리적 영향을 정량화하고, 취약 집단과 특정 인지적 취약성을 식별하며, 사회적 인지 과부하와 회복력을 측정하는 메트릭을 개발해야 한다. 또한 인간 중심 및 과부하 회복력이 있는 AI를 위한 설계 원칙을 개발하여 인지 부하를 최소화하고 인간 주체성을 극대화하는 AI 도구를 위한 설계 지침을 수립해야 한다.
궁극적으로 인간-AI 조율의 미래는 기술적 발전뿐만 아니라 인지적으로 지속 가능하고 윤리적으로 견고한 관계를 구축하는 능력에 달려 있다. 사회적 인지 과부하 문제를 해결함으로써 AI 시대의 복잡성을 헤쳐나가고, 점점 더 강력해지는 인공지능과 함께 인지적으로 지속 가능한 인간 사회가 번영할 수 있는 미래를 보장할 수 있을 것이다.
FAQ
Q: 사회적 인지 과부하란 무엇이며 왜 중요한가요?
A: 사회적 인지 과부하는 개인, 기관, 정부가 AI 시대의 방대한 정보와 복잡성을 처리하는 데 압도당하는 상태를 말합니다. 이는 현재의 문제 해결 능력을 저하시킬 뿐만 아니라, AI 안전과 잠재적 위험을 다루는 장기적 능력도 약화시키기 때문에 중요합니다. 인지 과부하를 해소하는 것은 인간과 AI의 조화로운 발전을 위한 전제 조건입니다.
Q: AI가 인지 과부하를 악화시키는 주요 방식은 무엇인가요?
A: AI는 알고리즘 조작과 편향, 노동 시장 자동화로 인한 불안감, 인간 주체성의 약화, 규제 완화와 이윤 동기, 그리고 실존적 불확실성을 통해 인지 과부하를 악화시킵니다. 특히 참여 중심의 알고리즘은 필터 버블을 만들고, 자동화는 직업 불안을 가중시키며, AI 의존성 증가는 인간의 비판적 사고 능력을 약화시킵니다.
Q: 인지 과부하 문제를 해결하기 위한 실질적인 방안은 무엇이 있나요?
A: 인지 과부하 해소를 위해서는 독립적인 AI 윤리 감독 기관 설립, 디지털 리터러시 교육 강화, 참여형 AI 거버넌스 구축, 학제간 연구 추진, 인간 중심 AI 설계 원칙 개발, 알고리즘 투명성 강화, 주의 경제 개혁, 그리고 자동화 시대에 대비한 강력한 노동 및 사회 안전망 구축 등의 다층적 접근이 필요합니다.
해당 기사에서 인용한 논문 원문은 링크에서 확인할 수 있다.
이미지 출처: 챗gpt 생성
기사는 클로드와 챗GPT를 활용해 작성되었습니다.