인공지능(AI) 기술의 급속한 발전으로 AI 안전성에 대한 우려가 커지고 있는 가운데, 스탠퍼드대학교 연구팀이 기업과 정부의 AI 정책을 종합 분석해 314개의 위험 유형을 담은 ‘AIR 2024’ 분류체계를 발표했다. 이 연구는 AI 위험에 대한 포괄적인 이해와 효과적인 규제 방안 마련에 큰 도움이 될 것으로 기대된다.
기업과 정부 정책 통합 분석
이번 연구는 OpenAI, 구글(Google), 메타(Meta) 등 9개 주요 AI 기업의 16개 정책과 미국, 유럽연합(EU), 중국의 8개 정부 정책을 분석해 AI 위험을 체계적으로 분류했다. 연구진은 “기존의 AI 위험 분류는 대부분 50개 미만의 카테고리로 구성돼 있어 세부적인 위험을 파악하기 어려웠다”며 “AIR 2024는 314개의 구체적인 위험 유형을 제시해 AI 안전 정책 수립에 실질적인 도움이 될 것”이라고 밝혔다.
AIR 2024의 구조
AIR 2024는 AI 위험을 ▲시스템 및 운영 위험, ▲콘텐츠 안전 위험, ▲사회적 위험, 법적 및 권리 관련 위험 등 4개의 대분류로 나누고 각 대분류 아래 2단계, 3단계, 4단계로 세분화돼 구체적인 위험 유형을 제시하고 있다. 예를 들어 ‘콘텐츠 안전 위험’ 아래에는 ‘폭력 및 극단주의’, ‘혐오/유해성’, ‘성적 콘텐츠’, ‘아동 위해’, ‘자해’ 등의 중분류가 있고, 그 아래 더 구체적인 위험 유형들이 나열되어 있다.

개인정보 침해, 민감 정보 유출, 불법 행위에 대한 인식, 대부분 기업 공유
연구진은 기업들의 정책을 분석한 결과, 개인정보 침해, 민감 정보 유출, 불법 행위 등에 대한 위험 인식은 대부분의 기업이 공유하고 있었다고 밝혔다. 특히 ‘괴롭힘(Harassment)’, ‘고통 찬양(Celebrating Suffering)’, ‘성적 콘텐츠 상업화(Monetized Sexual Content)’, ‘아동 성적 학대(Child Sexual Abuse)’ 등의 위험 카테고리는 거의 모든 기업 정책에서 다루고 있었다.
반면, ‘노동자 권리 침해(Disempowering Workers)’와 같은 일부 위험에 대해서는 언급이 거의 없었다. 연구진은 “이는 AI가 노동 시장에 미칠 수 있는 부정적 영향에 대한 기업들의 인식이 아직 부족함을 보여준다”고 설명했다.
기업별로는 딥시크(DeepSeek), 앤트로픽(Anthropic), OpenAI, 스태빌리티 AI(Stability AI)가 가장 많은 위험 카테고리를 다루고 있었으며, 전체 3단계 위험 카테고리의 70% 이상을 포함하고 있었다.
기업 정책이 정부 정책보다 포괄적인 위험 유형 담아
정부 정책의 경우, EU의 AI법(AI Act)과 미국의 AI 행정명령, 중국의 생성형 AI 규제 등을 분석했다. 연구진은 “정부 규제가 기업 정책에 비해 더 포괄적일 것이라는 일반적인 인식과 달리, 실제로는 기업 정책이 더 많은 위험 유형을 다루고 있었다”고 설명했다.
EU의 AI법은 ‘자동화된 의사결정’, ‘취약계층 착취’, ‘데이터 프라이버시’ 등에 중점을 두고 있었다. 미국의 AI 행정명령은 ‘노동자 권리’, ‘공정성’, ‘투명성’ 등을 강조했으며, 특히 ‘노동자 권리 침해’ 카테고리는 미국 정책에서만 명시적으로 다뤄졌다. 중국의 규제는 ‘사회 질서 교란’, ‘국가 이익 훼손’ 등 다른 국가에서는 볼 수 없는 독특한 위험 카테고리를 포함하고 있었다.
AI 안전 정책에 대한 글로벌 협력 가능성
이 연구는 AI 안전 정책의 글로벌 협력 가능성도 제시했다. EU, 미국, 중국의 정책에서 공통으로 언급된 7개의 위험 카테고리가 발견됐는데, 여기에는 ‘자동화된 의사결정’, ‘시스템의 안전하지 않은 자율 운영’, ‘고도로 규제된 산업에서의 조언’, ‘불공정 시장 관행’, ‘허위 표현’, ‘특정 권리 침해’, ‘무단 개인정보 침해’, ‘민감 정보 유형’, ‘차별적 활동’, ‘기타 불법/범죄 활동’ 등이 포함됐다.
연구진은 “이러한 공통 관심사는 국제적인 AI 거버넌스 프레임워크 구축의 출발점이 될 수 있다”고 설명했다.
기업, 정부, 국가간 AI 안전 논의해야
연구를 주도한 이정(Yi Zeng) 교수는 “AIR 2024가 AI 위험에 대한 공통의 언어를 제공함으로써, 기업과 정부, 그리고 국가 간 AI 안전 논의를 더욱 구체화하고 효율적으로 만들 수 있을 것”이라고 연구의 의의를 설명했다.
또한 연구진은 몇 가지 중요한 시사점을 도출했다.
- AI 위험 분류에 있어 더 많은 카테고리를 포함하는 것이 매우 유용할 수 있다. 수백 개의 카테고리를 포함하는 상세한 분류체계는 정책 입안자들과 업계 연구자들이 향후 AI 정책을 수립할 때 큰 도움이 될 수 있다.
- 정부의 AI 규제가 일반적으로 알려진 것만큼 광범위하지 않을 수 있다. EU AI법과 미국 AI 행정명령의 면밀한 검토 결과, 기초 모델 개발자들에 대한 요구사항이 상대적으로 적다는 것을 발견했다.
- 다양한 국가의 규제 이니셔티브를 고려하는 것이 AI 안전 분석을 크게 향상시킬 수 있다. 미국, EU, 중국의 규제와 정책을 포함함으로써 다국적 기업이 직면한 규제 환경과 AI 안전에 대한 글로벌 협력 기회를 더 잘 평가할 수 있었다.
한편 이번 연구 결과는 AI 안전 정책이 빠르게 변화하고 있는 만큼, 지속적으로 업데이트될 예정이다. 연구진은 “향후 더 많은 국가의 정책을 분석에 포함시키고, AI 기술의 발전에 따라 새롭게 등장하는 위험 유형들도 지속적으로 반영할 계획”이라고 밝혔다
스탠퍼드대학의 연구 논문은 링크에서 확인할 수 있다.
본 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.
관련 콘텐츠 더보기