Search

카카오, AI 안전성 강화위한 ‘AI Safety Initiative’ 공개

카카오
이미지: 카카오

카카오가 AI 기술의 안전한 개발과 운영을 위한 ‘AI Safety Initiative’를 발표했다. 이는 글로벌 AI 규제 환경에 대응하고 윤리적이고 안전한 AI 생태계를 구축하기 위한 종합적인 관리 체계다.

카카오의 AI 안전 관리 체계는 ‘AI 윤리 원칙’, ‘리스크 관리 사이클’, ‘AI 리스크 거버넌스’ 3가지 핵심 요소로 구성됐다. AI 윤리 원칙은 사회 윤리, 비차별과 비편향, 포용성 등 9가지 원칙을 포함하며, 리스크 관리 사이클은 위험 식별부터 평가, 대응까지의 전 과정을 관리한다.

카카오는 AI 시스템의 리스크를 기술적 리스크와 윤리적 리스크로 구분해 관리한다. 기술적 리스크는 모델 불완전성과 통제 불가능 리스크를, 윤리적 리스크는 악의적 사용과 부주의로 인한 리스크를 포함한다. 각 리스크는 Low/Medium/High 등급으로 분류되며, High 등급 리스크가 있을 경우 출시가 제한된다.

카카오는 2024년 4월 AI얼라이언스(AI Alliance)에 가입해 글로벌 기업들과 AI 안전성 협력을 강화하고 있다. 트러스트&세이프티(Trust & Safety) 워킹그룹에 참여해 국제 표준 정립에 기여하고 있으며, 학계와 스타트업 등 외부 전문가들과의 협력도 확대할 계획이다.

김경훈 카카오 AI세이프티(AI Safety) 리더는 “카카오 AI세이프티이니셔티브(ASI)는 ‘AI 서울 서밋(AI Seoul Summit)’에서 선언한 ‘서울 AI 기업 서약’의 실천”이라며 “글로벌 수준의 AI 리스크 관리 체계를 통해 안전한 AI 생태계 조성에 기여하겠다”고 밝혔다.

기사에 인용된 카카오의 기사 원문은 링크에서 확인할 수 있다.




카카오, AI 안전성 강화위한 ‘AI Safety Initiative’ 공개 – AI 매터스 l AI Matters