2024 Kakao ESG Report
카카오는 2024년 ESG 보고서를 통해 인공지능(AI) 기술의 안전성과 신뢰성을 확보하기 위한 관리 체계를 본격적으로 강화했다고 밝혔다. 특히 카카오는 AI 개발 및 운영 과정에서 발생할 수 있는 위험 요소를 사전에 식별하고 대응하기 위해 ‘카카오 AI 세이프티 이니셔티브(Kakao AI Safety Initiative, ASI)’를 도입했다.
이 체계는 전사적 협업을 바탕으로 AI 정책을 수립하고, 외부 이해관계자와의 협력을 통해 기술 윤리와 투명성을 확보하는 것을 목표로 한다. 2024년에는 카카오 및 주요 계열사의 기술 윤리 활동을 집대성한 ‘2024 그룹 기술윤리 보고서’도 최초로 발간하며, AI 기술이 사회에 미치는 영향을 적극 관리하고자 하는 의지를 나타냈다.
머신러닝으로 사기·욕설 잡는다… 세이프봇·안티어뷰징 시스템 성과
카카오는 AI 기술을 실질적인 플랫폼 안전 강화에 적용하고 있다. 대표적으로 카카오톡 서비스에는 ‘안티어뷰징 시스템’을 적용해 비정상적인 이용 패턴을 자동 감지하고 보호조치를 실행한다. 이 시스템은 최신 머신러닝 기법을 도입해 탐지 정확도를 높이고 있으며, 이용자의 프라이버시를 보호하기 위해 대화 내용은 분석 대상에서 제외한다.
또한 댓글 영역에서는 ‘세이프봇(SafeBot)’을 활용해 욕설, 비속어, 혐오표현 등 유해 콘텐츠를 자동 필터링하고 삭제하는 기술이 적용되고 있다. 2024년에는 세이프봇을 통한 자동 삭제 비율이 2.5%로 상승했으며, 이용자 신고에 의한 삭제 비중은 3.64%로 감소해 AI 기반 사전 대응 체계의 효과를 입증했다.
프라이버시 중심 설계… ‘Privacy by Design’ 원칙 전면 도입
AI 기술과 더불어 개인정보보호 및 보안 강화도 주요한 전략적 과제로 추진되고 있다. 카카오는 서비스의 기획·운영·종료 전 과정에 걸쳐 개인정보 영향평가를 수행하며, ‘Privacy by Design’ 원칙을 전사에 내재화하고 있다. 이는 이용자 프라이버시 보호를 서비스 설계 초기 단계에서부터 반영하는 사전예방 중심의 접근 방식이다.
또한 카카오는 개인정보보호책임자(CPO)와 정보보호최고책임자(CISO)를 분리하여 책임 체계를 명확히 하고, 프라이버시 자문위원회를 통해 외부 전문가의 정책 자문을 수렴하는 등 거버넌스를 강화하고 있다. 관련 목표와 성과는 ESG위원회를 통해 관리되며, 각 책임자의 KPI에도 반영된다.
카카오가 만든 AI 필터링 모델 ‘카나나’… 사전 차단부터 금칙어 관리까지
카카오는 생성형 AI 기술 도입에 따른 윤리적 리스크에 선제적으로 대응하고 있다. 2024년부터 전사적으로 ‘생성형 AI 사내 활용 정책’을 수립해 크루가 생성형 AI를 안전하고 책임감 있게 사용할 수 있도록 구체적인 가이드라인을 제공하고 있다. 이 정책은 보안, 저작권, 프라이버시 등의 리스크 항목을 명확히 구분하고, 생성 결과물의 책임성을 강조하고 있다.
또한 생성형 AI의 발화 위험을 감지하는 자체 가드레일 모델 ‘카나나 세이프가드(Kanana Safeguard)’를 개발했다. 해당 시스템은 사용자 프롬프트에 포함된 악의적 공격, 부적절한 요청, 윤리적 위험을 탐지하고 대응하도록 설계됐다. 실제 서비스에는 금칙어 필터, 세 가지 탐지 모델이 통합 적용되며, AI 메이트-쇼핑 등 AI 서비스에 연동되어 운영된다.
AI 교육과 글로벌 정책 협력으로 기술 신뢰 확보
카카오는 내부 임직원의 AI 이해도 제고를 위해 AI 기본·심화 교육, 프롬프트 엔지니어링 워크숍 등을 운영하고 있다. 2024년에는 총 600여 명의 크루가 참여해 생성형 AI 활용 역량을 강화했다. 특히 Google Workspace와 연동한 AI 코딩 자동화 실습은 테크 외 직군까지 참여해 조직 전반의 AI 친화적 문화를 형성했다.
대외적으로도 카카오는 AI 서울 서밋에서 ‘서울 AI 기업 서약’을 발표하고, AI 얼라이언스(AI Alliance)의 Trust & Safety 분과에 참여해 글로벌 AI 정책 논의에 기여하고 있다. 또한 과학기술정보통신부 등 정부와 협력해 윤리영향평가 및 AI 안전연구소 설립에도 힘을 보태고 있다.
FAQ
Q. 카카오는 생성형 AI의 위험 요소를 어떻게 관리하나요?
A. 생성형 AI 사내 활용 정책과 Kanana Safeguard 모델을 통해 보안, 저작권, 혐오표현 등 윤리적 리스크를 체계적으로 관리한다.
Q. 카카오는 글로벌 AI 윤리 정책에도 참여하고 있나요?
A. 카카오는 AI 서울 서밋 참여와 AI Alliance 활동을 통해 글로벌 윤리 기준 수립에 기여하고 있다.
Q. 내부 AI 교육은 어떤 방식으로 진행되나요?
A. 생성형 AI의 원리 이해부터 프롬프트 엔지니어링, 업무 자동화까지 다양한 맞춤형 교육이 영상 및 워크숍 형태로 제공된다.
해당 기사에 인용된 리포트 원문은 카카오에서 확인 가능하다.
이미지 출처: 카카오
해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.