• Home
  • AI Report
  • 방통위, ‘생성형 AI 서비스 이용자 보호 가이드라인’ 발표… 인간 존엄성 보호와 이용자 권익 강화 중점

방통위, ‘생성형 AI 서비스 이용자 보호 가이드라인’ 발표… 인간 존엄성 보호와 이용자 권익 강화 중점

생성형 인공지능 서비스 이용자 보호 가이드라인
이미지출처: 방송통신위원회

생성형 인공지능 서비스 이용자 보호 가이드라인


이용자 권익 보호 위한 6가지 핵심 실행 방식 제시

방송통신위원회가 생성형 인공지능(Generative AI) 서비스가 급속히 확산되는 상황에서 이용자 보호를 위한 가이드라인을 발표했다. 이번 가이드라인은 생성형 인공지능 생태계에서 발생할 수 있는 잠재적 위험을 사전에 방지하고, 안전한 이용 환경을 조성하기 위해 마련되었다.

가이드라인은 인간의 존엄성 보호, 알기 쉬운 설명 제공, 안전한 작동 보장, 차별과 불공정 방지 등 4가지 기본 원칙을 기반으로 한다. 특히 생성형 인공지능 개발사와 서비스 제공자들이 자율적으로 참여하는 이용자 보호 체계 구축을 강조하고 있다.

생성형 인공지능의 특성상 이용자와의 상호작용이 미치는 영향을 염두에 두고, 기존과는 다른 접근법으로 기술적 한계와 제도적 미비점, 그리고 산출물이 개인과 사회에 미치는 영향 등을 종합적으로 고려했다는 점이 특징이다.

인격권 보호 및 결정 과정 투명성 확보 강조

가이드라인 첫 번째 실행 방식은 ‘생성형 인공지능 서비스의 이용자 인격권 보호’다. 개발사는 이용자의 인격권 침해 요소를 발견하고 통제할 수 있는 알고리즘 구축에 힘써야 한다. 서비스 제공자는 타인의 인격권을 침해하는 결과물이 생성되지 않도록 내부 모니터링 체계나 이용자 신고 프로세스 등을 마련해야 한다.

실제 사례로는 대화형 서비스에서 혐오 표현 등이 나타나지 않도록 표현물 수위 정보를 사전에 안내하거나, 이용자가 타인의 권리 침해 정보를 입력할 경우 경고 문구를 제시하는 방법 등이 제시되었다. 또한 연령대에 따른 보호 조치를 취하고, 인격권 침해 결과물이 생성되었을 때 이를 차단하는 장치를 시스템에 포함하는 방안도 포함되었다.

두 번째 실행 방식은 ‘생성형 인공지능 서비스의 결정 과정을 알리려는 노력’이다. 생성형 인공지능의 내부 메커니즘은 복잡하여 이용자 관점에서 이해하기 어려운 ‘블랙박스’ 문제가 있다. 이에 서비스 제공자는 생성형 인공지능으로 생성된 산출물임을 명확히 알리고, 정당한 영업활동을 침해하지 않는 범위에서 결정 과정을 이해할 수 있는 기본 정보를 제공해야 한다.

업계에서는 이미 가시적 워터마크 표시, 출처 표기, 모델 정보 제공 등 다양한 방법으로 이를 실천하고 있는 것으로 나타났다. 특히 디지털 워터마킹 기술은 국내외에서 제도화를 추진하고 있으나, 기술적 한계가 존재하는 것으로 밝혀졌다.

다양성 존중과 입력데이터 관리로 편향성 방지

세 번째 실행 방식은 ‘생성형 인공지능 서비스의 다양성 존중 노력’이다. 생성형 인공지능이 단일 콘텐츠를, 특히 편향된 답변을 제공하면 사회적 편견이 강화되고 윤리적 문제가 야기될 수 있다. 이를 방지하기 위해 개발사와 서비스 제공자는 알고리즘 설계 단계부터 편향과 차별을 줄이기 위해 노력하고, 자체 원칙과 기준을 마련해야 한다.

실제로 많은 기업들이 홈페이지에 AI 윤리 원칙을 공개하고, 서비스 운영 전 편향성 테스트를 수행하며, 신고 채널을 쉽게 접근할 수 있도록 서비스 주요 위치에 배치하는 등의 노력을 기울이고 있다.

네 번째 실행 방식은 ‘생성형 인공지능 서비스의 입력데이터 수집·활용 과정에서의 관리’다. 이용자의 데이터 수집과 활용 과정에서 프라이버시 침해 문제가 발생할 수 있으므로, 서비스 제공자는 이용자 데이터를 학습데이터로 활용할 경우 이를 사전에 고지하고 동의 또는 거부할 수 있는 절차를 마련해야 한다.

현재 대부분의 서비스 제공자들은 개인정보 보호 정책을 마련하고, 서비스 실행 화면에서 학습데이터 활용 여부를 안내하며, 언제든 거부할 수 있는 옵션을 제공하고 있다. 다만 이러한 옵션의 용어나 제공 방법이 표준화되어 있지 않아 이용자가 원활하게 사용하는 데 어려움이 있는 것으로 나타났다.

책임 소재 명확화와 유해 콘텐츠 차단으로 안전성 강화

다섯 번째 실행 방식은 ‘생성 콘텐츠 활용에서 발생할 수 있는 문제 해결을 위한 책임과 참여’다. 생성형 인공지능 산출물의 정확성을 완전히 보장할 수 없고 책임 소재가 불분명할 수 있기 때문에, 서비스 제공자는 산출물과 관련한 책임 범위를 정의하고 이용자가 자기 책임을 명확히 인지하도록 안내해야 한다. 이를 위해 이용약관이나 서비스 약관에 이용자 책임을 명시하고, 접근하기 쉬운 방법으로 안내하며, 문제 발견 시 신고할 수 있는 채널을 제공하는 등의 방안이 제시되었다.

마지막 실행 방식은 ‘생성 콘텐츠의 건전한 유통·배포를 위한 노력’이다. 이용자가 생성형 인공지능을 통해 부적절한 콘텐츠를 생성하거나 공유하지 않도록 서비스 제공자는 이용자 프롬프트 입력값과 생성된 산출물이 도덕적·윤리적 기준을 준수하는지 검토하고 관리해야 한다. 업계에서는 생성형 인공지능 산출물이 정확하지 않을 수 있음을 안내하고, 정확성 확인 방법을 제시하며, 유해 콘텐츠 생성을 방지하기 위한 필터링 시스템을 적용하는 등의 조치를 취하고 있다.

3월부터 시행… 2년마다 타당성 검토하여 개선

이번 가이드라인은 2025년 2월 28일에 제정되어 1개월 후인 3월부터 시행될 예정이며, 방송통신위원회는 시행일을 기준으로 2년마다 타당성을 검토하여 개선 조치를 취할 계획이다. 가이드라인은 생성형 인공지능의 특성을 반영해 개발사, 서비스 제공자, 이용자 모두가 자율적으로 참여하는 보호 체계를 지향하고 있으며, 실제 사례를 통해 구체적인 실행 방안을 제시하고 있다는 점에서 의미가 있다.

FAQ

Q: 생성형 AI 서비스 이용자 보호 가이드라인은 법적 강제성이 있나요?

A: 이 가이드라인은 법적 강제성을 갖는 규제가 아닌, 개발사와 서비스 제공자들이 자율적으로 참여하는 보호 체계를 지향합니다. 생성형 인공지능 생태계 구성원의 책임감을 바탕으로 효과적인 이용자 보호를 목적으로 합니다.

Q: 생성형 AI 서비스에서 발생할 수 있는 주요 위험은 무엇인가요?

A: 주요 위험으로는 이용자의 인격권 침해, 불투명한 결정 과정으로 인한 신뢰성 문제, 편향된 답변으로 인한 사회적 편견 강화, 개인정보 침해, 산출물에 대한 책임 소재 불분명, 유해 콘텐츠 생성 및 배포 등이 있습니다.

Q: 이용자는 자신의 데이터가 AI 학습에 사용되는 것을 어떻게 제한할 수 있나요?

A: 대부분의 서비스 제공자는 이용자의 데이터를 학습 데이터로 활용할 경우 이를 사전에 고지하고, 동의 또는 거부할 수 있는 절차를 마련하고 있습니다. 서비스 실행 화면이나 설정 메뉴를 통해 학습 데이터 활용 여부를 설정할 수 있으며, 언제든지 변경이 가능합니다.

해당 기사에서 인용한 리포트 원문은 링크에서 확인할 수 있다.

기사는 클로드와 챗GPT를 활용해 작성되었습니다. 




방통위, ‘생성형 AI 서비스 이용자 보호 가이드라인’ 발표… 인간 존엄성 보호와 이용자 권익 강화 중점 – AI 매터스