22일(현지 시각)부터 AI 기업들이 이미지, 영상, 텍스트 등을 생성해 제공할 때 ‘AI가 만들었다’는 표시를 의무적으로 해야 한다. 특히 실제와 구분하기 어려운 딥페이크(Deepfake) 같은 가상 생성물은 사람이 명확히 알아볼 수 있게 표시해야 한다. 한국 정부가 AI 투명성 규제에 본격 나선 것이다.
과학기술정보통신부는 22일「인공지능 투명성 확보 안내 지침」을 공개했다. 이는 같은 날 전면 시행되는 AI 기본법의 투명성 확보 의무를 구체적으로 어떻게 지킬지 정한 것이다. 한국 이용자를 대상으로 서비스하는 구글, 오픈AI 같은 해외 기업도 예외 없이 따라야 한다.
과학기술정보통신부에 따르면 그동안 업계에서는 공개된 법률과 시행령만으로는 투명성 확보 의무의 구체적인 적용 기준을 명확하게 파악하기 어렵다는 우려가 제기되어 왔다. 이에 지난해 9월 가이드라인 초안을 공개한 후 업계 의견을 수렴해 실제 현장에서 운영 중인 AI 제품과 서비스 유형을 바탕으로 이행 기준을 마련했다.
규제 대상은 AI 제품이나 서비스를 이용자에게 직접 제공하는 ‘AI 사업자’다. 국내 사업자는 물론 국내 이용자를 대상으로 서비스하는 해외 사업자도 포함된다. 반면 AI를 단순히 업무나 창작의 도구로 활용하는 일반 이용자는 의무 대상이 아니다. 예를 들어 영상 생성 AI를 이용해 영화를 제작하고 배급하는 제작사는 AI를 업무에 활용한 것이므로 규제 대상이 아니다.

투명성 확보 의무는 크게 두 가지다.
첫째, AI 사업자는 생성형 AI 기반으로 운용된다는 사실을 미리 알려야 한다. 서비스 이용약관이나 계약서에 명시하거나, 앱 구동 화면에 안내해야 한다. 오프라인 서비스는 이용자가 쉽게 볼 수 있는 곳에 안내문을 게시해야 한다.
둘째, AI 생성물이 생성형 AI로 만들어졌다는 사실을 표시해야 한다. 이는 AI 생성물이 서비스 환경 내에서만 이용되는 경우와 외부로 반출되는 경우를 구분해 기준을 정했다.

서비스 내에서만 제공될 때는 비교적 유연하게 표시할 수 있다. 챗봇 같은 대화형 서비스는 이용 전 안내나 화면 내 로고 표출로 충분하다. 게임이나 메타버스는 로그인 시 안내하거나 캐릭터에 AI임을 표시하는 방식도 허용된다.
하지만 AI 생성 결과물을 다운로드하거나 공유 등으로 외부로 반출할 때는 더 확실한 표시가 필요하다. 이미지나 영상에는 워터마크(Watermark)를, 음성 파일에는 안내 멘트를 넣는 등 사람이 직접 눈으로 보거나 귀로 들을 수 있는 방식으로 표시하거나, ‘AI가 생성했습니다’라는 안내를 먼저 보여준 후 파일 속성에 메타데이터(Metadata) 같은 숨겨진 정보를 넣는 방식도 가능하다.
특히 실제와 구분하기 어려운 가상의 생성물, 즉 딥페이크 같은 경우는 이용자의 혼란을 막기 위해 반드시 사람이 명확하게 인식할 수 있는 방법으로 표시해야 한다. 메타데이터처럼 기계만 읽을 수 있는 방식은 허용되지 않는다.
과학기술정보통신부는 “AI 생성물에 워터마크를 적용하는 것은 딥페이크 오용 등 기술의 부작용을 막기 위한 최소한의 안전장치이자, 이미 주요 글로벌 기업들이 도입하고 있는 국제적인 추세”라고 설명했다.
다만 현장의 준비 부족 우려를 감안해 최소 1년 이상 계도기간을 운영한다. 이 기간에는 사실조사나 과태료 부과가 유예된다. 과학기술정보통신부는 계도 기간 동안 기업들이 겪는 어려움을 듣고, 앞으로 새로 나올 서비스와 기술 변화에 맞춰 가이드라인을 계속 업데이트할 계획이다.
이번 가이드라인은 AI 신뢰 확보라는 입법 취지와 기업 부담 완화를 균형 있게 고려했다. 사회적 우려가 큰 딥페이크 생성물에 대해서는 명확한 표시를 의무화하면서도, 서비스 환경 내에서만 제공되는 경우에는 유연한 표시를 허용해 기업들이 서비스의 편의성과 사용성을 저해하는 과도한 조치를 하지 않도록 했다.
해당 자세한 가이드라인은 과학기술정보통신부에서 확인 가능하다.
이미지 출처: 이디오그램 생성






