Search

챗GPT만으로는 충분하지 않다… NTT DATA가 제시하는 생성형 AI의 미래 가이드라인

Future of Generative AI: Navigating Ethical, Regulatory, and Governance Challenges
이미지출처: NTT DATA

Future of Generative AI: Navigating Ethical, Regulatory, and Governance Challenges



‘기술과 윤리의 간극’: 포켓몬 고에서 생성형 AI까지

일본 정보기술(IT) 기업 NTT DATA가 공개한 보고서에 따르면, 지난 10년간 기술은 게임에서 교통까지 다양한 분야에서 빠르게 진화해왔다. 포켓몬 고와 같은 증강현실 게임의 등장은 위치 기반 데이터 수집의 프라이버시 문제, 가상 재산권 분쟁, 공공 안전 등 법적 프레임워크가 미처 따라가지 못하는 새로운 도전과제들을 제시했다. 더욱이 제2차 세계대전 이후 컴퓨팅 기술의 도입과 1950년대 원자력 발전소에서의 전기 생산에 이르기까지, 기술과 윤리적 문제는 오랫동안 긴밀한 관계를 맺어왔다.

‘블랙박스’ 논란을 넘어: 생성형 AI의 7가지 위험 신호

생성형 인공지능(Generative AI)은 챗GPT(ChatGPT)와 같이 텍스트, 이미지, 오디오, 코드, 시뮬레이션, 비디오 등 새로운 콘텐츠를 생성할 수 있는 알고리즘을 의미한다. 이 기술의 발전은 콘텐츠 제작 방식을 근본적으로 변화시킬 잠재력을 가지고 있다.

하지만 생성형 AI는 여러 윤리적 과제에 직면해 있다. 첫째, 편향성과 차별의 문제다. 훈련 데이터에 내재된 편향이 AI의 출력물에 반영될 수 있어, 채용이나 대출 심사 등에서 특정 집단에 대한 차별이 발생할 수 있다. 둘째, 프라이버시 문제가 있다. 데이터 생성과 합성 과정에서 개인정보가 침해될 위험이 있으며, 특히 이미지 합성에서 실존하지 않는 개인의 얼굴이 만들어져 신원 도용에 악용될 수 있다.

Future of Generative AI Navigating Ethical Regulatory and Governance Challenges



AI가 결정하면 누가 책임질까: 자율주행차부터 의료진단까지

생성형 AI의 ‘블랙박스’ 특성은 투명성 확보를 어렵게 만든다. 예술적 콘텐츠를 생성하는 AI 알고리즘은 창작 선택의 이유를 설명할 수 있어야 하며, 이는 창작 과정의 투명성 제고를 위해 필수적이다. 책임성 측면에서는 AI 시스템의 의도치 않은 결과나 윤리적 문제 발생 시 책임 소재를 명확히 하는 것이 중요하다. 예를 들어 자율주행차의 사고 발생 시 차량 소유주, 제조사, AI 시스템 개발자 중 누가 책임을 질 것인지 명확히 해야 한다.

안면 인식 기술의 경우, 로버스트성이 부족하면 오인식으로 인한 부당 체포와 같은 심각한 문제가 발생할 수 있다. 또한 소셜 엔지니어링 공격, 딥페이크, 허위정보 확산 등의 보안 위험도 증가하고 있다.

의료 분야에서는 AI 시스템의 가치 정렬이 특히 중요하다. 의료 진단을 지원하는 생성형 AI는 환자 복지를 최우선으로 하고 의료 윤리를 준수해야 하며, 의사결정 과정에서 투명성과 설명가능성이 보장되어야 한다.

“내 일자리는 안전할까?”: 생성형 AI가 바꿀 미래 일자리 지도

생성형 AI의 자동화 능력은 고용 시장에 큰 영향을 미칠 수 있다. 제조 공정의 자동화로 인한 일자리 감소가 예상되며, 이는 노동자 재교육과 지원 등 윤리적 고려사항을 수반한다. 특히 할리우드에서는 AI의 무분별한 사용이 작가와 배우들의 역할을 크게 바꾸고 인간의 창의성을 위협할 수 있다는 우려가 제기되고 있다. 이는 최근의 할리우드 파업에서도 주요 쟁점이 되었다.

또한 생성형 AI 시스템의 운영은 상당한 전력 소비와 컴퓨팅 자원을 필요로 하여 환경적 영향에 대한 우려도 제기되고 있다. 이외에도 생성형 AI 시스템이 사회 규범과 윤리적 원칙에 부합하도록 가치를 정렬하는 것이 중요하다. 의료 진단을 지원하는 생성형 AI의 경우 환자 복지를 최우선으로 하고 의료 윤리를 준수해야 한다.

전 세계는 어떻게 대비하나: 글로벌 AI 규제 현황 살펴보기

현재 생성형 AI에 대한 규제는 지역별로 다양한 양상을 보이고 있다. 일본, 싱가포르, UAE 등은 OECD 등의 비구속적 원칙을 채택했고, 브라질, 캐나다, 중국, 한국, EU는 일반 AI 법안을 제안하거나 최종화하는 단계에 있다. 반면 호주, 인도, 뉴질랜드, 사우디아라비아는 아직 일반 AI 법안이 없는 상황이다.

규제 프레임워크 구현의 주요 도전과제로는 생성형 AI 알고리즘의 기술적 복잡성, 데이터 프라이버시 보호와 로버스트 모델 훈련 사이의 균형, 급속한 기술 발전에 따른 규제 지체, 대규모 데이터셋의 미세한 편향성 식별과 해결, 다분야 전문가 간 협력의 어려움, 글로벌 규제의 분절화 등이 있다.

NTT DATA의 제안: ‘AI 윤리 감사’로 시작하는 안전한 AI 도입

NTT DATA는 생성형 AI의 책임있는 발전을 위한 거버넌스 솔루션을 제시한다. 먼저 기술적, 윤리적, 법적 차원을 모두 고려한 포괄적 전략 수립을 통해 전체론적 거버넌스 접근법을 취해야 한다. 이와 함께 기술 발전 속도에 맞춰 유연하게 조정할 수 있는 동적 규제 프레임워크를 도입해야 한다. 마지막으로 개발 및 배포에 대한 공유 가이드라인과 모범 사례 수립을 위해 업계 간 협력을 강화해야 한다고 강조한다.

AI 성숙도 진단부터 장기 전략까지: NTT DATA의 구체적 실행 방안

NTT DATA는 EU AI 규제 요건 충족을 평가하는 AI법(AI Act) 감사 도구를 개발했다. 이는 신뢰할 수 있는 AI를 위한 가이드라인을 준수하며 AI 모델의 규제 준수 성숙도를 평가한다. 구체적인 실행 전략으로는 AI 라이프사이클 전반의 현재 요구사항과 격차를 파악하는 AI 성숙도 진단을 실시한다. 또한 AI와 비즈니스 팀이 긴밀하게 협력할 수 있는 체계를 구축하고, 점진적 발전을 통해 AI 성숙도를 향상시키는 장기적 접근법을 채택한다.

NTT DATA의 ‘AI 센터 오브 엑셀런스’는 이러한 전략을 통해 고객들에게 AI 규제의 복잡성을 헤쳐나갈 수 있는 도구와 인사이트를 제공하고 있다. 이를 통해 책임있는 AI 개발과 배포 문화를 조성하고, 신뢰성과 투명성을 확보하는 것을 목표로 한다.

해당 리포트의 원문은 링크에서 확인할 수 있다.

기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. 




챗GPT만으로는 충분하지 않다… NTT DATA가 제시하는 생성형 AI의 미래 가이드라인 – AI 매터스 l AI Matters