• Home
  • AI Report
  • WHO, 보건의료 AI 윤리 가이드라인 발표… “인간 중심 AI 구현” 강조

WHO, 보건의료 AI 윤리 가이드라인 발표… “인간 중심 AI 구현” 강조

Ethics and governance of artificial intelligence for health: WHO guidance
이미지 출처: 미드저니 생성

Ethics and governance of artificial intelligence for health: WHO guidance

세계보건기구(WHO)가 보건의료 분야 인공지능(AI) 사용에 대한 윤리 가이드라인을 발표했다. WHO는 AI가 공중보건과 의료 분야에서 큰 잠재력을 지니고 있음을 인정하면서도, 그 혜택을 충분히 누리기 위해서는 윤리적 과제들을 해결해야 한다고 강조했다. 이번 가이드라인은 WHO 산하 ‘보건 AI 윤리 및 거버넌스 전문가 그룹’이 작성했으며, 20명의 공중보건, 의학, 법률, 인권, 기술, 윤리 전문가들로 구성된 이 그룹은 AI의 기회와 도전 과제를 분석하고, 보건의료 AI의 윤리적 사용을 위한 정책과 원칙, 실천 방안을 제시했다.

AI의 의료 혁신과 윤리적 과제 동시 직면

WHO는 AI가 의료 서비스 제공자들의 능력을 향상시켜 환자 치료 개선, 정확한 진단, 치료 계획 최적화, 팬데믹 대비 및 대응 지원, 보건 정책 결정자들의 의사결정 지원, 보건 시스템 내 자원 할당 등에 도움을 줄 수 있다고 밝혔다. 그러나 이러한 잠재력을 실현하기 위해서는 의료진과 보건 시스템이 AI 시스템의 안전하고 효과적인 기능 조건, 신뢰할 수 있는 적절한 사용을 보장하기 위한 조건, 시스템 성능의 지속적인 감사 및 평가 메커니즘에 대한 상세한 정보를 갖추어야 한다고 강조했다.

또한 AI는 환자와 지역사회가 자신들의 의료에 대한 통제권을 가지고 변화하는 요구사항을 더 잘 이해할 수 있도록 도울 수 있다. 하지만 이를 위해서는 환자와 지역사회의 권리와 이익이 기술 기업의 강력한 상업적 이익이나 감시와 사회 통제에 대한 정부의 이익에 종속되지 않도록 보장해야 한다. 또한 환자나 지역사회 건강에 대한 위험을 감지하는 AI의 잠재력이 인간의 자율성과 존엄성을 증진시키고 의료 의사결정의 중심에서 인간을 대체하지 않는 방식으로 보건 시스템에 통합되어야 한다고 WHO는 밝혔다.

보건의료 AI 6대 윤리 원칙 제시

WHO는 보고서를 통해 보건의료 AI 사용에 대한 6가지 핵심 윤리 원칙을 제시했다. 첫째, 인간의 자율성 보호다. AI 사용이 의사결정 권한을 기계에 이전하는 상황으로 이어질 수 있으므로, AI나 다른 컴퓨터 시스템의 사용이 인간의 자율성을 침해하지 않도록 해야 한다. 의료 맥락에서 이는 인간이 의료 시스템과 의료 결정의 통제권을 유지해야 함을 의미한다.

둘째, 인간의 웰빙과 안전, 공익 증진이다. AI 기술은 사람들에게 해를 끼치지 않아야 하며, AI 기술 설계자들은 잘 정의된 사용 사례나 적응증에 대한 안전성, 정확성, 효능에 대한 규제 요건을 충족해야 한다.

셋째, 투명성, 설명 가능성, 이해 가능성 보장이다. AI 기술은 개발자, 의료진, 환자, 사용자, 규제 기관이 이해할 수 있어야 한다. WHO는 이를 위해 AI 기술의 투명성을 개선하고 설명 가능하게 만드는 두 가지 광범위한 접근법을 제시했다.

넷째, 책임과 책무성 강화다. AI 기술에 문제가 생겼을 때 책임 소재가 명확해야 하며, 알고리즘 기반 결정으로 불리한 영향을 받은 개인과 집단을 위한 질문과 시정 메커니즘이 마련되어야 한다.

다섯째, 포용성과 형평성 보장이다. 보건의료 AI는 나이, 성별, 젠더, 소득, 인종, 민족, 성적 지향, 능력 또는 기타 인권 규약에 의해 보호되는 특성에 관계없이 가능한 한 광범위하고 공평한 사용과 접근을 장려하도록 설계되어야 한다.

마지막으로, 대응성과 지속가능성 증진이다. 설계자, 개발자, 사용자들은 실제 사용 중에 AI 애플리케이션을 지속적으로, 체계적으로, 투명하게 평가해야 한다. 또한 AI 기술은 보건 시스템, 환경, 직장의 지속가능성 증진과 일관성을 유지해야 한다.

저소득 국가 의료 격차 해소 기대

WHO는 AI가 의료 자원이 부족한 국가에서 의료 서비스 접근성 격차를 해소하는 데 도움이 될 수 있다고 밝혔다. 그러나 이를 위해서는 AI 시스템이 다양한 사회경제적, 의료 환경을 반영하도록 신중하게 설계되어야 하며, 디지털 기술 교육과 지역사회 참여, 인식 제고가 수반되어야 한다고 강조했다. 특히 고소득 국가의 데이터에 주로 기반한 시스템은 저소득 및 중간소득 국가의 개인에게 잘 작동하지 않을 수 있다는 점을 지적했다. WHO는 각국의 AI 투자가 편향을 내포한 AI를 피함으로써 효과적인 의료 시스템 구축에 도움이 되어야 한다고 권고했다.

코로나19로 부각된 AI 윤리 문제

WHO는 코로나19 팬데믹이 보건의료 AI와 관련된 기회와 도전 과제를 잘 보여주었다고 평가했다. 팬데믹 대응을 위한 많은 새로운 AI 애플리케이션이 등장한 반면, 일부는 비효과적인 것으로 나타났다. 또한 여러 애플리케이션이 감시, 프라이버시와 자율성 침해, 보건 및 사회적 불평등과 관련된 윤리적 우려를 제기했다고 지적했다. WHO 전문가 그룹은 이번 보고서 작성 과정에서 코로나19 접촉자 추적을 위한 근접 추적 애플리케이션 사용에 대한 임시 지침도 마련했다.

“AI 윤리, 집단적 노력 필요”

WHO는 이번 가이드라인의 이행을 위해서는 집단적 행동이 필요하다고 강조했다. 기업과 정부는 인간의 삶을 개선하기 위해서만 AI 기술을 도입해야 하며, 부당한 감시나 무관한 상업 제품 및 서비스의 판매 증대와 같은 목적으로 사용해서는 안 된다고 밝혔다. 의료 서비스 제공자들은 적절한 기술을 요구하고, 이를 활용해 AI의 잠재력과 임상의의 전문성을 모두 극대화해야 한다. 환자, 지역사회 조직, 시민사회는 정부와 기업에 책임을 물을 수 있어야 하며, 기술과 규칙 설계에 참여하고, 새로운 표준과 접근법을 개발하며, 자신들과 지역사회, 보건 시스템의 요구를 충족시키기 위한 투명성을 요구하고 추구할 수 있어야 한다고 WHO는 권고했다.

WHO는 보건의료 AI가 빠르게 진화하는 분야인 만큼, 앞으로 추가적인 도구와 애플리케이션에 대한 구체적인 지침을 발표하고, 이 가이드라인을 주기적으로 업데이트할 계획이라고 밝혔다. 이는 급변하는 AI 기술 발전 속도에 맞춰 윤리적 가이드라인도 지속적으로 진화해야 함을 시사한다.

기사에 인용된 리포트 원문은 링크에서 확인할 수 있다.

기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. 




WHO, 보건의료 AI 윤리 가이드라인 발표… “인간 중심 AI 구현” 강조 – AI 매터스