AI and the ethics of techno-solutionism in pain management
인공지능(AI) 기술이 의료 분야에 빠르게 도입되면서 통증 관리 영역에서도 AI의 활용 가능성이 주목받고 있다. 통증은 매우 주관적이고 개인마다 경험이 다르기 때문에 객관적인 평가와 효과적인 관리가 어려운 의료 영역 중 하나다. 이러한 배경에서 AI 기술은 통증 관리의 객관성과 효율성을 높일 수 있는 도구로 기대를 모으고 있다. 그러나 동시에 AI를 통한 통증 관리에는 윤리적 문제와 한계점이 존재한다는 지적이 제기되고 있다. 이에 대해 토론토 대학교 생명윤리학 전문가인 다니엘 부흐만(Daniel Z. Buchman) 교수의 최근 논평을 중심으로 AI를 활용한 통증 관리의 현황과 윤리적 딜레마를 살펴보고자 한다.
AI의 통증 관리 적용 현황
최근 연구에서는 대규모 언어 모델(Large Language Models, LLMs)을 활용해 응급실에서 가장 흔한 4가지 통증 관련 방문 사유에 대한 통증 관리 권장 사항을 분석했다. 이 연구는 GPT-4와 Gemini와 같은 최신 LLMs를 사용하여 40개의 실제 환자 사례 설명을 바탕으로 수행되었다. 연구진은 환자의 성별, 인종, 민족, 현재 약물 사용 정보를 제외한 상태에서 LLMs에게 주관적 통증 평가(심각도 및 1-10점 척도 평가)와 약물 치료 권장 사항을 제공하도록 지시했다.
연구 결과, LLMs 간에 일부 불일치가 있었지만, 인종/민족이나 성별 조합에 따라 특정 그룹에 대한 선호적 오피오이드 치료를 보이지 않았다. 이는 AI 시스템이 인간 의사결정자와는 달리 인구통계학적 특성에 기반한 편견을 덜 보일 수 있음을 시사한다.
연구진은 이러한 결과를 바탕으로 LLMs가 임상의의 편견을 완화하고 공평한 통증 관리를 지원할 수 있다고 제안했다. 특히 통증 관리에서 존재하는 인종, 성별 기반 불평등 문제를 해결하는 데 AI가 도움이 될 수 있다는 점에 주목했다.
AI 활용의 장단점
AI 시스템과 정밀 의학이 일반적으로 의료 의사 결정을 개선할 것이라는 광범위한 기대가 있다. 특히 통증 관리 분야에서 AI 시스템을 사용하려는 동기 중 하나는 의료 문화에서 우선시되는 확실성, 객관성, 가시성과 대조되는 통증의 불확실성, 주관성, 비가시성과 관련된 인식된 한계를 극복하는 것이다.
예를 들어, 연구자들은 신경 영상과 기계 학습과 같은 AI 형태를 결합하여 만성 통증의 뇌 기반 생체표지자를 식별하려고 시도하고 있다. 이러한 접근은 통증을 객관적으로 측정하고 평가할 수 있는 방법을 제공함으로써 통증 관리의 정확성과 효율성을 높일 수 있다는 기대를 받고 있다.
이러한 연구 프로그램은 기계적 객관성에 대한 가정에 기반한다. 여기서 객관성은 표준화된 방법, 기계적 또는 자동화된 프로세스, 그리고 인간의 편견과 주관성을 최소화하려는 도구를 통해 달성된다고 본다. 이러한 접근법의 결과는 더 신뢰할 수 있고 편견이 없는 것으로 간주된다.
그러나 부흐만 교수는 이러한 접근 방식이 몇 가지 윤리적 문제를 야기할 수 있다고 지적한다. 첫째, LLM의 출력(환자의 통증 점수 및 치료 권장 사항)과 환자의 증언 사이에 잠재적 불일치가 있을 경우 임상의가 어떻게 대처해야 하는지에 대한 문제가 제기된다. 이는 환자의 주관적 경험과 AI의 객관적 평가 사이의 균형을 어떻게 맞출 것인가라는 근본적인 질문을 던진다.
둘째, 자동화 편향(automation bias)의 위험성이 있다. 이는 알고리즘 출력에 과도하게 의존하고 과도한 자신감을 갖는 경향을 말한다. 의료진이 AI 시스템의 판단을 무비판적으로 수용할 경우, 환자 개인의 특수한 상황이나 필요를 간과할 수 있다.
셋째, AI 모델에서 관련 편견이 이미 해결되었다고 임상의가 확신할 수 있다는 점이다. 이는 실제로는 여전히 존재할 수 있는 편견을 간과하게 만들어 새로운 형태의 불평등을 야기할 수 있다.
넷째, AI가 생성한 잠재적으로 비효과적인 치료 권장 사항이 더 효과적인 옵션의 사용을 방해할 수 있으며, 환자의 임상 상태를 불투명하게 만들 수 있다는 우려가 있다.
윤리적 고려사항과 향후 과제
AI를 통한 통증 관리에는 여러 윤리적 고려사항이 존재한다. 첫째, 임상의가 AI 모델의 출력을 더 객관적이고 신뢰할 수 있다고 간주하여 환자의 주관적이고 체화된 경험에 대한 신뢰성과 지식을 최소화할 수 있다는 우려가 있다. 이는 특히 성별, 계급, 성적 지향, 장애, 약물 사용 또는 인종과 관련된 교차하는 불리한 정체성을 가진 환자들에게 더욱 심각한 문제가 될 수 있다. 이러한 환자들은 이미 의료 시스템에서 편견과 차별을 경험하고 있으며, AI의 도입이 이러한 문제를 더욱 악화시킬 수 있다는 것이다.
둘째, 인구통계학적 요인을 제거하여 알고리즘의 공정성을 만들려는 시도에 대한 비판이 있다. 이는 편견이 정량화 가능하고 알고리즘 모델을 통해 해결할 수 있다는 잘못된 가정에 기반한다. 인간의 편견은 종종 사회적, 구조적 맥락에 깊이 뿌리박혀 있어 기술적 수단만으로는 제거하기 어렵다. 예를 들어, 일부 AI 도구는 훈련 데이터에서 이러한 특성이 명시적으로 레이블링되지 않더라도 직업이나 사회적 그룹 연관성과 같은 프록시를 통해 부수적으로 인종이나 성별을 예측할 수 있다는 연구 결과가 있다.
또한, 연구에서 성별과 인종과 같은 변수를 비판적으로 바라봐야 한다는 주장도 있다. 예를 들어, 생물학적 성별은 종종 사회적 구성물인 성별과 혼동되며, 인종 – 또 다른 복잡한 사회적 구성물 – 을 독립적인 데이터 포인트로 레이블링하는 것은 구조적 및 대인 관계적 인종차별의 해악을 모호하게 만들 수 있다.
마지막으로, 통증 관리에서의 구조적 거시 수준의 불공정을 해결하기 위해 LLM을 사용하는 것은 매우 신중하게 접근해야 한다. 이는 공공 정책, 법률, 건강 관련 위험의 분포와 같은 상류 구조적 동인에서 초점을 벗어나 인구 수준의 불평등의 근본 원인에 대한 하류 미시 수준 또는 개인 수준의 기술적 해결책으로 초점을 옮기는 것이기 때문이다. 건강의 사회적 결정요인에 대한 광범위한 증거는 통증을 포함한 인구 건강 불평등에 대한 해결책이 공식적인 개인 의료 서비스 제공 외부에 존재한다는 것을 보여준다.
부흐만 교수는 AI 시스템을 포함한 연구가 통증 관리의 “공정성, 효과성, 효율성”에 중요한 기여를 할 수 있기를 희망한다고 말한다. 만약 이러한 연구가 실제 환자 혜택의 증거를 보여준다면, 포괄적인 다중양식 통증 관리의 일부로 개별 환자에게 매우 귀중한 것이 될 것이다. 그러나 그는 인종차별, 성차별, 성별 차별과 같은 복잡한 구조적 불공정은 계산으로 환원될 수 없으며, 순전히 기술적, 알고리즘적 접근만으로는 이러한 긴급하고 중요한 사회적 문제를 해결하기에 불충분하다고 강조한다.
AI를 통한 통증 관리는 많은 가능성을 제공하지만, 동시에 복잡한 윤리적 문제를 야기한다. 향후 AI 기술을 통증 관리에 적용할 때는 이러한 윤리적 고려사항을 충분히 검토하고, 기술적 해결책과 함께 사회구조적 불평등 해소를 위한 노력이 병행되어야 할 것이다. 또한 AI 시스템의 한계를 인식하고, 환자의 주관적 경험과 의료진의 전문성을 균형 있게 고려하는 접근이 필요할 것으로 보인다.
의료 AI의 발전은 통증 관리를 포함한 다양한 분야에서 혁신적인 변화를 가져올 수 있지만, 이는 인간 중심의 의료 철학과 조화를 이루어야 한다. 기술의 진보와 인간의 존엄성, 개별성을 존중하는 의료 사이의 균형을 찾는 것이 앞으로의 중요한 과제가 될 것이다. 이를 위해서는 의료진, 윤리학자, AI 전문가, 그리고 환자 단체 등 다양한 이해관계자들의 지속적인 대화와 협력이 필요할 것이다.
또한, AI 기술의 발전과 함께 의료진의 AI 리터러시(AI literacy) 향상도 중요한 과제로 떠오르고 있다. 의료진들이 AI 시스템의 작동 원리, 한계, 그리고 잠재적 편견에 대해 충분히 이해하고 있어야 AI를 효과적이고 윤리적으로 활용할 수 있기 때문이다. 이를 위해 의과대학 커리큘럼에 AI 관련 교육을 포함시키거나, 현직 의료진을 대상으로 한 지속적인 교육 프로그램을 개발하는 등의 노력이 필요할 것이다.
더불어, AI를 통한 통증 관리 시스템의 개발 과정에서 다양한 인구 집단의 데이터를 포함시키는 것도 중요하다. 이는 AI 시스템이 특정 집단에 편향되지 않고 다양한 인구 집단의 특성을 반영할 수 있도록 하는 데 필수적이다. 이를 위해 의료 데이터의 수집과 공유에 대한 규제와 가이드라인을 정비하고, 데이터의 다양성과 대표성을 확보하기 위한 노력이 병행되어야 할 것이다.
마지막으로, AI를 통한 통증 관리의 효과와 안전성을 지속적으로 모니터링하고 평가하는 시스템을 구축하는 것도 중요하다. AI 시스템의 성능과 영향을 주기적으로 검토하고, 필요한 경우 신속하게 개선할 수 있는 체계를 마련해야 한다. 이는 AI 시스템의 신뢰성을 높이고, 잠재적인 위험을 최소화하는 데 도움이 될 것이다.
결론적으로, AI를 통한 통증 관리는 의료 혁신의 중요한 영역이지만, 이를 둘러싼 윤리적 딜레마와 도전과제들을 간과해서는 안 된다. 기술의 발전과 인간 중심 의료의 가치를 조화롭게 결합하는 것이 앞으로의 핵심 과제가 될 것이다. 이를 위해서는 다학제적 접근과 지속적인 대화, 그리고 윤리적 고려사항을 중심에 둔 신중한 기술 도입이 필요할 것이다. AI는 통증 관리의 도구일 뿐, 그 자체가 목적이 되어서는 안 된다는 점을 항상 명심해야 할 것이다.
토론토 대학의 논문은 링크에서 확인할 수 있다.
본 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.
관련 콘텐츠 더보기