Personhood credentials: Artificial intelligence and the value of privacy-preserving tools to distinguish who is real online
인공지능(AI) 기술의 급속한 발전으로 온라인상에서 사람과 AI를 구별하기 어려워지면서, 실제 사람임을 증명할 수 있는 ‘인격 자격증(Personhood Credentials, PHC)’의 필요성이 제기되고 있다. 미국 오픈AI, 하버드대, 마이크로소프트 등 AI 전문가들이 참여한 최근 연구에 따르면, PHC는 개인정보를 노출하지 않으면서도 온라인상에서 실제 사람임을 입증할 수 있는 디지털 자격증이다. 이는 AI 시대에 온라인 신뢰를 구축하면서도 프라이버시를 보호할 수 있는 새로운 방안으로 주목받고 있다.
AI의 ‘구분 불가능성’과 ‘확장성’, 온라인 사기 위험 높인다
최근 AI 기술의 발전으로 인해 온라인상에서 사람과 구분하기 어려운 수준의 AI가 등장하고 있다. 연구진은 AI의 ‘구분 불가능성(indistinguishability)’과 ‘확장성(scalability)’이라는 두 가지 트렌드가 온라인 사기 위험을 높이고 있다고 지적했다. 구분 불가능성 측면에서 AI는 인간과 유사한 콘텐츠를 생성하고, 실제 사람처럼 보이는 아바타를 만들며, 웹사이트를 사람처럼 탐색하는 능력이 크게 향상되고 있다. 예를 들어, AI는 이미 정치적 의견이나 경험을 표현하는 글을 작성할 수 있으며, 비디오 채팅에서 실제 사람처럼 보이는 아바타를 조작할 수 있다.
확장성 측면에서는 AI 기술의 비용이 낮아지고 접근성이 높아지면서 악의적인 목적으로 AI를 활용하기 쉬워졌다. 모든 수준의 AI 능력에서 비용이 감소하고 있으며, 오픈 웨이트 모델 등을 통해 고성능 AI에 대한 접근성도 높아지고 있다. 이러한 추세는 온라인 사기와 악용의 위험을 크게 증가시키고 있어, 이에 대한 대책 마련이 시급한 상황이다.
기존 대응책, AI 발전으로 한계 드러내
현재 AI를 이용한 사기를 막기 위해 다양한 대응책이 사용되고 있지만, 각각 한계가 있다. CAPTCHA나 자바스크립트 기반 브라우저 도전과 같은 행동 필터링 방식은 고도화된 AI에 대해 효과적이지 않다. AI의 능력이 향상되면서 이러한 도전 과제를 쉽게 통과할 수 있게 되었다. 유료 구독이나 신용카드 인증과 같은 경제적 장벽은 저소득 사용자에게 불리하며, 수익성 높은 사기 행위를 막기에는 충분하지 않다.
워터마킹이나 지문 인식 같은 AI 콘텐츠 탐지 도구는 적대적 공격에 취약하며, AI가 생성하지 않은 콘텐츠의 악용을 막을 수 없다. 신분증을 들고 찍은 셀카나 화상 통화 등 외모 및 문서 기반 인증은 개인정보 보호 측면에서 문제가 있으며, 최신 AI 기술로 우회가 가능하다. 전화번호나 이메일 주소 같은 디지털 식별자는 쉽게 획득할 수 있어 한 사람이 여러 개의 계정을 만드는 것을 효과적으로 막지 못한다. 이러한 기존 대응책의 한계로 인해 새로운 해결책의 필요성이 대두되고 있다.
인격 자격증(PHC), 온라인 신뢰와 프라이버시 보호의 새로운 대안
PHC는 이러한 문제를 해결할 수 있는 대안으로 제시되고 있다. PHC의 주요 장점은 익명성 보장, 가짜 계정 억제, 봇 공격 완화, AI 에이전트 위임 검증 등이다. PHC는 개인의 법적 신원을 노출하지 않으면서도 실제 사람임을 증명할 수 있어, 프라이버시를 보호하면서도 온라인 신뢰를 구축할 수 있다. 서비스 제공업체는 PHC를 통해 사용자당 계정 수를 제한할 수 있어, 한 사람이 여러 개의 가짜 계정을 만들어 여론을 조작하거나 평판을 조작하는 행위를 막을 수 있다.
또한 PHC를 통해 악의적인 사용자가 계정 정지 후 새 계정을 반복적으로 만드는 것을 막을 수 있어, 분산 서비스 거부(DDoS) 공격 등 대규모 봇넷 공격을 어렵게 만든다. AI 에이전트가 실제 사람의 위임을 받았음을 입증할 수 있어, AI 에이전트의 책임 있는 사용을 가능하게 하면서도 악의적인 목적의 AI 사용을 제한할 수 있다. 이러한 장점들로 인해 PHC는 AI 시대의 온라인 신뢰 문제를 해결할 수 있는 유망한 솔루션으로 주목받고 있다.
PHC 시스템 구현, 신중한 접근 필요
연구진은 PHC 시스템 구현 시 공평한 접근성, 표현의 자유 보장, 권력 견제, 공격 및 오류에 대한 견고성 등을 신중히 고려해야 한다고 조언했다. 모든 사용자가 PHC를 쉽게 획득할 수 있어야 하며, 특정 그룹이 PHC 시스템에서 배제되지 않도록 주의해야 한다. PHC 사용이 온라인상 자유로운 의사 표현을 제한해서는 안 되며, 사용자들이 PHC로 인해 자신의 의견 표현을 자제하거나 불이익을 받을 것을 두려워하지 않도록 해야 한다.
PHC 발급 기관이나 서비스 제공업체에 과도한 권한이 집중되지 않도록 민주적 감독, 책임성, 투명성 메커니즘이 필요하다. 또한 악의적인 공격이나 시스템 오류에 대비해야 한다. 예를 들어, PHC 도용이나 불법 거래를 방지하고, 사용자가 PHC를 분실했을 때의 복구 절차 등을 마련해야 한다. 이러한 고려사항들을 충분히 검토하고 대책을 마련해야 PHC 시스템이 성공적으로 구현될 수 있을 것이다.
PHC 개발과 도입을 위한 향후 과제
연구진은 정부, 기술 전문가, 표준화 기구들이 PHC 개발과 도입을 위해 다양한 노력을 기울여야 한다고 강조했다. 기존의 디지털 운전면허증 등을 기반으로 PHC 시스템을 점진적으로 구축하고 시범 운영할 것을 제안했다. AI의 발전을 고려해 기존의 원격 신원 확인 및 인증 표준을 재검토해야 하며, 소셜 미디어 등 주요 플랫폼에서 AI 기반 가짜 계정의 영향을 체계적으로 연구해야 한다. 또한 인터넷을 사용하는 AI 에이전트를 관리하기 위한 규범과 표준을 수립해야 한다.
AI 시대에 신뢰할 수 있는 온라인 환경을 구축하기 위해서는 개인정보 보호와 실제 사람 검증이라는 두 가지 목표를 동시에 달성해야 한다. PHC는 이를 위한 유망한 해결책으로 주목받고 있으며, 향후 더 많은 연구와 논의가 필요할 것으로 보인다. 특히 PHC 시스템의 기술적 구현 방식, 국제 표준화, 법적 프레임워크 등에 대한 깊이 있는 검토가 이루어져야 할 것이다. 이를 통해 AI 시대에도 안전하고 신뢰할 수 있는 온라인 환경을 만들어 나갈 수 있을 것이다.
기사에 인용된 논문의 전문은 링크에서 확인할 수 있다.
본 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.
관련 콘텐츠 더보기