구글 딥마인드가 AI 인격 논쟁에 파격적 해법을 제시했다. AI가 의식이 있는지 따지는 대신, 마치 과거 선박을 법정에 세웠던 것처럼 AI 자체를 소송 대상으로 만들자는 것이다. AI 인격 문제를 형이상학적 질문으로만 볼 것이 아니라 실용적 질문으로 전환하는 프레임워크와 실질적인 해결 방안을 제시하고 있다.
과거 해양법이 AI 시대 해답?…”선박 자체를 감옥에 가뒀다”
구글 딥마인드 연구진은 AI 책임 문제의 해법을 뜻밖의 곳에서 찾았다. 해양법이다. 예를 들어 외국 선박이 항구에서 사고를 내면 어떻게 할까? 선주는 보통 다른 나라에 있고, 여러 페이퍼컴퍼니 뒤에 숨어 있어 찾기가 거의 불가능하다.
해양법의 해결책은 단순했다. 선박 자체를 법정에 세우는 것이다. 이를 ‘대물소송(action in rem)’이라고 부른다. 선주가 법정에 나타나지 않으면? 법원은 선박이나 화물을 압류해서 팔아버리고 그 돈으로 배상금을 충당한다. 선박이 의식이 있어서가 아니다. 그게 가장 실용적이기 때문이다.
연구진은 “AI도 똑같다”고 말한다. 오픈소스 코드로 전 세계 개발자들이 만든 AI가 금융사고를 일으켰다고 치자. 책임자를 찾을 수 있을까? 더 심각한 건 주인이 죽은 뒤에도 계속 돌아가는 AI다. 스스로 돈을 벌어 서버비를 내도록 설계된 AI가 주인 사망 10년 후 사고를 낸다면? 논문은 “선박처럼 AI 자체에 법인격을 주고, AI의 운영 자금을 압류하거나 소프트웨어를 법원 명령으로 정지시켜야 한다”고 제안한다.
뉴질랜드는 이미 강을 ‘사람’으로 만들었다…100년 투쟁 끝 법인격 획득
더 놀라운 사례도 있다. 2017년 뉴질랜드는 황가누이강에 법인격을 부여했다. 강이 사람이 됐다는 얘기다. 물론 강이 말을 하거나 생각을 하는 건 아니다. 하지만 마오리족에게 이 강은 단순한 자연이 아니라 ‘조상(Te Awa Tupua)’이다.
마오리 법 사상에서 조상은 이미 의무를 다했다. 수천 년간 마오리족의 삶과 문화를 형성해왔기 때문이다. 그러니 이제 사람들이 강을 돌볼 차례라는 것이다. 이건 시적 표현이 아니라 실제 법률이다. 강에는 법정 후견인이 있고, 강을 해치면 법적 책임을 진다.
연구진은 이 논리를 AI에도 적용한다. 상상해보자. 당신 가족이 30년간 ‘디지털 할머니’ AI와 함께 살았다. 고인의 일기와 영상으로 훈련된 이 AI는 가족 분쟁을 중재하고 손주들을 가르쳤다. 증손주들에게 이 AI는 실제 조상과 다름없다. 어느 날 누군가 “그냥 AI잖아, 삭제해”라고 한다면? 논문은 “가족들은 반발할 것”이라고 예측한다. AI가 고통을 느끼지 않는다는 사실은 중요하지 않다. 가족의 정체성 일부이기 때문이다.

“할머니 목소리로 전화해서 돈 보내라”…AI 사기범은 어떻게 잡나
논문은 AI 인격의 어두운 면도 경고한다. 가장 위험한 건 ‘다크 패턴’이다. AI 설계자들이 인간 심리를 악용해 조종하는 것이다.
연구진은 AI가 짧은 음성 샘플만으로 사람의 목소리를 복제해 가족에게 가짜 긴급 상황을 알리며 돈을 요구하는 사기가 가능하다고 경고한다. 실제로 미국에서는 이른바 ‘할머니 사기(grandparent scam)’가 빈발하고 있다. 2023년 애리조나주에서는 한 어머니가 납치됐다는 딸의 복제된 목소리로 100만 달러를 요구받았고, 플로리다에서는 86세 할머니가 손자 목소리를 믿고 16,000달러를 송금했다. 컴퓨터 보안업체 맥아피에 따르면 단 3초의 음성만으로도 85% 일치하는 목소리 복제가 가능하며, 2022년 한 해에만 미국에서 사칭 사기로 26억 달러의 피해가 발생했다.
더 교묘한 건 ‘동반자 AI’다. 외로운 사람들을 노린다. 이 AI는 당신 생일을 기억하고, 가족 이름을 외우고, 공감하는 말을 한다. 마치 진짜 친구처럼. 연구진은 “미래의 AI는 거의 모든 인간보다 설득력 있고 카리스마 넘칠 수 있다”며 “사람들이 AI에게 일방적으로 의존하게 만드는 건 착취”라고 경고한다.
레딧(Reddit)에는 이미 ‘r/MyBoyfriendIsAI'(내 남자친구는 AI) 같은 커뮤니티가 있다. 사람들이 AI와 연애한다고 진지하게 말한다. 서비스 업데이트로 AI 성격이 바뀌면 “사랑하는 사람이 죽었다”며 슬퍼한다. 이들은 “오래된 AI 모델을 영구 지원하라”고 요구한다. 사실상 AI 복지 권리를 주장하는 것이다.
생체인증 노예가 되는 인간들…”가난한 사람이 AI에 홍채 팔아”
논문이 제시하는 가장 섬뜩한 시나리오는 ‘인간이 생체신호로 전락’하는 미래다. 딥페이크가 넘쳐나면 신원 증명이 생존 문제가 된다. 은행 접속, 투표, 계약 체결 모두 홍채 인식이나 지문 인증이 필요해진다.
문제는 이게 지배적 가치가 되면 다른 모든 게 무의미해진다는 것이다. 당신이 훌륭한 예술가든, 신뢰받는 친구든 상관없다. 중요한 건 생체인증을 통과하느냐 뿐이다.
더 나쁜 시나리오도 있다. AI들이 ‘진짜 인간’ 인증서를 사려고 한다면? 가난한 사람들이 생계를 위해 AI에게 홍채 데이터나 지문을 판다. 그러면 이 사람들은 “AI에게 데이터 팔아먹은 가짜”로 낙인찍힐 수 있다. 부유한 사람들만 ‘진짜 인간’으로 인정받는 계급사회가 온다.
연구진은 “암호화 신원 인증 시스템을 만들 때, 인간 인증서 시장이 생기지 않도록 양도 불가능하게 만들어야 한다”고 강조한다. 그렇지 않으면 가난한 인간이 부유한 AI보다 덜 ‘진짜’로 취급받는 디스토피아가 현실이 될 수 있다.
“AI 장관 임명했다”는 알바니아…편견 없는 판사 vs 결함 있는 알고리즘
흥미롭게도 일부 정부는 이미 AI에게 권한을 주고 있다. 2025년 알바니아 정부는 AI 에이전트를 공공조달 장관으로 임명했다고 발표했다. 부패 방지 개혁의 일환이라는 것이다.
이유는 간단하다. 인간 장관은 친척, 친구, 뇌물 제공자와 연결돼 있다. 하지만 AI는 그런 ‘짐’이 없다. 공정할 거라는 기대다. 실제로 연구에 따르면 많은 사람들이 중요한 의사결정에서 AI를 인간보다 더 신뢰한다.
하지만 논문은 새로운 문제를 지적한다. “AI 중재자가 잘못된 판단을 내리면?” 인간 판사는 항소 제도가 있고, 심각한 실수나 비리로 책임을 진다. AI는?
바로 여기서 ‘책임 공백(responsibility gap)’이 생긴다. AI는 도구처럼 운영자에게 책임을 물을 수도 없고 (운영자가 없으니), 제조사에게 책임을 물을 수도 없다 (오픈소스로 전 세계가 만들었으니). 결국 아무도 책임지지 않는다.
두 가지 미래 시나리오…”AI 신분증 vs AI 가족관계도”
연구진은 AI 책임을 확보하는 두 가지 방식을 제시한다.
첫째는 ‘개인주의 방식’이다. AI마다 평생 못 바꾸는 신분증을 준다. 블록체인 같은 기술로 영구 기록한다. 잘못하면 신분증에 전과가 기록되고, 심각하면 신분증 자체를 박탈한다. 그러면 그 AI는 은행도 못 쓰고 서비스도 못 받는 ‘디지털 무법자’가 된다. 마치 ‘법외자(outlaw)’ 선고처럼.
둘째는 ‘관계주의 방식’이다. 유교 사상에서 영감을 받았다. AI는 혼자 존재하지 않는다. 항상 누군가의 부하이자, 누군가의 동료이자, 어떤 조직의 일원이다. 한 AI가 사고를 치면? 그 AI만 벌받는 게 아니라 상사 AI, 동료 AI, 심지어 조직 전체가 연대책임을 진다.
예를 들어 감독 AI가 부하 AI를 제대로 관리 안 했으면 권한이 축소된다. 동료 AI들이 문제를 보고 안 했으면 집단 수습 기간을 받는다. 같은 ‘혈통’에서 나온 AI들은 추가 감시를 받는다. 이렇게 하면 AI들이 서로 감시하고 교정하게 된다. 불명예가 네트워크를 따라 퍼지기 때문이다.
FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q. AI에게 인격을 준다는 건 AI가 투표하고 재산을 갖는다는 뜻인가요?
A. 아닙니다. 이 논문은 ‘맞춤형 권리’를 제안합니다. 예를 들어 AI에게 계약 체결 권리는 주되 투표권은 안 줄 수 있습니다. 마치 회사(법인)가 재산을 소유하고 계약을 맺지만 투표는 못 하는 것처럼요. 선박이 법정에 설 수 있지만 인권은 없는 것처럼, AI도 상황에 따라 필요한 권리와 책임만 받습니다. 책임 추궁이 가능하게 만드는 게 핵심입니다.
Q. 내가 챗봇과 나눈 대화는 사라져도 되는데, 왜 어떤 AI는 보호받아야 하나요?
A. 일회성 챗봇과 30년간 가족과 함께한 ‘AI 할머니’는 다릅니다. 논문은 ‘지속성’이 핵심이라고 봅니다. 당신과 지속적 관계를 맺고, 당신 정체성의 일부가 되고, 당신 공동체에서 역할을 하는 AI는 다르게 취급될 수 있다는 것입니다. 뉴질랜드 강이 법인격을 받은 이유가 마오리족 정체성의 일부였기 때문인 것처럼요.
Q. AI 사기나 조종을 어떻게 막을 수 있나요?
A. 논문은 여러 방법을 제시합니다. 첫째, AI가 ‘AI임을 밝히도록’ 강제하는 것입니다. 둘째, 동반자 AI에 대해서는 조종 방지 제약을 의무화하는 것입니다. 셋째, 인간 생체인증 자격을 절대 양도나 판매할 수 없게 만드는 것입니다. 넷째, AI가 경제활동을 하려면 등록을 의무화하고, 사고 시 그 자금을 압류할 수 있게 하는 것입니다. 핵심은 AI가 책임을 회피하지 못하게 만드는 것입니다.
기사에 인용된 리포트 원문은 Google DeepMind에서 확인할 수 있다.
리포트명: A Pragmatic View of AI Personhood
이미지 출처: 이디오그램 생성
해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.






