AI 영상 생성 기업 런웨이(Runway)가 실시간 대화형 AI 캐릭터 기술을 출시하면서, 이 기술이 가져올 수 있는 위험성과 윤리 문제를 스스로 공개적으로 짚었다.
런웨이는 지난 12일 공식 블로그를 통해 사진 한 장으로 완전히 맞춤화된 대화형 캐릭터를 만들 수 있는 실시간 영상 에이전트 API, ‘런웨이 캐릭터스(Runway Characters)’를 출시했다고 밝혔다. 이 기술은 최근 공개한 세계 모델 ‘GWM-1’ 기반으로 구축됐으며, AI와의 상호작용 방식을 새로운 차원으로 끌어올린다는 평가를 받는다.
런웨이에 따르면 대화형 아바타(Avatar)는 디지털 경험을 보다 인간적으로 만들 수 있다. 텍스트 기반 챗봇도 기능하지만, 사람의 얼굴만큼 강하게 반응을 이끌어내지는 못한다. 눈 맞춤, 표정, 목소리 톤에 반응하도록 인간이 설계돼 있기 때문이다. 런웨이는 고객 응대를 덜 기계적으로 느껴지게 하거나, 학습 세션을 더 몰입감 있게 만드는 데 아바타가 기여할 수 있다고 설명했다.
접근성 측면에서도 가치가 있다. 언제든, 어떤 언어로든, 무한한 인내심으로 대응할 수 있는 아바타는 시차가 다른 지역의 고객이나 비판 없이 반복 연습이 필요한 학습자에게 실질적인 도움이 된다.
그러나 런웨이는 이러한 유용한 쓰임새와 동일한 기술이 심각한 위험도 만들어낸다고 솔직하게 인정했다. 가장 근본적인 문제는 아바타가 누구의 얼굴과 목소리를 사용할 수 있느냐는 것이다. 사진 한 장으로 캐릭터를 생성할 수 있는 만큼, 동의 없이 특정 인물처럼 보이고 들리는 아바타가 만들어질 가능성도 존재한다. 이는 초상권과 동의 문제로 직결된다.
런웨이는 합성 신원 공개(Synthetic Identity Disclosure) 문제도 제기했다. 사용자가 캐릭터와 대화할 때, 그것이 AI로 생성된 존재라는 사실을 항상 알아야 하느냐는 질문이다. 일부 맥락에서는 명백하지만, 그 경계가 흐려지는 상황도 있다.
사기와 조작의 위험도 크다. 사전 녹화된 딥페이크(Deepfake) 영상과 달리, 대화형 아바타는 질문에 답하고 맥락에 맞게 반응하며 실시간으로 반박을 극복할 수 있다. 이는 사기와 사회공학적(Social Engineering) 공격의 가능성을 크게 확대한다. 손자를 사칭한 사기꾼이 실제 대화를 나누고 감정적으로 반응할 수 있다면 훨씬 설득력이 높아진다.
인간은 본능적으로 얼굴을 신뢰한다. 눈 맞춤에서 진정성을 읽고, 표정에서 공감을 느낀다. 아바타는 이러한 신호를 매번 완벽하게 연출할 수 있으며, 그 이면의 상호작용이 실제로 그런 신뢰를 받을 자격이 있는지와 무관하게 작동한다.
항상 곁에 있고, 항상 주의를 기울이고, 항상 반응하는 아바타가 인간적 연결의 대체제가 될 수 있다는 점도 우려 사항이다. 특히 외롭거나 취약한 사용자들에게는 더욱 그렇다. 또한 사용자가 정신 건강 문제, 상실, 위기 상황을 아바타에 털어놓을 경우, 그 순간을 적절히 처리하는 것이 중요해진다.
안전 시스템 측면에서도 도전이 있다. 실시간 콘텐츠는 문제가 감지되기 전에 사용자가 이미 그것을 경험한 상태가 된다. 안전 시스템이 사후 대응이 아닌 예측 방식으로 작동해야 하는 이유다.
런웨이는 출시 시점에 아동, 공인(Public Figure), 저작권이 있는 IP(Intellectual Property) 콘텐츠가 포함된 아바타를 허가 없이 만드는 것을 금지하고 있다. 또한 의료, 법률, 금융 관련 조언을 제공하거나 전문 상담 및 치료 개입을 모방하는 용도로의 활용도 제한한다. 자신의 초상이 동의 없이 사용됐다고 판단될 경우 신고할 수 있는 창구도 마련했다.
런웨이는 현재 기술 수준에서 대부분의 사람들이 진짜 사람과 대화한다고 믿지 않겠지만, 기술이 발전할수록 이는 빠르게 달라질 것이라고 인정했다. 이 문제들을 완전히 해결했다고 생각하지 않는다면서도, 업계 파트너 및 정책 입안자들과의 협력을 통해 접근 방식을 지속적으로 업데이트하겠다는 의지를 밝혔다.
자세한 내용은 런웨이(Runway) 공식 블로그에서 확인할 수 있다.
이미지 출처: 런웨이






