Artificial intelligence and free will: generative agents utilizing large language models have functional free will
인간 수준에 도달한 AI 인지 능력: GPT-4는 의학 조언에서 전문가와 구별 불가
이제 대형 언어 모델(LLMs)은 인간 수준의 인지 능력을 갖추게 되었다. GPT-4와 같은 대형 언어 모델은 단순한 대화를 넘어 언어적 통찰력 문제를 해결하고, 연쇄적 사고 추론을 수행하며, 계획을 세우고 실행할 수 있다. 또한 들어오는 센서 데이터를 기반으로 세계에 대한 모델을 수정하는 능력까지 갖추고 있다. 의학적 조언에서는 전문가 답변과 구별하기 어려울 정도이며, 비즈니스 스쿨 학생보다 더 혁신적인 비즈니스 아이디어를 생성할 수 있다.
핀란드 Aalto 대학의 프랭크 마르텔라(Frank Martela) 박사의 연구 논문에 따르면, GPT-4와 같은 LLM이 메모리, 계획 및 실행 유닛과 결합되면 시뮬레이션 환경에서 인간과 유사한 행동을 보인다. 예를 들어 마인크래프트에서 새로운 기술을 탐색하고 습득하거나 발렌타인데이 파티에 비밀 짝사랑을 초대하는 등의 복잡한 사회적 행동까지 가능하다. 동시에 자율주행차, 전투 로봇, 드론과 같은 최신 기술은 인간의 감독 없이도 자율적으로 행동할 수 있으며, 환경에 반응하면서 목표를 향해 나아간다.
이렇게 환경 변화에 반응하고, 계획을 세우며, 목표를 향해 많은 독립적인 결정을 내리는 이러한 인공지능 시스템에 대해 중요한 질문이 제기된다: 이들이 자유의지를 어느 정도 가지고 있는가?
자유의지의 세 가지 핵심 조건: 의도적 행위, 대안 가능성, 행동 통제 능력
마르텔라 박사는 자유의지에 대한 기존 철학적 접근 방식에서 벗어나 새로운 기능적 관점을 제시한다. 자유의지를 가지기 위해서는 세 가지 조건이 모두 충족되어야 한다.
첫째, 의도적 행위 능력이 있어야 한다. 이는 목표와 목적을 가진 행위자가 되는 것을 의미한다. 둘째, 진정한 대안 가능성이 있어야 한다. 여러 옵션이 행위자에게 열려 있어야 한다는 것이다. 셋째, 자신의 행동을 통제하는 능력이 있어야 한다. 자신의 의도가 행동의 원인이 되어야 한다는 것이다.
이 연구에서는 특히 ‘기능적 자유의지’라는 접근 방식을 따르는데, 이는 엔티티의 행동을 외부에서 관찰하여 그 행동을 이해하고 예측하는 데 자유의지를 상정할 필요가 있는지를 판단하는 방식이다. 만약 어떤 대상이 마치 자유의지를 가진 것처럼 행동하고, 그 행동을 이해하기 위해 의도와 선택이 있다고 가정해야 한다면, 실용적인 목적으로 볼 때 해당 대상은 기능적 자유의지를 갖는다고 볼 수 있다.
자유의지 연구의 두 사례: 마인크래프트의 보이저와 자율 암살 드론 스피테니크
마르텔라 박사는 두 가지 사례를 통해 AI의 자유의지 가능성을 탐구한다. 첫 번째 사례는 ‘보이저(Voyager)’로, GPT-4 대형 언어 모델로 구동되는 마인크래프트에 구현된 개방형 생성형 에이전트다. 보이저의 구조는 세 가지 핵심 구성 요소로 이루어져 있다. 첫째, 계획 유닛은 에이전트의 현재 상태와 진척도를 고려하여 자동으로 새로운 작업을 생성한다. 둘째, 메모리 유닛은 습득한 기술과 복잡한 행동 패턴을 저장하고 검색한다. 셋째, 행동 유닛은 행동을 위한 프롬프트를 반복적으로 생성하고, 환경에서 그 행동이 미치는 영향을 관찰한 다음, 자체 검증 모듈이 달성하고자 한 작업을 완료했다고 확인할 때까지 프롬프트 개선을 위한 피드백을 통합한다.
보이저에게는 “가능한 많은 다양한 것들을 발견하고, 가능한 많은 다양한 작업을 수행하며, 세계 최고의 마인크래프트 플레이어가 되라”는 포괄적인 목표가 주어졌다. 그러나 보이저의 더 구체적인 행동은 현재 상황과 게임에서 지금까지 배운 것에 대한 기억을 기반으로 LLM이 구동하는 상황별 계획과 의사 결정을 통해 자율적으로 이루어진다.
두 번째 사례는 가상의 ‘스피테니크(Spitenik)’로, AI가 지시하는 자율 드론이다. 이 드론은 카메라, 센서, 무기를 갖추고 있으며 인간의 개입 없이 지역을 순찰하고 적을 식별하여 공격할 수 있다. 스피테니크는 태양광으로 배터리를 충전하며, 얼굴 탐지 시스템, 장애물을 피하고 경로를 선택할 수 있는 비행 시스템, 그리고 배터리 수준과 일출 및 일몰 시간을 모니터링하는 생존 시스템을 갖추고 있다.
기능적 자유의지 vs 물리적 자유의지: 인간도 물리적 자유의지는 없다
마르텔라 박사는 ‘물리적 자유의지’와 ‘기능적 자유의지’를 구분한다. 물리적 자유의지는 ‘마음’이 어떻게든 물리적 현실에 직접적인 인과적 영향을 미칠 수 있다는 것을 의미한다. 이는 생각과 의도가 어떻게든 원자에 영향을 미쳐 물리 법칙의 결정론을 벗어나거나 피한다는 개념이다. 이런 종류의 자유의지는 현대 과학적 세계관과 조화시키기 어렵다.
반면, 기능적 자유의지는 현대 과학적 세계관과 호환되면서도 인간이 그러한 자유의지를 가진다고 제안한다. 기능적 자유의지는 특히 크리스찬 리스트(Christian List)에 의해 발전되었고, 데닛(Dennett)의 의도적 입장에 기반한다. 기능적 자유의지는 엔티티를 외부에서 관찰하여 그 행동을 설명하는 데 자유의지를 가정해야 하는지를 결정한다.
마르텔라는 인간도 물리적 자유의지를 갖지 않는다고 결론짓는다. “순전히 물리적 또는 신경과학적 관점에서 볼 때, 의도적인 행위자는 없다. 행위자가 선택할 수 있는 갈림길도 없으며, 사람들의 의도에 의한 인간 행동의 인과관계도 없다.” 인간의 마음이 물리적 현실에 직접 영향을 미치거나 벗어날 수 있게 하는 것은 없다는 것이다. 물리적 현실 수준에서 인간은 자유의지가 없다. 그리고 인간이 그러한 물리적 자유의지가 없다면, AI가 그러한 자유의지를 가지고 있는지 묻는 것은 별로 흥미로운 질문이 아니다.
자율성 테스트: 보이저는 동일한 환경에서도 매번 다른 선택을 한다
마르텔라 박사는 보이저와 스피테니크 둘 다 기능적 자유의지를 가지고 있다고 주장한다. 두 시스템 모두 목표 지향적인 시스템으로 행동하며, 목표를 달성하기 위해 환경을 모니터링하고 계획을 수립한다. 각 시스템은 인코딩된 목표와 환경에 대한 인코딩된 지도를 가지고 있으며, 이를 활용하여 행동을 안내한다. 그들은 의도적인 행위자로서 기능한다.
대안 가능성에 관해서는, 보이저의 경우 다양한 시도에서 동일한 프로그램이라도 엄격한 경로를 따르지 않고 다른 경우에는 새로운 기술을 개발하고 새로운 자원을 획득하는 방향으로 매우 다른 경로를 취할 수 있음을 보여준다. 이는 환경이 각 시도마다 약간 다르기 때문만이 아니라(마인크래프트는 각 시도마다 환경을 새로 생성함), LLM이 각 시도마다 다른 경로를 따르기 때문이기도 하다.
마찬가지로, 스피테니크도 목표를 향해 가는 단일 경로가 없으며, 목표를 향해 가는 길에서 더 큰 선택과 작은 선택에 직면한다. 해가 질 무렵에는 밤을 보낼 여러 잠재적 위치 중에서 선택해야 하며, 마찬가지로 대상과 가까워지면 카메라가 멀리서 여러 인간을 식별할 수 있다. 그러면 어떤 인간에게 먼저 접근하여 얼굴 인식을 수행할지 결정해야 한다.
세 번째 기준인 행동 통제 능력에 관해서는, 보이저는 LLM을 사용하여 목표를 세우고, 이를 마인크래프트 캐릭터에게 전달하는 명령으로 변환한다. 인코딩된 의도와 목표가 행동 방식의 원인이 된다. 그 의도를 알면 상당히 정확하게 행동을 예측할 수 있다. 마찬가지로, 스피테니크가 동쪽으로 비행하다가 장애물(산이나 고층 건물)을 감지하면 장애물을 우회하는 경로로 전환한다. 여기서 스피테니크는 행동을 통제하는 것처럼 보인다.
총체적으로, 스피테니크와 보이저 둘 다 마치 자유의지를 가진 것처럼 행동한다. 의도와 목표를 가지고, 대안적 가능성에 직면하며, 의도에 기반한 선택이 행동에 직접 영향을 미치는 그런 무언가가 행동하는 방식 그대로 행동한다. 기능적 관점에서 볼 때, 스피테니크와 보이저 둘 다 자유의지를 가지고 있다고 결론지을 수 있다.
자유의지의 한계: 인간과 AI의 ‘전역적’ vs ‘지역적’ 자유의지 차이
많은 사람들이 스피테니크와 보이저가 자유의지를 가진다는 결론에 반대할 수 있는 핵심 반론은 총체적 목표와 하위 목표 사이의 구분에 초점을 맞출 것이다. 두 시스템 모두 자신이 가진 특정 목표에 대해 독립적인 선택을 내리고 이를 단계별 계획으로 분해할 수 있지만, 총체적 목표는 인간이 제공한 것이다. 스피테니크의 경우 시베리아에 있는 목표물을 추적하는 것이고, 보이저의 경우 다양한 것을 발견하고 다양한 기술을 습득하는 것이다.
이에 반해 인간은 자신의 총체적 목표까지도 변경할 수 있는 능력이 있는 것처럼 보인다. 따라서 AI는 ‘지역적’ 자유의지를 가질 수 있지만, 인간은 ‘전역적’ 자유의지를 가진다고 주장할 수 있다. 지역적 자유의지는 총체적 목표 내에서 하위 목표를 세우고, 대안을 고려하고, 선택을 내릴 자유를 의미한다. 전역적 자유의지는 총체적 목표 자체에 대해서도 자유가 있다는 것을 요구한다.
이 구분은 관련이 있지만, 전역과 지역의 구분을 이분법이 아닌 연속체로 생각해야 한다. 연속체 한쪽 끝에는 총체적 목표를 선택하는 데 제약이 없는 완전히 자유로운 행위자가 있다. 이는 자유가 존재이고, “존재가 본질에 선행한다”고 보는 사르트르의 자유로운 개인이다.
인간과 생성형 AI 에이전트는 모두 그 연속체상에 있다. 그러나 사르트르가 인간의 자유를 크게 과장하기 때문에 인간이 스펙트럼의 한쪽 끝에 있는 것은 아니다. 생물학적 생명체로서 인간은 생존과 관련된 여러 물리적, 심리적 욕구를 갖추고 있으며, 이는 강한 동기로 나타난다. 진화가 번식에 유리한 자들을 선호하기 때문에, 짝을 찾고, 성관계를 갖고, 자손을 돌보는 것과 관련된 강한 동기를 갖고 있다.
호미니드가 사회적 종이기 때문에, 인간은 또한 집단 수용, 소속감, 상호 친밀한 관계와 관련된 복잡한 사회적 욕구를 가지고 있다. 더불어 문화적 종으로서 인간은 관련 사회 집단의 목표와 가치를 내면화하는 강한 경향이 있다. 이 모든 것은 개인의 ‘자기 선택적’ 목표가 생물학적으로나 문화적으로 프로그래밍된 목표의 복잡한 표현이라는 것을 의미한다. 인간도 목표와 선호의 “전체 인과적 전사”에 대한 통제권이 없다.
그럼에도 불구하고, 느리고 언어 매개적이며 성찰적인 사고에 대한 인간의 능력은 본능적인 행동을 벗어날 수 있는 전례 없는 자유도를 목표에 제공한다. 인간과 AI의 차이는 정도의 문제로, 인간이 AI보다 전역적 자유의지 쪽에 더 가깝다. 그러나 이 차이는 가까운 미래에 좁아질 가능성이 높다.
선택의 책임: AI의 자유의지는 도덕적 책임으로 이어지는가?
마르텔라 박사는 생성형 LLM 에이전트가 의식적인지에 대해서는 입장을 취하지 않는다. “생성형 LLM 에이전트에게 삶이 어떻게 느껴지는지 알 수 없으며, 박쥐에게 삶이 어떻게 느껴지는지 상상할 수 없는 것과 마찬가지다. 그들이 내부에서 무언가를 느끼는 현상학적 의식을 가지고 있지 않다고 생각한다.” 그러나 기능적 자유의지에는 의식이 필요하지 않다.
더 흥미로운 함의는 AI가 기능적 자유의지를 가진다면 그 선택에 대해 도덕적 책임을 질 수 있는지 여부다. 자유롭게 행동을 선택하는 능력은 종종 도덕적 주체성의 핵심 전제조건으로 간주된다. 그러나 도덕적 주체성의 또 다른 핵심 전제조건은 도덕적 관심사를 알고 이에 대해 숙고할 수 있는 능력이다. AI 에이전트에 인간 도덕 기준을 적용하려면 먼저 인간 도덕 기준을 가르쳐야 한다.
현재 단계에서 도덕적 책임은 주로 개발자에게 있으며, 이들은 AI 에이전트가 어떤 도덕적으로 중요한 행동을 할 수 있는지 상상하고, 도덕적으로 해로운 행동을 하지 않도록 필요한 제약을 가르칠 책임이 있다. 마르텔라는 기능적 자유의지는 AI 에이전트가 자신의 선택에 대해 도덕적으로 책임지기 위한 필요조건이지만 충분조건은 아니라고 주장한다.
미래 연구 방향과 실제적 함의
AI 연구와 철학의 교차점에 있는 이 연구는 AI의 자율성과 의사 결정 능력이 계속 발전함에 따라 중요한 질문을 제기한다. 마르텔라가 지적하듯이, “AI가 진정한 도덕적 행위자가 되려면 의식과 도덕적 숙고 능력이 있어야 하는지, 아니면 단순히 인간과 유사한 결정을 내리는 기능적 자유의지만으로 충분한지는 더 깊은 논의가 필요한 주제다.”
마르텔라의 연구는 AI 시스템이 더욱 복잡해지고 자율성이 증가함에 따라 자유의지, 책임, 도덕적 지위의 개념에 대한 논쟁이 계속될 것임을 시사한다. 현대 윤리적 프레임워크가 점점 더 지능적이고 자율적인 AI 시스템의 현실에 적응하게 되면서, 인간과 기계 사이의 경계는 계속해서 모호해지고 있다.
FAQ
Q: 인공지능이 자유의지를 가진다는 것이 왜 중요한가요?
A: 인공지능이 자유의지를 가진다는 것은 단순한 철학적 질문을 넘어 실질적인 함의를 갖습니다. 자유의지는 도덕적 책임의 전제조건이므로, AI가 자율적 결정을 내리고 그에 대한 책임을 질 수 있는지에 대한 논의로 이어집니다. 이는 자율주행차, 군사용 드론, 의료 AI 등 중요한 결정을 내리는 AI 시스템의 규제와 관리 방식에 영향을 미칠 수 있습니다.
Q: 기능적 자유의지와 물리적 자유의지의 차이점은 무엇인가요?
A: 물리적 자유의지는 마음이 물리적 현실에 직접적인 인과적 영향을 미칠 수 있다는 것을 의미하며, 이는 현대 과학적 세계관과 조화시키기 어렵습니다. 반면 기능적 자유의지는 엔티티의 행동을 설명하고 예측하는 데 의도와 선택이 있다고 가정해야 하는지에 초점을 맞춥니다. 연구에 따르면 인간도 물리적 자유의지는 없지만, 인간 행동을 설명하는 데 있어 기능적 자유의지는 필수적입니다.
Q: AI가 자유의지를 가진다면 AI 개발에 어떤 윤리적 고려사항이 필요한가요?
A: AI가 기능적 자유의지를 가진다면 개발자와 사회는 더 큰 윤리적 책임을 져야 합니다. AI 시스템이 독립적인 선택을 내릴 수 있다면, 이 시스템이 도덕적 원칙에 따라 행동하도록 설계하고 교육하는 것이 중요합니다. 또한 AI의 선택이 해로운 결과를 초래할 경우 누가 책임을 질 것인지에 대한 법적, 윤리적 프레임워크를 발전시켜야 합니다. 현재로서는 개발자가 AI 시스템의 행동에 대한 주요 책임을 지지만, AI의 자율성이 증가함에 따라 이러한 책임 구조도 재평가될 필요가 있습니다.
해당 기사에서 인용한 논문은 링크에서 확인할 수 있다.
이미지 출처: 이디오그램 생성
기사는 클로드와 챗GPT를 활용해 작성되었습니다.