Search

[AI는 이야기를 모른다] 제 1화 “흥미롭다”를 코드로 쓸 수 있을까?

AI 매터스 칼럼_AI는 이야기를 모른다 1화 썸네일 1
AI 매터스 칼럼_AI는 이야기를 모른다 1화 썸네일 1

나는 2015년부터 기계에게 이야기를 가르치는 일을 해왔다. 엔씨소프트에서 8년, 지금은 KT 미디어본부에서. 직함과 회사는 바뀌었지만 붙들고 있는 질문은 같다. AI는 정말 이야기를 아는 걸까.

AI가 글을 척척 써주는 시대가 됐지만, “그럴듯한 글”과 “좋은 이야기”는 다른 말이다. 그 차이를 현장에서 직접 부딪히며 10년을 보냈다. 이 연재는 그 시도와 실패, 그리고 그 과정에서 발견한 것들의 기록이다.

이 칼럼은 룰베이스 시대의 실험부터 LLM 등장 이후까지를 다룬다. AI 글쓰기 도구를 쓰면서 뭔가 부족하다고 느낀 적 있다면, 혹은 창작과 기술 사이 어딘가에 서 있다면, 이 기록이 그 감각에 말을 붙여줄 수 있을 것이다.


1. 곰은 배가 고프다.

1977년, 예일대학교의 컴퓨터 과학자 제임스 미헌은 기계에게 이야기를 가르치려 했다. 테일스핀(TALE-SPIN)이라는 시스템이었다. 캐릭터마다 목표와 신념을 부여하고, AI가 그것을 추론해 사건의 연쇄를 만들어내는 방식이었다. 곰은 배가 고프다. 꿀이 필요하다. 강을 건너야 한다. 이런 식으로 이야기가 흘러가도록 설계됐다.

그런데 버그가 생겼다. 어느 날 시스템이 이런 이야기를 출력했다.

Henry Ant was thirsty. He walked over to the river bank where his good friend Bill Bird was sitting. Henry slipped and fell in the river. He was unable to call for help. He drowned.

헨리 개미는 목이 말랐다. 그는 강둑으로 걸어갔고, 그곳에는 절친한 친구 빌 새가 앉아 있었다. 헨리는 미끄러져 강에 빠졌다. 그는 도움을 청할 수 없었다. 그는 익사했다.


빌 새는 옆에 있었다. 절친한 친구였다. 아무것도 하지 않았다.

이유는 단순했다. 시스템이 ‘위치 변화로부터 상대방의 존재를 인식한다’는 추론을 아직 갖추지 못했기 때문이었다. 빌은 헨리가 강에 빠진 것을 몰랐다. 몰랐기 때문에 구하지 않았다. 논리적으로는 버그였다. 그런데 읽는 사람에게는 차갑고 잔인한 이야기가 됐다.

목표는 있었다. 논리도 맞았다. 다만 이야기가 아니었다.

미헌은 이런 결과물들을 모아 “mis-spun tales”라고 불렀다. 잘못 지어진 이야기들. 테일스핀(TALE-SPIN)을 만든 그는 이것들을 연구실 복도 벽에 붙여두고 동료들과 돌아봤다고 한다. 그런데 돌아보면, 이 실패들이 오히려 이 분야 전체의 핵심 문제를 처음으로 가시화했다. 이야기를 구성하는 논리를 기계가 따라가는 것과, 그 이야기가 실제로 흥미로운 것은 완전히 다른 문제라는 사실을.

2. 문법을 만들면 이야기가 생길 거라 믿었던 시대

테일스핀(TALE-SPIN) 이후, 연구자들은 더 정교한 규칙을 만들기 시작했다. 러시아 민담학자 블라디미르 프로프(Vladimir Propp)가 1928년에 정리한 31개의 서사 기능은 특히 매력적이었다. 주인공이 등장하고, 악당이 나타나고, 시련을 겪고, 극복한다. 이 구조를 코드로 변환하면 어떨까.

1980년대 들어 여러 시스템이 이 발상을 실험했다. 프로프(Propp)의 인물 유형을 에이전트로 만들고, 각 기능을 플래닝 알고리즘의 연산자로 변환했다. 아리스토텔레스의 《시학》도 소환됐다. 역전(페리페테이아), 인지(아나그노리시스), 카타르시스. 극적 구조의 원형을 기계어로 번역하려는 시도였다.

1996년에 만들어진 브루투스(BRUTUS)는 이 방향의 가장 야심찬 사례 중 하나였다. 배신이라는 단 하나의 주제에 집중해, 배신의 필요충분조건을 논리 공리로 정의했다. 이야기는 그 공리를 충족하는 사건 시퀀스의 증명으로 생성됐다. E.M. 포스터(E.M. Forster)의 캐릭터 이론까지 끌어왔다.

2003년 파사드(Façade)는 아리스토텔레스의 4원인론을 AI 드라마 아키텍처에 직접 대응시켰다. 개발자 마이클 마티아스(Michael Mateas)는 자신의 박사논문을 ‘네오-아리스토텔레스 드라마 이론’이라고 명명했다. 질료인, 형상인, 동력인, 목적인이 각각 시스템의 서로 다른 구성 요소가 됐다.

이 시도들은 진지했다. 오래된 인문학 이론을 코드로 번역하는 것이 가능하다는 믿음도 틀리지 않았다. 플롯의 인과 체인은 실제로 만들 수 있었고, 아리스토텔레스의 역전도 프로프(Propp)의 31개 기능도 프로그래밍 가능한 형태로 변환됐다.

다만 이야기를 읽는 사람이 그 이야기에 끌리는가 하는 문제는 전혀 건드리지 못했다.

3. 이야기를 말하는 언어와 만드는 언어

2020년, 나는 엔씨소프트 AI 팀에서 비슷한 질문을 붙들고 있었다. LLM이 등장하기 전이었다. 목표는 “스토리 흥미도 측정”이었다. 게임 안에서 자동으로 생성되는 이야기가 플레이어에게 흥미롭게 느껴지는지를 시스템이 판단할 수 있다면, 좋은 이야기만 걸러내거나 실시간으로 조율하는 것도 가능해진다는 발상이었다.

이야기의 긴장도, 사건의 밀도, 캐릭터 감정의 기복. 이것들을 구조로 설명하는 것은 할 수 있었다. 어떤 장면이 왜 흥미로운지, 어떤 사건 배치가 긴장을 만드는지, 스토리 문법론으로 풀어내는 것도 가능했다.

막힌 곳은 그 다음이었다.

설명한 구조를 코드로 옮기려면, 개발자가 이야기를 구조로 볼 수 있어야 했다. 그런데 코드를 잘 짜는 것과 이야기가 왜 흥미로운지를 아는 것은 다른 능력이었다. 가이드를 작성해줘도 어디서부터 시작해야 하는지, 나온 결과물이 맞는 방향인지 판단하기 어려워했다. 같은 말을 몇 번씩 다른 방식으로 설명해도 코드는 좀처럼 움직이지 않았다.

결국 그 연구는 실제 서비스에 적용되지 못하고 끝났다. 연구를 위한 연구로 남았다.

1980년대 연구자들이 프로프(Propp)과 아리스토텔레스를 코드로 번역하려다 실패한 것과 어딘가 닮아있다. 그들은 이야기의 구조를 너무 잘 알았다. 그래서 그것을 기계어로 바꿀 수 있을 거라 믿었다. 우리도 비슷했다. 문제는 이야기를 아는 언어와 코드를 짜는 언어가 처음부터 다른 곳에서 출발한다는 것이었다.

4. 50년이 지나도 남아있는 질문

룰베이스 시대의 AI 스토리텔링 연구를 지금 읽으면 종종 감동적이다. 아리스토텔레스의 4원인론을 코드로 변환하려는 진지함, 민담의 문법을 플래닝 알고리즘으로 바꾸려는 집요함. 이 사람들은 인문학을 얕잡아보지 않았다. 오히려 너무 깊이 믿었다.

그 믿음 자체가 틀리지는 않았다. 구조는 이야기를 설명하는 데 도움이 된다. 3막 구조, 영웅의 여정, 맥키(McKee)의 Gap 이론이 여전히 유효한 이유가 있다. 다만 그 구조를 따른다고 해서 흥미로운 이야기가 자동으로 나오는 것은 아니다. 구조는 필요조건이지 충분조건이 아니다.

“흥미롭다”는 감각이 어디서 오는지를 기계가 모른다면, 기계는 이야기를 만들 수 있어도 이야기를 안다고는 말할 수 없다.

그리고 흥미롭게도, 이 문제는 LLM이 등장하고 나서도 사라지지 않았다.

AI 매터스 유튜브 구독자 추첨 도서 증정 이벤트 배너_박태웅의 AI 강의 2026 증정