Search

혹시 투기? 정의 모호한 AGI에 역사상 최대 투자금 몰려… ‘AGI’를 둘러싼 9가지 불확실성

Deep Hype in Artificial General Intelligence: Uncertainty, Sociotechnical Fictions and the Governance of AI Futures
이미지 출처: 이디오그램 생성

카탈루냐 개방 대학(Universitat Oberta de Catalunya)의 안드레우 벨순세스 곤살베스(Andreu Belsunces Gonçalves) 연구원이 발표한 이번 연구는 인공일반지능(AGI)을 둘러싼 과대광고 현상을 분석했다.

2023년 1월 마이크로소프트가 오픈AI(OpenAI)와 100억 달러 규모의 파트너십을 발표했다. 이는 AI 업계 역사상 최대 규모의 전략적 제휴였으며, AGI 달성이 주요 목표 중 하나였다. 2025년 4월에는 오픈AI가 소프트뱅크를 비롯해 마이크로소프트, 코튜(Coatue) 등으로부터 400억 달러를 투자받아 3000억 달러로 기업가치를 평가받았다. 이는 민간 기술 스타트업 단일 투자 라운드 역사상 최고 기록이다.

그런데 역설적이게도 AGI는 AI 연구의 목표가 되었음에도 여전히 논란이 많고 정확한 정의가 없는 용어다. 일부 연구자들은 현재 AI 기술로는 AGI를 만들 수 없다고 주장하는 반면, 다른 연구자들은 대형언어모델이 이미 AGI를 구현했다고 주장한다.

AGI는 흔히 “인간 수준 AI”, “초지능”, “강한 AI” 등의 용어와 혼용되며, 인간의 모든 인지 기능을 자동화하고 뛰어넘는 시스템으로 이해된다. 하지만 대부분의 AGI 논문들은 “일반적(general)”이 실제로 무엇을 의미하는지 정의하지 않으며, 정의를 내릴 때도 얼마나 “일반적”이어야 하는지에 대한 의견이 크게 다르다.

벤처캐피털이 만든 4가지 투기 구조

이 연구는 AGI 열풍의 배경에 벤처캐피털의 투기적 성격이 있다고 분석한다. 벤처캐피털은 네 가지 방식으로 투기를 벌인다고 설명했다.

첫째는 상상적 투기다. 어떤 신기술이 새로운 산업을 만들지 예측하고, 먼 미래의 시장 상황을 상상하며, 기술 발전과 경제적 기회를 연결하는 이야기를 만든다.

둘째는 금융적 투기로, 당장 수익을 내지 못하는 회사에 투자하면서 급속한 성장 가능성에 베팅한다.

셋째는 기술적 투기인데, 아직 존재하지 않는 기술이 엄청난 수익을 가져다줄 것이라고 믿고 투자한다.

마지막으로 윤리적 투기는 인류의 미래를 보호한다고 주장하는 프로젝트들에 투자하면서 자신들을 장기적 생존의 관리자로 포장하는 것이다.

오픈AI의 샘 알트만 CEO가 대표적인 예다. 그는 원래 벤처캐피털리스트로 경력의 절반 이상을 벤처캐피털 업계에서 보냈다. 오픈AI 초기 투자자로는 일론 머스크와 피터 틸 같은 기술 리더들이 참여했다.

‘딥 하이프’라는 새로운 과대광고 메커니즘

연구자는 AGI를 둘러싼 현상을 ‘딥 하이프(Deep Hype)’라는 새로운 개념으로 설명한다. 딥 하이프는 기존 과대광고와 다른 특징을 가진다. 기존 과대광고가 짧은 기간 동안 특정 기술이나 제품에 집중한다면, 딥 하이프는 장기적이며 문명 전체의 변화를 약속한다.

딥 하이프는 여러 불확실성들이 얽혀 있는 네트워크를 통해 작동한다. 이런 불확실성들은 정의되지 않은 미래로 뻗어 있어서 현재 시점에서는 약속들을 검증하기가 거의 불가능하다. 그 결과 기존 과대광고의 짧은 기회의 창을 확장시켜서 지속적인 투자와 관심을 끌어낼 수 있다.

AGI는 핵융합, 양자컴퓨팅, 뇌-컴퓨터 인터페이스와 마찬가지로 항상 “손에 닿을 듯하면서도 동시에 문명을 바꿀 힘”으로 포장된다. 이런 모호한 시간표 덕분에 지지자들은 AGI가 불가피하면서도 예측할 수 없다고 주장할 수 있다.

AGI를 둘러싼 9가지 불확실성 분석

연구는 AGI 딥 하이프를 떠받치는 불확실성들을 9개 영역으로 나누어 분석했다. 구성적 불확실성 4개와 결과적 불확실성 5개다.

구성적 불확실성으로는 개념적 불확실성이 있다. AGI가 무엇을 의미하는지에 대한 지속적인 논란이다.

적용 불확실성은 AGI가 실제로 무엇을 할 수 있을지 모르겠다는 것이다.

시간적 불확실성은 AGI가 언제 등장할지에 대한 예측이 천차만별이라는 점이다. 2011년 딥마인드 공동창립자 셰인 레그는 2028년까지 AGI가 나올 확률을 50%로 봤고, 2024년 9월 알트만은 “수천 일” 안에 초지능이 나올 것이라고 했다. 한 달 뒤 앤스로픽의 다리오 아모데이 CEO는 2026년 또는 훨씬 늦을 수도 있다고 했다.

가치 불확실성은 AGI의 경제적 가치에 대한 애매함이다. 다른 AI 기술과 달리 AGI는 명확한 비즈니스 모델이나 수익 창출 방법이 없다. 오픈AI와 마이크로소프트는 AGI 달성을 기술적 목표가 아니라 최소 1000억 달러 수익 달성으로 정의했다는 보고도 있다.

결과적 불확실성으로는 거버넌스 불확실성이 있다. AGI가 권력과 통치, 기술 미래의 민주적 형성에 미칠 영향에 대한 불확실성이다.

경제적 불확실성은 생산성, 노동, 경제 시스템 재편에 미칠 영향이고, 지정학적 불확실성은 미국과 중국 간 “AGI 군비경쟁”에 대한 우려다.

실존적 불확실성은 AGI가 인류 생존에 미칠 위협과 기회에 대한 것이고, 윤리적 불확실성은 AGI 개발이 윤리적 의무인지에 대한 논란이다.

민주적 감시를 회피하는 기술정치 도구

연구는 AGI 딥 하이프가 단순한 기술 개발이 아니라 특정 정치적 목적을 위한 도구로 사용된다고 분석한다. AGI 지지자들은 주로 사이버 자유주의자들과 장기주의자들이다. 이들은 민주적 시장과 기술 규제를 거부하고, 기술 혁신의 본질적 해방력을 믿으며, 인류의 밝은 미래를 위해서는 현재의 희생도 정당하다고 본다.

벤처캐피털리스트 마크 안드리센이 2023년 발표한 “기술 낙관주의자 선언”이 대표적이다. 이 글에서 그는 기술 발전 가속화를 위해 모든 제약을 없애야 한다고 주장했다. “AI로 해결할 수 있는 죽음의 원인들이 많다. 자동차 사고부터 팬데믹, 전쟁 중 오인 사격까지”라며 “AI 개발 지연은 생명을 앗아간다. AI 개발을 막아서 예방할 수 있었던 죽음은 일종의 살인”이라고 했다.

이런 주장들은 불확실성과 소셜테크니컬 허구를 통해 민주적 감시를 회피하고 규제를 구식으로 만들며, 민간 행위자들을 인류 기술 운명의 정당한 관리자로 자리매김시킨다는 것이 연구의 분석이다.

FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)

Q: AGI와 일반 AI는 어떻게 다른가요?

A: 일반 AI는 특정 작업을 위해 만들어진 반면, AGI는 인간이 할 수 있는 모든 지적 작업을 수행할 수 있는 시스템을 말합니다. 하지만 AGI의 정확한 정의는 아직 학계에서도 논란이 많습니다.

Q: 딥 하이프는 기존 과대광고와 어떻게 다른가요?

A: 기존 과대광고가 짧은 기간 특정 제품에 집중한다면, 딥 하이프는 장기적이며 문명 전체의 변화를 약속합니다. 불확실한 미래에 대한 약속이라서 현재 검증하기 어렵고, 그래서 더 오래 지속될 수 있습니다.

Q: 왜 AGI 개발이 정치적 문제가 되나요?

A: AGI를 개발하는 기업들이 규제를 피하려 하고, 민간 주도의 기술 발전을 주장하면서 민주적 감시와 공적 책임을 약화시킬 수 있기 때문입니다. 소수의 기업이 인류 미래에 큰 영향을 미치는 기술을 독점할 위험이 있습니다.

해당 기사에 인용된 논문 원문은 arvix에서 확인 가능하다.

논문 명: Deep Hype in Artificial General Intelligence: Uncertainty, Sociotechnical Fictions and the Governance of AI Futures

이미지 출처: 이디오그램 생성

해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.




혹시 투기? 정의 모호한 AGI에 역사상 최대 투자금 몰려… ‘AGI’를 둘러싼 9가지 불확실성 – AI 매터스 l AI Matters