인공지능(AI) 업계 양대 거물인 오픈AI(OpenAI)와 앤트로픽(Anthropic)이 치열한 경쟁 관계에도 불구하고 서로의 AI 모델을 이용해 안전성 테스트를 실시했다고 테크크런치(TechCrunch)가 27일 보도했다. 두 회사는 이번 공동 연구를 위해 각자의 핵심 AI 모델에 대한 특별 API 접근 권한을 상대방에게 제공했다. 이는 자사 내부 평가에서 놓칠 수 있는 안전성 취약점을 발견하기 위한 조치다. 오픈AI는 당시 출시되지 않은 GPT-5는 이번 테스트에서 제외됐다고 밝혔다.
테크크런치와의 인터뷰에서 오픈AI 공동창립자 보이치에흐 자렘바(Wojciech Zaremba)는 “수백만 명이 매일 AI를 사용하는 중요한 시점에서 이런 협력이 점점 더 필요하다”고 말했다. 그는 “수십억 달러가 투자되고 인재 확보 전쟁이 벌어지는 상황에서도 업계가 안전성과 협력 기준을 어떻게 세울 것인가가 더 큰 과제”라고 강조했다.
이번 협력은 AI 업계의 치열한 경쟁 상황에서 나온 이례적 사례다. 현재 주요 AI 기업들은 수십억 달러 규모의 데이터센터 투자와 연구진 확보를 위한 1억 달러대 보상 패키지 경쟁을 벌이고 있다. 일부 전문가들은 이런 과도한 경쟁이 더 강력한 AI 시스템 개발 과정에서 안전성을 소홀히 할 위험이 있다고 경고하고 있다.
흥미롭게도 이번 안전성 연구 직후 앤트로픽은 오픈AI의 다른 팀에 대한 API 접근을 차단했다. 앤트로픽은 오픈AI가 경쟁 제품 개발에 클로드(Claude) 모델을 사용하는 것을 금지하는 서비스 약관을 위반했다고 주장했다.
자렘바는 두 사건이 관련 없다고 선을 그으며 “안전팀 간 협력이 시도되더라도 경쟁은 여전히 치열할 것”이라고 말했다. 앞으로 두 회사는 안전성 테스트 협력을 확대하고 다른 AI 연구소들도 이런 협력적 접근법을 따르기를 희망한다고 밝혔다.
해당 기사의 원문은 테크크런치에서 확인 가능하다.
이미지 출처: 오픈AI