오픈AI가 코딩할 때 답변을 기다릴 필요 없이 실시간으로 대화하듯 작업할 수 있는 초고속 AI 모델을 내놨다. 12일(현지 시각) 공개한 ‘GPT-5.3-Codex-Spark’는 초당 1,000개 이상의 단어를 생성하며 거의 즉각적으로 반응한다.
이 모델의 가장 큰 특징은 속도다. 기존 AI 모델들이 답변을 생성하는 동안 사용자가 기다려야 했다면, Codex-Spark는 타이핑하는 것처럼 빠르게 코드를 작성한다. 작업 중간에 방향을 바꾸거나 중단시킬 수도 있다. 마치 옆에서 함께 일하는 동료처럼 실시간으로 소통하며 코드를 수정할 수 있다는 얘기다.
오픈AI는 1월 발표한 반도체 기업 세레브라스(Cerebras)와의 협력으로 이런 속도를 구현했다. 세레브라스의 특수 AI 칩 ‘웨이퍼 스케일 엔진 3’을 활용해 기존보다 지연 시간을 대폭 줄였다. 실제로 오픈AI는 클라이언트-서버 간 통신 오버헤드를 80%, 단어당 처리 시간을 30%, 첫 응답까지 걸리는 시간을 50% 단축했다고 밝혔다.
성능도 준수하다. 소프트웨어 엔지니어링 능력을 평가하는 벤치마크 테스트에서 Codex-Spark는 상위 모델인 GPT-5.3-Codex와 비슷한 수준의 결과를 보이면서도 훨씬 짧은 시간에 작업을 완료했다.
다만 속도에 최적화된 만큼 작동 방식은 가볍다. 최소한의 필요한 수정만 하며, 사용자가 요청하지 않으면 자동으로 테스트를 실행하지 않는다. 빠른 반복 작업에 초점을 맞춘 설계다.
현재 Codex-Spark는 챗GPT 프로 유료 구독자를 대상으로 연구 프리뷰 버전으로 제공된다. Codex 앱과 VS Code 확장 프로그램 최신 버전에서 사용할 수 있다. 특수 하드웨어에서 실행되기 때문에 별도의 사용량 제한이 적용되며, 이용자가 많을 경우 대기 시간이 발생할 수 있다.
오픈AI는 소수의 파트너사에게도 API를 통해 Codex-Spark를 제공해 개발자들이 자사 제품에 어떻게 활용하고 싶어 하는지 파악하고 있다. 앞으로 몇 주에 걸쳐 접근 범위를 넓혀갈 계획이다.
오픈AI는 Codex-Spark를 장기 실행 작업과 실시간 협업이라는 두 가지 모드를 갖춘 코딩 도구로 발전시킬 계획이다. 시간이 지나면 사용자가 실시간으로 작업하는 동안 AI가 백그라운드에서 복잡한 작업을 처리하거나, 여러 모델이 동시에 작업을 나눠 처리하는 방식도 가능해진다.
오픈AI는 “모델이 더 똑똑해질수록 상호작용 속도가 병목이 된다”며 “초고속 추론으로 이 문제를 해결해 아이디어를 실제 작동하는 소프트웨어로 만드는 과정을 더 자연스럽게 만들 것”이라고 설명했다.
현재 Codex-Spark는 12만 8,000토큰의 텍스트만 처리하지만, 오픈AI는 더 큰 모델과 더 긴 문맥 처리, 이미지나 음성 같은 멀티모달 입력 기능도 추가할 예정이라고 밝혔다.
해당 서비스에 대한 자세한 사항은 오픈AI에서 확인 가능하다.
이미지 출처: 오픈AI






