
에이전트가 코드를 작성하는 동안 개발자는 한참을 기다려야 합니다. 자율적으로 몇 시간씩 작업하는 건 좋지만, 중간에 방향을 조정하거나 피드백을 주기 어렵죠. OpenAI가 Cerebras와 협력해 발표한 GPT-5.3-Codex-Spark는 이 문제에 초점을 맞춘 모델입니다. 초당 1000토큰 이상을 생성하며 실시간에 가까운 반응 속도를 제공합니다.
출처: Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras – Cerebras
속도에 최적화된 경량 모델
Codex-Spark는 기존 Codex의 축소 버전입니다. GPT-5.1-Codex-mini보다 성능이 뛰어나면서도 작업 완료 시간은 훨씬 짧습니다. Cerebras의 Wafer-Scale Engine이라는 특수 하드웨어에서 구동되는데, 이 칩은 AI 프로세서 중 가장 큰 온칩 메모리를 갖추고 있어 초고속 추론이 가능합니다.
SWE-Bench Pro와 Terminal-Bench 2.0 같은 에이전틱 소프트웨어 엔지니어링 벤치마크에서 mini 모델보다 우수한 결과를 내면서도, 실제 작업 시간은 크게 단축됐습니다. 정확한 편집, 계획 수정, 코드베이스에 대한 맥락적 질문 응답에 특히 강점을 보입니다.
개발자를 운전석으로
에이전틱 코딩의 가장 큰 문제는 개발자가 프로세스에서 소외된다는 점입니다. 에이전트가 몇 시간 동안 자율적으로 작업하는 동안 개발자는 결과를 기다리기만 해야 하죠. 소프트웨어 개발은 본질적으로 반복적인 작업인데, 중간중간 방향성과 취향을 반영하기 어려운 구조입니다.
Codex-Spark는 이런 반복적 작업에 최적화되었습니다. 빠르고 반응성이 뛰어나며 조정 가능한 특성 덕분에 개발자가 다시 주도권을 쥘 수 있습니다. 새로운 레이아웃을 시각화하고, 스타일을 다듬고, 인터페이스 변경사항을 빠르게 테스트하는 용도로 특히 유용합니다.
OpenAI-Cerebras 파트너십의 첫 결실
OpenAI의 산업 컴퓨팅 책임자 Sachin Katti는 “Cerebras가 훌륭한 엔지니어링 파트너였고, 빠른 추론을 새로운 플랫폼 기능으로 추가하게 되어 기쁘다”며 “웨이퍼 규모 컴퓨팅을 프로덕션에 도입하면 지연 시간에 민감한 작업에서 Codex의 반응성을 유지할 수 있는 새로운 방법을 얻게 된다”고 밝혔습니다.
Cerebras는 2026년에 이 초고속 추론 기능을 가장 큰 프론티어 모델에도 적용할 계획입니다. 현재 Codex-Spark는 ChatGPT Pro 사용자를 대상으로 연구 프리뷰 형태로 Codex 앱, CLI, VS Code 확장에서 제공되며, API 접근은 선별된 디자인 파트너에게 순차적으로 제공됩니다.
참고자료:
- Introducing GPT-5.3-Codex-Spark – OpenAI

답글 남기기