OpenAI выпустила GPT-5.3-Codex-Spark — первую модель для реального времени в кодинге
Если вы только начинаете, сначала пройдите маршрут из 5 шагов и возвращайтесь к этой статье с базовым контекстом.

12 февраля 2026 — OpenAI объявила о выходе research preview модели GPT-5.3-Codex-Spark. Это уменьшенная версия GPT-5.3-Codex, специально заточенная под мгновенное взаимодействие с разработчиком.
Главное за 30 секунд
- Более 1000 токенов в секунду на железе Cerebras
- 128k контекст, пока только текст
- Доступна уже сегодня для всех ChatGPT Pro пользователей
- Первая модель в линейке «ultra-fast» моделей Codex
Зачем это нужно разработчикам
До сегодняшнего дня Codex был отличен в длинных задачах (часы и дни автономной работы), но в реальном времени чувствовался «задумчивым».
Spark меняет это полностью: теперь можно прерывать модель, мгновенно править логику, перестраивать интерфейс и сразу видеть результат.
«Codex-Spark — это первый шаг к двум режимам работы: длинный горизонт + мгновенная итерация. Со временем они сольются в один бесшовный опыт», — говорится в официальном анонсе.
Результаты на бенчмарках
SWE-Bench Pro
Spark показывает точность, близкую к большой модели, но выполняет задачи в разы быстрее.
Terminal-Bench 2.0
- GPT-5.3-Codex-Spark → 58,4 %
- GPT-5.3-Codex → 77,3 % (но намного медленнее)
- GPT-5.1-Codex-mini → 46,1 %
Технические улучшения latency
OpenAI не просто сделала быструю модель — они полностью перестроили пайплайн:
- 80 % снижение overhead на каждый roundtrip
- 30 % меньше overhead на токен
- 50 % быстрее time-to-first-token
Всё это стало возможным благодаря постоянному WebSocket-соединению и оптимизациям Responses API. Эти улучшения скоро получат и все остальные модели Codex.
Партнёрство с Cerebras
Модель работает на Wafer Scale Engine 3 (Cerebras). Это первый случай, когда OpenAI использует специализированный low-latency ускоритель параллельно со своими GPU-кластерами.
«То, что нас больше всего возбуждает — это новые паттерны взаимодействия, которые становятся возможны при такой скорости», — прокомментировал Sean Lie, CTO и сооснователь Cerebras.
Как уже можно попробовать
Сегодня Spark доступен в:
- Codex app (последняя версия)
- Codex CLI
- VS Code extension
У модели отдельные rate limits (чтобы не нагружать основную инфраструктуру). При высоком спросе возможны очереди.
Что дальше
OpenAI прямо говорит: это только первая модель в семействе ultra-fast. В планах:
- большие быстрые модели
- мультимодальность
- ещё более длинный контекст
- плавное переключение между «долгим» и «мгновенным» режимами
Вывод для вайбкодеров
Если раньше Codex был «умным ассистентом, который иногда думает», то теперь он превращается в настоящего напарника, который реагирует быстрее, чем ты успеваешь допечатать следующую строку.
Для тех, кто уже работает с Codex каждый день — это один из самых заметных скачков за последние полтора года