OpenAI выпустила GPT-5.3-Codex-Spark — первую модель для реального времени в кодинге

Раздел: Новости Обновлено: 13.02.2026 Теги: #Codex #Ultrafast #обновление Просмотры:
Новичку: начните с маршрутной страницы

Если вы только начинаете, сначала пройдите маршрут из 5 шагов и возвращайтесь к этой статье с базовым контекстом.

OpenAI выпустила GPT-5.3-Codex-Spark — первую модель для реального времени в кодинге
Codex Ultrafast обновление


12 февраля 2026 — OpenAI объявила о выходе research preview модели GPT-5.3-Codex-Spark. Это уменьшенная версия GPT-5.3-Codex, специально заточенная под мгновенное взаимодействие с разработчиком.

Главное за 30 секунд

  • Более 1000 токенов в секунду на железе Cerebras
  • 128k контекст, пока только текст
  • Доступна уже сегодня для всех ChatGPT Pro пользователей
  • Первая модель в линейке «ultra-fast» моделей Codex

Зачем это нужно разработчикам

До сегодняшнего дня Codex был отличен в длинных задачах (часы и дни автономной работы), но в реальном времени чувствовался «задумчивым».
Spark меняет это полностью: теперь можно прерывать модель, мгновенно править логику, перестраивать интерфейс и сразу видеть результат.

«Codex-Spark — это первый шаг к двум режимам работы: длинный горизонт + мгновенная итерация. Со временем они сольются в один бесшовный опыт», — говорится в официальном анонсе.

Результаты на бенчмарках

SWE-Bench Pro
Spark показывает точность, близкую к большой модели, но выполняет задачи в разы быстрее.

Terminal-Bench 2.0

  • GPT-5.3-Codex-Spark → 58,4 %
  • GPT-5.3-Codex → 77,3 % (но намного медленнее)
  • GPT-5.1-Codex-mini → 46,1 %

Технические улучшения latency

OpenAI не просто сделала быструю модель — они полностью перестроили пайплайн:

  • 80 % снижение overhead на каждый roundtrip
  • 30 % меньше overhead на токен
  • 50 % быстрее time-to-first-token

Всё это стало возможным благодаря постоянному WebSocket-соединению и оптимизациям Responses API. Эти улучшения скоро получат и все остальные модели Codex.

Партнёрство с Cerebras

Модель работает на Wafer Scale Engine 3 (Cerebras). Это первый случай, когда OpenAI использует специализированный low-latency ускоритель параллельно со своими GPU-кластерами.

«То, что нас больше всего возбуждает — это новые паттерны взаимодействия, которые становятся возможны при такой скорости», — прокомментировал Sean Lie, CTO и сооснователь Cerebras.

Как уже можно попробовать

Сегодня Spark доступен в:

  • Codex app (последняя версия)
  • Codex CLI
  • VS Code extension

У модели отдельные rate limits (чтобы не нагружать основную инфраструктуру). При высоком спросе возможны очереди.

Что дальше

OpenAI прямо говорит: это только первая модель в семействе ultra-fast. В планах:

  • большие быстрые модели
  • мультимодальность
  • ещё более длинный контекст
  • плавное переключение между «долгим» и «мгновенным» режимами

Вывод для вайбкодеров

Если раньше Codex был «умным ассистентом, который иногда думает», то теперь он превращается в настоящего напарника, который реагирует быстрее, чем ты успеваешь допечатать следующую строку.

Для тех, кто уже работает с Codex каждый день — это один из самых заметных скачков за последние полтора года

Назад Выход GPT-5.3-Codex — рабочие заметки по модели Следующая тема