14 января OpenAI без особого шума выкатила GPT-5.2 Codex в Responses API. До этого модель сидела взаперти в среде Codex с декабрьского релиза: доступ был только у платных подписчиков ChatGPT через CLI или расширения для редакторов. Теперь эту стену снесли.
Для чего это нужно
OpenAI продвигает модель как инструмент для «агентного кодинга». Имеются в виду задачи, которые выполняются автономно и долго: рефакторинг, миграции, разработка фич. Судя по анонсу, модель справляется с длинными сессиями и не теряет нить, даже когда «планы меняются или попытки проваливаются».
Отдельно интересна тема безопасности. OpenAI утверждает, что это их сильнейшая модель для поиска уязвимостей. Один исследователь якобы нашёл с помощью предыдущей версии несколько багов в React, включая один с CVSS-баллом 10.0. Хорошо ли это, когда такой инструмент попадает в руки любому разработчику с API-ключом — вопрос отдельный.
Сколько стоит
Ценник: $1,75 за миллион входящих токенов, $14 за миллион исходящих. Это на 40% дороже, чем GPT-5.1 Codex ($1,25 и $10 соответственно). OpenAI объясняет, что за счёт эффективности расхода токенов итоговая стоимость получается ниже при сопоставимом качестве. Проверить это я не смог.
Модель поддерживает четыре уровня интенсивности рассуждений: low, medium, high и xhigh. На вход принимает текст и изображения. Вызов функций, структурированный вывод, стриминг, кэширование промптов — всё на месте.
Результат на SWE-Bench Pro: 56,4%. Звучит скромно, пока не сравнишь с GPT-5.2 (55,6%) и GPT-5.1 (50,8%). На Terminal-Bench 2.0 набрали 64,0%.
Кто уже подключился
Cursor добавил поддержку сразу. Windsurf тоже, причём с промоакцией для платных пользователей: полцены. Обе платформы явно получили ранний доступ, что говорит о приоритетах партнёрских отношений OpenAI.
В списке изменений Windsurf видно, что они сделали эту модель дефолтной. Смелый ход, учитывая рост цены. Их CEO назвал это «крупнейшим скачком для моделей GPT в агентном кодинге со времён GPT-5». Маркетинг, конечно. Но они ставят на это весь пользовательский опыт.
Что реально изменилось
Главное техническое улучшение связано с «компактификацией контекста». Это встроенная функция, которая сохраняет состояние задачи в длинных сессиях, не раздувая контекстное окно. Предыдущие модели спотыкались на многочасовых сессиях кодинга. Исправили ли это полностью — пока непонятно.
Производительность на Windows якобы улучшилась. Если вы пробовали запускать AI-инструменты для кодинга на Windows, понимаете, почему это важно.
Работу со зрением тоже прокачали. Модель может интерпретировать скриншоты, макеты UI и технические диаграммы прямо во время кодинга. Полезно для превращения дизайн-файлов в работающие прототипы (если верить маркетингу).
Вопрос безопасности
Тут всё сложнее. OpenAI прямо признаёт проблему двойного назначения в документации: те же возможности, которые помогают защитникам, помогают и атакующим. По их словам, GPT-5.2 Codex не достигает уровня High по киберспособностям в их Preparedness Framework. Но они уже готовятся к будущим моделям, которые достигнут.
Есть Trusted Access Pilot для проверенных специалистов по безопасности, которым нужно меньше ограничений для легитимной работы с red-teaming. Пока только по приглашениям.
Что дальше
Доступ к API уже открыт, хотя из документации OpenAI следует, что раскатка ещё может расширяться. Гайд по промптингу доступен на сайте для разработчиков.
Ждём волну интеграций в редакторы. GitHub Copilot пока молчит, но с учётом того, что Cursor и Windsurf уже на борту, давление есть. Посмотрим, как это всё перетрясёт рынок.




