Технический контекст
Я люблю такие сигналы от реальных пользователей: не “вау, модель умная”, а “я удалил Superpowers, потому что он уже мешал”. Это уже не про хайп, а про трение в реальной работе. Если модель сама нормально держит задачу, то AI automation становится проще без слоя костылей сверху.
По тому, что уже известно о GPT-5.5, скачок выглядит правдоподобно. Самое важное для меня не “IQ модели”, а то, что она заметно лучше удерживает длинный контекст и не разваливается на многошаговых инструкциях. На длинном контексте в диапазоне 512K–1M токенов у нее заявлен сильный прирост retrieval, а на messy multi-part задачах модель лучше планирует, пользуется инструментами и проверяет себя.
Вот где я реально остановился. Раньше я часто видел один и тот же паттерн: чтобы получить стабильный результат, люди обвешивали модель системными пресетами, TDD-скиллами, кастомными командами и плагинами для дисциплины ответа. Теперь часть этой логики, похоже, можно просто выбросить.
Но я бы не делал из этого кривой вывод “плагины умерли”. Нет, не умерли. В новости нет официального доказательства, что сторонние инструменты стали полностью не нужны, а в сложной оркестрации, узких инженерных сценариях и командных пайплайнах специализированные надстройки все еще могут давать плюс.
Что это меняет для бизнеса и автоматизации
Первое: падает цена хрупкости. Чем меньше прослоек между задачей и моделью, тем проще AI implementation, отладка и поддержка. Меньше магии в промптах, меньше неожиданных побочек после обновлений.
Второе: ускоряется запуск внутренних сценариев. Если модель лучше понимает “грязные” запросы с кучей условий, можно быстрее собирать AI solutions for business: ассистентов для поддержки, анализа документов, код-ревью и внутренних агентов для команд.
Проигрывают тут в основном те продукты, чья ценность держалась только на заплатках к слабому instruction-following. Выигрывают команды, которые строят AI integration вокруг процесса, данных и контроля качества, а не вокруг коллекции хитрых промптов.
Я у себя смотрю на это очень прагматично: если новый класс моделей позволяет выкинуть половину надстроек, я лучше упрощу архитектуру, чем буду защищать старый стек из привычки. Если у вас в компании AI automation уже обросла хрупкими промптами и ручными костылями, можно спокойно разобрать это на части и пересобрать. В Nahornyi AI Lab мы как раз такие истории и берем в работу: находим, где модель уже тянет сама, а где действительно нужен кастомный AI-агент без лишней сложности.