Технический контекст
Я смотрю на IBM z17 не как на «ещё один релиз железа», а как на очень прагматичный ход: IBM закрепляет ИИ прямо внутри мейнфрейма, где у многих компаний живут деньги, риски и регуляторика. И это хорошо сочетается с тем, что в обсуждениях про долю COBOL у IBM всплывают цифры порядка 20–25% — даже если это оценка «из поля», она объясняет мотивацию.
Ключевой элемент z17 — процессор Telum II со вторым поколением on-chip AI-ускорителей. По официальным материалам IBM, акцент сделан на реальном времени: более 450 млрд инференсов в день и отклик менее 1 мс на транзакционных сценариях. Для меня это сигнал, что IBM целится в задачи «в потоке», а не в офлайновую аналитику.
Технически мне нравится вектор на плотную интеграцию: у Telum II заявлены 8× больше AI-ядер относительно предыдущего поколения, увеличенный кэш и рост частоты. Одновременно IBM говорит про эффективность (меньше энергопотребление, компактнее ядро), что напрямую влияет на TCO в дата-центре.
Вторая часть пазла — опциональный IBM Spyre Accelerator в формате PCIe-карты, заявленный к доступности в 4Q 2025. Я трактую Spyre как попытку «дотянуть» генеративный ИИ (LLM/агенты) туда, где раньше доминировали скоринговые модели и детекторы. Важно: это не замена Telum, а расширение стека под разные классы моделей.
Влияние на бизнес и автоматизацию
Самое ценное для enterprise в z17 — не цифры про ядра, а возможность делать инференс «там, где лежит транзакция», не таская данные в отдельный AI-контур. Когда я проектирую внедрение ИИ в банках, страховании или логистике, именно перенос данных и согласования по безопасности чаще всего убивают сроки. Здесь IBM продаёт сокращение этой боли.
Выиграют компании, у которых уже есть крупный z/OS-ландшафт и сильная зависимость от COBOL, CICS, DB2 и жёстких SLA. Для них автоматизация с помощью ИИ перестаёт быть проектом «перепишите половину системы и построим data lake», а становится проектом «встроим инференс в транзакционный контур и добавим контроль качества моделей».
Проиграют те, кто надеялся, что достаточно «подключить облачный LLM» и быстро сделать AI-автоматизацию вокруг legacy. На практике такие схемы упираются в латентность, стоимость egress/ingress, PII/PCI, и в то, что бизнес-логика всё равно остаётся в COBOL. z17 уменьшает смысл «выноса мозга наружу», потому что мозг теперь можно держать рядом с проводкой.
В наших проектах в Nahornyi AI Lab я вижу типовой запрос: антифрод, детект аномалий, next-best-action, и ассистенты для операторов/инженеров. С z17 я бы чаще закладывал двухслойную архитектуру ИИ-решений: быстрый on-chip инференс для транзакций + отдельный контур для обучения и тяжёлых LLM-задач, который не ломает основной поток.
Стратегическое видение и глубокий разбор
Мой неочевидный вывод: IBM превращает mainframe из «наследия, которое тормозит инновации» в «платформу, которая диктует правила доступа к данным». Если инференс делается на платформе, то контроль над данными, политиками и наблюдаемостью тоже остаётся на платформе. Это меняет переговорную позицию ИТ с безопасностью и аудитом.
Я также ожидаю, что в 2026–2027 рынок начнёт делиться не по признаку «у кого есть LLM», а по признаку «у кого инференс встроен в критический путь без компромиссов по задержкам». Для транзакционных бизнесов это означает: модель, которая не может стабильно работать внутри SLA, не считается внедрённой, даже если она красива в пилоте.
Если вы рассматриваете z17 как шанс «зайти в IBM», я бы действовал через прикладные кейсы, а не через закупку железа. В Nahornyi AI Lab я обычно начинаю с карты процессов: где есть событие, где есть решение, где цена миллисекунды. Потом я фиксирую требования к данным и размещению инференса: on-platform, near-platform или cloud.
И последнее: интеграция искусственного интеллекта в мейнфрейм не отменяет инженерной дисциплины. Вам всё равно понадобятся MLOps/LLMOps, мониторинг дрейфа, тестирование на сдвигах данных, контроль prompt/контекста для ассистентов и план отката. Просто теперь всё это можно построить ближе к источнику правды — транзакциям.
Этот разбор подготовил Вадим Нагорный — ведущий эксперт Nahornyi AI Lab по AI-архитектуре, внедрению ИИ и ИИ автоматизации в реальном секторе. Я приглашаю вас обсудить, как именно встроить инференс и ассистентов в ваш z/OS-ландшафт или гибридную схему без риска для SLA и комплаенса — напишите мне, и мы соберём целевую архитектуру и план внедрения под ваши процессы.