Технічний контекст
Я дивлюся на IBM z17 не як на «черговий реліз заліза», а як на дуже прагматичний хід: IBM закріплює ШІ безпосередньо всередині мейнфрейму, де у багатьох компаній живуть гроші, ризики та регуляторка. І це добре поєднується з тим, що в обговореннях про частку COBOL у IBM спливають цифри порядку 20–25% — навіть якщо це оцінка «з полів», вона пояснює мотивацію.
Ключовий елемент z17 — процесор Telum II з другим поколінням on-chip AI-прискорювачів. За офіційними матеріалами IBM, акцент зроблено на реальному часі: понад 450 млрд інференсів на день і відгук менше 1 мс на транзакційних сценаріях. Для мене це сигнал, що IBM цілиться в завдання «у потоці», а не в офлайнову аналітику.
Технічно мені подобається вектор на щільну інтеграцію: у Telum II заявлено у 8 разів більше AI-ядер відносно попереднього покоління, збільшений кеш і зростання частоти. Водночас IBM говорить про ефективність (менше енергоспоживання, компактніше ядро), що безпосередньо впливає на TCO в дата-центрі.
Друга частина пазла — опціональний IBM Spyre Accelerator у форматі PCIe-карти, заявлений до доступності в 4-му кварталі 2025 року. Я трактую Spyre як спробу «дотягнути» генеративний ШІ (LLM/агенти) туди, де раніше домінували скорингові моделі та детектори. Важливо: це не заміна Telum, а розширення стека під різні класи моделей.
Вплив на бізнес та автоматизацію
Найцінніше для enterprise у z17 — не цифри про ядра, а можливість робити інференс «там, де лежить транзакція», не перетягуючи дані в окремий AI-контур. Коли я проєктую впровадження ШІ в банках, страхуванні або логістиці, саме перенесення даних і узгодження безпеки найчастіше вбивають терміни. Тут IBM продає скорочення цього болю.
Виграють компанії, у яких вже є великий z/OS-ландшафт і сильна залежність від COBOL, CICS, DB2 і жорстких SLA. Для них автоматизація за допомогою ШІ перестає бути проєктом «перепишіть половину системи та побудуємо data lake», а стає проєктом «вбудуємо інференс у транзакційний контур і додамо контроль якості моделей».
Програють ті, хто сподівався, що достатньо «підключити хмарний LLM» і швидко зробити AI-автоматизацію навколо legacy. На практиці такі схеми впираються в латентність, вартість трафіку (egress/ingress), PII/PCI, і в те, що бізнес-логіка все одно залишається в COBOL. z17 зменшує сенс «виносу мозку назовні», тому що мозок тепер можна тримати поруч із проводкою.
У наших проєктах в Nahornyi AI Lab я бачу типовий запит: антифрод, детект аномалій, next-best-action, та асистенти для операторів/інженерів. З z17 я б частіше закладав двошарову архітектуру ШІ-рішень: швидкий on-chip інференс для транзакцій + окремий контур для навчання і важких LLM-завдань, який не ламає основний потік.
Стратегічне бачення та глибокий розбір
Мій неочевидний висновок: IBM перетворює mainframe зі «спадщини, що гальмує інновації» на «платформу, яка диктує правила доступу до даних». Якщо інференс робиться на платформі, то контроль над даними, політиками та спостережуваністю теж залишається на платформі. Це змінює переговорну позицію ІТ з безпекою та аудитом.
Я також очікую, що у 2026–2027 ринок почне ділитися не за ознакою «у кого є LLM», а за ознакою «у кого інференс вбудований у критичний шлях без компромісів щодо затримок». Для транзакційних бізнесів це означає: модель, яка не може стабільно працювати всередині SLA, не вважається впровадженою, навіть якщо вона красива в пілоті.
Якщо ви розглядаєте z17 як шанс «зайти в IBM», я б діяв через прикладні кейси, а не через закупівлю заліза. У Nahornyi AI Lab я зазвичай починаю з карти процесів: де є подія, де є рішення, де ціна мілісекунди. Потім я фіксую вимоги до даних і розміщення інференсу: on-platform, near-platform або cloud.
І останнє: інтеграція штучного інтелекту в мейнфрейм не скасовує інженерної дисципліни. Вам все одно знадобляться MLOps/LLMOps, моніторинг дрейфу, тестування на зсувах даних, контроль prompt/контексту для асистентів і план відкату. Просто тепер усе це можна побудувати ближче до джерела правди — транзакцій.
Цей розбір підготував Вадим Нагорний — провідний експерт Nahornyi AI Lab з AI-архітектури, впровадження ШІ та ШІ-автоматизації в реальному секторі. Я запрошую вас обговорити, як саме вбудувати інференс і асистентів у ваш z/OS-ландшафт або гібридну схему без ризику для SLA та комплаєнсу — напишіть мені, і ми зберемо цільову архітектуру та план впровадження під ваші процеси.