Skip to main content
Enterprise AIMainframeAI Architecture

IBM z17: Прискорення ШІ всередині транзакцій та наслідки

IBM z17 — це мейнфрейм з апаратним прискоренням ШІ: процесор Telum II виконує інференс безпосередньо у транзакційному контурі, а прискорювач Spyre додає потужність для GenAI. Це дозволяє бізнесу наблизити логіку ШІ до даних без їх переміщення, що суттєво знижує ризики та затримки обробки.

Технічний контекст

Я уважно розібрав специфікації IBM z17 і побачив чіткий сигнал: IBM припинив ставитися до ШІ як до зовнішнього сервісу «десь у хмарі». У z17 прискорення інференсу стає частиною мейнфрейму на рівні кремнію — через Telum II з on-chip AI-акселератором другого покоління.

Ключова теза, яка важлива мені як архітектору: «AI at the data» (ШІ поруч з даними). IBM заявляє понад 450 млрд операцій інференсу на день при відгуку близько 1 мс, і це розраховано на роботу в реальному транзакційному потоці, а не на офлайнову аналітику.

Telum II отримав більше обчислювальної ємності та кеш (заявлено +40% до розміру), а також зростання продуктивності ML-інференсу приблизно на 40% відносно z16. Окремо мені сподобалася ідея маршрутизації на акселератори, що простоюють — до 7,5x приросту пропускної здатності шляхом використання «idle» ресурсів (до 8 прискорювачів на drawer).

Другий елемент історії — IBM Spyre Accelerator, PCIe-карта, яку обіцяють з Q4 2025. Я читаю це як спробу закрити розрив між класичним інференсом для скорингів/детектів та генеративними сценаріями (GenAI, LLM/SLM, мультимодальні асистенти) прямо поруч із даними мейнфрейму.

Важливо: мова не про «кастомні чіпи під клієнта», а про дві апаратні лінії прискорення — інтегровану (Telum II) та підключаєму (Spyre). Під це підтягується і системний шар: z/OS 3.2 заявлена як ОС, яка нативно розуміє апаратно-прискорений ШІ та гібридні сценарії.

Вплив на бізнес та автоматизацію

Якщо у вас банк, страхування, ритейл, держсектор або велика логістика, z17 змінює економіку рішень: я можу проєктувати автоматизацію за допомогою ШІ без обов’язкового «виносу» транзакційних даних в окремий AI-контур. Це знижує затримки, спрощує дотримання комплаєнсу та різко зменшує площу атаки.

Виграють команди, у яких mainframe — це не «спадщина» (legacy), а ядро SLA: антифрод, авторизація, ліміти, скоринг, детект аномалій, KYC-підказки оператору. Програють архітектури, де інференс тримається на ланцюжку ETL → вітрина → модель → зворотний запис: там занадто багато рухомих частин і занадто багато точок відмови.

Але я одразу охолоджую очікування: наявність прискорювача не означає, що впровадження ШІ відбувається «по кнопці». У моїх проєктах в Nahornyi AI Lab найдорожчий етап — не залізо, а узгодження контурів: які події вважаються джерелом істини, де ставити модель у транзакції, як версіонувати фічі, як відкочувати рішення моделі без зупинки бізнесу.

Для практичної ШІ автоматизації я зазвичай розкладаю систему на чотири шари: транзакційний контур, шар прийняття рішення (inference), контур спостережуваності (latency/дрейф/якість), і контур управління ризиками (політики, аудийованість, доступи). z17 робить другий шар ближчим до першого, і це архітектурно вигідно.

Стратегічне бачення та глибокий розбір

Мій прогноз: мейнфрейм повертає собі роль платформи «real-time decisioning», де ШІ не окремий продукт, а функція інфраструктури. У 2026–2027 я очікую сплеск проєктів, де LLM використовується не для «чатбота заради чатбота», а для прискорення роботи інженерів та операторів навколо транзакцій: розбір інцидентів, генерація ремедіацій, пояснення відхилень скорингу, автоматизація регламентів.

Я бачу в z17 ще один неочевидний ефект: компанії почнуть рахувати вартість затримки та ризику виведення даних як окремий рядок бюджету. Коли інференс можна тримати поруч із системою запису, змінюється підхід до ROI: економія з’являється не тільки від «кращої моделі», а й від скорочення інтеграцій, погоджень та часу на проходження безпеки.

В Nahornyi AI Lab я часто стикаюся з тим, що у замовника вже є моделі, але немає промислової AI-архітектури: немає контракту на вхідні фічі, немає політики деградації, немає спостережуваності якості на проді. З z17 спокуса «просто прискорити» буде великою — і саме тому роль архітектури ШІ-рішень стає критичнішою, а не навпаки.

Якщо ви думаєте про Spyre під GenAI, я б починав не з вибору LLM, а з карти даних та сценаріїв: які відповіді мають бути детерміновані, де допустима ймовірнісна генерація, які дії можна автоматизувати, а де потрібна людина в контурі (human-in-the-loop). Тоді апаратне прискорення перетворюється на перевагу, а не на дорогу іграшку.

Цей огляд підготував я, Вадим Нагорний — провідний експерт Nahornyi AI Lab з AI-архітектури та ШІ автоматизації в реальному секторі. Якщо ви плануєте впровадження штучного інтелекту навколо legacy/мейнфрейм-контурів (або хочете перенести інференс ближче до даних без втрати SLA), напишіть мені: я запропоную цільову архітектуру, план інтеграції та дорожню карту, яка проходить безпеку та експлуатацію.

Share this article