Skip to main content
agentic-aiopen-source-llmai-automation

GLM-5.1 піднімає планку для open-source агентів

Z.ai випустила GLM-5.1, відкриту агентну модель для тривалих завдань із браузером, терміналом та API. Для бізнесу це важливий зсув: тепер open-source моделі претендують не на чат, а на повноцінну ШІ-автоматизацію робочих процесів, кидаючи виклик закритим лідерам ринку.

Технічний контекст

Я люблю такі релізи не за гучні слова, а за те, що можна побачити, де закінчується демо і починається справжня інженерія. У GLM-5.1 якраз цікавий замах: не просто відповісти на запит, а виконувати одне складне завдання майже як окремий виконавець протягом «8-годинного робочого дня».

Реліз у Z.ai вийшов наприкінці березня 2026 року, тож новина свіжа, не ретро. За офіційним описом, модель заточена під long-horizon execution: вона сама планує кроки, викликає інструменти, тримає стан, перевіряє результат і виправляє власні помилки без того, щоб людина кожні п'ять хвилин штовхала її палицею.

Мене зачепило не слово open-source саме по собі, а набір можливостей. Браузер, термінал, API-виклики, багатокрокове виконання, self-correction, робота в замкненому циклі. Ось це вже схоже не на «ще один LLM», а на заготовку під нормального агента, якого можна вбудовувати в продакшн AI-архітектуру.

За цифрами картина теж цікава. У публічних матеріалах фігурує SWE-Bench Pro 58.4 і заяви, що модель обходить Claude Opus 4.6 на частині бенчмарків по коду, логіці та агентних сценаріях. При цьому в деяких eval-ах розрив вже не такий драматичний, а десь GLM-5.1 скоріше дуже близько підходить до Opus, ніж знищує його в одні ворота.

І це, чесно, навіть хороший знак. Коли маркетинг кричить «вбивця Claude», я зазвичай насторожуюся. Тут цікавіше інше: відкрита модель взагалі дійшла до класу завдань, де раніше майже безальтернативно дивилися на закриті топові API.

За архітектурою Z.ai продовжує лінію GLM-5, де був MoE-підхід з великою загальною кількістю параметрів і меншим активним шаром на токен. У відкритих переказах з'являються оцінки порядку 744B total і близько 40B active, плюс довгий контекст в районі 128K-200K. Поки без повноцінного техрепорту це варто сприймати обережно, але напрямок зрозумілий: ставка на довгі ланцюжки дій, а не на красиву single-shot відповідь.

Є, щоправда, ложка дьогтю. У ранніх тестах користувачів модель місцями дуже повільна. Якщо агент думає півтори години там, де конкурент робить роботу швидше, то в продакшені це швидко перетворюється на питання економіки, SLA та терпіння команди.

Що це змінює для бізнесу та автоматизації

Ось тут починається найцікавіше. GLM-5.1 піднімає планку не в категорії «чат-бот відповів розумніше», а в категорії «агент може сам закрити частину процесу». Для мене це набагато важливіше за будь-яке лідерство в таблиці бенчмарків.

Якщо раніше багато сценаріїв впровадження штучного інтелекту впиралися в короткий діалог плюс купа ручної обв'язки, то тепер open-source стек вже можна збирати під автономні workflow. Не іграшкові. Я говорю про ресерч, QA, розробку, обробку заявок, інтеграційні завдання, внутрішні сервісні операції.

Виграють команди, яким потрібна ШІ-інтеграція без повної залежності від одного вендора. Особливо там, де є вимоги до приватності, кастомної оркестрації, локального розміщення або специфічної tool-chain логіки. Програють ті, хто все ще мислить ШІ як «давайте прикрутимо поле для промпта на сайт і назвемо це трансформацією».

Але тут є підступ, і я його бачу на проєктах постійно. Сам факт, що модель вміє користуватися терміналом та API, ще не означає, що у вас сталася ШІ-автоматизація. Без нормального контролю стану, обмежень щодо дій, логування, відкатів, бюджетів на токени та human-in-the-loop такі агенти дуже швидко починають творити дичину вже в бойових процесах.

Ми в Nahornyi AI Lab якраз із цим і працюємо: не просто підключаємо модель, а збираємо архітектуру ШІ-рішень так, щоб агент не був лотереєю. Десь потрібен повністю автономний контур, десь напівавтономний виконавець, а десь взагалі краще вузький спеціалізований пайплайн замість «універсального суперагента». Це нудніше, ніж хайпові треди в X, але зате працює.

Мій висновок простий: GLM-5.1 показує, що ринок рухається від асистентів до виконавців. І якщо швидкість підтягнуть, open-source сегмент дуже швидко полізе в ті зони, де раніше сиділи тільки дорогі закриті моделі.

Розбір зробив я, Вадим Нагорний, у Nahornyi AI Lab. Я займаюся такими системами руками: проєктую ШІ-рішення для бізнесу, збираю агентні пайплайни, роблю n8n і кастомну автоматизацію за допомогою ШІ під реальні процеси, а не під демо.

Якщо хочете прикинути, чи можна у вас створити ШІ-агента під завдання команди, або хочете замовити ШІ-автоматизацію під конкретний workflow, напишіть мені. Подивимося ваш кейс без магії та без зайвого шуму.

Поділитися статтею