Skip to main content
OpenAInpm securitysupply chain attack

OpenAI про злам TanStack: сигнал для всіх

OpenAI офіційно відреагувала на атаку через npm-пакети TanStack, фактично підтвердивши новий рівень ризику для інтеграції AI у розробці. Суть проста: якщо AI-інструменти та CI працюють у привілейованому середовищі, одна заражена залежність може викрасти токени, ключі та доступи, передаючи загрозу далі по ланцюжку.

Технічний контекст

Я переглянув аналіз OpenAI щодо інциденту з TanStack, і мене зачепило не саме слово «supply chain», а те, як тихо це б'є по реальній AI-автоматизації. Ми звикли обговорювати моделі, агентів, затримку, ціну токена. А тут проблема банальніша й небезпечніша: пакет встановлюється як зазвичай, а далі забирає секрети із середовища, де працюють мої інструменти, CI та асистенти для коду.

За фактами історія неприємна. Атакувальники використали неправильну конфігурацію pull_request_target у GitHub Actions, отруїли кеш між форком та основним репозиторієм, а потім під час легітимного релізу витягли короткоживучий OIDC-токен для публікації просто з раннера. Цього вистачило, щоб випустити 84 шкідливі версії у 42 пакетах @tanstack/*.

Шкідливе навантаження було не декоративним. Імплант поводився майже як черв'як: збирав токени, секрети оточення, доступи до хмари та вихідного коду, а за вдалого збігу обставин намагався поширюватися далі через пакети, на публікацію яких жертва вже мала права. Ось тут я й зупинився: для впровадження AI це особливо токсично, оскільки coding agents і build-боти часто знаходяться поряд із GitHub token, API-ключами провайдерів моделей та сервісними акаунтами.

OpenAI у своїй відповіді робить акцент не на PR, а на захисті контурів: перевірка залежностей та артефактів, посилення процесів релізу, увага до походження (provenance), довіреної публікації та ізоляції середовищ. І це здорова реакція. Один підпис релізу або один OIDC-флоу самі по собі вже не виглядають срібною кулею, якщо кеш, робочий процес і раннер можна розвернути проти тебе.

Що це змінює в бізнесі та автоматизації

Для команд з AI-інтеграцією висновок жорсткий: середовище, де агент пише код, не повинно бути тим самим середовищем, де лежать облікові дані для публікації та доступи до продакшену. Я давно розділяю такі контури, і після цього кейсу це вже не «параноя інженера», а базова гігієна.

Друге: lockfile, pinning, sandbox install та ротація секретів перестають бути нудною бюрократією. Це дешевше, ніж потім розбиратися, куди зникли ключі OpenAI, токен GitHub App чи хмарні облікові дані.

Виграють команди, у яких є короткоживучі права, розділені раннери та нормальна ревізія залежностей. Програють ті, хто будує автоматизацію з AI на одному «жирному» CI-користувачеві з доступом взагалі до всього.

Якщо ваші AI-агенти, внутрішні dev-боти або CI вже мають широкі права, я б не відкладав перебудову архітектури. У Nahornyi AI Lab ми якраз вирішуємо такі вузькі та неприємні завдання: можемо вибудувати архітектуру AI-рішень так, щоб автоматизація реально прискорювала команду, а не перетворювала один npm install на точку компрометації всього бізнесу.

Ця npm-атака підкреслює критичну важливість надійних заходів безпеки для AI-платформ, таких як OpenAI. Ми раніше детально описували, як спрацьовують тригери безпеки OpenAI API, сповіщаючи власників акаунтів, та необхідність суворого дотримання стандартів, ретельного логування та розділення середовищ для безпечного впровадження AI.

Поділитися статтею