Technical Context
Я розглядаю поточний дефіцит DRAM не як «чергове зростання цін», а як зміну обмежувального фактора в AI-архітектурі: ми впираємося не тільки в GPU та електроенергію, а й у пам’ять як ресурс — і в дата-центрах, і на робочих місцях. За ринковими звітами, з кінця 2025 і на початку 2026 року DDR5 та DDR4 помітно подорожчали. Я не прив’язуюся до конкретних непідтверджених цифр типу «+75% за місяць», але сам тренд очевидний: контрактні ціни ростуть, роздріб стає волатильним, а прогнози на першу половину 2026 року свідчать про ризик нових хвиль подорожчання.
Як архітектор, я виділяю три технічні наслідки, які бізнес часто пропускає:
- Пам’ять стає компонентом із «довгим» терміном постачання. Якщо раніше ми могли зібрати робочу станцію під ML за тиждень, то тепер саме RAM (і іноді SSD/NAND) може зірвати графік проєкту.
- DDR4 дорожчає не менше за «сучасну» DDR5. Причина прозаїчна: індустріальні та корпоративні парки не мігрують миттєво, частина чіпів іде в EOL, а попит на legacy-конфігурації зберігається.
- NAND/SSD підтягуються слідом. Коли виробничі потужності перерозподіляються на користь DRAM, флеш-пам’ять теж стає дорожчою та менш доступною. Для ML це неприємно: датасети та кеші ростуть, а IO — це половина продуктивності пайплайнів.
Другий фрагмент вхідних даних — очікування релізу нових MacBook/Mac Studio близько 2 березня. Я ставлюся до таких дат як до ймовірності, а не факту: поки немає офіційного підтвердження, планувати закупівлю «в нуль» під анонс — ризик. Але сама ідея раціональна: Apple останніми роками регулярно посилює локальні AI-можливості через SoC та уніфіковану пам’ять, і на папері це може дати більш передбачувану продуктивність для деяких задач, ніж «випадкова» збірка на ринку з дефіцитом модулів.
Business & Automation Impact
У проєктах впровадження ШІ я майже завжди стикаюся з простим питанням власника: «що купити і коли, щоб не переплатити і не зупинити команду?». За поточної динаміки DRAM моя відповідь стала жорсткішою: закупівлі треба вести як портфель, а не як одиничне замовлення.
Хто виграє? Компанії, у яких вже є стандартизовані конфігурації, ліміти на «самодіяльність» розробників і зрозумілий план зростання. Хто програє? Команди, які відкладають рішення до останнього дня і потім купують те, що залишилося, ламаючи відтворюваність експериментів та швидкість розробки.
Що я змінюю в рекомендаціях щодо автоматизації з ШІ та R&D-стендів:
- Фіксую цільовий обсяг RAM під тип навантаження, а не «скільки дадуть». Для класичного ML та аналітики часто важливіший обсяг пам’яті, ніж +10–15% GPU. Для LLM-інференсу на локальних машинах вирішальною є ще й пропускна здатність пам’яті.
- Розділяю «розробку» та «прод» фізично і фінансово. Розробникам — передбачувані робочі місця, продакшену — окремий контур (хмара/колокейшн/свій сервер). Коли DRAM дорожчає, змішування контурів б’є по бюджету найсильніше.
- Закладаю запас та альтернативи по пам’яті у специфікаціях. У закупівельній специфікації я одразу тримаю 2–3 допустимі SKU RAM/SSD та 2 сценарії конфігурації (наприклад, 128→192 ГБ), щоб відділ постачання не «заморозив» проєкт через відсутність однієї позиції.
Питання «чи є сенс почекати нові Mac» я вирішую через матрицю ризиків. Якщо у вас немає простою команди і закупівля не блокує впровадження штучного інтелекту в найближчі 2–3 тижні — почекати анонсу логічно: ви або отримаєте сильнішу конфігурацію за ті ж гроші, або купите поточну лінійку дешевше. Якщо ж у вас горить пілот, дедлайн по автоматизації за допомогою ШІ, або простоює відділ розробки — я не чекаю. Я купую те, що закриває задачу сьогодні, і паралельно планую другий етап оновлення.
Окремо про Apple у контексті дефіциту DRAM. Їхня уніфікована пам’ять — це не «магія проти ринку», але це більш контрольоване постачання готових систем. Для бізнесу це іноді важливіше, ніж можливість самому обирати планки RAM: менше варіативності, менше сюрпризів, вища повторюваність оточень. У моїх проєктах це корисно для клієнтських команд, яким потрібен швидкий старт у розробці ШІ рішень, а важке тренування все одно поїде в серверний контур.
Strategic Vision & Deep Dive
Я очікую, що у 2026 році закупівлі під AI почнуть нагадувати закупівлі під виробництво: з прогнозуванням, резервуванням і «довгими» контрактами. Пам’ять стала тим компонентом, який безпосередньо впливає на швидкість виведення функцій. Коли RAM дорожчає, компанії починають економити «на дрібницях» — і саме там з’являються архітектурні борги: урізають обсяг, ріжуть кеші, зсувають датасети на повільні диски, а потім дивуються, що експеримент займає не 3 години, а 3 дні.
Я бачу два неочевидні патерни, які вже проявилися у клієнтів Nahornyi AI Lab:
- Зростання ціни RAM посилює цінність грамотної AI-архітектури більше, ніж зростання ціни GPU. Коли пам’ять обмежена, виграє той, хто вміє будувати пайплайни з потоковою обробкою, правильним партиціюванням даних, кешуванням та контролем форматів (FP16/INT8/квантизація).
- «Локальний AI» стає продуктовою характеристикою робочих місць. Я все частіше проєктую гібрид: частина задач йде локально (інференс, RAG, підготовка даних), частина — на сервері/в хмарі (тренування, батч). Це знижує тиск на закупівлю одного «монстра» і зменшує залежність від конкретних поставок DRAM.
Мій прогноз щодо стратегії простий: у найближчі 6–12 місяців бізнесу доведеться обирати не між «Mac чи PC», а між двома моделями ризику — чекати ідеальну конфігурацію або закріпити мінімально достатню і масштабуватися шарами. Друга модель майже завжди виграє, якщо ви реально хочете отримати користь від ШІ, а не просто оновити парк заліза.
І пастка наостанок: коли пам’ять дорожчає, хочеться «оптимізувати» бюджет, викинувши етап пілота. Я роблю навпаки — пілотую швидше і на меншому залізі, тому що пілот виявляє, де пам’ять дійсно потрібна, а де ви переплачуєте за ілюзію потужності.
Якщо ви плануєте закупівлі під ML/LLM, перезбірку парку розробників або інтеграцію ШІ в процеси, я запрошую вас обговорити конкретні навантаження та обмеження. Напишіть у Nahornyi AI Lab — я, Вадим Нагорний, допоможу зібрати архітектуру і план закупівель так, щоб дефіцит DRAM не перетворився на зрив строків.