Skip to main content
HardwareAI-архитектураЗакупки

Дефицит DRAM и вероятный релиз новых Mac: как не сорвать закупки под ML в 2026

На фоне глобального дефицита DRAM цены на память и частично на SSD ускоренно растут, а поставки становятся менее предсказуемыми. Для бизнеса это критично: бюджеты на рабочие станции и серверы под ML могут «уплыть» за 4–8 недель, поэтому закупки и архитектуру инфраструктуры нужно пересчитать уже сейчас.

Technical Context

Я смотрю на текущий дефицит DRAM не как на «очередной рост цен», а как на сдвиг ограничивающего фактора в AI-архитектуре: упираемся не только в GPU и электроэнергию, а в память как ресурс — и в дата-центрах, и на рабочих местах. По сводкам рынка, с конца 2025 и в начале 2026 DDR5 и DDR4 заметно подорожали; встречаются оценки про резкие месячные скачки для отдельных позиций, но я не привязываюсь к конкретной цифре «+75% за месяц», потому что публично она не подтверждена. Зато подтверждается сам тренд: контрактные цены растут, розница становится волатильной, а прогнозы на H1 2026 говорят о риске новых волн удорожания.

Как архитектор, я выделяю три технических следствия, которые бизнес часто пропускает:

  • Память становится «длинным» компонентом по срокам поставки. Если раньше мы могли собрать рабочую станцию под ML за неделю, то теперь именно RAM (и иногда SSD/NAND) может выбить проектный график.
  • DDR4 дорожает не меньше «современной» DDR5. Причина прозаичная: индустриальные и корпоративные парки не мигрируют мгновенно, часть чипов уходит в EOL, а спрос на legacy-конфигурации сохраняется.
  • NAND/SSD тянется следом. Когда производственные мощности перераспределяются в пользу DRAM, флэш-память тоже становится дороже и менее доступной. Для ML это неприятно: датасеты и кеши растут, а IO — половина производительности пайплайнов.

Второй фрагмент входных данных — ожидание релиза новых MacBook/Mac Studio около 2 марта. Я отношусь к таким датам как к вероятности, а не факту: пока нет официального подтверждения, планировать закупку «в ноль» под анонс — риск. Но сама идея рациональна: Apple в последние годы регулярно усиливает локальные AI-возможности через SoC и унифицированную память, и на бумаге это может дать более предсказуемую производительность для некоторых задач, чем «случайная» сборка на рынке с дефицитом модулей.

Business & Automation Impact

В проектах внедрения ИИ я почти всегда упираюсь в простой вопрос собственника: «что купить и когда, чтобы не переплатить и не остановить команду?». При текущей динамике DRAM мой ответ стал жестче: закупки нужно вести как портфель, а не как единичный заказ.

Кто выигрывает? Компании, у которых уже есть стандартизированные конфигурации, лимиты на «вольности» разработчиков и понятный план роста. Кто проигрывает? Команды, которые откладывают решение до последнего дня и потом покупают то, что осталось, ломая воспроизводимость экспериментов и скорость разработки.

Что я меняю в рекомендациях по ИИ автоматизации и R&D-стендам:

  • Фиксирую целевой объём RAM под тип нагрузки, а не «сколько дадут». Для классического ML и аналитики часто важнее объём памяти, чем +10–15% GPU. Для LLM-инференса на локальных машинах решает ещё и пропускная способность памяти.
  • Разделяю «разработка» и «прод» физически и финансово. Разработчикам — предсказуемые рабочие места, продакшену — отдельный контур (облако/колокейшн/свой сервер). Когда DRAM дорожает, смешивание контуров бьёт по бюджету сильнее всего.
  • Закладываю запас и альтернативы по памяти в спецификациях. В закупочной спецификации я сразу держу 2–3 допустимых SKU RAM/SSD и 2 сценария конфигурации (например, 128→192 ГБ), чтобы отдел снабжения не «заморозил» проект из‑за отсутствия одной позиции.

Вопрос «есть ли смысл подождать новые Mac» я решаю через матрицу рисков. Если у вас нет простоя команды и закупка не блокирует внедрение искусственного интеллекта в ближайшие 2–3 недели — подождать анонса логично: вы либо получите более сильную конфигурацию за те же деньги, либо купите текущую линейку дешевле. Если же у вас горит пилот, дедлайн по автоматизации с помощью ИИ, или простаивает отдел разработки — я не жду. Я покупаю то, что закрывает задачу сегодня, и параллельно планирую второй этап обновления.

Отдельно про Apple в контексте дефицита DRAM. Их унифицированная память — это не «магия против рынка», но это более контролируемая поставка готовых систем. Для бизнеса это иногда важнее, чем возможность самому выбирать планки RAM: меньше вариативности, меньше сюрпризов, выше повторяемость окружений. В моих проектах это полезно для клиентских команд, которым нужен быстрый старт в разработке ИИ решений, а тяжёлый тренинг всё равно уедет в серверный контур.

Strategic Vision & Deep Dive

Я ожидаю, что в 2026 закупки под AI начнут напоминать закупки под производство: с прогнозированием, резервированием и «длинными» контрактами. Память стала тем компонентом, который напрямую влияет на скорость вывода функций. Когда RAM дорожает, компании начинают экономить «по мелочи» — и именно там появляются архитектурные долги: урезают объём, режут кеши, сдвигают датасеты на медленные диски, а потом удивляются, что эксперимент занимает не 3 часа, а 3 дня.

Я вижу два неочевидных паттерна, которые уже проявились у клиентов Nahornyi AI Lab:

  • Рост цены RAM усиливает ценность грамотной AI-архитектуры больше, чем рост цены GPU. Когда память ограничена, выигрывает тот, кто умеет строить пайплайны с потоковой обработкой, правильной партиционировкой данных, кэшированием и контролем форматов (FP16/INT8/квантизация).
  • «Локальный AI» становится продуктовой характеристикой рабочих мест. Я всё чаще проектирую гибрид: часть задач идёт локально (инференс, RAG, подготовка данных), часть — на сервере/в облаке (тренировка, батч). Это снижает давление на закупку одного «монстра» и уменьшает зависимость от конкретных поставок DRAM.

Мой прогноз по стратегии простой: в ближайшие 6–12 месяцев бизнесу придётся выбирать не между «Mac или PC», а между двумя моделями риска — ждать идеальную конфигурацию или закрепить минимально достаточную и масштабироваться слоями. Вторая модель почти всегда выигрывает, если вы реально хотите получить пользу от ИИ, а не просто обновить парк железа.

И ловушка напоследок: когда память дорожает, хочется «оптимизировать» бюджет, выкинув этап пилота. Я делаю наоборот — пилотирую быстрее и на меньшем железе, потому что пилот выявляет, где память действительно нужна, а где вы переплачиваете за иллюзию мощности.

Если вы планируете закупки под ML/LLM, пересборку парка разработчиков или ИИ интеграцию в процессы, я приглашаю вас обсудить конкретные нагрузки и ограничения. Напишите в Nahornyi AI Lab — я, Вадим Нагорный, помогу собрать архитектуру и план закупок так, чтобы дефицит DRAM не превратился в срыв сроков.

Share this article