Skip to main content
HardwareAI-архитектураЗакупки

Escasez de DRAM y nuevos Mac: Cómo asegurar hardware para ML en 2026

Ante la escasez global de DRAM, los precios de la memoria y los SSD suben rápidamente y los suministros son menos predecibles. Para las empresas es crítico: los presupuestos para estaciones de trabajo de ML pueden quedar obsoletos en semanas, por lo que debe recalcular sus compras y arquitectura ahora mismo.

Technical Context

No veo la escasez actual de DRAM como «otra subida de precios más», sino como un cambio en el factor limitante de la arquitectura de IA: ya no solo nos frena la GPU y la energía, sino la memoria como recurso, tanto en centros de datos como en puestos de trabajo. Según informes del mercado, a finales de 2025 y principios de 2026, la DDR5 y la DDR4 se encarecieron notablemente. Aunque evito aferrarme a cifras públicas no verificadas como «+75% en un mes», la tendencia se confirma: los precios de contrato suben, el mercado minorista es volátil y las previsiones para el primer semestre de 2026 alertan de nuevas olas de encarecimiento.

Como arquitecto, destaco tres consecuencias técnicas que las empresas suelen pasar por alto:

  • La memoria se convierte en el componente de «plazo largo». Antes podíamos montar una estación de trabajo para ML en una semana; ahora, la RAM (y a veces el SSD/NAND) es lo que puede desbaratar el cronograma del proyecto.
  • La DDR4 se encarece tanto como la «moderna» DDR5. La razón es prosaica: las flotas industriales y corporativas no migran al instante, algunos chips llegan al fin de su vida útil (EOL), pero la demanda de configuraciones heredadas se mantiene.
  • NAND/SSD siguen la misma tendencia. Cuando la capacidad de producción se redistribuye a favor de la DRAM, la memoria flash también se vuelve más cara y menos accesible. Para ML esto es grave: los datasets y cachés crecen, y la entrada/salida (IO) supone la mitad del rendimiento de los pipelines.

El segundo dato es la expectativa del lanzamiento de nuevos MacBook/Mac Studio alrededor del 2 de marzo. Trato estas fechas como probabilidades, no hechos. Planificar compras «al límite» esperando un anuncio no confirmado es un riesgo. Sin embargo, la idea es racional: Apple lleva años reforzando las capacidades locales de IA mediante SoC y memoria unificada, lo que sobre el papel puede ofrecer un rendimiento más predecible para ciertas tareas que un montaje «aleatorio» en un mercado con escasez de componentes.

Business & Automation Impact

En proyectos de implementación de IA, siempre topo con la pregunta del propietario: «¿Qué compro y cuándo, para no pagar de más ni parar al equipo?». Con la dinámica actual de la DRAM, mi respuesta es más estricta: las compras deben gestionarse como una cartera de inversión, no como pedidos aislados.

¿Quién gana? Las empresas que ya tienen configuraciones estandarizadas, límites a la «creatividad» de los desarrolladores y un plan de crecimiento claro. ¿Quién pierde? Los equipos que posponen la decisión hasta el último día y compran lo que queda, rompiendo la reproducibilidad de los experimentos y la velocidad de desarrollo.

Qué cambios introduzco en mis recomendaciones para automatización con IA y entornos de I+D:

  • Fijo el volumen objetivo de RAM según la carga, no según disponibilidad. Para ML clásico y analítica, el volumen de memoria suele importar más que un +10–15% de GPU. Para inferencia de LLM en local, el ancho de banda de memoria también es decisivo.
  • Separo «Desarrollo» y «Producción» física y financieramente. A los desarrolladores, estaciones predecibles; a producción, un entorno separado (nube/colocation/servidor propio). Cuando la DRAM sube, mezclar estos entornos es lo que más golpea el presupuesto.
  • Incluyo margen y alternativas en las especificaciones. En las especificaciones de compra, mantengo siempre 2–3 SKU aceptables de RAM/SSD y 2 escenarios de configuración (ej. 128→192 GB) para que el departamento de compras no congele el proyecto por falta de una sola referencia.

La duda de «esperar o no a los nuevos Mac» la resuelvo con una matriz de riesgos. Si el equipo no está parado y la compra no bloquea la adopción de IA en las próximas 2–3 semanas, esperar es lógico: o consigues una configuración mejor por el mismo dinero o compras la línea actual más barata. Si urge un piloto, hay un deadline de automatización o el departamento de desarrollo está ocioso, no espero. Compro lo que resuelve el problema hoy y planifico una segunda fase de actualización en paralelo.

Nota sobre Apple y la escasez de DRAM: su memoria unificada no es «magia», pero representa un suministro controlado de sistemas acabados. Para el negocio, esto a veces es más vital que poder elegir módulos de RAM sueltos: menos variabilidad, menos sorpresas, mayor repetibilidad de entornos. En mis proyectos, esto es útil para equipos que necesitan un inicio rápido en el desarrollo de soluciones de IA, mientras que el entrenamiento pesado se va al servidor.

Strategic Vision & Deep Dive

Preveo que en 2026 las compras para IA se parecerán a las de manufactura: con previsión, reservas y contratos a largo plazo. La memoria se ha convertido en el componente que afecta directamente la velocidad de despliegue de funciones. Cuando la RAM sube, las empresas empiezan a «ahorrar en menudencias», creando deuda arquitectónica: recortan volumen, reducen cachés, mueven datasets a discos lentos y luego se sorprenden de que un experimento tarde 3 días en lugar de 3 horas.

Veo dos patrones no evidentes que ya surgen en los clientes de Nahornyi AI Lab:

  • El precio de la RAM refuerza el valor de una buena arquitectura de IA más que el precio de la GPU. Cuando la memoria es limitada, gana quien sabe construir pipelines con procesamiento en flujo (stream), particionado de datos correcto, caché y control de formatos (FP16/INT8/cuantización).
  • La «IA local» se convierte en una característica del puesto de trabajo. Cada vez diseño más entornos híbridos: parte de las tareas van en local (inferencia, RAG, preparación de datos) y parte en servidor/nube (entrenamiento, batch). Esto reduce la presión de comprar un solo «monstruo» y la dependencia de envíos específicos de DRAM.

Mi pronóstico estratégico es simple: en los próximos 6–12 meses, el negocio no elegirá entre «Mac o PC», sino entre dos modelos de riesgo: esperar la configuración ideal o fijar una mínima viable y escalar por capas. El segundo modelo casi siempre gana si realmente quieres obtener valor de la IA y no solo renovar el parque de hardware.

Y una trampa final: cuando la memoria sube, apetece «optimizar» el presupuesto eliminando la fase piloto. Yo hago lo contrario: piloto más rápido y con menos hardware, porque el piloto revela dónde hace falta realmente la memoria y dónde estás pagando por una ilusión de potencia.

Si planeas compras para ML/LLM, renovar equipos de desarrollo o integrar IA en procesos, te invito a discutir tus cargas y restricciones. Escribe a Nahornyi AI Lab: yo, Vadim Nahornyi, te ayudaré a armar la arquitectura y el plan de compras para que la escasez de DRAM no se traduzca en plazos incumplidos.

Share this article