Skip to main content
ASUSлокальный AIмини-ПК

ASUS Ascent GX10: de repente, una opción muy interesante

El ASUS Ascent GX10 se presenta como una opción potente para ejecutar modelos de IA localmente, con 128 GB de memoria unificada, el chip GB10 y un diseño compacto. Esto es vital para la implementación de IA, ya que permite probar grandes modelos in-house sin gastar fortunas en la nube.

Contexto técnico

He analizado el ASUS Ascent GX10 no como otro "ordenador de IA", sino como una máquina real para experimentos locales. Y aquí es donde empieza lo interesante: para la implementación de IA y un trabajo de ingeniería serio, lo que cuenta no son solo los TOPS, sino cuánta parte de un modelo cabe en la memoria sin el circo de tener que descargar capas.

Dentro del GX10 se encuentra el NVIDIA GB10 Grace-Blackwell, con hasta 1 PFLOP FP4 y 128 GB de memoria unificada. Para mí, este es el argumento principal. No el "petaflop" de marketing, sino la memoria unificada de CPU y GPU, donde no tienes que chocar constantemente con el límite de 24 o 32 GB de VRAM de las tarjetas de consumo.

El formato tampoco es una broma: es un mini-PC realmente compacto, no un armario que tengas que aguantar al lado de tu escritorio. Además, cuenta con 10GbE, Wi-Fi 7, NVMe, USB-C, HDMI 2.1, y todo el conjunto está diseñado para la inferencia, el ajuste y el desarrollo local. Para un equipo pequeño o un desarrollador en solitario, esto parece mucho más práctico que montar un Frankenstein con varias GPU.

Según ASUS y las primeras reseñas, la máquina puede manejar escenarios que llegan hasta el fine-tuning de modelos grandes, y para la inferencia en la clase de 70B parece especialmente atractiva. Todavía no hay muchos benchmarks independientes, y yo me tomaría las cifras de tokens por segundo con calma. Pero la arquitectura ya dice mucho: 128 GB de memoria unificada abren puertas donde los ordenadores de sobremesa normales simplemente se quedan cortos.

Me llamó especialmente la atención el precio que se mencionaba en un enlace de la comunidad. Si se compra en una tienda española y se tiene en cuenta hábilmente la devolución del IVA o las deducciones por I+D, el coste final podría bajar a unos 2800 euros. Y en este punto me detuve de verdad: por ese dinero, la integración local de la IA deja de ser un juguete para convertirse en una herramienta de trabajo.

Impacto en el negocio y la automatización

¿Quiénes son los primeros en ganar? Aquellos que tienen tareas constantes de inferencia local, datos privados y el deseo de no pagar a la nube cada vez que prueban una hipótesis. Esta caja encaja bien en la automatización con IA para asistentes internos, búsqueda de documentos, procesamiento de contratos y copilots corporativos.

¿Quiénes pierden? Los que lo compren "porque está de moda" y luego solo lo usen para ejecutar un pequeño clasificador. Para tareas sencillas, es excesivo. Pero si ya te preocupan la privacidad, la latencia y los costes de la nube, este hardware tiene mucho sentido.

Veo constantemente el mismo error: la gente compra hardware potente, pero no piensa en la arquitectura de su pipeline. El dinero se gasta, pero la mejora es mínima. En Nahornyi AI Lab, nos dedicamos precisamente a analizar estos cuellos de botella: dónde se necesita inferencia local, dónde un híbrido con la nube, y dónde es mejor construir directamente automation with AI sin gastos innecesarios.

Si te encuentras en una encrucijada similar y no quieres montar un sistema caro a ciegas, puedes simplemente traerme tu caso. Mi equipo en Nahornyi AI Lab y yo te ayudaremos a entender si un mini-PC como este se amortizará en tu proceso específico y, si es necesario, a construir una automatización con IA para tu negocio sin fetichismos de hardware innecesarios.

Configurar una máquina potente para experimentos de IA, incluso un 'monstruo económico' como el ASUS Ascent GX10, requiere una cuidadosa consideración de la arquitectura subyacente. Anteriormente analizamos cómo las demos populares de IA, como las basadas en Raspberry Pi, a menudo ocultan los verdaderos desafíos arquitectónicos para lograr una integración práctica de la IA.

Compartir este articulo