Contexto técnico
Me interesé en este caso no como una demo bonita, sino como un indicio de una automatización real con IA en el diseño. El escenario es interesante: Codex no solo escribe código, sino que realiza casi toda la preparación para una tarea de UX/UI, desde el análisis del flujo hasta la generación de pantallas.
Así es como funciona. Abre un enlace a un flujo en un navegador integrado, extrae capturas de pantalla por sí mismo e intenta comprender la estructura del onboarding. Luego, busca en la web para recopilar contexto sobre monobank: posicionamiento, onboarding, verificación, elementos de marca y la presentación general del producto.
Luego viene la parte más interesante y, a la vez, la más imperfecta. Codex genera wireframes a través de la generación de imágenes, los revisa, los corrige y luego pasa a las pantallas específicas. Para cada pantalla, obtiene patrones, guías de plataforma, limitaciones de tarjetas y especificaciones de iOS, y con base en esto prepara las especificaciones y los assets.
Y aquí es donde no sobrestimaría la magia. En esencia, no se trata de que "la IA dibujó la interfaz perfecta", sino de un pipeline agéntico donde el modelo une investigación, referencias visuales, generación y autoverificación en un solo proceso.
Las limitaciones también son muy terrenales. La generación de imágenes es caprichosa con cosas en las que no está bien entrenada: el mismo liquid glass, materiales complejos, dimensiones precisas, espaciados consistentes. Además, la consistencia sufre: un día una pantalla es bonita, y al día siguiente la de al lado parece de otro universo visual.
¿Qué cambia esto para el negocio y la automatización?
No veo esto como un reemplazo para un diseñador de producto fuerte, sino como un acelerador para equipos cuyo cuello de botella es la investigación y la producción de borradores de pantallas. En la etapa de implementación de IA, se pueden probar rápidamente de 3 a 5 direcciones de onboarding sin pasar semanas recopilando referencias manualmente y creando wireframes iniciales.
Ganan los equipos de producto que necesitan velocidad: bancos, fintech, SaaS, productos móviles. Pierden aquellos que esperan resultados pixel-perfect de inmediato y no incluyen supervisión humana en la integración de la IA.
Siendo muy práctico, yo usaría estas herramientas en conjunto con un diseñador y un PM, no en lugar de ellos. En Nahornyi AI Lab, precisamente creamos estas soluciones de IA para empresas: donde un agente se encarga de la investigación, la estructura y la generación inicial, permitiendo que el equipo dedique su tiempo a tomar decisiones, no a tareas rutinarias.
Si tu equipo de UX está ahogado en flujos repetitivos, investigación y borradores interminables, esto ya se puede abordar de manera concreta. Yo vería lo que hacen Vadym Nahornyi y Nahornyi AI Lab no como un juguete, sino como una forma de construir automatización con IA alrededor de tu proceso de diseño para que la gente mueva menos píxeles y haga avanzar más el producto.