Technischer Kontext
Ich habe mich für diesen Fall nicht als schicke Demo interessiert, sondern als Hinweis auf echte KI-Automatisierung im Design. Das Szenario ist interessant: Codex schreibt nicht nur Code, sondern durchläuft fast die gesamte Vorbereitung für eine UX/UI-Aufgabe, von der Analyse eines Flows bis zur Generierung von Bildschirmen.
So funktioniert es. Er öffnet einen Link zu einem Flow in einem eingebetteten Browser, extrahiert selbstständig Screenshots und versucht, die Onboarding-Struktur zu verstehen. Dann geht er ins Web, um Kontext zu monobank zu sammeln: Positionierung, Onboarding, Verifizierung, Markenelemente und die allgemeine Produktpräsentation.
Dann kommt der interessanteste und gleichzeitig fehleranfälligste Teil. Codex generiert Wireframes durch Bildgenerierung, prüft sie selbst, korrigiert sie und geht dann zu den spezifischen Bildschirmen über. Für jeden Bildschirm zieht er zusätzlich Muster, Plattform-Richtlinien, Kartenbeschränkungen und iOS-Spezifikationen heran und bereitet auf dieser Basis Spezifikationen und Assets vor.
Und hier würde ich die Magie nicht überschätzen. Im Grunde ist das nicht „KI hat die perfekte Benutzeroberfläche gezeichnet“, sondern eine agentenbasierte Pipeline, in der das Modell Recherche, visuelle Referenzen, Generierung und Selbstüberprüfung zu einem einzigen Prozess zusammenfügt.
Die Einschränkungen sind ebenfalls sehr bodenständig. Die Bildgenerierung ist bei Dingen, für die sie schlecht trainiert wurde, launisch: wie Liquid Glass, komplexe Materialien, präzise Abmessungen und konsistente Abstände. Außerdem leidet die Konsistenz: Heute sieht ein Bildschirm toll aus, morgen sieht der daneben aus wie aus einem anderen Universum.
Was ändert das für Unternehmen und die Automatisierung?
Ich sehe hier keinen Ersatz für einen starken Produktdesigner, sondern eine Beschleunigung für Teams, bei denen der Engpass in der Recherche und der Erstellung von Rohentwürfen liegt. In der Phase der KI-Implementierung kann man schnell 3-5 Onboarding-Richtungen durchspielen, ohne wochenlang manuell Referenzen zu sammeln und erste Wireframes zu erstellen.
Produktteams, die Geschwindigkeit benötigen, profitieren am meisten: Banken, Fintech, SaaS, mobile Produkte. Diejenigen, die pixelgenaue Ergebnisse „out of the box“ erwarten und keine menschliche Aufsicht bei der KI-Integration einplanen, verlieren.
Ganz praktisch würde ich solche Tools mit einem Designer und einem PM koppeln, anstatt sie zu ersetzen. Bei Nahornyi AI Lab entwickeln wir genau solche KI-Lösungen für Unternehmen: Ein Agent übernimmt die Recherche, die Struktur und die Rohentwürfe, sodass das Team seine Zeit für Entscheidungen statt für Routineaufgaben nutzen kann.
Wenn Ihr UX-Team in sich wiederholenden Flows, Recherchen und endlosen ersten Entwürfen ertrinkt, kann dies gezielt angegangen werden. Ich würde das, was Vadym Nahornyi und Nahornyi AI Lab tun, nicht als Spielzeug betrachten, sondern als eine Möglichkeit, KI-Automatisierung um Ihren Designprozess herum aufzubauen, damit die Leute weniger Pixel verschieben und das Produkt mehr voranbringen.