Technischer Kontext
Ich habe mir die neuen Releases von MiniMax nicht aus Neugier angesehen, sondern weil man solche Modelle sofort für KI-Automatisierung und Aufgaben mit hohem Durchsatz ausprobieren möchte. Auf dem Papier sieht das Bild sehr verlockend aus: eine MoE-Architektur, niedrige Kosten durch eine geringe Anzahl aktiver Parameter und sehr gute Ergebnisse beim Programmieren, bei Tool-Aufrufen und in Agenten-Szenarien.
Konkret sind bei MiniMax 2026 die Modelle M1 und die neuere Linie M2.5 und M2.7 im Gespräch. Sie haben eine große Gesamtparameterzahl, aber der aktive Teil ist deutlich kleiner: So hat M2.5 etwa 229 Mrd. Gesamt- und ca. 10 Mrd. aktive Parameter, während M1 ca. 456 Mrd. Gesamt- und 45,9 Mrd. aktive Parameter hat. Daher die Wirtschaftlichkeit: Das Modell kann auf Benchmarks fast wie ein Spitzenmodell aussehen, kostet aber um ein Vielfaches weniger als dichte Flaggschiffe wie Opus.
Und genau hier bremse ich meine Begeisterung normalerweise. Die Qualität von MoE-Modellen hängt fast immer vom Routing ab: Trifft eine Anfrage die richtigen Experten, ist die Antwort ausgezeichnet; verfehlt der Router sein Ziel, schwächelt dasselbe Modell plötzlich bei einem sehr ähnlichen Fall. Deshalb sind Aussagen wie „auf dem SWE-Bench fast so gut wie Opus, also können wir es problemlos ersetzen“ für mich zu gewagt.
Auf Benchmarks sieht MiniMax tatsächlich stark aus, besonders bei Aufgaben mit Tools, langem Kontext und sich wiederholenden Mustern. Aber im Live-Betrieb zählt nicht der beste Versuch, sondern die Qualitätsstreuung. Und da verhalten sich dichte Modelle in der Regel stabiler.
Auswirkungen auf Geschäft und Automatisierung
Für Automatisierungen ist dies erstaunlicherweise kein Nachteil, sondern oft ein sehr praktikabler Kompromiss. Wenn ich eine enge Pipeline, einen soliden System-Prompt, Formatkontrolle, Output-Validierung und einen klaren Satz von Tools habe, kann MiniMax eine sehr kostengünstige Integration künstlicher Intelligenz bieten.
Wer profitiert? Teams, die einen massiven Durchsatz benötigen: Support-Triage, Datenextraktion, Entwurfserstellung, Code-Agenten, interne Copilots. Wer verliert? Produkte, bei denen der Nutzer frei spricht, zwischen Themen springt und einen stabil intelligenten Dialog ohne Leitplanken erwartet.
Ich würde es einfach formulieren: MiniMax hat Opus nicht „getötet“, sondern die Wirtschaftlichkeit dort stark verbessert, wo die Prozessarchitektur wichtiger ist als das Charisma des Modells. Wir bei Nahornyi AI Lab lösen genau solche Fragen für unsere Kunden: Manchmal reicht ein günstiges MoE, und manchmal zerstört der Versuch zu sparen die gesamte User Experience. Wenn Sie eine KI-Implementierung planen und unsicher sind, was Sie in die Produktion bringen sollen, können wir Ihr Szenario schnell analysieren und eine KI-Lösung ohne riskante Experimente an echten Nutzern entwickeln.