Technischer Kontext
Ich habe mir die Ankündigung von GitHub genauer angesehen und sofort das Wesentliche erkannt: Copilot funktioniert nicht mehr nach dem alten Schema mit festen Premium-Anfragen. Ab dem 1. Juni 2026 wird alles auf eine nutzungsbasierte Abrechnung (usage-based billing) umgestellt, bei der Eingabe-, Ausgabe- und zwischengespeicherte Tokens gezählt werden und die Abrechnung über GitHub AI Credits erfolgt.
Für diejenigen, die KI in der Entwicklung implementieren, ist dies keine kosmetische Änderung, sondern ein kompletter Wandel des Abrechnungsmodells. Früher konnte man sich ungefähr an den Anfrage-Limits orientieren. Jetzt hängen die Kosten viel stärker davon ab, welches Modell Sie verwenden, wie lang Ihre Dialoge sind und wie viel Kontext Sie in Ihre IDE ziehen.
Der Kurs ist einfach: 1 Credit entspricht 0,01 $. Jeder Plan behält ein Basisabonnement und ein monatliches Paket an AI Credits bei, aber sobald dieses aufgebraucht ist, beginnt die eigentliche Token-Ökonomie. Die Logik ist für die Pläne Free, Pro, Pro+, Business und Enterprise dieselbe und unterscheidet sich nur in den enthaltenen Volumina und verfügbaren Modellen.
Ich möchte auch anmerken, dass GitHub die sehr bequeme Illusion der „Unbegrenztheit“ für kostenpflichtige Pläne aufhebt. Sie war schon vorher nicht wirklich unbegrenzt, aber jetzt wird es deutlich: Ein teures Modell plus lange Agenten-Sitzungen plus ein großer Kontext bedeuten einen spürbar teureren Copilot.
Ein weiterer wichtiger Punkt: Bei den Jahresabonnements für Pro und Pro+ ändern sich die Modell-Multiplikatoren, und neue Registrierungen für Pro, Pro+ und GitHub für Studenten wurden seit dem 20. April 2026 vorübergehend ausgesetzt. Das riecht weniger nach einem Fehler als nach einer sorgfältigen Neukalibrierung des Geschäftsmodells vor der vollständigen Umstellung.
Auswirkungen auf Unternehmen und Automatisierung
Ich sehe hier drei direkte Konsequenzen. Erstens: Heavy User, die agentenbasierte Szenarien, lange Chats und teure Modelle nutzen, werden mit ziemlicher Sicherheit mehr bezahlen oder zumindest häufiger ihre Abrechnung prüfen.
Zweitens: Teams müssen ihre KI-Integrationen sorgfältiger gestalten. Kurze Prompts, eine gute Retrieval-Strategie, Kontextkontrolle und die Wahl des richtigen Modells für die Aufgabe beeinflussen jetzt не nur die Qualität, sondern auch die Rechnung.
Drittens: Gewinner sind diejenigen, die eine KI-Architektur unter Berücksichtigung der Kosten pro Token aufbauen können, anstatt nur „Copilot anschließen und vergessen“. Genau solche Dinge analysieren wir mit Kunden im Nahornyi AI Lab: Wo sollte ein teures Modell beibehalten, wo der Kontext reduziert und wo eine Aufgabe in eine separate KI-Automatisierung ausgelagert werden, anstatt einen endlosen Chat im Editor zu führen.
Wenn Copilot bereits Teil Ihres täglichen Entwicklungs-Workflows ist und Sie im Juni keine Überraschung erleben möchten, lassen Sie uns Ihre realen Anwendungsszenarien betrachten. Im Nahornyi AI Lab finde ich in der Regel schnell heraus, wo die Kosten aufgrund einer fehlerhaften Konfiguration steigen und wie man KI-Lösungen für Unternehmen so aufbaut, dass Entwickler schneller arbeiten und das Budget nicht Token für Token verloren geht.