Die Landschaft der künstlichen Intelligenz verändert sich von Modellen, die einfach nur „chatten“, hin zu Modellen, die „funktionieren“. In einem wichtigen Schritt für die Open-Source-Community hat das chinesische KI-Startup Z.ai (auch bekannt als Zhupai AI) GLM-5.1 veröffentlicht, ein riesiges Mixture-of-Experts-Modell (MoE) mit 754 Milliarden Parametern, das für langfristige autonome Aufgaben entwickelt wurde.
Im Gegensatz zu früheren KI-Generationen, die oft nach ein paar Dutzend Schritten „abdriften“ oder den Fokus verlieren, ist GLM-5.1 so konzipiert, dass es bis zu acht Stunden unabhängig an einem einzelnen komplexen Ziel arbeiten kann. Dies markiert einen Übergang vom „Vibe-Coding“ – bei dem Benutzer eine KI veranlassen und auf das Beste hoffen – zum Agentic Engineering, bei dem die KI als selbstkorrigierender, langfristiger Arbeiter fungiert.
Das Leistungsplateau durchbrechen: Das „Treppenmuster“.
Eine der größten Hürden bei der KI-Entwicklung ist der „Plateau-Effekt“. Wenn einem KI-Agenten traditionell mehr Tools oder mehr Zeit zur Lösung eines Problems zur Verfügung gestellt werden, lässt seine Leistung irgendwann nach oder er beginnt, durch „Strategiedrift“ Fehler zu machen.
Die Forschung von Z.ai legt nahe, dass GLM-5.1 dieses Problem durch ein „Treppenmuster“ der Optimierung überwindet. Anstelle einer linearen Progression durchläuft das Modell Phasen schrittweiser Optimierung, gefolgt von plötzlichen strukturellen Durchbrüchen.
Zu den realen Beweisen dieser Fähigkeit gehören:
– Datenbankoptimierung: In einer Aufgabe, die eine leistungsstarke Vektordatenbankoptimierung beinhaltete, führte GLM-5.1 über 6.000 Toolaufrufe durch. Während frühere Modelle bei etwa 3.500 Abfragen pro Sekunde (QPS) eine Obergrenze erreichten, gestaltete GLM-5.1 die Systemarchitektur selbstständig neu und erreichte schließlich 21.500 QPS – eine Verbesserung um das Sechsfache.
– Kernel für maschinelles Lernen: In KernelBench -Tests hat das Modell seine Fähigkeit unter Beweis gestellt, komplexe GPU-Kernel zu optimieren. Während es bei der reinen Geschwindigkeit etwas hinter dem Claude Opus 4.6 von Anthropic zurückbleibt, hat GLM-5.1 bewiesen, dass es die produktive Arbeit viel länger als seine Vorgänger durchhalten kann und den Fortschritt weit über 1.000 Werkzeugumdrehungen hinaus aufrechterhält.
„Agenten konnten bis Ende letzten Jahres etwa 20 Schritte ausführen; GLM-5.1 kann derzeit 1.700 Schritte ausführen“, bemerkte Z.ai-Leiter Lou auf X.
Benchmarking-Erfolg: Die Giganten übertreffen
Mit der Veröffentlichung von GLM-5.1 steht Z.ai in direkter Konkurrenz zu den weltweit führenden KI-Laboren. Beim SWE-Bench Pro – einem strengen Benchmark zur Lösung realer GitHub-Probleme – erreichte GLM-5.1 eine Punktzahl von 58,4 und übertraf damit:
– GPT-5.4 (57,7)
– Claude Opus 4.6 (57,3)
– Gemini 3.1 Pro (54,2)
Das Modell zeigte auch bemerkenswerte Stärke in speziellen Bereichen wie Mathematik (95,3 bei AIME 2026) und naturwissenschaftlichem Denken (86,2 bei GPQA-Diamond). Am beeindruckendsten ist vielleicht, dass sich das Modell bei einem Test zum Aufbau einer Desktop-Umgebung im Linux-Stil nicht nur auf eine einfache Benutzeroberfläche beschränkte; Innerhalb von acht Stunden wurden selbstständig ein Dateibrowser, ein Terminal und sogar funktionsfähige Spiele erstellt.
Eine hybride Geschäftsstrategie: Open Source vs. proprietär
Z.ai verfolgt eine ausgeklügelte zweigleisige Strategie, um das Wachstum der Gemeinschaft mit der kommerziellen Rentabilität in Einklang zu bringen:
- Das Open-Source-Flaggschiff (GLM-5.1): Veröffentlicht unter einer freizügigen MIT-Lizenz, die Modellgewichte sind auf Hugging Face verfügbar. Dadurch wird das Vertrauen der Entwickler gestärkt und ein globaler Standard etabliert.
- Der proprietäre Sprinter (GLM-5 Turbo): Eine schnellere Closed-Source-Version, optimiert für überwachte Hochgeschwindigkeitsaufgaben. Dies dient als margenstarker Umsatztreiber für Unternehmen, die schnelle Schlussfolgerungen benötigen.
Preise und Stufen
Z.ai hat GLM-5.1 als Engineering-Tool und nicht als Verbraucher-Chatbot positioniert und bietet abgestufte Abonnementpläne:
– Lite: 27 $/Quartal (für leichte Arbeitslasten).
– Pro: 81 $/Quartal (für komplexe Arbeitslasten mit schnellerer Ausführung).
– Max: 216 $/Quartal (für fortgeschrittene Entwickler mit hohem Volumen).
Für API-Benutzer beträgt der Preis des Modells 1,40 $ pro Million Eingabe-Tokens und 4,40 $ pro Million Ausgabe-Tokens, wodurch es konkurrenzfähig zu anderen High-End-Modellen wie GPT-5.4 und Claude Opus 4.6 ist.
Fazit
Die Veröffentlichung von GLM-5.1 läutet eine neue Ära ein, in der der Wert eines KI-Modells nicht nur an seiner Intelligenz, sondern auch an seiner Ausdauer gemessen wird. Indem Z.ai beweist, dass Open-Source-Modelle nachhaltige, mehrstündige Engineering-Arbeitsabläufe bewältigen können, fordert es die Dominanz westlicher proprietärer Modelle heraus und definiert die Grenzen autonomer digitaler Arbeit neu.




























