Qwen3.5AlibabaQwen3.5 ist Alibabas neuestes Flaggschiff-Modell, das speziell für den Einsatz in agentischen KI-Systemen entwickelt wurde. Das Modell basiert auf einer hybriden Architektur aus "Gated Delta Networks" und sparse Mixture-of-Experts mit 397 Milliarden Gesamtparametern, von denen 17 Milliarden pro Token aktiviert werden. Qwen3.5 nativ multimodal und unterstützt 201 Sprachen. Das Modell ist der Nachfolger von Qwen3. In den ersten Benchmarks performed Qwen3.5 auf einem vergleichbaren Niveau von MiniMax-2.5 und GLM-5, unterbietet aber proprietäre Modelle wie Claude Opus 4.6 oder GPT-5.2.Parameter397 Mrd.VeröffentlichungFebruar 2026TrainingUnbekanntLizenzApache 2.0MultimodalWeb SearchFinetuning
MiniMax-M2.5MiniMaxMiniMax M2.5 ist das neueste Flaggschiff-Modell von MiniMax (Hailuo AI), das speziell für Workflows von KI-Agenten und Coding-Aufgaben entwickelt wurde. M2.5 ist der Nachfolger von MiniMax-M2.1 und wurde nativ auf das Tool-Calling trainiert. Im Gegensatz zum zeitgleich veröffentlichten GLM-5 kommt MiniMax-M2.5 mit nur 10B aktiven Parametern aus einer 230B MoE-Architektur aus. Damit ist erreicht es vergleichbare Leistung zu GLM-5 und ist deutlich günstiger als Proprietäre Modelle wie Claude Opus 4.6.Parameter230 Mrd.VeröffentlichungFebruar 2026TrainingUnbekanntLizenzMITMultimodalWeb SearchFinetuning
GLM-5Z.aiGLM-5 ist das neue SOTA-Modell von Z.ai (ehemals Zhipu AI) und der Nachfolger von GLM-4.7. GLM-5 wurde am 11. Februar 2026 veröffentlicht und gilt zum Zeitpunkt der Veröffentlichung als das beste Open-Weights Modell, das sich herunterladen und sich lokal auf Rechnern ausführen lässt. Mit 744 Milliarden Parametern (40B aktiv) in einer Mixture-of-Experts-Architektur wurde es laut Z.ai vollständig auf Huawei Ascend Chips trainiert. Es gilt damit als erstes Frontier-MoE-Modell, das komplett ohne NVIDIA-Hardware trainiert werden konnte. GLM-5 integriert den Sparse Attention Mechanismus von DeepSeek für effiziente Verarbeitung langer Inputs sowie eine eigene Reinforcement-Learning Struktur für das Post-Training. GLM-5 übertrifft teilweise die Benchmark Scores westlicher Modelle und weist laut ArtificialAnalysis.ai die niedrigsten Halluzinationsraten aktueller Frontier-Modelle auf. Zusammen mit MiniMax-M2.5 (zeitgleich veröffentlicht) führt GLM-5 die Benchmarks der Open-Source LLMs an.Parameter744 Mrd.VeröffentlichungFebruar 2026Training28.500 Mrd.LizenzMITWeb SearchFinetuning