MiniMax-M2.1MiniMaxMiniMax M2.1 ist ein chinesisches Mixture-of-Experts-Modell, das insbesondere für Programmieraufgaben und den Einsatz in KI-Agenten entwickelt wurde. Mit nur 10B aktiven Parametern bei 230B Gesamtparametern gehört es zu den besten Coding-LLMs. M2.1 ist ein Open Weights Modell und lässt sich bei entsprechender Hardware auch lokal ausführen.Parameter230 Mrd.VeröffentlichungDezember 2025TrainingUnbekanntLizenzMITMultimodalWeb SearchFinetuning
GLM-4.7Z.aiGLM-4.7 ist das neueste Flaggschiff-Modell von Z.ai (ehemals Zhipu AI) und Nachfolger von GLM-4.6, das insbesondere für Coding und längere agentische Aufgaben optimiert wurde. GLM-4.7 bietet stabiles Multi-Step-Reasoning und kommt mit ein paar neuen Funktionen, wie z.B. "Preserved Thinking" einher, das für konsistente Reasoning-Ketten über mehrere Prompts hinweg sorgt. Außerdem wurde GLM-4.7 darauf optimiert, beim Vibe Coding von der klassischen Ästhetik abzuweichen und schöne visuelle Frontends zu erstellen.Parameter400 Mrd.VeröffentlichungDezember 2025TrainingUnbekanntLizenzMITMultimodalWeb SearchFinetuning
GPT-5.2 ProOpenAIGPT-5.2 Pro ist eine Variante von GPT-5.2, die Parallel Test Time Compute nutzt, um einen besseren Output zu erzeugen. Dafür werden mehrere Outputs für einen Prompt gleichzeitig generiert und anschließend die beste Antwort an den Nutzer weitergeleitet. Zudem unterstützt GPT-5.2 Pro ein eigenes Reasoning-Effort Level "xhigh" (extrem hoch). GPT-5..2 Pro zielt mit seinen hohen Kosten und der reduzierten Halluzinationsrate auf professionellen Einsatz ab. Z.B. kann das Modell gut in der Forschung, für juristische Analysen oder komplexe Programmieraufgaben, bei denen Kosten eher zweitrangig sind, verwendet werden.ParameterUnbekanntVeröffentlichungDezember 2025TrainingUnbekanntLizenzProprietärMultimodalWeb Search