MiniMax M2.7MiniMaxMiniMax M2.7 ist eine durch Post-Training verbesserte Version von MiniMax-M2.5. MiniMax gibt an, dass das Modell sich selbst durch rekursive Selbstoptimierung in über 100+ Iterationszyklen verbessert hat. So erziele M2.7 eine ca. 30%ige Steigerung in internen Evaluierungen. MiniMax M2.5 gilt als beliebtes Open-Weights Modell, das vor allem in agentischen Tools wie Open Clawd zum Einsatz kommt. Es ist davon auszugehen, dass M2.5 nun von der neuen M2.7 Version abgelöst wird. Mit 10B aktiven Parametern in einer 230B MoE-Architektur ist MiniMax-M2.7 ein sehr effizientes und kostengünstiges Modell.Parameter230 Mrd.VeröffentlichungMärz 2026TrainingUnbekanntLizenzMITMultimodalWeb SearchFinetuning
GPT-5.4 nanoOpenAIGPT-5.4 nano ist das kleinste, günstigste und schnellste Modell der GPT-5.4-Familie. OpenAI veröffentlicht regelmäßig die "nano" Modelle für Aufgaben, die eine niedrige Latenz und hohen Token-Throughput benötigen. GPT-5.4 nano übertrifft in den Benchmarks das ältere GPT-5 mini, insbesondere bei Coding- und Tool-Calling-Aufgaben, obwohl es als "nano" Modell vermutlich deutlich kleiner ist. OpenAI berichtet außerdem, dass GPT-5.4 nano 45% weniger faktische Fehler und bis zu 80% weniger Halluzinationen im Thinking-Modus mache.ParameterUnbekanntVeröffentlichungMärz 2026TrainingUnbekanntLizenzProprietärMultimodalWeb Search
GPT-5.4 miniOpenAIGPT-5.4 mini ist eine kleinere Version von GPT-5.4 und damit schneller und effizienter als der große Bruder. Im Vergleich zu GPT-5 mini erreicht GPT-5.4 mini deutlich höhere Benchmark Scores in allen Bereichen. Teilweise kann das Modell sogar mit dem ca. 3x teuren Claude Sonnet 4-6 konkurrieren. OpenAI positioniert GPT-5.4 mini als Modell für Sub-Agents, die repetitive Aufgaben und klare Anweisungen effizient und schnell bearbeiten sollen.ParameterUnbekanntVeröffentlichungMärz 2026TrainingUnbekanntLizenzProprietärMultimodalWeb Search