Übersicht
Grok 4 ist ein LLM von xAI, das am 10. Juli 2025 veröffentlicht wurde. Das Modell basiert auf der Version 6 von xAI's Foundation Base Model. Für das Reinforcement Learning wurde 10x so viel Rechenleistung investiert, wie beim Vorgänger Grok-3. Grok-4 erreicht in allen akademischen Bereichen ein Doktorantenlevel. Bei Veröffentlichung schlug Grok-4 andere Sprachmodelle in fast allen Benchmarks. Sehr kritisch zu beurteilen ist allerdings die Tatsache, dass das Modell per Post-Training konkret darauf trainiert wurde, die Meinungen von Elon Musk zu recherchieren und im Output wiederzugeben. Grok-4 kann somit nicht als neutrales LLM bewertet werden.
Websuche
JaKann das Modell auf relevante Informationen aus dem Web zugreifen?
Multimodalität
JaKann das Modell verschiedene Medienarten verarbeiten?
Finetuning
JaKann das Modell finetuned werden?
Performance
Grok-4 Benchmark Übersicht
Provider
Du kannst Grok-4 über die API folgender Anbieter nutzen:
xAI
Fehler gefunden? Kontaktiere uns!
Wir legen großen Wert auf die Genauigkeit unserer Modelldaten. Falls dir Unstimmigkeiten oder veraltete Informationen auffallen, lass es uns bitte wissen. Dein Feedback hilft uns, die Qualität unserer Plattform stetig zu verbessern.
Technische Details
Architektur
Architektur-Typ | Transformer, Mixture of Experts |
Input Kontextlänge | 256k Token |
Output Kontextlänge | 256k Token |
Inferenzoptimierung | Quantisierung |
Trainingsmethode | Unsupervised Pretraining, Supervised Fine-Tuning, Reinforcement Learning, Reinforcement Learning from Human Feedback |
Tokenizer & Attention
Tokenizer Modell | SentencePiecec BPE |
BOS Token | |
EOS Token | |
Padding Token | |
Attention Heads | N/A |
KV Heads | N/A |
Quantisierung | Keine |
Vor- & Nachteile
Vorteile
Beeindruckende Benchmark-Performance
Grok-4 erreicht Doktorantenlevel in akademischen Benchmarks und steht in 2025/07 an der Spitze der meisten Benchmarks.
Tool-Use im Trainigsprozess integriert
Per Post-Training wurde die Nutzung von Tools in Grok-4 eintrainiert, was zu besseren Ergebnissen führt.
Dynamischer Knowledge-Cutoff
Grok-4 kann auf aktuelle Daten zugreifen und hat damit keinen festen Knowledge-Cutoff.
Multimodalität
Grok-4 ist ein multimodales Modell und kann Bilder, Audio etc. verarbeiten.
Nachteile
Sichergestellter Bias
Grok-4 wurde darauf trainiert, Tweets von Elon Musk als Grundlage für seine Antworten zu verwenden. Ein klares No-Go.
Bias durch Trainingsdaten von X
Grok-4 wurde, wie die Vorgängermodelle auch, mit Inhalten niedriger Qualität von Social Media trainiert, was einen Bias in das Modell einführen könnte.
Hohe Kosten
Insbesondere Grok-4 Heavy, das Modell mit maximierten Reasoning-Kapazitäten, gehört zu den teuersten LLMs am Markt. Ab 128.000 Tokens Kontextfenster verdoppelt sich außerdem der Preis auf $6 / $30.