xAI Logo

Grok-4xAI

NeuProprietär

Release Date
Juli 2025
Knowledge Cutoff
Dezember 2024
Parameter
Unbekannt
Modellfamilie
Grok-4

Übersicht

Grok 4 ist ein LLM von xAI, das am 10. Juli 2025 veröffentlicht wurde. Das Modell basiert auf der Version 6 von xAI's Foundation Base Model. Für das Reinforcement Learning wurde 10x so viel Rechenleistung investiert, wie beim Vorgänger Grok-3. Grok-4 erreicht in allen akademischen Bereichen ein Doktorantenlevel. Bei Veröffentlichung schlug Grok-4 andere Sprachmodelle in fast allen Benchmarks. Sehr kritisch zu beurteilen ist allerdings die Tatsache, dass das Modell per Post-Training konkret darauf trainiert wurde, die Meinungen von Elon Musk zu recherchieren und im Output wiederzugeben. Grok-4 kann somit nicht als neutrales LLM bewertet werden.

Websuche

Ja

Kann das Modell auf relevante Informationen aus dem Web zugreifen?

Multimodalität

Ja

Kann das Modell verschiedene Medienarten verarbeiten?

Finetuning

Ja

Kann das Modell finetuned werden?

Max. Input
256k Token
Max. Output
256k Token
Trainingsdaten
Unbekannt
Parameter
Unbekannt
Input Preis
$3,00
Output Preis
$15,00
Vokabular
Unbekannt
Dateigröße
Unbekannt

Performance

Grok-4 Benchmark Übersicht

Nicht genügend Benchmark-Kategorien verfügbar

MMLU Pro Benchmark

Daten werden geladen...

Provider

Du kannst Grok-4 über die API folgender Anbieter nutzen:

xAI logo

xAI

Token (in)256k
Token (out)256k
USD/1M Input$3,00
USD/1M Output$15,00
Latency1.370ms
Throughput40,24t/s
Datenqualität

Fehler gefunden? Kontaktiere uns!

Wir legen großen Wert auf die Genauigkeit unserer Modelldaten. Falls dir Unstimmigkeiten oder veraltete Informationen auffallen, lass es uns bitte wissen. Dein Feedback hilft uns, die Qualität unserer Plattform stetig zu verbessern.

Technische Details

Architektur

Architektur-Typ
Transformer, Mixture of Experts
Input Kontextlänge
256k Token
Output Kontextlänge
256k Token
Inferenzoptimierung
Quantisierung
Trainingsmethode
Unsupervised Pretraining, Supervised Fine-Tuning, Reinforcement Learning, Reinforcement Learning from Human Feedback

Tokenizer & Attention

Tokenizer Modell
SentencePiecec BPE
BOS Token
EOS Token
Padding Token
Attention Heads
N/A
KV Heads
N/A
Quantisierung
Keine

Vor- & Nachteile

Vorteile

  • Beeindruckende Benchmark-Performance

    Grok-4 erreicht Doktorantenlevel in akademischen Benchmarks und steht in 2025/07 an der Spitze der meisten Benchmarks.

  • Tool-Use im Trainigsprozess integriert

    Per Post-Training wurde die Nutzung von Tools in Grok-4 eintrainiert, was zu besseren Ergebnissen führt.

  • Dynamischer Knowledge-Cutoff

    Grok-4 kann auf aktuelle Daten zugreifen und hat damit keinen festen Knowledge-Cutoff.

  • Multimodalität

    Grok-4 ist ein multimodales Modell und kann Bilder, Audio etc. verarbeiten.

Nachteile

  • Sichergestellter Bias

    Grok-4 wurde darauf trainiert, Tweets von Elon Musk als Grundlage für seine Antworten zu verwenden. Ein klares No-Go.

  • Bias durch Trainingsdaten von X

    Grok-4 wurde, wie die Vorgängermodelle auch, mit Inhalten niedriger Qualität von Social Media trainiert, was einen Bias in das Modell einführen könnte.

  • Hohe Kosten

    Insbesondere Grok-4 Heavy, das Modell mit maximierten Reasoning-Kapazitäten, gehört zu den teuersten LLMs am Markt. Ab 128.000 Tokens Kontextfenster verdoppelt sich außerdem der Preis auf $6 / $30.

Loading model comparison data...