xAI Logo

Grok-3xAI

NeuProprietär

Release Date
Februar 2025
Knowledge Cutoff
Februar 2025
Parameter
Unbekannt
Modellfamilie
Grok-3

Übersicht

Grok 3 (Think) ist ein fortgeschrittenes LLM von xAI, das im Februar 2025 veröffentlicht wurde. Über das xAI Datenzentrum in Memphis, in dem mehr als 200.000 GPUs verwendet werden, um KI-Modelle zu trainieren, konnte Grok-3 mit mehr als 10x so viel Ressourcen trainiert werden, wie der Vorgänger Grok-2. Mit Grok-3 Reasoning und Grok-3 Mini gibt es in der Modellfamilie auch Reasoning-Modelle für Aufgaben, die komplexe Problemlösungsstrategien erfordern.

Websuche

Ja

Kann das Modell auf relevante Informationen aus dem Web zugreifen?

Multimodalität

Ja

Kann das Modell verschiedene Medienarten verarbeiten?

Finetuning

Nein

Kann das Modell finetuned werden?

Max. Input
128k Token
Max. Output
Unbekannt
Trainingsdaten
12,8T
Parameter
Unbekannt
Input Preis
Unbekannt
Output Preis
Unbekannt
Vokabular
Unbekannt
Dateigröße
Unbekannt

Performance

Grok-3 Benchmark Übersicht

MathematikWissen & SprachverständnisCoding

AIME 2024 Benchmark

Daten werden geladen...

Provider

Du kannst Grok-3 über die API folgender Anbieter nutzen:

Datenqualität

Fehler gefunden? Kontaktiere uns!

Wir legen großen Wert auf die Genauigkeit unserer Modelldaten. Falls dir Unstimmigkeiten oder veraltete Informationen auffallen, lass es uns bitte wissen. Dein Feedback hilft uns, die Qualität unserer Plattform stetig zu verbessern.

Technische Details

Architektur

Architektur-Typ
Transformer, Mixture of Experts
Input Kontextlänge
128k Token
Output Kontextlänge
N/A Token
Inferenzoptimierung
Quantisierung
Trainingsmethode
Unsupervised Pretraining, Supervised Fine-Tuning

Tokenizer & Attention

Tokenizer Modell
SentencePiecec BPE
BOS Token
EOS Token
Padding Token
Attention Heads
N/A
KV Heads
N/A
Quantisierung
Keine

Vor- & Nachteile

Vorteile

  • Beeindruckende Benchmark-Performance

    Grok-3 übertrifft in den ersten Benchmarks viele andere SOTA-Modelle und zählt in 02/2025 zu den besten LLMs.

  • Reasoning Kapazitäten

    Neben Grok-3 Reasoning gibt es mit Grok-3 Reasoning-mini auch ein distilliertes Reasoning-Modell.

  • Dynamischer Knowledge-Cutoff

    Grok-3 kann auf aktuelle Daten zugreifen und hat damit keinen festen Knowledge-Cutoff.

Nachteile

  • Möglicher Bias

    Da Grok-3 u.a. mit Daten der Social-Media Plattform X (ehemals Twitter) trainiert wurde, ist von Ungenauigkeiten und starken Voreingenommenheiten in den Trainingsdaten auszugehen.

  • Zugänglichkeit nur über X

    Wer Grok-3 nutzen möchte, muss ein Konto auf der Social-Media Plattform X.com eröffnen.

  • Keine API

    Aktuell gibt es keine API, über die sich Grok-3 verwenden lässt.

Loading model comparison data...