OpenAI Logo

OpenAI o3-miniOpenAI

NeuProprietär

Release Date
Januar 2025
Knowledge Cutoff
Oktober 2023
Parameter
Unbekannt
Modellfamilie
OpenAI o3

Übersicht

OpenAI o3-mini ist das "kleine" Reasoning-Modell aus der o3-Familie. Trotz der Bezeichnung "mini" ist davon auszugehen, dass es sich um ein großes Decoder-Transformer Sprachmodell handelt, das jedoch weniger Parameter besitzt, als die anderen o3 Modelle. o3-mini ist der Nachfolger von o1-mini. In ChatGPT kann man zwischen o3-mini (high) und o3-mini (medium) wählen, um die Höhe der Rechenleistung für Test-Time-Compute zu bestimmen. Per API lässt sich auch die niedrigste Reasoning-Stufe (low) abrufen.

Websuche

Ja

Kann das Modell auf relevante Informationen aus dem Web zugreifen?

Multimodalität

Ja

Kann das Modell verschiedene Medienarten verarbeiten?

Finetuning

Ja

Kann das Modell finetuned werden?

Max. Input
200k Token
Max. Output
100k Token
Trainingsdaten
Unbekannt
Parameter
Unbekannt
Input Preis
$1,10
Output Preis
$4,40
Vokabular
100.352
Dateigröße
Unbekannt

Performance

OpenAI o3-mini Benchmark Übersicht

MathematikWissen & SprachverständnisCoding

AIME 2024 Benchmark

Daten werden geladen...

Provider

Du kannst OpenAI o3-mini über die API folgender Anbieter nutzen:

OpenAI logo

OpenAI

Token (in)200k
Token (out)100k
USD/1M Input$1,10
USD/1M Output$4,40
Latency5,41ms
Throughput93,95t/s
Azure logo

Azure

Token (in)200k
Token (out)100k
USD/1M Input$1,10
USD/1M Output$4,40
Latency5,2ms
Throughput115t/s
Datenqualität

Fehler gefunden? Kontaktiere uns!

Wir legen großen Wert auf die Genauigkeit unserer Modelldaten. Falls dir Unstimmigkeiten oder veraltete Informationen auffallen, lass es uns bitte wissen. Dein Feedback hilft uns, die Qualität unserer Plattform stetig zu verbessern.

Technische Details

Architektur

Architektur-Typ
Transformer, Decoder-only
Input Kontextlänge
200k Token
Output Kontextlänge
100k Token
Inferenzoptimierung
Unbekannt
Trainingsmethode
Unsupervised Pretraining, Supervised Fine-Tuning, Reinforcement Learning, Reinforcement Learning from Human Feedback

Tokenizer & Attention

Tokenizer Modell
tiktoken
BOS Token
EOS Token
<|endoftext|>
Padding Token
Attention Heads
N/A
KV Heads
N/A
Quantisierung
Keine

Vor- & Nachteile

Vorteile

  • Zugriff auf Daten aus dem Internet

    Im Gegensatz zu OpenAI o1 kann o3-mini auf Daten aus dem Internet zurückgreifen.

  • Sehr gute Benchmark Ergebnisse

    In 02/2025 gehört o3-mini zu den besten SOTA-Modellen auf dem Markt.

  • Wahl zwischen Reasoning-Effort

    Über o3-mini (high) und o3-mini lässt sich beeinflussen, wie viele Chain-of-Thought Token in die Zwischenberechnung fließen sollen.

  • Reduzierte Kosten

    Im Gegensatz zur Vorgänger-Familie OpenAI-o1 ist o3-mini deutlich günstiger.

  • Multomodalität

    o3-mini kann Bilder verarbeiten und Spracheingaben verarbeiten.

Nachteile

  • Nicht die günstigste Option

    DeepSeek-R1 erreicht vergleichbare Benchmark-Results und kostet nur ca. 50 % so viel wie OpenAI o3-mini

Loading model comparison data...