Google DeepMind Logo

Gemini 2.0 ProGoogle DeepMind

NeuProprietär

Release Date
Februar 2025
Knowledge Cutoff
August 2024
Parameter
Unbekannt
Modellfamilie
Gemini

Übersicht

Gemini 2.0 Pro ist ein multimodales großes Sprachmodell (LLM) von Google, das auf einer modularen Transformer-Architektur basiert und als Reasoning-Modell konzipiert wurde.

Websuche

Nein

Kann das Modell auf relevante Informationen aus dem Web zugreifen?

Multimodalität

Ja

Kann das Modell verschiedene Medienarten verarbeiten?

Finetuning

Ja

Kann das Modell finetuned werden?

Max. Input
2M Token
Max. Output
8k Token
Trainingsdaten
Unbekannt
Parameter
Unbekannt
Input Preis
Unbekannt
Output Preis
Unbekannt
Vokabular
Unbekannt
Dateigröße
Unbekannt

Performance

Keine gültigen Benchmark-Daten verfügbar.

Provider

Du kannst Gemini 2.0 Pro über die API folgender Anbieter nutzen:

Google Vertex AI logo

Google Vertex AI

Token (in)2M
Token (out)8k
USD/1M InputN/A
USD/1M OutputN/A
Latency1,16ms
Throughput76,92t/s
Datenqualität

Fehler gefunden? Kontaktiere uns!

Wir legen großen Wert auf die Genauigkeit unserer Modelldaten. Falls dir Unstimmigkeiten oder veraltete Informationen auffallen, lass es uns bitte wissen. Dein Feedback hilft uns, die Qualität unserer Plattform stetig zu verbessern.

Technische Details

Architektur

Architektur-Typ
Transformer, Mixture of Experts
Input Kontextlänge
2M Token
Output Kontextlänge
8k Token
Inferenzoptimierung
Unbekannt
Trainingsmethode
Unsupervised Pretraining, Supervised Fine-Tuning, Reinforcement Learning, Reinforcement Learning from Human Feedback

Tokenizer & Attention

Tokenizer Modell
Unbekannt
BOS Token
EOS Token
Padding Token
Attention Heads
N/A
KV Heads
N/A
Quantisierung
Keine

Vor- & Nachteile

Vorteile

  • Von Grund auf multimodal

    Gemini 2.0 Pro wurde multimodal trainiert und hat herausragende Bildverständnisfähigkeiten.

  • State-of-the-Art Modell von Google

    In 02/2025 ist Gemini 2.0 Pro das stärkste Modell in der Produktpalette von Google.

  • Optionaler Reasoning-Modus

    Optional lässt sich ein Chain-of-Thought-Prozess für Gemini 2.0 Pro aktivieren.

  • Als experimentelles Modell in der Testphase kostenlos

    Solange sich Gemini 2.0 Pro in der Beta-Version befindet, bietet Google die Nutzung kostenlos an.

  • Riesiges Kontextfenster

    Google Gemini 2.0 Pro kann bis zu 2 Mio. (!) Input-Tokens verarbeiten. Es wird aber von einem Verlust bei langen Inputs ausgegangen.

Nachteile

  • Beschränkung der Output-Token

    Vergleichsweise niedriges Limit für Output Tokens (8k).

Loading model comparison data...