Übersicht
Gemini 2.0 Pro ist ein multimodales großes Sprachmodell (LLM) von Google, das auf einer modularen Transformer-Architektur basiert und als Reasoning-Modell konzipiert wurde.
Websuche
NeinKann das Modell auf relevante Informationen aus dem Web zugreifen?
Multimodalität
JaKann das Modell verschiedene Medienarten verarbeiten?
Finetuning
JaKann das Modell finetuned werden?
Performance
Keine gültigen Benchmark-Daten verfügbar.
Provider
Du kannst Gemini 2.0 Pro über die API folgender Anbieter nutzen:
Google Vertex AI
Fehler gefunden? Kontaktiere uns!
Wir legen großen Wert auf die Genauigkeit unserer Modelldaten. Falls dir Unstimmigkeiten oder veraltete Informationen auffallen, lass es uns bitte wissen. Dein Feedback hilft uns, die Qualität unserer Plattform stetig zu verbessern.
Technische Details
Architektur
Architektur-Typ | Transformer, Mixture of Experts |
Input Kontextlänge | 2M Token |
Output Kontextlänge | 8k Token |
Inferenzoptimierung | Unbekannt |
Trainingsmethode | Unsupervised Pretraining, Supervised Fine-Tuning, Reinforcement Learning, Reinforcement Learning from Human Feedback |
Tokenizer & Attention
Tokenizer Modell | Unbekannt |
BOS Token | |
EOS Token | |
Padding Token | |
Attention Heads | N/A |
KV Heads | N/A |
Quantisierung | Keine |
Vor- & Nachteile
Vorteile
Von Grund auf multimodal
Gemini 2.0 Pro wurde multimodal trainiert und hat herausragende Bildverständnisfähigkeiten.
State-of-the-Art Modell von Google
In 02/2025 ist Gemini 2.0 Pro das stärkste Modell in der Produktpalette von Google.
Optionaler Reasoning-Modus
Optional lässt sich ein Chain-of-Thought-Prozess für Gemini 2.0 Pro aktivieren.
Als experimentelles Modell in der Testphase kostenlos
Solange sich Gemini 2.0 Pro in der Beta-Version befindet, bietet Google die Nutzung kostenlos an.
Riesiges Kontextfenster
Google Gemini 2.0 Pro kann bis zu 2 Mio. (!) Input-Tokens verarbeiten. Es wird aber von einem Verlust bei langen Inputs ausgegangen.
Nachteile
Beschränkung der Output-Token
Vergleichsweise niedriges Limit für Output Tokens (8k).