Übersicht
Gemma 3 ist ein Open-Weight LLM von Google DeepMind, das entwickelt wurde, um mit einem einzigen GPU ausgeführt werden zu können. Gemma 3 gibt es in verschiedenen Varianten (1B, 4B, 12B, 27B). Ab 4B unterstützt das Modell 140 Sprachen, Multimodalität und besitzt ein Token-Fenster von 128k.
Websuche
NeinKann das Modell auf relevante Informationen aus dem Web zugreifen?
Multimodalität
JaKann das Modell verschiedene Medienarten verarbeiten?
Finetuning
JaKann das Modell finetuned werden?
Performance
Gemma 3 Benchmark Übersicht
Provider
Du kannst Gemma 3 über die API folgender Anbieter nutzen:
Google Vertex AI
DeepInfra
Inference.net
Fehler gefunden? Kontaktiere uns!
Wir legen großen Wert auf die Genauigkeit unserer Modelldaten. Falls dir Unstimmigkeiten oder veraltete Informationen auffallen, lass es uns bitte wissen. Dein Feedback hilft uns, die Qualität unserer Plattform stetig zu verbessern.
Technische Details
Architektur
Architektur-Typ | Unbekannt |
Input Kontextlänge | 131,1k Token |
Output Kontextlänge | 32,8k Token |
Inferenzoptimierung | Unbekannt |
Trainingsmethode | Unbekannt |
Tokenizer & Attention
Tokenizer Modell | llama |
BOS Token | <bos> |
EOS Token | <eos> |
Padding Token | <pad> |
Attention Heads | 32 |
KV Heads | 16 |
Quantisierung | 27B, 12B, 4B, 1B |
Vor- & Nachteile
Vorteile
Kostenloses Open-Weight Modell
Gemma 3 lässt sich herunterladen und ohne Internetzugriff ausführen.
Große Community
Im "Gemmaverse" werden finetuned Gemma Modelle für spezifische Anwendungsfälle gesammelt und geteilt.
Verschiedene Versionen
Gemma 3 gibt es mit 4 verschiedenen Parameter-Anzahlen, sodass für kleine Anwendungen auch effiziente Modelle verwendet werden können.
Multimodalität
Ab der 4B-Version kann Gemma 3 multimodale Inhalte (mit Bildern) verarbeiten.
Nachteile
Nicht für Coding geeignet
Gemma 3 überzeugt in den meisten Benchmarks; Coding Ergebnisse hinken anderen Modellen aber hinterher.