Übersicht
GLM-4.5 und GLM-4.5 Air sind zwei LLMs, die vom chinesischen Entwickler Zhipu AI entwickelt und im Juli 2025 als Open-Source-Modelle vorgestellt wurden. Beide Modelle basieren auf der Mixture-of-Experts Architektur und aktivieren während der Inferenz nur einen Teil ihrer Parameter. GLM-4.5 gehört damit zu den günstigsten SOTA-Modellen und unterbietet sogar Deepseek-R1. Zur Veröffentlichung konnten beide Modelle SOTA-Benchmark-Scores erreichen. GLM-4.5 steht auf einer Ebene mit Grok 4, Claude 4 Opus und OpenAI o4-mini.
Websuche
JaKann das Modell auf relevante Informationen aus dem Web zugreifen?
Multimodalität
JaKann das Modell verschiedene Medienarten verarbeiten?
Finetuning
JaKann das Modell finetuned werden?
Performance
GLM-4.5 Benchmark Übersicht
Provider
Du kannst GLM-4.5 über die API folgender Anbieter nutzen:
Fehler gefunden? Kontaktiere uns!
Wir legen großen Wert auf die Genauigkeit unserer Modelldaten. Falls dir Unstimmigkeiten oder veraltete Informationen auffallen, lass es uns bitte wissen. Dein Feedback hilft uns, die Qualität unserer Plattform stetig zu verbessern.
Technische Details
Architektur
Architektur-Typ | Transformer, Mixture of Experts |
Input Kontextlänge | 128k Token |
Output Kontextlänge | 96k Token |
Inferenzoptimierung | Quantisierung |
Trainingsmethode | Unsupervised Pretraining, Supervised Fine-Tuning, Reinforcement Learning |
Tokenizer & Attention
Tokenizer Modell | Unbekannt |
BOS Token | |
EOS Token | <|endoftext|> |
Padding Token | <|endoftext|> |
Attention Heads | 96 |
KV Heads | 8 |
Quantisierung | FP8 |
Vor- & Nachteile
Vorteile
Benchmark Scores im SOTA-Bereich
GLM-4.5 erreicht in den gängigen Benchmarks ähnliche Ergebnisse wie Flaggschiff-Modelle westlicher Entwickler.
Open Weights Model
Die GLM Model-Weights lassen sich frei auf Hugging Face herunterladen und finetunen.
Günstige Inferenz
Durch die MoE-Architektur benötigt GLM-4.5 weniger Rechenleistung für die Inferenz und ist deutlich günstiger als vergleichbare Modelle.
Verschiedene Modellgrößen
Neben GLM-4.5 und GLM-4.5 Air gibt es auch noch eine FP8-Quantisierte Version, die man sogar lokal ausführen kann.
Nachteile
Politischer Bias
Wie andere chinesische Modelle auch reflektiert GLM-4.5 den politischen Bias der chinesischen Regierung.
Gefühlte Qualität schlechter als gemessene Qualität
Unserer subjektiven Einschätzung nach erreicht der Output von GLM-4.5 trotz hervorragender Benchmark Scores nicht die Qualität von OpenAI-o3 oder Claude Opus 4.
Kein Datenschutz über den Chatbot
Wer GLM-4.5 über die offizielle Website oder App verwendet, gibt seine Daten preis.