Zhipu AI Logo

GLM-4.5Zhipu AI

NeuMIT

Release Date
Juli 2025
Knowledge Cutoff
Oktober 2023
Parameter
355B
Modellfamilie
GLM-4.5

Übersicht

GLM-4.5 und GLM-4.5 Air sind zwei LLMs, die vom chinesischen Entwickler Zhipu AI entwickelt und im Juli 2025 als Open-Source-Modelle vorgestellt wurden. Beide Modelle basieren auf der Mixture-of-Experts Architektur und aktivieren während der Inferenz nur einen Teil ihrer Parameter. GLM-4.5 gehört damit zu den günstigsten SOTA-Modellen und unterbietet sogar Deepseek-R1. Zur Veröffentlichung konnten beide Modelle SOTA-Benchmark-Scores erreichen. GLM-4.5 steht auf einer Ebene mit Grok 4, Claude 4 Opus und OpenAI o4-mini.

Websuche

Ja

Kann das Modell auf relevante Informationen aus dem Web zugreifen?

Multimodalität

Ja

Kann das Modell verschiedene Medienarten verarbeiten?

Finetuning

Ja

Kann das Modell finetuned werden?

Max. Input
128k Token
Max. Output
96k Token
Trainingsdaten
NaNB
Parameter
355B
Input Preis
$0,60
Output Preis
$2,20
Vokabular
151.552
Dateigröße
716,68 GB

Performance

GLM-4.5 Benchmark Übersicht

CodingWissen & SprachverständnisMathematik

SWE-bench Verified Benchmark

Daten werden geladen...

Provider

Du kannst GLM-4.5 über die API folgender Anbieter nutzen:

Datenqualität

Fehler gefunden? Kontaktiere uns!

Wir legen großen Wert auf die Genauigkeit unserer Modelldaten. Falls dir Unstimmigkeiten oder veraltete Informationen auffallen, lass es uns bitte wissen. Dein Feedback hilft uns, die Qualität unserer Plattform stetig zu verbessern.

Technische Details

Architektur

Architektur-Typ
Transformer, Mixture of Experts
Input Kontextlänge
128k Token
Output Kontextlänge
96k Token
Inferenzoptimierung
Quantisierung
Trainingsmethode
Unsupervised Pretraining, Supervised Fine-Tuning, Reinforcement Learning

Tokenizer & Attention

Tokenizer Modell
Unbekannt
BOS Token
EOS Token
<|endoftext|>
Padding Token
<|endoftext|>
Attention Heads
96
KV Heads
8
Quantisierung
FP8

Vor- & Nachteile

Vorteile

  • Benchmark Scores im SOTA-Bereich

    GLM-4.5 erreicht in den gängigen Benchmarks ähnliche Ergebnisse wie Flaggschiff-Modelle westlicher Entwickler.

  • Open Weights Model

    Die GLM Model-Weights lassen sich frei auf Hugging Face herunterladen und finetunen.

  • Günstige Inferenz

    Durch die MoE-Architektur benötigt GLM-4.5 weniger Rechenleistung für die Inferenz und ist deutlich günstiger als vergleichbare Modelle.

  • Verschiedene Modellgrößen

    Neben GLM-4.5 und GLM-4.5 Air gibt es auch noch eine FP8-Quantisierte Version, die man sogar lokal ausführen kann.

Nachteile

  • Politischer Bias

    Wie andere chinesische Modelle auch reflektiert GLM-4.5 den politischen Bias der chinesischen Regierung.

  • Gefühlte Qualität schlechter als gemessene Qualität

    Unserer subjektiven Einschätzung nach erreicht der Output von GLM-4.5 trotz hervorragender Benchmark Scores nicht die Qualität von OpenAI-o3 oder Claude Opus 4.

  • Kein Datenschutz über den Chatbot

    Wer GLM-4.5 über die offizielle Website oder App verwendet, gibt seine Daten preis.

Loading model comparison data...