Anthropic Logo

Claude 3.7 SonnetAnthropic

NeuProprietär

Release Date
Februar 2025
Knowledge Cutoff
Oktober 2024
Parameter
Unbekannt
Modellfamilie
Claude 3.7

Übersicht

Claude-3.7 Sonnet ist ein neues SOTA-Modell von Anthropic. das am 24. Februar 2025 vorgestellt wurde. Das LLM wurde als "hybride" vorgestellt und kann optional als Reasoning-Modell genutzt werden. Claude-3.7 Sonnet übertrumpfte alle konkurrierenden Sprachmodelle in Coding-Benchmarks mit deutlichem Abstand.

Websuche

Nein

Kann das Modell auf relevante Informationen aus dem Web zugreifen?

Multimodalität

Ja

Kann das Modell verschiedene Medienarten verarbeiten?

Finetuning

Ja

Kann das Modell finetuned werden?

Max. Input
200k Token
Max. Output
128k Token
Trainingsdaten
Unbekannt
Parameter
Unbekannt
Input Preis
$3,00
Output Preis
$15,00
Vokabular
Unbekannt
Dateigröße
Unbekannt

Performance

Claude 3.7 Sonnet Benchmark Übersicht

Wissen & SprachverständnisMathematikCoding

GPQA Benchmark

Daten werden geladen...

Provider

Du kannst Claude 3.7 Sonnet über die API folgender Anbieter nutzen:

Anthropic logo

Anthropic

Token (in)200k
Token (out)128k
USD/1M Input$3,00
USD/1M Output$15,00
Latency1,33ms
Throughput59,07t/s
Amazon Bedrock logo

Amazon Bedrock

Token (in)200k
Token (out)128k
USD/1M Input$3,00
USD/1M Output$15,00
Latency1,35ms
Throughput36,43t/s
Google Vertex AI logo

Google Vertex AI

Token (in)200k
Token (out)64k
USD/1M Input$3,00
USD/1M Output$15,00
Latency1,71ms
Throughput63,52t/s
Datenqualität

Fehler gefunden? Kontaktiere uns!

Wir legen großen Wert auf die Genauigkeit unserer Modelldaten. Falls dir Unstimmigkeiten oder veraltete Informationen auffallen, lass es uns bitte wissen. Dein Feedback hilft uns, die Qualität unserer Plattform stetig zu verbessern.

Technische Details

Architektur

Architektur-Typ
Transformer, Decoder-only
Input Kontextlänge
200k Token
Output Kontextlänge
128k Token
Inferenzoptimierung
Unbekannt
Trainingsmethode
Unsupervised Pretraining, Reinforcement Learning, Reinforcement Learning from Human Feedback

Tokenizer & Attention

Tokenizer Modell
Unbekannt
BOS Token
EOS Token
Padding Token
Attention Heads
N/A
KV Heads
N/A
Quantisierung
Keine

Vor- & Nachteile

Vorteile

  • State-of-the-Art Coding-Modell

    Claude 3.7 Sonnet übertrifft alle anderen LLMs in großen Coding-Benchmarks und wurde bereits in vielen Coding-Copiloten integriert.

  • Optional aktivierbares Reasoning

    Das Reasoning von Claude. 3.7 Sonnet lässt sich optional aktivieren.

  • Hohe Ansprüche an sichere Ausgaben

    Anthropic legt viel Wert auf Prompt Injection Schutz und der Verhinderung bösartiger Ausgaben.

  • Weniger Ablehnung als in Vorgängermodellen

    Laut Anthropic wurde die Ablehnungsrate bei Prompts von 3.7 Sonnet im Vergleich zu 3.5 Sonnet um bis zu 45 % gesenkt.

Nachteile

  • Vergleichsweise hohe API-Kosten

    Im Gegensatz zu Modellen wie DeepSeek-R1 ist Claude 3.7 Sonnet vergleichsweise teuer.

  • Kein Internetzugriff

    Der Knowledge Cutoff von Claude 3.7 Sonnet liegt im Oktober 2024. Ohne Internetzugriff kann das LLM nicht auf neuere Informationen zugreifen.

Loading model comparison data...