Z
Z-Ai 19. 1. 2026

Z.AI: GLM 4.7 Flash

z-ai/glm-4.7-flash

Vynikající volba pro technické implementace, kde je kritická cena vstupu a schopnost práce s nástroji, ale nevyžaduje se 'frontier' inteligence nejdražších modelů.

Killer Feature Kombinace 30B parametrů (slušná inteligence) s cenou $0.07/1M input (low-end cena) vytváří bezkonkurenční hodnotu pro RAG.
Skryté riziko Jako 'Flash' model může mít tendenci k halucinacím při velmi složitých instrukcích ve srovnání s plnotučnými modely.
$0.07 / 1M vstup
$0.4 / 1M výstup
200k kontext
131k max výstup
text text Agentní programováníDlouhý kontextTool use

📊 VibeCode skóre

59.8 / 100
Coding (váha 60 %) 61.5
Reasoning (váha 30 %) 50.9
Kontext (váha 10 %) 75.9

Spolehlivost medium. Coding složka je vážený průměr 2 publikovaných coding benchmarků níže. Reasoning složka z 2 benchmarků (GPQA Diamond, MMLU-Pro, HLE). Agents benchmarky (TAU-bench, MMAU) do skóre nezahrnujeme kvůli nízkému pokrytí napříč modely.

🎯 Publikované benchmarky

Benchmark Kategorie Skóre Zdroj
SWE-bench Verified coding 59.2% ↗ provider
LiveCodeBench coding 64% ↗ provider
GPQA Diamond reasoning 75.2% ↗ provider
Humanity’s Last Exam reasoning 14.4% ↗ provider

Found official benchmark scores for GLM-4.7-Flash on the provider's Hugging Face model card and various AI benchmark aggregators. Scores for SWE-bench Verified, LiveCodeBench, GPQA, and HLE were explicitly listed for this exact model, while other specific splits like Aider Polyglot, MMLU-Pro, and TAU-bench retail/airline were not publicly published.

⚖️ Porovnání s konkurencí

Model Cenové srovnání Poznámka
Z-Ai GLM 4.7 Flash
← Právě prohlížíte
MistralAI devstral-2512
Devstral je o 28 % levnější na vstupu ($0.05 vs $0.07) a výrazně levnější na výstupu. Devstral je přímý konkurent pro kódování, ale GLM (30B) pravděpodobně nabízí lepší reasoning pro složitější logiku než vysoce specializovaný Devstral.
DeepSeek deepseek-v3.2
GLM je téměř 4x levnější na vstupu ($0.07 vs $0.25), výstupní cena je podobná. DeepSeek je silný univerzální model. GLM vítězí v nákladech na zpracování velkého kontextu, DeepSeek může mít navrch v obecné kreativitě.
GLM je cca 3x levnější na vstupu a téměř 4x levnější na výstupu. Grok cílí na rychlost, zatímco GLM s 30B parametry sází na robustnější plánování za zlomek ceny.

🎯 Rozhodovací pomocník

Použij když...

  • Autonomní kódovací agenti (swe-bench style)
  • Analýza rozsáhlých dokumentů (RAG)
  • Orchestrace volání nástrojů (Function calling)

Nepoužívej když...

  • Multimodální analýza (obrázky/audio)
  • Kreativní psaní beletrie
  • Vysoce specializované vědecké úlohy vyžadující 100B+ parametry
Ideální pro:
Vývojáři AI agentůSaaS platformy s vysokým objemem textuFirmy optimalizující náklady na API

💪 Silné a slabé stránky

+ Silné stránky

Nákladová efektivita

S cenou $0.07 za 1M vstupních tokenů patří mezi nejlevnější modely na trhu, což je ideální pro RAG aplikace s velkým objemem dat.

Agentní schopnosti

Model je specificky vyladěn pro 'tool collaboration' a plánování, což mu umožňuje lépe fungovat v autonomních smyčkách než běžné chatovací modely.

Kontextové okno

Kapacita 200,000 tokenů je dostatečná pro většinu repozitářů kódu a technické dokumentace.

Slabé stránky

Multimodalita

Model podporuje pouze text-to-text, což omezuje jeho využití v úlohách vyžadujících analýzu UI nebo diagramů (na rozdíl od Gemini nebo Claude).

Hloubka znalostí

Jako 30B model nemůže konkurovat 'frontier' modelům (jako Claude Opus nebo Gemini Pro) v oblasti encyklopedických znalostí a nuancí v přirozeném jazyce.

📝 Detailní popis

Jako model třídy 30B SOTA, GLM-4.7-Flash nabízí novou možnost, která vyvažuje výkon a efektivitu. Je dále optimalizován pro případy použití agentního kódování, posiluje schopnosti kódování, plánování úloh s dlouhým horizontem a spolupráci s nástroji a dosáhl špičkového výkonu mezi open-source modely stejné velikosti na několika současných veřejných žebříčcích benchmarků.

Unikátní charakteristiky

GLM-4.7-Flash je model střední velikosti (30B), který agresivně cílí na poměr cena/výkon v oblasti automatizovaného kódování. Vyniká optimalizací pro agentní pracovní toky a schopností udržet koherenci při dlouhodobém plánování úloh, což je v této cenové kategorii neobvyklé.

Silné stránky

Nákladová efektivita

S cenou $0.07 za 1M vstupních tokenů patří mezi nejlevnější modely na trhu, což je ideální pro RAG aplikace s velkým objemem dat.

Agentní schopnosti

Model je specificky vyladěn pro ‘tool collaboration’ a plánování, což mu umožňuje lépe fungovat v autonomních smyčkách než běžné chatovací modely.

Kontextové okno

Kapacita 200,000 tokenů je dostatečná pro většinu repozitářů kódu a technické dokumentace.

Slabé stránky

Multimodalita

Model podporuje pouze text-to-text, což omezuje jeho využití v úlohách vyžadujících analýzu UI nebo diagramů (na rozdíl od Gemini nebo Claude).

Hloubka znalostí

Jako 30B model nemůže konkurovat ‘frontier’ modelům (jako Claude Opus nebo Gemini Pro) v oblasti encyklopedických znalostí a nuancí v přirozeném jazyce.

🔗 Další modely od Z-Ai