Q
Qwen 25. 2. 2026

Qwen: Qwen3.5-35B-A3B

qwen/qwen3.5-35b-a3b

Technologicky zajímavý model, který díky hybridní architektuře efektivně řeší multimodální úlohy s dlouhým kontextem. Je ideální pro analýzu vstupů, ale drahý pro generování dlouhých výstupů.

Killer Feature Kombinace lineární pozornosti a MoE umožňuje zpracovávat video a dlouhé texty s efektivitou, která u standardních transformerů chybí.
Skryté riziko Nepoměr mezi cenou vstupu ($0.25) a výstupu ($2.00) může prodražit aplikace založené na generování dlouhých odpovědí.
$0.25 / 1M vstup
$2 / 1M výstup
262k kontext
66k max výstup
textimagevideo text Multimodální zpracování (Video/Obraz)Efektivita inferenceDlouhý kontext

📊 VibeCode skóre

71.7 / 100
Coding (váha 60 %) 71.8
Reasoning (váha 30 %) 68.9
Kontext (váha 10 %) 79.8

Spolehlivost high. Coding složka je vážený průměr 2 publikovaných coding benchmarků níže. Reasoning složka z 3 benchmarků (GPQA Diamond, MMLU-Pro, HLE). Agents benchmarky (TAU-bench, MMAU) do skóre nezahrnujeme kvůli nízkému pokrytí napříč modely.

🎯 Publikované benchmarky

Benchmark Kategorie Skóre Zdroj
SWE-bench Verified coding 69.2% ↗ provider
LiveCodeBench coding 74.6% ↗ provider
GPQA Diamond reasoning 84.2% ↗ provider
MMLU-Pro reasoning 85.3% ↗ provider
Humanity’s Last Exam reasoning 22.4% ↗ provider

Found official benchmark scores from the Qwen3.5-35B-A3B Hugging Face model card and related technical blog posts. Scores for MMLU-Pro, GPQA Diamond, SWE-bench Verified, LiveCodeBench, and HLE were explicitly listed. Other specific benchmarks like Aider Polyglot, standard HumanEval, and split TAU-bench scores were not publicly available for this exact model.

⚖️ Porovnání s konkurencí

Model Cenové srovnání Poznámka
Qwen Qwen3.5-35B-A3B
← Právě prohlížíte
Stejná cena vstupu ($0.25), ale Gemini má o 25 % levnější výstup ($1.50 vs $2.00) Gemini Flash je přímý konkurent v multimodalitě, ale Qwen nabízí 4x větší kontextové okno (262k vs 65k).
DeepSeek DeepSeek V3.2
Stejná cena vstupu, ale DeepSeek má 5x levnější výstup ($0.40 vs $2.00) DeepSeek nabízí lepší poměr cena/výkon pro čistě textové úlohy a kódování, zatímco Qwen dominuje v nativním zpracování videa.
MistralAI Ministral 14B 2512
Mistral je levnější na vstupu ($0.20) a 10x levnější na výstupu ($0.20) Mistral nabízí stejný kontext (262k) za zlomek ceny, ale Qwen (35B) má pravděpodobně vyšší kapacitu pro nuance a znalosti než 14B model.

🎯 Rozhodovací pomocník

Použij když...

  • Analýza a sumarizace video obsahu
  • RAG nad rozsáhlými vizuálně-textovými databázemi
  • Ekonomická alternativa k GPT-4V pro dávkové zpracování

Nepoužívej když...

  • Generování velkého objemu textu (kvůli ceně výstupu)
  • Extrémně komplexní matematické úlohy vyžadující SOTA reasoning
Ideální pro:
Vývojáři multimediálních aplikacíAnalytici video obsahuFirmy zpracovávající dlouhé technické manuály

💪 Silné a slabé stránky

+ Silné stránky

Multimodální schopnosti

Nativní podpora pro analýzu videa a obrazu v rámci jednoho modelu, což eliminuje potřebu samostatných vision encoderů a zvyšuje přesnost.

Efektivita architektury

Díky lineární pozornosti a MoE dosahuje model srovnatelného výkonu jako Qwen3.5-27B, ale s vyšší propustností a nižší latencí při dlouhých sekvencích.

Kontextové okno

Kapacita 262 144 tokenů je dostatečná pro analýzu rozsáhlých dokumentů nebo delších video segmentů, přičemž lineární pozornost zajišťuje stabilitu.

Slabé stránky

Cena výstupu

Cena $2.00 za 1M výstupních tokenů je výrazně vyšší (až 5x-10x) než u přímých konkurentů jako DeepSeek nebo Mistral v podobné výkonnostní třídě.

Výkonnostní strop

Jako model střední velikosti (35B) nedosahuje v komplexním uvažování (reasoning) kvalit 'Pro' modelů (např. Gemini 3.1 Pro nebo Claude Opus).

📝 Detailní popis

Řada Qwen3.5 35B-A3B je nativní model pro vidění a jazyk navržený s hybridní architekturou, která integruje mechanismy lineární pozornosti a řídký model směsi expertů, čímž dosahuje vyšší efektivity inference. Jeho celkový výkon je srovnatelný s výkonem modelu Qwen3.5-27B.

Unikátní charakteristiky

Model využívá unikátní hybridní architekturu kombinující mechanismy lineární pozornosti se sparse Mixture-of-Experts (MoE), což umožňuje zpracování dlouhého kontextu s výrazně nižšími výpočetními nároky než standardní transformery. Jde o nativně multimodální model schopný analyzovat text, obraz i video.

Silné stránky

Multimodální schopnosti

Nativní podpora pro analýzu videa a obrazu v rámci jednoho modelu, což eliminuje potřebu samostatných vision encoderů a zvyšuje přesnost.

Efektivita architektury

Díky lineární pozornosti a MoE dosahuje model srovnatelného výkonu jako Qwen3.5-27B, ale s vyšší propustností a nižší latencí při dlouhých sekvencích.

Kontextové okno

Kapacita 262 144 tokenů je dostatečná pro analýzu rozsáhlých dokumentů nebo delších video segmentů, přičemž lineární pozornost zajišťuje stabilitu.

Slabé stránky

Cena výstupu

Cena $2.00 za 1M výstupních tokenů je výrazně vyšší (až 5x-10x) než u přímých konkurentů jako DeepSeek nebo Mistral v podobné výkonnostní třídě.

Výkonnostní strop

Jako model střední velikosti (35B) nedosahuje v komplexním uvažování (reasoning) kvalit ‘Pro’ modelů (např. Gemini 3.1 Pro nebo Claude Opus).

🔗 Další modely od Qwen