Anthropic spolu s modelem Claude Opus 4.7 spustil 16. dubna 2026 v Claude Code novou funkci /ultrareview - hlubokou code review, která neběží lokálně v terminálu, ale ve vzdáleném cloudovém sandboxu. Místo jednoho průchodu kódem ji provádí flotila nezávislých reviewer agentů, která má najít chyby v aktuální větvi nebo pull requestu a každý nález zvlášť ověřit. Funkce je označena jako research preview, je dostupná od verze Claude Code 2.1.86 a první tři spuštění jsou u plánů Pro a Max zdarma. Po jejich vyčerpání stojí jedno spuštění podle velikosti změny zhruba 5 až 20 dolarů a účtuje se jako extra usage mimo běžné limity plánu.
K čemu /ultrareview slouží a čím se liší od /review
Claude Code je oficiální CLI nástroj Anthropic pro agentní kódování - Claude v něm čte repozitář, upravuje soubory, spouští příkazy a provádí úpravy podle instrukcí vývojáře. Dosavadní příkaz /review dělal jednoprůchodovou revizi kódu přímo v rámci běžící session a hodí se na rychlou zpětnou vazbu při psaní. /ultrareview je něco jiného: běží mimo terminál, trvá 5 až 10 minut a pracuje jako fáze před mergem, kdy má smysl utratit víc výpočetního času i peněz za důkladnější kontrolu.
Klíčový rozdíl je v architektuře. Podle dokumentace Anthropic Claude Code po spuštění příkazu zabalí stav repozitáře a odešle ho do vzdáleného sandboxu, kde paralelně pracuje několik agentů. Každý prochází změnu z jiné perspektivy a hlásí podezřelá místa. Výsledky pak nejsou předány přímo vývojáři - místo toho projdou dalším ověřovacím kolem, kdy se každý nález samostatně reprodukuje. To je metodika, kterou Anthropic už dříve popisoval u hodnocení modelu Mythos Preview v rámci bezpečnostního výzkumu: několik agentů hledá nezávisle, jeden závěrečný agent potvrzuje, zda jde o reálný problém, nebo o falešný poplach.
Cíl je snížit šum. Klasické AI recenzenty kódu trápí vysoká míra falešných poplachů - upozornění na stylistické drobnosti nebo na “problémy”, které žádnými problémy nejsou. /ultrareview má oproti tomu hlásit jen to, co reviewer agenti dokázali nezávisle potvrdit.
Srovnání /review a /ultrareview
| Vlastnost | /review | /ultrareview |
|---|---|---|
| Kde běží | Lokálně v aktuální session | Vzdáleně v cloudovém sandboxu |
| Hloubka | Jednoprůchodová | Flotila agentů, nezávislé ověření každého nálezu |
| Doba trvání | Sekundy až minuty | Zhruba 5 až 10 minut |
| Náklady | Započítává se do běžné spotřeby plánu | 3 pokusy zdarma (Pro, Max), pak 5-20 USD jako extra usage |
| Určení | Rychlá zpětná vazba při psaní | Kontrola před mergem u významných změn |
Jak se /ultrareview používá
Pro spuštění musí být uživatel přihlášen přes účet Claude.ai, samotný API klíč nestačí. Bez parametrů funkce zkontroluje rozdíl mezi aktuální větví a výchozí větví včetně necommitnutých i staged změn. S argumentem ve tvaru /ultrareview 1234 provede revizi konkrétního GitHub pull requestu - v tomto režimu si sandbox klonuje PR přímo z GitHubu a nepracuje s lokálním stavem. PR mód vyžaduje github.com remote. Pokud je repozitář příliš velký na zabalení, Claude Code sám navrhne přejít na PR mód.
Před startem se zobrazí potvrzovací dialog s rozsahem revize, zbývajícím počtem volných pokusů a odhadem ceny. Po potvrzení běží úloha na pozadí, terminál zůstává volný a uživatel může mezitím pracovat na něčem jiném nebo CLI zcela zavřít. Přehled běžících a dokončených revizí ukazuje příkaz /tasks, který umožňuje otevřít detail úlohy nebo běh předčasně ukončit - zastavená revize ale nevrátí žádné částečné nálezy, cloudová session se archivuje. Po dokončení přijde notifikace se seznamem ověřených nálezů, každý obsahuje soubor, místo v kódu a vysvětlení, a Claude může problémy rovnou opravit.
Dostupnost a omezení
Funkce neběží všude. Dokumentace explicitně vylučuje provoz přes Amazon Bedrock, Google Cloud Vertex AI a Microsoft Foundry a nedostanou ji ani organizace, které mají aktivní Zero Data Retention. Důvod je nasnadě: /ultrareview vyžaduje nahrání kódu do cloudové infrastruktury Claude Code, což je model nasazení, který se s těmito třemi kanály ani s nulovou retencí nekousne.
Cenový model je vědomě prémiový. Pro a Max dostávají tři pokusy zdarma jednorázově na účet - pokusy se neobnovují. Team a Enterprise plány free pokusy nemají vůbec. Po vyčerpání se každá revize účtuje jako extra usage mimo zahrnuté limity a stojí podle rozsahu změny 5 až 20 dolarů. Pokud účet nebo organizace nemá extra usage povolené, Claude Code spuštění zablokuje a odkáže do fakturačního nastavení. Aktuální stav lze zkontrolovat příkazem /extra-usage.
Teorie komunity: běží to na Mythosu?
Anthropic oficiálně k modelu pohánějícímu /ultrareview mlčí. V oznámení Opus 4.7 i v dokumentaci se mluví pouze o “Claude Code on the web infrastructure” a “flotile reviewer agentů”. Výchozí úroveň výpočetního úsilí (effort) je v Claude Code nově nastavena na xhigh - novou úroveň, která sedí mezi high a max.
Komunita na Redditu a X.com nicméně spekuluje, že pod kapotou může jet Claude Mythos Preview - frontier model, který Anthropic oznámil zhruba týden před Opus 4.7 a který zatím veřejně neuvolnil. Mythos je specializovaný na hledání zranitelností: v rámci Project Glasswing s ním Anthropic společně s Amazonem, Applem, Googlem, Microsoftem, Nvidií, JPMorganChase, Cisco a dalšími partnery údajně identifikoval tisíce zero-day zranitelností v operačních systémech, prohlížečích a kritické infrastruktuře. Model je proto cíleně držen mimo veřejnost, partneři ho dostávají přes API za 25/125 dolarů za milion vstupních a výstupních tokenů a Anthropic na Project Glasswing alokoval 100 milionů dolarů v kreditech.
Úvaha komunity má jistou logiku. /ultrareview se soustředí přesně na to, v čem Mythos exceluje - hledání chyb a jejich ověřování. Tři volné pokusy s následným vysokým poplatkem by odpovídaly snaze zpřístupnit Mythos v kontrolované a omezené formě, aniž by model opustil cloud Anthropic. VentureBeat píše, že Opus 4.7 je explicitně méně schopný než Mythos a slouží jako testbed nových bezpečnostních pojistek. Opus 4.7 je prvním Claudem, který obsahuje automatickou detekci a blokování zakázaných kybernetických použití - pojistky vyvinuté původně pro Mythos.
Na X.com se tato teorie šíří rychle. Obrázek k oznámení Opus 4.7 vypadá spíš jako reklama na Mythos než na Opus. Důkazy pro tuto teorii jsou zatím čistě nepřímé - na časování, cenovém modelu a typu úlohy. Pravděpodobnější vysvětlení je, že /ultrareview používá Opus 4.7 s xhigh úrovní effortu ve vícestupňové agentní orchestraci, případně nějakou interní destilaci Mythosu. Anthropic to nicméně drží mimo veřejný prostor a přesnou odpověď zatím neznáme.
Přijetí komunitou
První reakce během prvních 24 hodin jsou převážně pozitivní. Vývojáři hlásí, že /ultrareview na reálných PR najde výrazně víc problémů než klasický /review. Typická zkušenost z vláken na X.com: pull request, na kterém /review našel tři drobnosti, /ultrareview odhalil sedm včetně nedostatků ve specifikaci a v testech. Zmiňovány jsou hlavně cross-file chyby, edge cases a logické díry, které jednoprůchodová revize přehlédne.
Menší kritika míří na dostupnost - někteří uživatelé funkci po aktualizaci Claude Code stále neviděli, zejména ti na starších verzích CLI nebo v desktopové aplikaci. Objevují se i otázky okolo spotřeby tokenů a ceny, ale širší odpor zatím chybí. Jedna z opakovaných formulací zní, že /ultrareview dělá review, jaké by vývojář čekal od zkušeného kolegy - ne kosmetické poznámky ke stylu, ale podstatné nálezy, které by jinak odhalil až produkční bug.
Co to znamená v kontextu
/ultrareview zapadá do širšího směřování Claude Code, který se postupně přesouvá od asistenta v terminálu k orchestraci agentů běžících mimo lokální prostředí. Tento trend jsme sledovali od úniku zdrojového kódu Claude Code, kde se poprvé veřejně mluvilo o Ultraplanu - funkci pro přesun složitého plánování do vzdálené cloudové instance. /ultrareview je z tohoto pohledu přirozeným pokračováním: stejná myšlenka (přesuň náročnou práci do cloudu), jiná doména (code review místo plánování).
Auto mode rozšířený na Max plán, task budgets v beta verzi, Claude Code on the web infrastructure - všechno ukazuje, že Anthropic chce, aby se větší díl kódování odehrával autonomně na jeho infrastruktuře a uživatel jen nastavoval zadání a schvaloval výsledky. Cena prémiová, terminál volný, výsledky ověřené.
Z pohledu konkurence se Anthropic snaží diferencovat hloubkou a spolehlivostí, ne cenou. Zatímco ostatní poskytovatelé soutěží tlakem na ceny API, Anthropic nabízí pomalejší, drazší, ale lépe ověřené řešení pro situace, kdy merge špatného PR stojí víc než 20 dolarů. Jestli tento sázkový plán vyjde, uvidíme v průběhu následujících měsíců, až se /ultrareview vymaní z research preview statusu a Anthropic zveřejní, na čem skutečně běží.