Gemma 4 26B A4B IT je model typu Mixture-of-Experts (MoE) s doladěnými instrukcemi od Google DeepMind. Navzdory celkovému počtu 25,2 miliard parametrů se během inference aktivuje pouze 3,8 miliardy parametrů na token – poskytuje tak kvalitu blížící se 31B při zlomku výpočetních nákladů. Podporuje multimodální vstup včetně textu, obrázků a videa (až 60 sekund při 1 snímku za sekundu). Nabízí kontextové okno o velikosti 256 tisíc tokenů, nativní volání funkcí, konfigurovatelný režim myšlení/usuzování a podporu strukturovaného výstupu. Uvolněno pod licencí Apache 2.0.
Unikátní charakteristiky
Gemma 4 26B A4B je instrukčně laděný MoE model, který díky aktivaci pouze 3,8 miliardy parametrů na token nabízí výkon srovnatelný s 31B modely. Vyniká nativní podporou videa, konfigurovatelným reasoning režimem a štědrou open-source licencí Apache 2.0.
Silné stránky
Efektivita inference
Díky MoE architektuře aktivuje pouze 3,8B parametrů na token, což rad