Gemma 4: Google bere otevřené modely vážně a staví je přímo proti DeepSeeku a Qwenu
Google DeepMind vydal 2. dubna 2026 novou rodinu open-weight modelů Gemma 4. Jde o dosud nejschopnější open modely od Googlu — a tentokrát nejde jen o PR. Jde o strategickou odpověď na čínskou konkurenci, která v posledních měsících přepisuje pravidla hry.
Kontext: proč teď?
Open-weight AI modely prošly za poslední rok dramatickým vývojem. DeepSeek-V3 ukázal, že 671 miliard parametrů lze efektivně rozjet s architekturou mixture of experts, aniž by bylo potřeba datové centrum plné H100. Qwen od Alibaby zase dominuje v multilingvální podpoře a postupně se prosazuje jako volba číslo jedna pro nasazení mimo anglický svět. Čínský ekosystém zkrátka zrychlil tempo inovací natolik, že americké firmy musí reagovat.
Gemma 4 je Googleova reakce. Ne defenzivní, ale ofenzivní — Google tvrdí, že nová rodina překonává modely dvacetinásobně větší, a to jak ve výkonu, tak v efektivitě.
Co to vlastně je?
Gemma 4 přichází ve čtyřech velikostech:
- E2B a E4B — edge modely pro mobilní zařízení a IoT, s efektivním počtem 2 a 4 miliard parametrů při inferenci
- 26B MoE — mixture of experts model, který při inferenci aktivuje pouze 3,8 miliardy parametrů a je optimalizován na nízkou latenci
- 31B Dense — vlajková loď rodiny, zaměřená na maximální kvalitu výstupu a fine-tuning
Všechny modely jsou multimodální — zpracovávají obrázky i video. Edge varianty E2B a E4B navíc zvládají nativní audio vstup. Kontextové okno činí 128K tokenů u edge modelů a až 256K tokenů u větších variant, takže do jednoho promptu lze nacpat celý repozitář nebo dlouhý dokument.
Modely jsou uvolněny pod licencí Apache 2.0 — komerčně bez omezení.
Výkon: čísla, která mluví
Model 31B Dense aktuálně drží třetí místo mezi open-source modely na Arena AI text leaderboardu, 26B MoE je na místě šestém. To jsou čísla, která by před rokem patřila pouze proprietárním modelům.
Zároveň platí, že nekomprimované váhy modelu 31B se vejdou na jedno NVIDIA H100 80GB GPU. Kvantizované verze bez problémů poběží na spotřebitelských GPU v osobním počítači. Edge modely zvládá Raspberry Pi, Android telefon nebo NVIDIA Jetson Orin Nano — kompletně offline.
Pro srovnání: DeepSeek-V3 s 671B parametry potřebuje ke svému plnému rozjetí výpočetní infrastrukturu, kterou si málokdo může dovolit provozovat lokálně. Gemma 4 jde jiným směrem — maximální výkon při minimálních nárocích na hardware.
Češtině a slovenštině rozumí nativně
Gemma 4 je nativně trénována na více než 140 jazycích včetně češtiny a slovenštiny. Není to tedy dotrénovaná anglická verze s dodatečnou jazykovou vrstvou, ale model, který středoevropské jazyky chápe od základu. To je relevantní zejména pro vývojáře, kteří chtějí budovat aplikace pro lokální trh bez potřeby překladatelského mezičlánku.
Praktický důkaz fungování tohoto přístupu? Bulharský startup INSAIT postavil na předchozí generaci Gemma jazykový model BgGPT, který je první plnohodnotný bulharsky mluvící AI model. Yale University zase ve spolupráci s Googlem využila Gemma na projektu Cell2Sentence-Scale, zaměřeném na hledání nových cest v léčbě rakoviny.
Kde a jak modely dostat
Gemma 4 je dostupná okamžitě — na Hugging Face, Kaggle, Ollama, v Google AI Studio i AI Edge Gallery. Ekosystém podpory je rozsáhlý: od prvního dne funguje integrace s Hugging Face Transformers, vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Unsloth nebo Dockerem.
Pro ty, kdo chtějí experimentovat lokálně přes Ollama, stačí:
ollama pull gemma4
Zájemci o fine-tuning mohou pracovat přes Google Colab, Vertex AI nebo vlastní GPU.
Je to dost na konkurenci?
Otevřeně řečeno — zatím nevíme. Benchmarky jsou slibné, ale skutečný test přijde až při nasazení v praxi. Qwen nadále dominuje v multilingválních úlohách, DeepSeek si drží náskok v čistém kódování a matematice.
Klíčová otázka pro Google ale není jen technická: jde o tempo. Qwen a DeepSeek vydávají nové verze agresivně rychle. Google musí dokázat, že dokáže držet krok — a Gemma 4 je prvním jasným signálem, že tenhle závod bere vážně.
Open-weight modely přestávají být „horší verzí proprietárního řešení”. Stávají se reálnou alternativou. A pokud Gemma 4 splní sliby, které jí Google dává, může být zajímavá nejen pro výzkumníky, ale i pro každého, kdo chce provozovat výkonnou AI lokálně — bez cloudových API, bez sdílení dat, bez závislosti na jednom dodavateli.
Zdroje: Google DeepMind blog, Root.cz