Két modern, nagyméretű „mixture of experts” (MoE) mesterséges intelligencia nyelvi modell, a Gemma 4 26B A4B és a Qwen 3.5 35B A3B csap össze helyben, egy Nvidia H100-as GPU-n. A modellek különlegessége, hogy hatalmas tudásukat és nagy paraméterszámukat úgy kínálják, hogy minden tokennél csak paramétereik egy töredékét aktiválják, így elképesztően gyorsak, miközben komplex feladatokat is remekül teljesítenek.
A bemutató során elsőként egy komplett webes alkalmazást, egy kisállathotel menedzsment rendszer HTML-leírását kell generálnia a modelleknek. Betekintést kapunk abba, hogyan birkóznak meg a CRUD műveletekkel, az adatok és felhasználói felületek dinamikus kezelésével, sőt a hibakezelés és a mezők validálása is próbára kerül. Érdekes részlet, hogy a két modell eltérő megközelítést alkalmaz az egyes funkciók kiemelésében.
Ezt követően egy többnyelvű fordítási teszt zajlik, ahol egy egzotikus szituációt – kirándulás a Sundarbans dzsungelben – számos világnyelvre kell átültetniük. Felmerül a kérdés: melyik modell képes pontosabban visszaadni a mondat eredeti jelentését, hangulatát, illetve kezelni a kisebb nyelvek sajátosságait?
Újabb kihívás a kreatív írás: a modelleknek Pablo Neruda stílusában kell költeményt alkotniuk, négy sorban. Itt kiéleződik a kérdés, mennyire képesek leképezni egy költői hangulatot, metaforákat, vagy sajátos képeket teremteni.
A videó végén a modellek „látását” is próbára teszik: egy régi, gót betűs német nyomtatványból kell karaktereket felismerni, identifikálni a művet, szereplőket, majd profi irodalmi elemzést és precíz fordítást adni. Vajon melyik modell tud mélyebb, szakmai magyarázatot kínálni, illetve pontosabban oldja meg a bonyolult OCR feladatokat?









