Ebben a részletes bemutatóban egy új mesterséges intelligencia modellt vizsgálnak, amely a Qwen3-4B nevet viseli, és főként „gondolkodó” üzemmódra van optimalizálva. Lényeges, hogy a 34 milliárd paraméteres modell támogatja a hosszú kontextust, akár 256 ezer tokenig, így komplex, több lépcsős feladatok feldolgozására is alkalmas.
A videó során a telepítés folyamatát is bemutatják helyi gépen, NVIDIA RTX A6000 grafikus kártyát használva, miközben a VLMM motorral történő futtatás technikai részleteire is kitérnek. Külön figyelmet fordítanak a hibrid és gondolkodó módok közötti különbségekre, valamint az ezekből adódó gyakorlati problémákra.
Kiemelt témakör az érvelési és indoklási képességek vizsgálata gyakorlati példákon keresztül (például műholdak keringési idejének számítása, illetve ezek kiterjesztése más bolygókra). Fókuszba kerül a modell önreflexiós, tervező és magyarázó képességeinek elemzése is.
Későbbi szegmensekben többnyelvű (multilingualitás) tesztet is végeznek, kiemelve a modell erősségeit és gyengéit idegen nyelvek fordításában, valamint a klasszikus nyelvi szerkezetek értelmezésében. A kódgenerálási képességek vizsgálatakor egy teljes 3D molekuláris labort készíttetnek a modellel HTML és 3.js keretrendszerben, felmérve a válasz minőségét és a szükséges VRAM mennyiségét.
A végén szó esik a modell memóriaigényéről, monitorozzák a VRAM terhelést, és felhívják a figyelmet a kvantálási lehetőségre, valamint a szponzorált AI workforce szoftverre is történt utalás.