Az éjszaka közepén, Sydney-ben érkezik a hír: az Alibaba Qwen csapat kiadta az új, apró méretű, multimodális AI modelleket, a Qwen 3.5 sorozatot. A bemutatóban a különböző modelltípusokat helyben telepítik és tesztelik, a hangsúly főként a 0.8B-es modellen van, amely a sorozat legkisebb, leggyorsabb verziója.
A videó kitér az installáció folyamatára, bemutatja, hogyan lehet a modellt egy Nvidia RTX 6000 GPU segítségével futtatni Ubuntu alatt. A nézők megtudhatják, mennyire memóriahatékony a Qwen 3.5 modellek családja, milyen teljesítményt lehet elérni már 8 GB VRAM mellett, továbbá szó esik a kvantizált verziók előnyeiről is.
Különféle éles teszteket mutatnak be: HTML kód generálása vizuális animációkkal, többnyelvű problémafelvetések, nyelvi és kódolási feladatok, valamint képi adatfeldolgozás (OCR és képleírás). Az érdeklődők azt is láthatják, hogyan teljesít a modell, ha egy számlát kell adattáblává alakítani JSON formátumba.
Felmerül a kérdés, hogy egy ekkora, gyors és helyben is futtatható AI mennyire használható különböző feladatokhoz, mely területen mutat kiemelkedőt és hol marad el nagyobb testvéreitől. Az előadó kiemeli, hogy ezek a modellek teljesen nyílt forrásúak és kereskedelmi célra is szabadon használhatók, így bátorítva a véleményformálásra és saját tesztelésre.










