Az újonnan kiadott Qwen 3.6-35B-A3B mesterséges intelligencia modell lenyűgöző újításokkal érkezik az open-source világába, hiszen egyszerre kínál jelentős paraméterszámot és hatékony erőforrás-használatot. A modell 35 milliárd paraméterrel büszkélkedhet, de egyszerre csak 3 milliárd van aktívan használatban, köszönhetően a mixture of experts architektúrának, amely lehetővé teszi a nagy tudás mellett a gyors és gazdaságos működést.
A bemutató során részletesen megismerkedünk a telepítés lépéseivel: egy modern Nvidia H100 GPU-t és Ubuntu rendszert használnak, illetve VLLM keretrendszert a gyors inferencia eléréséhez. A technikai háttér mellett kitérnek a Qwen család fejlődésére, a modell rétegzettségére, az újszerű lineáris figyelmi mechanizmusokra, és a multimodális feldolgozásra is, amely a szövegek mellett képeket és videókat egyaránt kezel.
Kiemelt figyelem irányul a „gondolkodási lánc megtartására”, amely révén a modell képes hosszabb beszélgetési kontextusban is koherensen reagálni, különösen összetett agentikus feladatok esetén. Az architektúra lehetővé teszi a nagy ablakméretű, akár egymillió tokenes feldolgozást.
A tesztelések során láthatunk kódgenerálási próbákat, például egy összetett tabulátoros felhasználói felület vagy játék elkészítését, ahol a modell kimagaslóan teljesít. Nyelvi sokszínűségét is bizonyítja, amikor egy nemzetközi esemény hirdetését több tucat nyelvre ülteti át gördülékenyen, illetve kulturális és multimodális, például képelemzési feladatokban is lenyűgözően vizsgázik.
Izgalmas kérdéseket vet fel, hogy mennyire tud lépést tartani ezzel a hatékonyság-tudással a többi nagy modell, megvalósíthatóak-e komplex ügynöki feladatok egyetlen GPU-n, és vajon milyen újdonságok várhatók a jövőben az open-source AI világában. A videó végig bemutatja a jelenlegi úttörő lehetőségeket a Qwen 3.6-35B-A3B révén, de megoldást, végső következtetést nem kínál ezekre a kérdésekre.










