A videó bemutatja, hogyan lehet a Qwen 3.5 35B nyelvi modellt helyileg, teljesen API-kulcs nélkül, az OpenClaw rendszerrel integrálni. A folyamat során a modell a llama.cpp nevű programmal fut a szerző saját gépén, kihasználva a helyi GPU-t.
Az elkészítés első lépéseiben megismerhetjük a szükséges előfeltételeket, az érdemes telepítéseket, valamint hogyan állítható be gyorsan az OpenClaw-hoz szükséges Node és NPM környezet. Hasznos tanácsok merülnek fel, például mire érdemes odafigyelni a biztonság szempontjából, hogyan konfigurálhatók egyszerűen az egyes szoftverek, illetve hogyan vonhatók be más kommunikációs csatornák a rendszer működésébe.
Az egész folyamat során végigvezet a telepítés apró buktatóin: szó esik a konfigurációs fájl lényegéről, a fő végpontok beállításáról, és arról is, hogy hogyan cserélhető le egyszerűen a modell egy másikra. Külön érdekesség, milyen lehetőségei vannak annak, aki személyes AI-asszisztenst szeretne helyileg üzemeltetni saját GPU-val, mint például milyen eszközöket – Olama, LM Studio, open code – érdemes kipróbálni.
Felmerülnek gyakorlati kérdések is, többek között mennyi memóriát fogyaszt egy ilyen modell, milyen hardverrel érdemes próbálkozni, valamint hogyan bővíthetők vagy testre szabhatók a szolgáltatások különböző csatornák irányába.










