Az útmutató a Google Jamaa 3N modell helyi, saját adathalmazon történő finomhangolását mutatja be, egyszerű lépéseken keresztül. Megismerjük, milyen hardveres követelményekkel érdemes számolni, például az Nvidia RTX A6000 GPU és az Ubuntu operációs rendszer használatával.
Részletesen bemutatásra kerül az Unsloth nevű eszköz, amely elősegíti a könnyű és memóriahatékony finomhangolást. Szó esik a 4 bites kvantálás előnyeiről, valamint arról, hogy a LoRA (Low-Rank Adaptation) adapterek segítségével miként lehet hatékonyan tanítani a mesterségesintelligencia-modellt anélkül, hogy az összes súlyt módosítanánk.
Külön figyelmet kap a mintaadat formátuma, az adatfeldolgozás, valamint a chattemplátum alkalmazása. A videóban szemléltetik, hogyan használható a Supervisely Fine-Tuning Trainer, miként állíthatók be a tanítás során fontos paraméterek, például a batch méret, a tanulási ráta és a gradiensekkel kapcsolatos lépések.
Felmerülnek kérdések, például: hogyan optimalizálhatóak a saját adatainkra a modellezés? Milyen kompromisszumokat rejt a memóriatakarékos működés? Hogyan lehet ellenőrizni a tanulás folyamatát, és mennyire egyszerű megosztani az eredményeket különböző platformokon? Ezekre az izgalmas kérdésekre keressük a válaszokat az útmutató alapján.