Az AI-val történő írás alapjait ismerhetjük meg, amelyek nélkülözhetetlenek, ha szerzőként szeretnénk mesterséges intelligenciát használni. Az elhangzó magyarázatok kitérnek a nagy nyelvi modellek (LLM) és különféle eszközök – például chatbotok – közötti legfontosabb eltérésekre. Egy szemléletes hasonlat is elhangzik: az LLM-nek ugyanaz a szerepe, mint az elektromosságnak egy háztartási készülékben – alapvető nyers energia, amelyet különböző eszközök különféle módokon használnak fel.
Felmerül a gondolat, hogy a különböző AI modellek – köztük a speciális ‘reasoning’, vagyis gondolkodó modellek – mennyire másképp teljesítenek bizonyos feladatokban, például szerkesztés vagy ötletelés során. Ezek az újabb modellek képesek ‘végiggondolni’ a feladatot, így sokszor minőségibb válaszokat adnak, míg más modellek egyszerűbb, szövegfolyam-előállító képességeikkel olcsóbban és gyorsabban teljesítenek.
A videó során szóba kerül a ‘kontektszt ablak’ (context window) és a ‘token’ fogalma is, miközben rávilágít arra, miért nem célszerű teljes könyveket adni az AI-nak, hanem inkább összegzéseket, tartalmi kivonatokat célszerű használni. A tokenizációs példákon keresztül megtudhatjuk, hogyan számol az AI szövegegységekkel és miként befolyásolja ez a feldolgozott szöveg mennyiségét.
Részletesen bemutatásra kerülnek az AI paraméterezési lehetőségei, például a ‘hőmérséklet’ (temperature) beállítás hatása a kreativitásra vagy a válaszok kiszámíthatóságára, valamint más háttérben működő beállítások, mint a ‘top_p’ vagy a különböző büntetési értékek.
Végül felmerül a promptolás finomhangolásának kérdése: melyik prompt-részt melyik mezőbe (rendszerprompt, felhasználói prompt, AI válasz) érdemes helyezni, és hogyan lehet ezzel tartósan konzisztens eredményeket elérni írói munkafolyamatainkban.