A mesterséges intelligencia világában több olyan alapfogalom is létezik, amely gyakran félreértéseket szül. Az előadó három ilyen, különösen sokakat megtévesztő témát vizsgál: mi az a tokenizálható adat, mit jelent a ‘szakadozott intelligencia’, valamint mikor érdemes hosszabb, összetettebb promptokat használni, és mikor elég néhány rövid kérdés az AI felé.
Felvetődik a kérdés: vajon egy adott adat beilleszthető-e egy dokumentumba, és könnyen feldarabolható-e kisebb egységekre, azaz tokenekre? Ezen keresztül könnyebb megérteni, hogy az AI-rendszerek miért boldogulnak bizonyos információkkal (például szöveges dokumentumokkal) lényegesen jobban, mint strukturált, nagy táblázatokkal vagy adatbázisokkal.
A ‘szakadozott intelligencia’ fogalma azt a jelenséget írja le, hogy egy mesterséges intelligencia rendszer bizonyos feladatokban kiváló, miközben más, látszólag egyszerűbb helyzetekben hajlamos hibázni. Felmerül a kérdés, hogyan lehet csökkenteni ezeket a szakadékokat jobb utasításokkal, és mennyire befolyásolja az eredményt a felhasználó tudatos kommunikációja.
Végezetül: nem mindig van szükség nagy, összetett utasításokra. Az is dilemma, hogy mikor érdemes komplex promptokat alkalmazni, és mikor hasznosabb a rövidebb, iteratív párbeszéd. Ezek a döntések alapvetően befolyásolják, mennyire tudjuk kiaknázni az AI lehetőségeit egy adott feladathoz igazítva.