A beszélgetés az OpenAI új, különböző variánsokban kiadott modelljeit, köztük a nyílt forráskódú és a csúcskategóriás úgynevezett „Frontier” modelleket vizsgálja. Felvetődik, hogy míg korábban a mesterséges intelligencia-modellek fejlődése folyamatos határátlépő, forradalmi áttöréseket hozott, ma már egyre inkább apróbb fejlesztésekkel, optimalizációkkal találkozunk.
A helyzetet az okostelefonok fejlődési szakaszaihoz hasonlítják egy analógia segítségével: eleinte minden új generáció szenzációt keltett, mostanra viszont csak részletekben javulnak a funkciók, például egy kicsit jobb kamera vagy szoftver. Szóba kerül, hogy az új modelleket vélhetően erősen szintetikus adatokkal és megerősítéses tanulással képezték, főként specifikus felhasználási területek – például kódgenerálás – céljából.
A közösség szerint az új nyílt forráskódú modellek világismerete jelentősen korlátozottabb lehet, miközben utasításkövetésben, illetve „tool calling” – azaz külső eszközök kezelésében – rendkívül hatékonyak. Kiemelt téma, hogy a jövőben a modellek sikere nagyban múlik azon, hogy mennyire tudják kihasználni az ilyen segédeszközöket, illetve mennyire olcsók lesznek az egyes szolgáltatók.
Izgalmas kérdésként merül fel: mennyi világismeret szükséges a modelleknek, és mennyire lehet gépesíteni az eszközökön keresztül történő problémamegoldást? Felvetődik továbbá, hogyan lehet előre megjósolni, hogy a nagy, drága tréningfolyamatok milyen eredménnyel járnak majd, illetve miképp igazíthatjuk azokat már a korai fázisban. Összességében úgy tűnik, a hangsúly már nem az általános intelligencia elérésén, hanem specifikus, pénzügyileg is megtérülő alkalmazásokon van.