Az új Berkeley-i kutatás azt vizsgálja, vajon a nagyméretű nyelvi modellek képesek-e tanulni és fejleszteni érvelési képességeiket kizárólag a saját belső bizonyosságuk alapján, anélkül hogy külső visszajelzést, pontosabban ember által adott megbízható jutalompontokat használnának.
Hagyományosan ezeknek a modelleknek a fejlesztése során valamilyen külső, sikeres mércét alkalmaznak, például egy teszt helyes kitöltését vagy egy feladat pontos végrehajtását. Az új szemlélet viszont azt a kérdést veti fel, hogy lehet-e elegendő a modellek önbizalma: minél biztosabbak a válaszaikban, annál sikeresebbnek értékeljük a tanulást.
Érdekes elméleti kérdések merülnek fel, például: vajon a modellek önmagukban képesek-e felismerni helyes válaszaikat, illetve az önmagukról alkotott meggyőződésük alapján hatékonyabban tudnak-e általánosítani új problémákra, akár eltérő területeken is. A videó kitér arra is, hogy az adatigényes külső felügyelet helyett elég lehet a modellek rejtett, a tanulás során elsajátított tudásából meríteni, és hogyan befolyásolhatja ez a mesterséges intelligencia jövőbeli fejlesztését.
A bemutatott kutatás rávilágít arra, hogy ez a belső motivációs jutalmazás új perspektívákat nyithat az autonóm tanulás felé, elkerülve a költséges és korlátozott erőforrásokat igénylő adatcímkézést. Emellett felmerül, vajon a modellek rejtett képességei már eleve sokkal fejlettebbek-e, mint korábban hittük, és csak a megfelelő technikákkal kell azokat felszínre hozni.