A
A
  • Angol
  • Magyar
  • 12 perc

Új utak a mesterséges intelligencia önálló tanulásában

Egy friss kutatás alapján a nagyméretű nyelvi modellek tanulását hagyományos külső visszacsatolás nélkül, pusztán saját bizonyosságuk, önbizalmuk alapján is hatékonyan lehet fejleszteni.

Az új Berkeley-i kutatás azt vizsgálja, vajon a nagyméretű nyelvi modellek képesek-e tanulni és fejleszteni érvelési képességeiket kizárólag a saját belső bizonyosságuk alapján, anélkül hogy külső visszajelzést, pontosabban ember által adott megbízható jutalompontokat használnának.

Hagyományosan ezeknek a modelleknek a fejlesztése során valamilyen külső, sikeres mércét alkalmaznak, például egy teszt helyes kitöltését vagy egy feladat pontos végrehajtását. Az új szemlélet viszont azt a kérdést veti fel, hogy lehet-e elegendő a modellek önbizalma: minél biztosabbak a válaszaikban, annál sikeresebbnek értékeljük a tanulást.

Érdekes elméleti kérdések merülnek fel, például: vajon a modellek önmagukban képesek-e felismerni helyes válaszaikat, illetve az önmagukról alkotott meggyőződésük alapján hatékonyabban tudnak-e általánosítani új problémákra, akár eltérő területeken is. A videó kitér arra is, hogy az adatigényes külső felügyelet helyett elég lehet a modellek rejtett, a tanulás során elsajátított tudásából meríteni, és hogyan befolyásolhatja ez a mesterséges intelligencia jövőbeli fejlesztését.

A bemutatott kutatás rávilágít arra, hogy ez a belső motivációs jutalmazás új perspektívákat nyithat az autonóm tanulás felé, elkerülve a költséges és korlátozott erőforrásokat igénylő adatcímkézést. Emellett felmerül, vajon a modellek rejtett képességei már eleve sokkal fejlettebbek-e, mint korábban hittük, és csak a megfelelő technikákkal kell azokat felszínre hozni.