Egészen új mérföldkőhöz érkeztünk a gépi tanulás világában: az MIT kutatói olyan nagy nyelvi modelleket építettek, amelyek képesek önállóan tréningezni, mégpedig megerősítéses tanulás segítségével.
Az egyik legérdekesebb kérdés, amit a kutatók felvetnek, az, hogy miként lehetne áthidalni azt a korlátot, hogy a jelenlegi modellek – például a GPT4 vagy a Claude – a tanítás után statikusak maradnak, és nem tudnak új információkat feldolgozni. Az új módszer lényege, hogy a mesterséges intelligencia saját magának generál tréningadatokat, sőt önállóan választja ki a leghatékonyabb finomhangolási stratégiát is.
Két egymásba ágyazott tanulási ciklust mutatnak be, ahol a modell először sajátos „önszerkesztési” utasításokat képez természetes nyelven, majd ezek alapján fejleszti tovább saját algoritmusait, például különféle adatbővítési és tanítási beállításokat is tesztelve. Ez a visszacsatolás folyamatos önfejlesztést eredményezhet.
Felmerülnek izgalmas problémák is, például a folyamatos tanulás közben tapasztalható „katastrofális felejtés”, amikor a modell új információk hozzáadása során korábbi tudását elveszíti, illetve a jelentős számítási igény is kérdéseket vet fel. A kutatás így új irányokat nyithat az adaptív és önfejlesztő AI rendszerekben, és közelebb hozhatja a folyamatosan megújuló mesterséges intelligenciát.