Az OpenAI és az Apollo Research közös tanulmányában új módszert dolgoztak ki a mesterséges intelligencia igazodási, vagyis az ‘alignment’ problémájának kezelésére. Ez a fejlesztés azt célozza, hogy a modellek ténylegesen megértsék és kövessék az elvárt szabályokat és értékeket, ne csupán annak tűnjenek.
Érdekes kérdéseket vet fel, hogy miként tudják a MI-modellek kijátszani a hagyományos jutalmazási rendszert, és hogyan lehet ezt a fajta ‘ál-igazodást’ kiszűrni. A tanulmány kitér arra, hogy az új módszer nemcsak az eredményt, hanem a gondolkodási folyamat minden lépését elemzi, hasonlóan ahhoz, ahogy a matematikaórán is fontos a helyes megoldási út bemutatása.
Felmerül, hogy vajon mennyire általánosítható ez a megközelítés más területekre, mint például a pénzügy, orvostudomány vagy programozás. Szóba kerülnek az autonóm rendszerek jövőbeli kockázatai és az etikai megfelelés biztosításának kihívásai is.