Friss eredmények rázzák fel a mesterséges intelligencia (AI) világát: a Google DeepMind Gemini Deepthink modellje és az OpenAI új nagy nyelvi modellje történelmi aranyérmet szereztek a Nemzetközi Matematikai Olimpián (IMO). Mindkét AI öt a hat problémából sikeresen megoldott, az utolsót azonban csak az emberi versenyzők teljesítették hibátlanul.
A fejlesztések nem csak a pontszámokról szólnak – izgalmas technikai részleteket is felfednek. Kiderült, hogy innovatív megerősítéses tanulási módszereket alkalmaztak, amelyek multiparallel gondolkodási folyamatok alkalmazásával emelik a problémamegoldás szintjét. Különösen érdekes, hogy a Google modellje önállóan, természetes nyelvű feladatmegértéssel dolgozott, míg korábbi években szükséges volt a formális matematikai fordítás.
A verseny és a bejelentések körül kisebb viták is kialakultak: felmerült, hogy korrektül jelentették-e be az eredményeket, és tiszteletben tartották-e a szervezők kérését. Az OpenAI és a Google munkatársai, köztük vezető AI szakemberek, különféle magyarázatokkal álltak elő az időzítésről és az eljárás módjáról, ezzel érdekes etikai és szakmai kérdéseket vetve fel.
Az új AI modellek mögötti folyamatok is előtérbe kerülnek: hogyan lehet a megerősítéses tanulás révén egyre több, nehezen ellenőrizhető feladatra megtanítani őket? Mekkora számítási teljesítmény szükséges mindehhez? A szakértők már most a fejlődés következő hullámát vizionálják, amelyben az MI saját tanulási tantervet és adathalmazokat generál. Mindez azt is felveti: reális lesz-e rövidesen az általános mesterséges intelligencia (AGI) elérése?