Friss fejlemények sokkolják a mesterséges intelligencia iparágát, ugyanis a Deepseek legújabb változata, az R10528, meglepően nagy ugrást jelent a teljesítményben. Az eredeti januári modellből május végére fejlesztett új verzió már képes szinte felzárkózni a legjobb zárt modellekhez, sőt, bizonyos benchmarkokon le is körözi az olyan versenytársakat, mint a Gemini 2.5 Pro.
A háttérben izgalmas módszertanok bontakoznak ki. Az EQBench, az LLM-ek érzelmi intelligenciáját mérő benchmark fejlesztője, például bioinformatikai eszközöket alkalmazva próbálja feltérképezni az AI modellek „származási fáját” a kimeneteik alapján, így rávilágítva a modellek közötti rejtett összefüggésekre. Felmerül az is, hogy a Deepseek újabb modelljei talán már a Gemini outputjain tanulnak, nem csak az OpenAI-én.
Eközben egyre erősödik a kínai-amerikai versengés az AI fejlesztésben. Egyes nézetek szerint, ha az open-source modellek ingyenesen, vagy nagyon kedvező áron tudják hozni a zárt modellek szintjét, az alapjaiban írhatja át a piac finanszírozási stratégiáit. Mindez ráerősíthet a globális nyílt forráskódú kutatásra, de geopolitikai kérdéseket és technikai titkolózásokat is felszínre hoz.
Az iparágban tehát hatalmas a mozgolódás, folyamatosak a technológiai és piaci változások, miközben egyre több cég és nemzet helyezi a tétjét arra, hogy ki vezetheti majd a mesterséges intelligencia jövőjét. Vajon hová vezet mindez, milyen következményei lesznek a technológia demokratizálódásának és a globális versenynek?