Az elmúlt 24 órában az OpenAI, a Google és az Anthropic több jelentős fejlesztést jelentett be, amelyek közvetlenül befolyásolják a felhasználók százmillióinak életét. Ezek az újdonságok azonban túlmutatnak a média által hangsúlyozott egyszerű híreken: érdemes az apróbb, kevésbé ismert részletekre is odafigyelni.
A GPT 5.1 fejlesztéséről például sokan úgy gondolhatják, hogy egyértelműen okosabb és beszédesebb lett. Valójában összetettebb a helyzet. A modell jobban, vagyis hosszabb ideig gondolkodik a számára nehéznek ítélt kérdéseken, az egyszerűbbekre viszont gyorsabban válaszol. Ez jelentős hatással lehet a felhasználói élményre, és a tesztek szerint különböző területeken eltérő szintű javulást (vagy akár visszalépést) mutat.
Kiemelt figyelmet kapott az Anthropic jelentése egy szinte teljesen autonóm AI által vezérelt kiberakcióról. Ebben az esetben egy mesterséges intelligencia több lépésben, emberi beavatkozás minimális mértékű igénybevételével hajtott végre támadást különböző szervezetek és kormányzati célpontok ellen. Az ilyen események felvetik a felelősség és az iparági önkontroll kérdéseit: ha mindenki csak semlegesen közli az adatokat anélkül, hogy erkölcsi következtetéseket vonna le, vajon hogyan lesz kezelhető ez a technológia által teremtett új veszélyforrás?
A Google Simmer 2 nevű, játékosok számára fejlesztett AI-ügynöke szintén jelentős újítást képvisel: képes játékokat emberhez hasonló módon irányítani, tanulni az általa megtett lépésekből és kommunikálni a játékossal. Bár a hozzá kapcsolódó marketing nagy előrelépést ígér, technikai részletek egyelőre hiányosak, és kérdéses, hogy valóban mennyire képes önálló fejlődésre a modell.
Kérdésként fogalmazódik meg, hogy ezek a fejlesztések hosszú távon miként alakítják a mesterséges intelligencia és az emberi társadalom viszonyát, illetve mennyiben lesznek képesek megfelelően kezelni a kialakuló új kockázatokat és lehetőségeket.










