Az Anthropic legújabb, Claude Mythos nevű AI modellje körül komoly viták bontakoztak ki. A szöveg leírja, hogy az amerikai kormányzat, különösen a Fehér Ház, nem akarja, hogy ez az eszköz szélesebb körben hozzáférhetővé váljon, mivel nemzeti biztonsági kockázatokat lát benne. A történet középpontjában az áll, hogy az Anthropic 120 szervezethez szeretné kiterjeszteni a hozzáférést, miközben a kormányzat aggódik a rendszer túlterhelése és saját prioritásai miatt is.
Felvetődik a kérdés, valójában mennyire veszélyes az új modell. A technikai vizsgálatok szerint a Claude Mythos és az OpenAI GPT 5.5 is képes szimulált, többlépcsős kibertámadásokat végrehajtani, miközben érzékeny sebezhetőségeket is képesek felfedezni. Szakértők szerint nem csupán a támadó, hanem a védelmi funkciókban is élen járnak ezek a rendszerek, hiszen segítségükkel gyorsabban lehet megtalálni, majd javítani a szoftverhibákat.
A vita jelentős részben arról szól, kiknek szabad hozzáférést adni ezekhez a fejlett modellekhez, amikor azok már nemcsak eszközök, hanem szinte nemzetbiztonsági infrastruktúrának is minősülnek. A kormányzatok szeretnék megelőzni az AI-eszközök visszaélésszerű alkalmazását, miközben az AI laborok az úgynevezett védők, vagyis a kiberbiztonsággal foglalkozó szervezetek gyorsabb felfegyverzését szorgalmazzák.
A háttérben komoly technológiai és politikai kérdések húzódnak meg, mint például ki kapjon prioritást a limitált kapacitásból, vagy hogy miként lehetne szabályozni a hozzáférést egy olyan világban, ahol ezek a fejlett AI modellek egyre gyorsabban fejlődnek és olcsóbban elérhetők lesznek. A társadalmi párbeszéd komoly dilemmája, hogy mikor válik egy AI modell veszélyessé vagy kontrollálhatatlanná, valamint kinek van joga vagy felelőssége az ilyen eszközök hozzáférését szabályozni.










