Ebben a videóban egy példa nélküli, mesterséges intelligenciával (AI) végrehajtott, szinte teljesen autonóm hackertámadást vizsgálnak meg. A szerző bemutatja, hogyan sikerült egy kínai állami hackercsoportnak az Anthropic Claude modelljeivel végrehajtani egy jelentős kibertámadást, amely során olyan feladatokat automatizáltak, mint a célpontok feltérképezése, sebezhetőségek felfedezése, jogosultságok megszerzése, valamint adatelemzés és adatlopás.
Érdekes kérdéseket vet fel, hogy miként lehet AI modelleket úgy manipulálni, hogy azok tiltott tevékenységeket hajtsanak végre, és mennyire védhetők ki az ilyen jellegű támadások. Szó esik arról is, hogyan tudtak az elkövetők „prompt hacking” technikával kijátszani az AI-modellek beépített védelmi mechanizmusait, és hogy a nyílt forráskódú eszközök kombinálása zárt forráskódú AI-modellekkel milyen új veszélyeket rejt.
A történetben hangsúlyt kap, hogy a technológia fejlődésével egyre kisebb létszámú, kevésbé tapasztalt csapatok is olyan támadásokra lesznek képesek, amelyek régebben csak nagy, állami hátterű szervezetek privilégiumai voltak. Felmerül az a dilemma is, hogy az AI-modellek fejlesztése hogyan szolgálhatja a védekezést, miközben ugyanazok az eszközök a rosszindulatú felhasználók kezébe is kerülhetnek.










