Az elmúlt években az AI-technológiák felhasználása a hadviselésben új szintre lépett. Több nagy horderejű katonai művelet során, például a venezuelai elnök elfogásakor, már mesterséges intelligencia rendszereket vetettek be célpontok azonosítására, adatfeldolgozásra és hadműveleti döntések támogatására.
Az amerikai hadsereg az Anthropic cég Claude nevű mesterséges intelligencia modelljét használta, majd az együttműködés megszakadt, miután a Pentagon vitás feltételeket próbált bevezetni: teljes autonómiát kívántak, valamint a lakosság tömeges megfigyelését lehetővé tevő szerződéses pontokat kértek. Mindez etikai dilemma elé állította a fejlesztő céget.
A szakadás után az OpenAI lépett színre, készen állva arra, hogy helyettesítse az Anthropikot, ami jelentős társadalmi visszhangot váltott ki, többek között a ChatGPT bojkottjával. Eközben a videó olyan kérdéseket vet fel, mint hogy mennyire megbízhatóak a katonai AI-rendszerek, mivel ezek teljesítménye messze felülmúlja a lakosság által ismerteket, ám még így sem tökéletesek.
Az adatok példátlan mennyiségű feldolgozását teszik lehetővé ezek a rendszerek, és akár az iráni hadszíntéren elért villámgyors célpont-azonosításban is kulcsszerepet játszanak. Szó esik a mesterséges intelligencia és a tömeges állampolgári megfigyelés egyre inkább összefonódó veszélyeiről is, különös tekintettel a személyes adatok adatbrókerektől történő megvásárlására és AI általi elemzésére.
Napjainkban már nem csupán az amerikai kormányzat, hanem a NATO és számos nagyvállalat – köztük a Meta is – aktívan kutatja és fejleszti a hadviseléshez és felügyelethez kapcsolódó AI-rendszereket. A társadalom és az egyéni jogok védelmére irányuló szabályozások sürgős kérdéssé válnak ebben az új technológiai korszakban.










