Az autonóm drónrajok és a mesterséges intelligencia katonai felhasználása új távlatokat nyit az etikai dilemmák terén, különösen amikor az emberi döntések helyét algoritmusok veszik át. Egyesek szerint ez növeli a veszélyeket, hiszen emberek helyett gépek hozhatnak végzetes döntéseket.
A vita középpontjában most az Anthropic nevű vállalat áll. Eredetileg azzal a céllal jött létre, hogy a világ legerősebb és legbiztonságosabb mesterséges intelligenciáját fejlessze, szigorú önkorlátozó szabályokkal. Most azonban az USA hadiipara és a Pentagon komoly nyomást gyakorol rájuk, mivel a katonai együttműködés során kiderült, hogy technológiájukat egy titkos műveletben is bevetették, amely során mesterséges intelligencia segítette a katonai tervezést és döntéshozatalt.
A Pentagon nem fogadja el többé, hogy egyes vállalatok külön engedélyt adjanak vagy tiltsanak a saját technológiájuk katonai alkalmazására, ha az törvényes keretek között marad. Ha az Anthropic nem teljesíti a hadiipari követelményeket, az amerikai kormány többféle szankcióval élhet: kényszerítheti őket a technológia szolgáltatására, kizárhatja őket a szövetségi ellátási láncból, vagy akár visszavonhatja a meglévő szerződéseket is.
Különös ellentét alakult ki a vállalati etika és a nemzetbiztonsági érdekek között: az Anthropic ragaszkodik ahhoz, hogy mesterséges intelligenciája ne dönthessen önállóan célpontok kiiktatásáról, illetve ne legyen eszköz az amerikai állampolgárok megfigyelésében. A szoros határidő pedig három napon belül végérvényesen eldöntheti, hogy egy nagy mesterséges intelligencia-cég képes-e kitartani saját elvei mellett, vagy muszáj engednie az állami nyomásnak.
A videó azt vizsgálja, hogy a technológiai fejlődés tempója, a nemzetbiztonsági igények, a vállalati erkölcsök és a politikai-állami erőviszonyok miként ütköznek ebben a példátlan konfliktusban. Felmerül a kérdés, vajon hová vezethet, ha egyre erősebb mesterséges intelligencia-rendszerek kerülnek a világ katonai és kormányzati gépezetébe.










