A
A
  • Angol
  • Magyar
  • 18 perc

Konfliktus a Pentagon és az Anthropic között az MI katonai alkalmazása miatt

Az Anthropic és a Pentagon között komoly viták alakultak ki arról, hogy miként és milyen korlátokkal használható fel a fejlett mesterséges intelligencia katonai célokra. A konfliktus az egész technológiai szektort, illetve a társadalmat is érintheti.

Egy mesterséges intelligenciát fejlesztő vállalat, az Anthropic, és az amerikai védelmi minisztérium (Pentagon) között mélyülő konfliktus bontakozik ki. A Pentagon azzal fenyeget, hogy nemzetbiztonsági kockázattá nyilvánítja az Anthropikot, ami rendkívüli következményekkel járna nemcsak a cégre, hanem az egész amerikai védelmi ellátóláncra nézve.

Kérdések merülnek fel a vállalati etika és a nemzetbiztonság viszonyáról, amikor az Anthropic megtagadja, hogy mesterséges intelligenciáját – a Claude modellt – bizonyos számukra morálisan aggályos katonai célokra használják fel. A vita két fő tilalom körül forog: az MI-t ne lehessen tömeges amerikai megfigyelésre, illetve teljesen autonóm fegyverrendszerek működtetésére használni.

Lényeges pont, hogy más MI-cégek (például a Google, az OpenAI, az XAI) már elfogadták a Pentagon követeléseit, míg az Anthropic nem hajlandó kompromisszumok nélkül engedni. A történet sokakat érint, hiszen az Anthropic ügyfelei között ott vannak a legnagyobb amerikai vállalatok, és az ellátóláncból való kizárás széles körű üzleti zavarokat okozhat.

A videó feltárja azt a dilemmát, hogy egy magánvállalat hogyan állhat ellen a katonai megrendeléseknek, amikor úgy érzi, hogy ezek sérthetik az alapelveket, és felveti, mit jelentene, ha a mesterséges intelligenciát fejlesztő cégek minden állami igénynek vakon engednének. Megvizsgálásra kerülnek a tágabb társadalmi következmények is, ha a mesterséges intelligencia segítségével a kormányzat új, eddig nem tapasztalt hatalmat szerezhetne a polgárok felett.