Az Egyesült Államok kormánya és az Anthropic nevű mesterséges intelligenciát fejlesztő vállalat között komoly összetűzés bontakozott ki. Az ügy középpontjában az áll, hogy az amerikai katonai szervek – köztük a Pentagon – teljes, korlátlan hozzáférést követelnek az Anthropic Claude nevű AI-rendszeréhez, miközben a cég saját etikai határvonalakat húzna, például elutasítva a tömeges megfigyelést és az autonóm fegyverrendszerek támogatását.
A konfliktus olyannyira elmélyült, hogy Donald Trump elnök személyes utasítást adott ki minden szövetségi szervezetnek az Anthropic technológiájának azonnali kivezetésére, egy hat hónapos átmeneti időszak mellett. Eközben a védelmi nagyvállalatok, mint a Boeing vagy a Lockheed Martin, kénytelenek felmérni, mennyire függnek az Anthropic megoldásaitól. A helyzet kockázata, hogy az Anthropic ellátási lánc-kockázattá válik, nemcsak a haditechnikai piacról történő kitiltás veszélyét hordozza, de a vállalat tőzsdei bevezetésének (IPO) leállítását is jelentheti.
A helyzet további komplexitását mutatja, hogy más AI-vállalatok, például a Google és az OpenAI alkalmazottai is állást foglaltak, miközben a konkurens cégek, mint az XAI, előnyt kovácsolhatnak a botrányból. A vita középpontjában tehát súlyos dilemmák állnak: milyen mértékben szólhatnak bele a technológiai cégek az állami szervek felhasználási gyakorlatába, hol húzódnak a morális határok, és miként befolyásolhatja mindez az iparág egészét és az amerikai nemzetbiztonságot?
Olyan kérdések kerülnek felszínre, mint az AI-technológia megbízhatósága kritikus, élet-halál helyzetekben, a vállalatok felelőssége a katonai alkalmazásokban, valamint a technológiai és politikai érdekek bonyolult összefonódása.










