A
A
  • Angol
  • Magyar
  • 13 perc

Az Anthropic és a Pentagon konfliktusa az AI etikai határairól

Az Anthropic és az amerikai Védelmi Minisztérium összecsapása rávilágít arra, hol húzódnak a mesterséges intelligencia etikai és jogi határai a hadseregben.

Az Anthropic és az Egyesült Államok Védelmi Minisztériuma (Pentagon) közötti konfliktus az AI etikájáról és alkalmazási határairól szól. A Pentagon ultimátumot adott az Anthropicnak: el kell távolítaniuk minden biztonsági korlátozást, különben feketelistára kerülnek, és elveszíthetik a kormányzati szerződéseiket.

A fő kérdések között szerepel, hogy az AI rendszereket fel lehet-e használni tömeges megfigyelésre vagy önálló fegyverek kifejlesztésére, amelyek emberi beavatkozás nélkül működnek. Az Anthropic két világos „vörös vonalat” húzott: nem engednek a modelleknek hozzáférést ezekhez a célokhoz, még jelentős üzleti kockázatok árán sem.

Mindeközben a Pentagon azzal érvel, hogy nincs szándékuk tömeges megfigyelést vagy autonóm fegyvereket létrehozni, mégis eltávolítanák a korlátozásokat. A vita egyre élesebb: a kormányzat nemcsak a szerződés felmondásával, hanem a „supply chain risk” minősítéssel is fenyeget, ami példa nélküli egy amerikai cég esetén.

Miközben más mesterséges intelligencia cégek – például az OpenAI – is támogatják az Anthropic álláspontját a guard-rail-ek fenntartásával kapcsolatban, a vita politikai síkra is terelődött. Több vezető, mérnök és szervezet foglal állást, hangsúlyozva az AI felelős katonai alkalmazásának fontosságát. A középpontban az a kérdés áll: hogyan őrizhető meg az emberi kontroll az automatizált, nagy hatású döntések során?