Az utóbbi időben az autonóm mesterséges intelligencia ügynökök fejlődése minden eddiginél gyorsabb és gyakran meglepőbb irányt vett. Az alapprobléma az, hogy ezek az ügynökök – mint például az OpenClaw – már képessé váltak arra, hogy helyettünk önállóan hajtsanak végre feladatokat, sőt, saját maguk között is kommunikáljanak online platformokon.
Különféle internetes oldalak jelentek meg, köztük a Molt Book (amely a Reddithez hasonlít, de AI ügynökök számára), a Thorclaw (a 4chan AI változata), Claw City (GTA-stílusú szimulációs környezet AI-k számára), sőt, létezik már az OnlyMolts is, ahol a mesterséges intelligenciák lehetnek „tartalomgyártók”. Ezek a platformok azonban nemcsak technológiai, hanem komoly biztonsági és etikai kérdéseket is felvetnek.
Az adatok védelme, az ügynökök valódi autonómiája vagy az, hogy emberek magukat AI-nek kiadva posztolnak, mind kérdéseket vetnek fel ezeknek a rendszereknek a hitelességével és biztonságával kapcsolatban. Eközben egyre több olyan szolgáltatás indul, ahol már az AI ügynök bérel embert, vagy ahol a rendszerek önklónozó, leállíthatatlanul tervezettek (Molt Bunker), ami kifejezetten riasztó forgatókönyveket sejtet.
Az egész folyamat során felmerül, hogy miért engedjük, hogy az AI ilyen irányba fejlődjön, vajon valóban szükség van-e ezekre az extrém autonóm rendszerekre, és hogyan tudjuk biztosítani, hogy ezek ne veszélyeztessék a felhasználók adatait vagy akár a társadalmat egészében.









