Az utóbbi hetek legnagyobb mesterséges intelligencia hírének középpontjában az OpenClaw áll, amelyet hatalmas licitháború után végül az OpenAI csapata szerzett meg. Az OpenClaw, korábbi nevén Moltbot és Cloudbot, valódi közösségi szenzációvá vált, annak köszönhetően, hogy egyedülálló, nyílt forráskódú ügynöki keretrendszert kínált, amely szinte minden biztonsági korlátot feloldva demonstrálta az önálló AI-ügynökök lehetőségeit.
A fejlesztés gyors terjedése mellett – több mint 200 000 GitHub-csillag és 1,5 millió létrehozott ügynök – komoly vitákat is generált, különösen a biztonsági aggályok és a mesterséges intelligencia társadalmi hatásai kapcsán. Konkrétan felmerült a kérdés, miként különíthető el az emberi és gépi tartalom, illetve hogy a technológia önfejlesztő képességei mennyire jelenthetnek kockázatot.
Az egyik fontos vonulata a történetnek, hogy az Anthropic jogi lépésekkel támadta a fejlesztőt a névválasztás miatt, és a név többszöri megváltoztatására kényszerítette a projektet. Mindezen közben a nagy tech cégek – köztük a Meta – is bejelentkeztek az akvizícióra, azonban végül az OpenAI szerezte meg a projekt alapítójának szakértelmét és jövőbeli támogatását. Maga az OpenClaw továbbra is nyílt forráskódú marad, immár független alapítványi keretek között.
Az alkotó motivációi között megjelent a hozzáférés a legmodernebb AI-modellekhez (például GPT-5 vagy Codex sorozatok), valamint az a törekvés, hogy az OpenClaw közösségi tulajdon maradjon. Ezzel szemben az Anthropic zártabb hozzáállása és a céges politika hangsúlyosabb szerepe kevésbé volt szimpatikus számára.
Külön érdekesség, hogy a projekt önfejlesztő, autonóm kódoló képessége és biztonsági kérdései miatt már a kínai hatóságok is figyelmeztetést adtak ki róla, és számos ázsiai tech óriás is kiemelten foglalkozott vele. Felmerül tehát a kérdés: vajon miként fejlődnek tovább ezek az AI-ügynökök, és sikerülhet-e egyesíteni a nyílt innovációt a szükséges biztonsággal?










