Az Anthropic új blogbejegyzésében súlyos vádakat fogalmazott meg három kínai céggel – Deepseek, Moonshot és Miniax – szemben. Ezek a vállalatok állítólag összehangolt kampányt folytattak, amelynek részeként 24 000 hamis fiókot hoztak létre, és 16 millió interakcióval titkos adatokat nyertek ki a Claude nevű AI-modellből.
Nagy hangsúlyt kap, hogy a cégek az úgynevezett modelldesztillációs technikát alkalmazták. Ez azt jelenti, hogy egy fejlettebb AI-modell (például Claude Opus) válaszait használják fel arra, hogy egy új, gyorsabb, de hasonló képességű modellt hozzanak létre anélkül, hogy teljesen újratanítanák azokat az eredeti adathalmazon.
Felmerül a kérdés, hogy ezek a gyakorlatok mennyiben számítanak etikailag és jogilag kifogásolhatónak. Az iparágban általános, hogy a nagy AI-cégek – Anthropic, OpenAI, Meta és társaik – maguk is jelentős mennyiségű, sokszor jogilag vitatott forrásból származó adatot használnak modelljeik tanításához, így az áldozat és az elkövető szerepe nem mindig egyértelmű.
Másik lényeges elem, hogy a modelldesztilláció során gyakran elveszhetnek a biztonsági korlátok, így a másolt modellek kevésbé lehetnek védettek potenciálisan veszélyes felhasználásokkal szemben. A geopolitikai kockázatok mellett a szöveg arra is rámutat, hogy a jogi szabályozás ezen a területen még mindig homályos, és számos kérdés megválaszolatlan marad, például a szerzői jog kapcsán.
Egy izgalmas gondolat, hogy vajon hol húzódik a határ a tisztességes verseny és a lopás között, illetve kié az AI által generált és modelldesztillációval továbbvitt tartalom. A technológiai és jogi kérdések mellett az egész iparág alapvető működése és etikája is megkérdőjeleződik.










