A
A
  • Angol
  • Magyar
  • 64 perc

Adatvédelmi hátsó kapuk: hogyan szivárogtathatók ki finomhangolt modellekből az adatok

Új módszereket mutat be egy kutatás arra, hogyan lehet manipulatív előre betanított modellekkel titkos, finomhangolásra használt adatokat visszanyerni — akár olyan környezetben is, ahol nincs közvetlen hozzáférés a modellhez.

Az adatvédelmi hátsó kapukról szóló videó azt mutatja be, hogyan lehet finomhangolásra használt adatokhoz hozzáférni, még akkor is, ha a modell tulajdonosa nem szándékozik kiszivárogtatni azokat. Egy friss kutatás alapján megvizsgálja, hogyan alkalmazhatók visszaélésszerűen előre betanított modellek, például a BERT vagy a Visual Transformer architektúrák, hogy személyes vagy védett adatok lenyomata visszafejthető legyen a modell súlyaiból.

Felvetődik, hogy a támadó hogyan helyezhet el ‘hátsó kaput’ a nyílt forráskódú modellekben, és milyen mechanizmusok révén kerülhetnek be ezek az adatok a modellek súlyaiba a finomhangolás során. A videó részletezi azokat a matematikai és mérnöki trükköket, amelyek lehetővé teszik, hogy a súlyokban pontosan visszaállíthatók maradjanak a tanuló adatpontok, akár teljes adatsorok vagy képek formájában is.

Az elméleti koncepció mellett bemutatásra kerülnek a gyakorlati akadályok is, például más optimalizálási eljárások vagy súly-normalizálás alkalmazása, amelyek megnehezítik a visszafejtést. Felmerül az is, hogy mennyire reális az ilyen támadások kockázata valós környezetben, és hogy milyen védelmi lépések szükségesek a felhasználói adatok védelméhez.

A videó végigvezet a támadó nézőpontjából az egész folyamaton: hogyan választja ki azokat az adatokhoz igazított trükköket, amelyek révén akár célzott adatokat, akár a teljes finomhangoló adathalmazt vissza tudja fejteni. Mindez komoly kérdéseket vet fel a modellek újraosztása, API-n keresztüli használata és az adatszivárgás elleni védekezés területén.