A
A
  • Angol
  • Magyar
  • 8 perc

OpenAI Privacy Filter: Érzékeny Adatvédelem Lokálisan Futtatható Modell Segítségével

Az OpenAI privacy filter modellje most először szabadon elérhető és lokálisan futtatható, így gépünkön is megóvhatjuk az érzékeny adatokat. A videó részletesen bemutatja a telepítést, működést és a kontextusérzékeny személyes adatok detektálását.

Az OpenAI meglepő módon Apache 2 licenc alatt tette elérhetővé a saját belső, személyazonosításra alkalmas adatokat (PII) kereső modelljét, a privacy filtert. Ez a modell már eddig is a cég belső adatvédelmi folyamataiban játszott kulcsszerepet, most azonban bárki telepítheti és használhatja lokálisan, anélkül, hogy az adatok elhagynák a saját gépét.

A bemutató során részletesen ismertetik, hogyan működik a modell – hogyan azonosítja a névhez, e-mail címhez, lakcímhez vagy akár telefonszámhoz kötődő személyes információkat, és miként képes ezeket címkézni, kategorizálni és kiemelni egyetlen futtatás alatt. Érdekes technikai betekintést kapunk arról, milyen erőforrások szükségesek ehhez (még CPU-n is könnyedén futtatható), és megismerhetjük a különböző példákon keresztül a működés részleteit, például hogyan detektálja token szinten az entitásokat.

Speciális funkcióként kiemelésre kerül a modell kontextusérzékenysége: ugyanazt a telefonszámot más-más mondatba ágyazva eltérően képes címkézni attól függően, hogy személyes, munkahelyi, vagy nyilvános céges elérhetőségként jelenik-e meg. Ez szemben áll a legtöbb korábbi, egyszerű regex-alapú megközelítéssel.

A videó kitér arra is, hogyan használható a privacy filter különböző fejlettségi szinteken – egyszerű pipeline-tól a nyers, tokenszintű kiértékelésig, illetve bemutatja, miként lehet automatikusan eltávolítani a felismert adatokat a szövegből, hogy megfeleljünk adatvédelmi előírásoknak akár vállalati környezetben is.