A
A
  • Angol
  • Magyar
  • 6 perc

Hogyan használd biztonságosan az AI-t: 3 módszer az adatvédelem érdekében

A videó három módszert mutat be arra, hogyan lehet mesterséges intelligenciát használni anélkül, hogy a beszélgetéseink nyilvánosságra kerülnének vagy naplózódnának.

Nemrégiben kiderült, hogy az XAI több mint 370 ezer Grok-interakciót véletlenül nyilvánosságra hozott az interneten, sőt, kereshetővé is tette őket. Ez rámutatott arra az aggasztó kérdésre, hogy mennyire tartják tiszteletben a mesterséges intelligenciára épülő szolgáltatások a felhasználók adatvédelmét.

Felmerül a dilemmája annak, hogy miként lehet nagy nyelvi modelleket biztonságosan, privát módon használni, amikor minden online szolgáltatás esetében fennáll az adatvesztés vagy szivárgás kockázata – függetlenül attól, hogy véletlen hiba vagy rosszindulatú támadás történik.

A videó három megoldási lehetőséget mutat be a kíváncsi nézők számára. Az egyik módszer, hogy teljesen helyben, saját számítógépen futtatjuk a modellt, például az Olama alkalmazással, így semmilyen adat nem kerül a felhőbe. Egy másik lehetőség a Turbo mód, ahol nagyobb, felhőben futó modelleket használunk, de a szolgáltató garantálja, hogy nem naplózza és nem őrzi meg az adatokat. Harmadik lehetőségként kifejezetten adatvédelmi fókuszú szolgáltatások, például a Proton által fejlesztett Lumo is szóba jön.

Érdekes kérdések vetődnek fel a mesterséges intelligencia és az adatvédelem határmezsgyéjén: vajon mennyire bízhatunk egyes szolgáltatók ígéreteiben? Meddig maradnak anonimak az üzeneteink, és milyen alternatívák léteznek a nyilvános, felhős AI-chatbotok helyett?