Nemrégiben kiderült, hogy az XAI több mint 370 ezer Grok-interakciót véletlenül nyilvánosságra hozott az interneten, sőt, kereshetővé is tette őket. Ez rámutatott arra az aggasztó kérdésre, hogy mennyire tartják tiszteletben a mesterséges intelligenciára épülő szolgáltatások a felhasználók adatvédelmét.
Felmerül a dilemmája annak, hogy miként lehet nagy nyelvi modelleket biztonságosan, privát módon használni, amikor minden online szolgáltatás esetében fennáll az adatvesztés vagy szivárgás kockázata – függetlenül attól, hogy véletlen hiba vagy rosszindulatú támadás történik.
A videó három megoldási lehetőséget mutat be a kíváncsi nézők számára. Az egyik módszer, hogy teljesen helyben, saját számítógépen futtatjuk a modellt, például az Olama alkalmazással, így semmilyen adat nem kerül a felhőbe. Egy másik lehetőség a Turbo mód, ahol nagyobb, felhőben futó modelleket használunk, de a szolgáltató garantálja, hogy nem naplózza és nem őrzi meg az adatokat. Harmadik lehetőségként kifejezetten adatvédelmi fókuszú szolgáltatások, például a Proton által fejlesztett Lumo is szóba jön.
Érdekes kérdések vetődnek fel a mesterséges intelligencia és az adatvédelem határmezsgyéjén: vajon mennyire bízhatunk egyes szolgáltatók ígéreteiben? Meddig maradnak anonimak az üzeneteink, és milyen alternatívák léteznek a nyilvános, felhős AI-chatbotok helyett?