Az OpenAI nemrégiben szerződést kötött a Pentagonnal, amely lehetővé teszi, hogy a ChatGPT-t is felhasználják a hadsereg kibervédelmi eszközeiben. Eközben az Anthropic, a Claude nevű AI fejlesztője, visszautasította a hasonló partnerséget, kiemelve a felhasználói adatvédelem fontosságát és a cég elvei melletti kitartást.
A videó során részletesen bemutatják, hogy milyen adatokat oszthatunk meg egy AI csevegővel, milyen veszélyek leselkedhetnek ezekre az információkra, ha azokat katonai partnerek is elérhetik, és miért vált aggályossá a ChatGPT használata ezen fejlemények fényében.
Felvetődik a kérdés: hol húzódik a határ a védelem és a magánszféra között, és megbízhatunk-e egy olyan cégben, amely nyíltan hirdeti ilyen együttműködéseit? Az Anthropic példája rávilágít, hogy létezik alternatíva, amely az adatvédelmet helyezi előtérbe.
A videó részletesen, lépésről lépésre bemutatja, hogyan exportálható a ChatGPT-ben tárolt memóriánk és beszélgetéseink, és milyen egyszerűen integrálhatók ezek Claude-ba anélkül, hogy elveszítenénk a fontos kontextust. Szó esik továbbá Claude speciális funkcióiról is, amelyek a szerző szerint nemcsak adatvédelmi szempontból, hanem hatékonyságban is túlszárnyalják a ChatGPT-t.
A tartalom végig interaktív útmutatásokat ad: miként hozhatunk létre projektalapú AI rendszereket, hogyan lehet átváltani a teljes adatbázisunkat, és mi mindenre képesek a fejlett AI asszisztensek a mindennapi emailtől a komplex technikai kihívásokig. Mindezt áthatja a kérdés: valóban elég a funkcionalitás, vagy számít, hogy melyik AI mennyire tiszteli a felhasználóját?










