A
A
  • Angol
  • Magyar
  • 12 perc

Amikor az AI a saját szavaiddal válaszol és független forrásnak tűnik

Phil különös élményt oszt meg, ahol a ChatGPT saját elemzéseit és gondolatait használja fel egy zenei kérdés megválaszolására, így fontos kérdések vetődnek fel az AI hitelességéről és működéséről.

A videóban Phil, a Wings of Pegasus csatorna készítője elmeséli egy furcsa élményét, amely során a ChatGPT az ő saját szavait használta fel egy másik felhasználó kérdésének megválaszolásához. Betekintést nyújt abba, hogyan alkalmazza az AI az internetről begyűjtött információkat anélkül, hogy felismerné, ki az eredeti forrás.

Felvetődik az a kérdés, hogy mennyire tekinthető megbízhatónak az AI, amikor ugyanattól a személytől származó adatokat használja önmaga igazolására, mintha független forrás lenne. Ez rámutat arra, hogy a mesterséges intelligencia nem rendelkezik saját tudással vagy ítélőképességgel, csupán újrahasznosítja a tanult tartalmakat.

A beszélgetés során az is szóba kerül, milyen furcsa helyzetekhez vezethet ez a jelenség, és milyen etikai, illetve gyakorlati problémák merülhetnek fel, amikor egy AI az emberi szakértelem helyére lép. A videó továbbá érinti az AI vizuális manipulációinak aktuális kérdéseit, például amikor egy ismert személy videójában a szemek mozgását utólagosan szerkesztik mesterséges intelligenciával.

Végül a készítő gondolkodásra sarkall: vajon elfogadható-e, ha egy AI úgy jelenik meg, mint független tudásforrás, miközben valójában emberektől vette át a tudását, és mennyire bízhatunk meg az így alkotott válaszokban?