Manapság egyre nehezebb eldönteni, hogy egy adott képet mesterséges intelligencia generált-e, vagy valódi fényképpel van dolgunk. Ebben a videóban különböző képeket mutatnak be, és izgalmas kérdéseket vetnek fel a valóság felismerhetőségével kapcsolatban: vajon felismerhetjük-e szabad szemmel az élethű AI-generált képeket?
A bemutatott Nunscape modell a legújabb, nyílt forráskódú mesterséges intelligenciák közé tartozik, amelyet kifejezetten arra fejlesztettek ki, hogy felismerje a diffúzióval generált képeket, deepfake-eket és GAN-alapú szintetikus médiatartalmakat. A modell több mint 1 millió, az internetről származó, sokszínű képre lett betanítva. Elhangzik, hogy a Nunscape kétféle változatban is elérhető: egy teljes és egy egyszerűsített, attól függően, hogy milyen pontosságra vagy sebességre van szüksége a felhasználónak.
Külön érdekesség, hogy a modell telepítése során számos technikai szempont és formátum kerül szóba: például elmagyarázzák a safetensor és az ONNX formátumok közötti lényeges különbségeket, illetve azt, hogy a modell használata GPU nélkül, közönséges CPU-val is lehetséges. Bemutatják, hogyan lehet gyorsan letölteni és működésbe hozni a rendszert saját gépen, majd a nézők együtt végigkísérhetik, miként működik az AI-kép felismerés a gyakorlatban, különféle próbafelvételeken keresztül.
A tesztek során nemcsak sikereket, hanem hibákat is láthatunk – esetenként a modell nem tökéletesen detektálja a mesterséges tartalmat –, ami felveti a kérdést: mennyire lehet bízni az ilyen rendszerek ítéletében? Emellett felmerül a mérlegelendő kérdés is: mik a nyílt forráskód előnyei, hol lehet hatékonyan használni egy ilyen képelemző eszközt, és mennyire fontos az átláthatóság ezen a területen?