Mit jelent, ha egy technológia nemcsak hasznos vagy ártalmas, hanem konkrétan az egész emberiséget fenyegetheti? Nick Bostrom filozófus elméletén keresztül azt a gondolatot boncolgatja a videó, hogy a technológiai fejlődés minden lépése egy szerencsejáték is lehet, ahol néha fatális következményekkel járó „fekete golyók” kerülnek elő.
Az elhangzottak szerint az emberiség már most jelentős kockázatokat vállal bizonyos fejlesztésekkel, elég csak a nukleáris fegyverekre gondolni. Ugyanakkor egy újabb, ennél is kiszámíthatatlanabb veszély fenyeget: a mesterséges szuperintelligencia, vagyis olyan AI, amely messze felülmúlja az emberi képességeket, és amelynek motivációit vagy működését nem értjük igazán.
A bemutatott gondolatmenet szerint a jelenlegi irány – ahol hatalmas vállalatok versengenek az intelligensebb algoritmusokért – könnyen vezethet katasztrofális végkifejlethez. Nem tudhatjuk, hogy egy szuperintelligencia miként cselekszik, vagy hogyan viszonyul az emberiséghez, amikor már gyorsabban és hatékonyabban gondolkodik bárkinél.
Érdekes etikai és politikai kérdések kerülnek elő: ha már mindennapjainkban jelen vannak az erős AI rendszerek, és nincs globális szabályozás vagy konszenzus a kockázatok kezeléséről, képesek vagyunk-e megelőzni egy visszafordíthatatlan eseményt? Meddig kívánja az emberiség kockáztatni a létét az innováció kedvéért?










