Az interjú során Demis Hassabis, a Google DeepMind alapítója beszélget az MI következő fejlődési lépcsőiről, különös tekintettel az önfejlesztő, öntanuló rendszerekre. A beszélgetés egyik központi gondolata a „self-play” és a „self-improvement”, vagyis az olyan mesterséges intelligenciák, amelyek emberek beavatkozása nélkül, saját magukkal versenyezve és saját hibáikból tanulva válnak egyre hatékonyabbá.
Felszínre kerül az a kérdés, hogyan érhető el, hogy ezek a rendszerek ne csak jól körülhatárolható játékokban – mint a sakk, a go – váljanak felülmúlhatatlanokká, hanem a való világ bonyolultabb, kevésbé szabályozott problémáira is képesek legyenek alkalmazni tudásukat. Szó esik különböző kutatási együttműködésekről, új publikációkról és az AlphaZero, AlphaGo Zero vagy az Absolute Reasoner nevű rendszerekről is.
A videó témái között szerepel a különféle mesterséges intelligencia fejlődési ágak egymásba olvadása, különösen az önjátszó és a nagy nyelvi modellek ötvözése. Megjelenik az a dilemma is, hogy a megnövelt megerősítéses tanítási (RL) számítási teljesítmény mennyire képes áttörést hozni, különösen a kódolás, matematika vagy akár általános problémamegoldás terén.
Érdekes kérdések merülnek fel azzal kapcsolatban is, hogy egy önfejlesztő rendszer, amely csak önmagával játszva tanul, vajon mennyire általánosítható tudáshoz jut, és az MI hogyan tud átlépni speciális doménekből egy általánosabb, intelligensebb működés felé. Ezek a témák komoly vitákat indítanak el arról, hogy az ilyen rendszerek vajon mikor tudnak valós problémákat megoldani, és milyen gyors fejlődés várható ezen a téren.