Az interjúban Bernard Widrow bemutatja az 1960-ban épített Adaline gépet, amelyet az adaptív lineáris neuron modelljeként ismerünk. Az Adaline a gépi tanulás egyik legkorábbi hardveres megvalósítása, és alapvető példája annak, hogyan tanulhat egy egyszerű gép különböző mintázatokat felismerni azáltal, hogy folyamatosan módosítja a súlyait.
A bemutató során Widrow manuálisan állítja be a bemeneti mintákat, és magyarázza el, hogyan történik a tanítás folyamata az Adaline eszközben. Különféle betűminták (például X, T, C, J) alapján szemlélteti, hogyan változik a kimenet a súlyok módosítása során, és rávilágít arra, hogy minden új minta betanítása megzavarhatja a korábban megtanult válaszokat. Ez a tanítási folyamat szemlélteti a többszörös mintákhoz való alkalmazkodás nehézségeit.
Widrow a demonstrációt követően a matematikai háttérről is beszél, különös hangsúlyt fektetve az úgynevezett „minimális zavarás elvére”. Ezt az elvet használja minden neurális hálózat, amikor minimalizálni szeretné a tanulás során bekövetkező változásokat. A súlyvektor és a bemeneti minta közötti kapcsolatról, valamint az LMS algoritmus jelentőségéről is kifejt részleteket, amely meghatározza, hogyan történik a tanulás lépésről lépésre.
Több érdekes kérdés is felmerül: Milyen előnyökkel és hátrányokkal jár a súlyok módosításának folyamata? Hogyan lehet hatékonyan különválasztani egymástól különböző mintázatokat úgy, hogy a már megtanult válaszok megmaradjanak? Miként kapcsolódik az egyszerű, hardveres megvalósítás a mai komplex mesterséges intelligencia rendszerek alapjaihoz? A beszélgetés során ezekre a kérdésekre keresik a választ.