Az Apple kutatói nemrégiben publikáltak egy tanulmányt, amely szerint a jelenlegi mesterséges intelligencia modellek valójában nem képesek logikai következtetésekre. Ez a tanulmány nagy vitát váltott ki: egyesek lelkesen üdvözölték, míg mások erősen bírálták.
Közben kevesen figyeltek fel egy másik kutatásra, amely azt vizsgálta, mennyire hasonlítanak az MI modellek „gondolkodási” folyamatai az emberi gondolkodásra. Ebben a vizsgálatban képeket kellett kategorizálniuk az MI-nek és embereknek egyaránt. Az eredmények szerint a nagyméretű nyelvi modellek bizonyos szempontból hasonló fogalmi struktúrákat alakítanak ki, mint az emberi agy, és az agyi aktivitásmintákkal is meglepő egyezést mutatnak.
Az Apple tanulmánya viszont éppen azt állítja, hogy a bonyolultabb problémák esetén az MI modellek teljesítménye összeomlik, még akkor is, ha speciális tanulási módszerekkel (például gondolatlánc stratégiával) próbálják javítani azt.
Ráadásul egy későbbi tanulmány szerint a teljesítménycsökkenés nem feltétlenül az MI képességeinek korlátja, hanem egyszerűen technikai, például szöveghosszúsági okokra vezethető vissza. Felmerül tehát a kérdés: valóban képesek ezek a modellek emberhez hasonló következtetésre, vagy csak a látszatot keltik? És mit is jelent valójában „gondolkodni” vagy „okoskodni” egy gép számára?
A videó azt is boncolgatja, hogy meddig juthat el a jelenlegi mesterséges intelligencia, és érdemes-e emberi szintű gondolkodást várnunk a mostani modellektől. Emellett szóba kerülnek az MI által jelentett biztonsági kockázatok, különösen az internetes böngészés kapcsán.