Mi történne, ha a mesterséges intelligencia rendszerei képesek lennének átláthatóan bemutatni, hogyan jutnak egy adott döntésre? A hagyományos neurális hálózatokat gyakran fekete dobozként emlegetik, mivel belső működésük szinte követhetetlen, kapcsolatainak szövevénye átláthatatlan.
A tartalom középpontjában az OpenAI új, úgynevezett circuit sparsity (ritkított kapcsolati hálózat) modellje áll. Az új megközelítés abban különbözik a megszokottól, hogy minden neuron csak néhány tucat másikhoz kapcsolódik, szemben a sűrű, ezerszám összekapcsolt hagyományos rétegekkel. Így az információfeldolgozás sokkal rendezettebbé és követhetőbbé válik, mintha egy rendetlen szobából egy jól szervezett irattári polcba rendeznénk minden elemet.
Szemléletes példák mutatják be, hogyan sikerül az ilyen modelleknél konkrét ‘circuit’-eket, vagyis jól körülhatárolható, átlátható útvonalakat azonosítani a döntések mögött – például egy Python string-lezáró idézőjelek értelmezésénél. Az interpretálhatóság és a modell teljesítménye közötti kompromisszum is fókuszba kerül, hiszen minél ritkább a rendszer, annál átláthatóbb, de teljesítményben kissé visszafogottabb.
Gyakorlati bemutatón keresztül derül ki, miként futtatható a modell akár átlagos hardveren is, és hogyan képes egy adott Python kódhoz releváns kiegészítéseket generálni. Felmerül az a kérdés is, vajon az ilyen mértékű átláthatóság képes lesz-e csökkenteni az AI rendszerekhez kötődő bizalmatlanságot és félelmeket.










