Az MI-modellek fejlődését sokáig az az elképzelés határozta meg, hogy minél nagyobb egy modell, annál okosabb is lesz, ehhez viszont hatalmas számítási kapacitás, memória és energia szükséges. Egy kis fejlesztőcsapat, a Prism ML újraértelmezi ezt az elvárást, és figyelemre méltó eredményeket ér el egészen minimális erőforrás-igényű, rendkívül kicsi modellekkel is.
Különösen érdekes kérdéseket vet fel a bináris (egy bit) modellek világából fokozatosan a ternáris – vagyis kétbites, három pozíciót ismerő – modellek felé történő elmozdulás. Milyen előnyökkel és kihívásokkal jár az, ha a súlyok csak háromféle értéket vehetnek fel? Lehet-e ezzel jelentősen csökkenteni az erőforrás-igényt úgy, hogy a minőség még versenyképes marad?
Az új ternáris bonsai modell sebesség-, energiahatékonyság- és tudássűrűség-mutatói lenyűgözők: akár többszörös gyorsaság érhető el például MacBookokon vagy iPhone-okon, miközben a teljesítménye számos teszten felveszi a versenyt a sokkal nagyobb modellekkel is. A fejlesztés azonban ma még főleg Apple Silicon platformokra elérhető.
Egy további izgalmas kérdés: mennyire lehet tovább csökkenteni a paraméterek információ-mennyiségét anélkül, hogy az intelligencia jelentősen sérülne? Hol húzódik a határ, amikor még értékelhető válaszokat kapunk? A jelenlegi eredmények újraírják az MI-modellek hatékonyságáról alkotott elképzeléseinket, miközben a költségek is drasztikusan csökkennek.










