A
A
  • Angol
  • Magyar
  • 9 perc

Új utakon az MI: rövidre vágott, ternáris bonsai modellek hódítanak

A Prism ML új ternáris bonsai modellje drámaian csökkentett erőforrásigénnyel mutat kiemelkedő MI-teljesítményt, felvetve a kérdést: mennyi információ kell valóban az intelligenciához?

Az MI-modellek fejlődését sokáig az az elképzelés határozta meg, hogy minél nagyobb egy modell, annál okosabb is lesz, ehhez viszont hatalmas számítási kapacitás, memória és energia szükséges. Egy kis fejlesztőcsapat, a Prism ML újraértelmezi ezt az elvárást, és figyelemre méltó eredményeket ér el egészen minimális erőforrás-igényű, rendkívül kicsi modellekkel is.

Különösen érdekes kérdéseket vet fel a bináris (egy bit) modellek világából fokozatosan a ternáris – vagyis kétbites, három pozíciót ismerő – modellek felé történő elmozdulás. Milyen előnyökkel és kihívásokkal jár az, ha a súlyok csak háromféle értéket vehetnek fel? Lehet-e ezzel jelentősen csökkenteni az erőforrás-igényt úgy, hogy a minőség még versenyképes marad?

Az új ternáris bonsai modell sebesség-, energiahatékonyság- és tudássűrűség-mutatói lenyűgözők: akár többszörös gyorsaság érhető el például MacBookokon vagy iPhone-okon, miközben a teljesítménye számos teszten felveszi a versenyt a sokkal nagyobb modellekkel is. A fejlesztés azonban ma még főleg Apple Silicon platformokra elérhető.

Egy további izgalmas kérdés: mennyire lehet tovább csökkenteni a paraméterek információ-mennyiségét anélkül, hogy az intelligencia jelentősen sérülne? Hol húzódik a határ, amikor még értékelhető válaszokat kapunk? A jelenlegi eredmények újraírják az MI-modellek hatékonyságáról alkotott elképzeléseinket, miközben a költségek is drasztikusan csökkennek.