A
A
  • Angol
  • Magyar
  • 11 perc

Ring-2.6-1T: az óriási AI modell, amit szinte senki sem tud használni

Hiába uralja a címoldalakat a Ring-2.6-1T lelkesítő bővülése, a gyakorlatban alig akad olyan, aki ténylegesen képes futtatni ezt a lenyűgöző méretű nyílt forráskódú AI modellt.

Az Inclusion AI laborja idén bemutatta a Ring-2.6-1T elnevezésű, egy billió paraméteres nyílt forráskódú nyelvi modellt, amely óriási méretével az iparági rekordokat célozza meg. A fejlesztők azt állítják, hogy innovatív felépítése révén kiválóan alkalmas hosszú távú tervezési és komplex, többlépcsős feladatok automatizálására vállalati környezetben.

Bár a modellt elvileg bárki letölthetné, a tényleges futtatás gyakorlatilag lehetetlen mind a technikai, mind a bürokratikus akadályok miatt. Egyedi hardverigény, speciális kínai API-regisztráció és szükséges infrastruktúra miatt a legtöbb fejlesztő és cég számára elérhetetlen marad. Még a videó készítője is körülményes kerülőúton tudta csak kipróbálni.

Az összehasonlítás során hangsúlyossá válik, hogy számos kisebb méretű és praktikusabb modell létezik (például Quen, DeepSeek), amelyek jóval egyszerűbben használhatók és szélesebb körben hozzáférhetők. Felmerül a kérdés: miért mutatnak be ekkora modellméretet, ha az nem nyújt kézzelfogható előnyt a gyakorlati felhasználók számára?

A demonstráció során kiderül, hogy a Ring-2.6-1T ugyan képes rövid idő alatt összetettnek tűnő kódbázist generálni, valójában azonban a pályamunka töredékes, sok a hiányzó részlet, és a várt funkcionalitás elmarad. A labor az aszinkron RL-tréning rendszerek fejlesztésével és benchmarkokkal is dicsekszik, de ezek gyakorlati értékét erősen megkérdőjelezi a vizsgálat.

A téma kapcsán érdekes vitaindító kérdések merülnek fel az open-source közösség irányáról, a ‘prestige modellek’ értelméről, a kutatói és átlagfejlesztői igények különbségéről, valamint a mesterséges intelligencia infrastruktúrájának globális hozzáférhetőségéről.