A
A
  • Angol
  • Magyar
  • 9 perc

A mesterséges intelligencia új hulláma: InclusionAI Ring és Ming modellek

Az InclusionAI labor legújabb modelljei új alapokra helyezhetik a mesterséges intelligencia fejlődését, miközben a szélesebb közönség számára még szinte ismeretlenek.

Az emberek gyakran a mesterséges intelligencia területén a nagy cégekre és az ismert laborokra fókuszálnak, de az InclusionAI nevű kutatólabor egyre jelentősebb szereplővé válik az open-source közösségben. Bár széles körben még mindig kevéssé ismert, fejlesztéseik egyediek, hiszen nemcsak teljesítményorientáltak, hanem alapjaiban próbálják megoldani az MI-architektúra szűk keresztmetszeteit.

Két friss modelljük, a Ring-2.5-1T és a Ming-Flash-Omni 2.0, merőben új irányt képvisel. Az előbbi a világ első nyílt forráskódú, egybillió paraméteres, mélyebb gondolkodásra tervezett rezonáló modellje. A Ming-Flash-Omni 2.0 pedig egy multimodális mestermű, amelyben egységes keretben valósul meg a percepció és a generáció, akár komplex vizuális vagy auditív feladatokra is.

Felmerül a kérdés, hogy miért kevéssé ismert ez a labor, miközben innovációik kiemelkedőek? A választ részben az adja, hogy ezek az óriásmodellek nem érhetők el széles körben kipróbálásra, és csak speciális, kínai regisztrációt igénylő platformokon tesztelhetők. Technikai újdonságaik között szerepel egy új memóriakezelési megoldás, nagyfokú önállóság, valamint az ügynöki tanulást támogató architektúra.

A Ming-Flash-Omni 2.0 kiemelkedik vizuális felismerő képességeivel, kulturális tárgyak és fajok azonosításával, valamint azzal, hogy képtartalmakat hatalmas tudásgráfokhoz kapcsol. Emellett fejlett generatív folyamatokat kínál, amelyekben egyszerre kezelhető a beszéd, az audió és a zene. Az ilyen komplex modellek kapcsán érdekes kérdések merülnek fel: hogyan segíthetik ezek az autonóm folyamatokat, és milyen módon forradalmasíthatják a multimodális MI-t?