A
A
  • Angol
  • Magyar
  • 11 perc

Liquid AI LFM2-24B: Az új nyelvi modell tesztje és elemzése helyben

A Liquid AI LFM2-24B új, 24 milliárd paraméteres nyelvi modelljét telepítik és próbálják ki helyben különféle kihívásokon, különös tekintettel nyelvi és kreatív feladatokra.

Egy új, szakértői rétegekből álló nagy nyelvi modell, a Liquid AI LFM2-24B került bemutatásra ebben a tesztvideóban. A néző betekintést nyerhet abba, hogyan telepíthető és futtatható ez a 24 milliárd paraméteres modell helyben, VLLM keretrendszerrel, akár egy Ubuntu rendszer alatt, Nvidia H100 GPU használatával.

Az elemzés során különösen kiemelik a modell architektúráját, amely 30 konvolúciós és 10 figyelmi rétegre épül – ez egy egyedi eltérés a hagyományos transformer alapú tervezéstől. A teszt alatt szó esik a képzési adatmennyiségről, a nyelvek sokféleségéről, a 32 ezres kontextusablakhoz és arról, milyen területeken ajánlják alkalmazását, például dokumentum-összefoglalásban vagy ügyféltámogatásban.

A funkcionális építőkockák mellett a videóban élőben próbálják ki a modellt különféle feladatokon: komplex kódgenerálástól kezdve kreatív írásig és nyelvi feladatokig. Témaként felmerül, hogy érdemes-e ezt a modellt választani kódoláshoz vagy inkább nyelvi feladatokhoz, illetve hogyan teljesít különféle kreatív vagy logikai kérdésekkel szemben.

A bemutató során kiderül, hogy mire képes a modell valós tesztkörnyezetben, milyen a fordítási képessége és hogyan viszonyul más, nagy teljesítményű modellekhez. Megjelennek olyan kérdések is, mint például: mik az előnyei a helyben futó, adatvédelmet priorizáló rendszereknek, és elég megbízható-e a gépi kreativitás.