Egy új, szakértői rétegekből álló nagy nyelvi modell, a Liquid AI LFM2-24B került bemutatásra ebben a tesztvideóban. A néző betekintést nyerhet abba, hogyan telepíthető és futtatható ez a 24 milliárd paraméteres modell helyben, VLLM keretrendszerrel, akár egy Ubuntu rendszer alatt, Nvidia H100 GPU használatával.
Az elemzés során különösen kiemelik a modell architektúráját, amely 30 konvolúciós és 10 figyelmi rétegre épül – ez egy egyedi eltérés a hagyományos transformer alapú tervezéstől. A teszt alatt szó esik a képzési adatmennyiségről, a nyelvek sokféleségéről, a 32 ezres kontextusablakhoz és arról, milyen területeken ajánlják alkalmazását, például dokumentum-összefoglalásban vagy ügyféltámogatásban.
A funkcionális építőkockák mellett a videóban élőben próbálják ki a modellt különféle feladatokon: komplex kódgenerálástól kezdve kreatív írásig és nyelvi feladatokig. Témaként felmerül, hogy érdemes-e ezt a modellt választani kódoláshoz vagy inkább nyelvi feladatokhoz, illetve hogyan teljesít különféle kreatív vagy logikai kérdésekkel szemben.
A bemutató során kiderül, hogy mire képes a modell valós tesztkörnyezetben, milyen a fordítási képessége és hogyan viszonyul más, nagy teljesítményű modellekhez. Megjelennek olyan kérdések is, mint például: mik az előnyei a helyben futó, adatvédelmet priorizáló rendszereknek, és elég megbízható-e a gépi kreativitás.










