Az LNAI bemutatja a piac egyik legnyitottabb mesterséges intelligencia modellcsaládját, az OLMo 3.1-et, amely nem csupán a súlyokat, hanem a teljes képzési folyamatot is publikussá teszi. A fejlesztők nyilvánossá tették a 32 milliárd paraméteres modellek ellenőrzőpontjait, minden tréningadatot, naplót, finomhangolási szkriptet és hiperparamétert is – mindezt Apache 2 licenc alatt.
A videóban részletesen megismerhető, hogyan épül fel a „gondolkodó” modell: klasszikus dekóder-alapú transformer architektúra, de különlegességét a többlépéses tréning receptje adja. Megtudhatjuk, milyen adatforrásokból és lépéseken keresztül történt a pre- és poszt-tréning, valamint az emberi preferenciák alapján végzett finomhangolás.
Praktikus példákon keresztül mutatja be, hogyan képes a modell önállóan HTML alapú drónparancsnoki központot készíteni, interaktívan reagálni különböző billentyűparancsokra, sőt, még vizuális szimulációt is generálni. A modellel végzett nyelvi és kreatív tesztek megmutatják a sokoldalúságát, például hogy mennyire tud többnyelvű feladatokat végrehajtani, mennyire koherens történeteket vagy mondatokat alkotni egy adott szóval.
A funkciók közé tartozik az eszközmeghívás (tool calling) képessége is, amellyel a modell külső API-kkal, például tőzsdeindex-lekérdező funkciókkal is képes kommunikálni. A különböző példák alapján rávilágít arra, hogy a teljes modellpipeline mennyire átlátható – így akár magunk is újraképezhetjük vagy továbbfejleszthetjük a modellt.







