A videó középpontjában egy kifejezetten kutatási célokra optimalizált, 4 milliárd paraméteres nyelvi modell, a Jan-Nano/Gen Nano4 áll, amely natívan támogatja az MCP (Model Context Protocol) integrációt. Az ismertetés során bemutatásra kerül, hogyan lett a modell úgy tervezve, hogy különböző kutatóeszközökhöz és adatforrásokhoz való csatlakozás egyszerűen megoldható legyen MCP szervereken keresztül.
Az előadó alkalmazási példáin keresztül mutatja be a modell lokális telepítésének és futtatásának lépéseit Ubuntu rendszeren, egy Nvidia RTX A6000 GPU-val. Külön kitér a szükséges szoftverek – például a VLLM és a szöveg generálás webes UI – telepítésére, és bemutatja, hogyan lehet a modellt vezérelni API-n keresztül, valamint grafikus felületen is.
Az összeállítás foglalkozik a modell MCP integrációs lehetőségeivel is, például hogyan bővíthető ki a lokalizált modell MCP-támogatott fájlkezelési funkciókkal. Az előadó egy egyszerű Python kódot is bemutat, amely MCP szerveren keresztül képes olvasni és írni fájlokat a modell által generált tartalom alapján.
Felmerül a kérdés, hogyan teljesít a modell tényleges kutatási alkalmazásokban, miként értékeli a válaszok tényszerűségét, és hogy milyen mértékben segíti az MCP protokoll az automatizált adatkezelési műveleteket. Ezek a témák kifejezetten izgalmas lehetőségeket vetnek fel a kutatási felhasználás szempontjából.