A
A
  • Angol
  • Magyar
  • 9 perc

Google FunctionGemma: Az új AI modell függvényhívásokra specializálva

A videó bemutatja, hogyan lehet a Google FunctionGemma modellt egyszerűen telepíteni, és hogyan fordítható a természetes nyelvű utasítás függvényhívásokká a gyakorlatban.

Az AI világában egyre nagyobb teret nyer a specializáció; ebben a kontextusban jelenik meg a Google új, könnyű súlyú, nyílt modellje, a FunctionGemma. Ez a modell nem hagyományos csevegő AI, hanem kifejezetten arra készült, hogy természetes nyelvű utasításokat strukturált függvényhívásokra fordítson, lehetővé téve speciális ügynökök fejlesztését.

A FunctionGemma a Gemma 3 architektúrára épül, mindössze 270 millió paraméterrel, mégis nagy erőforrás-hatékonysággal használható akár laptopokon vagy edge eszközökön is. Az installálása során szó esik az Ubuntu környezet beállításáról és az ehhez szükséges komponensekről is, mint a torch és a transformers, illetve bemutatásra kerül a Jupyter notebook környezetben való futtatás.

Érdekes aspektusa a modellnek, hogy a Gemini modelleket tápláló, legmodernebb kutatási eredményekből építkezik, de kizárólag funkcióhívási feladatokra trenírozták. Megismerhetjük a JSON formátumú függvénysémák lényegét is, amelyek révén az AI bármilyen természetes nyelvű kérdést képes a megfelelő, gépileg értelmezhető parancsokká alakítani, legyen szó akár adatlekérdezésről egy API-n keresztül vagy külső eszköz irányításáról.

Felmerülnek olyan érdekes kérdések, hogy hogyan tud egy ilyen kisméretű modell, amely 32k tokenes kontextussal dolgozik, valós időben funkcióhívásokat generálni, és miként lehet ezt további, egyéni feladatokra finomhangolni. A videó azt is vizsgálja, hogy milyen reális eszközparkon és környezetben lehet ezt a modellt a legjobban kihasználni, illetve szó esik a bemutatott példákról és valós alkalmazási lehetőségekről.