A
A
  • Angol
  • Magyar
  • 11 perc

LLM-alapú adatfeldolgozás egyszerűen a DOC ETL segítségével

Egy új, nyelvi modelleket használó adatfeldolgozó eszköz lépésein keresztül ismerhetjük meg, miként lehet strukturálatlan dokumentumokból értékes információkat kinyerni egyszerűen, YML-pipeline-okkal.

A bemutatott eszköz egy olyan adatfeldolgozó keretrendszer, amely nagy nyelvi modellekre (LLM) támaszkodik szöveges dokumentumok elemzéséhez és átalakításához. Deklaratív YML-pipeline rendszerével lehetővé teszi komplex adatfeldolgozási munkafolyamatok kialakítását anélkül, hogy jelentős mennyiségű kódot kellene írni.

Különös hangsúly kerül arra, hogyan kezelhetők különböző dokumentumtípusok, és miként oszthatjuk fel a feladatokat szekvenciális műveletekké a nagy modellek prompt-limitációjának áthidalására. Felvetődik a kérdés, mennyire hatékony és költséges ezeknek a piaci, zárt modelleknek a használata a mindennapi adatfeldolgozási feladatok során.

A videóban helyet kap egy valós példán keresztüli bemutatás, ahol egy orvos-beteg párbeszédeket tartalmazó JSON-fájlban fut végig egy több lépésből álló feldolgozó pipeline. Megismerhetjük, hogyan hozható létre a lokális telepítés, milyen hibák merülhetnek fel, és hogyan szabható testre a felhasználó saját igényei szerint a feldolgozás folyamata.

Szó esik olyan optimalizációs lehetőségekről is, amelyek révén a keretrendszer különböző pipeline-konfigurációkat tesztel, hogy a lehető legpontosabb végeredményt adja. Ezzel összefüggésben merül fel az is, mely esetekben és milyen adathalmazokhoz javasolt ennek a rendszernek az alkalmazása.