Ebben a videóban a mesterséges intelligencia által támogatott jogi kutatási eszközök megbízhatósága kerül vizsgálatra, különös tekintettel arra, hogyan kezelik a „hallucinációkat” – azaz a helytelen vagy kitalált információk generálását.
A műsorban bemutatják, milyen kihívások elé néznek a jogi technológiai cégek, amikor generatív AI-t, például nagyméretű nyelvi modelleket (LLM) próbálnak integrálni a hagyományos jogi keresőmotorok mellé. Külön kitérnek a retrieval augmented generation (RAG) technikára, amely során a nyelvi modell további háttértudást kap keresési referenciák formájában.
Felvetődik a kérdés, mennyire tudják ezek a rendszerek csökkenteni a hallucinációkat, illetve mennyire hirdetik magukat túlzóan a szolgáltatók. Érdekes ellentétek jelennek meg az akadémiai kutatók, a fejlesztőcégek és a jogi szakma között, valamint szó esik arról, hogy önmagában a mesterséges intelligenciától mennyire várható el, hogy komplex jogi feladatokat pontosan és hibamentesen oldjon meg.
A videó több konkrét terméket vet össze, kiemelve a jogi kontextusban jelentkező nehézségeket: például, hogy a jogi kérdések gyakran nem rendelkeznek egyértelmű válasszal, valamint a szakmai tudás és az emberi ítélőképesség szerepe sem hagyható figyelmen kívül az ilyen rendszerek sikeres alkalmazása során.