Az Alibaba nemrég mutatta be új, Tongyi DeepResearch nevű modelljét, amely a mesterséges intelligencia, azon belül is a nagy nyelvi modellek (LLM) élvonalába tartozik. A Tongyi kifejezés mélyebb megértést jelent kínaiul, és a projekt célja is éppen ez: erőteljesen támogatja a hosszú távú, összetett kutatómunkát, valamint stratégiai elemzéseket, amelyek túlmutatnak az általános felhasználási területeken.
Kiemelkedő technológiai megoldásokat alkalmaz, például automatizált szintetikus adatigenerálást és nagyléptékű, folyamatos előtanulást. A modell testreszabott, csoportosított megerősítéses tanulási módszereivel képes kiemelkedő teljesítményt nyújtani bonyolult keresési és elemzési feladatokban is. Két különböző inferenciaüzemmód támogatja a rugalmas kutatási folyamatokat: az egyik a logikai gondolkodást helyezi középpontba, míg a másik a teljesítmény maximalizálását célozza, skálázható módon.
A fejlesztés integrál más, korábban már bemutatott eszközöket is, mint például a Web Agent, amelynek alapjait szintén az Alibaba csapata készítette. Szó esik különféle benchmark eredményekről, ahol a Tongyi DeepResearch modell jelentős eredményeket ért el a kutatási és böngészési feladatokban, versenyre kelve több nemzetközi referenciával.
Gyakorlati útmutatót is kapunk a videóban: hogyan telepíthető és működtethető helyileg a modell, miként építhetünk vele mély kutatási infrastruktúrát saját alkalmazásainkhoz, valamint milyen hardveres és szoftveres követelményekre kell felkészülni, például Nvidia H100 GPU és Python 3.10, illetve hogyan keverhetjük egyéni API kulcsainkat a működéshez. Külön figyelmet kap a VRAM-fogyasztás, valamint bemutatásra kerül a saját pipelinet és eszközintegráció is.
További érdekes kérdések is felmerülnek: miként tehetjük még hatékonyabbá a komplex adatelemzést ezekkel az ügynöki képességekkel, hogyan segítenek ezek a specializált modellek a tudományos vagy technológiai kutatásokban, illetve milyen módon integrálhatjuk saját ökoszisztémánkba a Tongyi DeepResearch-t egyedi workflow-k kialakításához.