Egy új kínai kvantitatív kereskedőcég, az iQuest, ismét belépett a nagy nyelvi modellek (LLM) világába, akárcsak korábban a Deepseek. A bemutatott iQuest Coder modellt különösen érdekessé teszi a code flow training paradigma, amely nem statikus kódrészletekből tanul, hanem valós fejlesztési mintázatokat, commitokat és kódváltozásokat követ nyomon.
A modell különböző feladattípusokon teljesít, például szimulációkon, ahol reális raj- vagy halviselkedés jelenik meg, vagy programozási feladatok generálásán akár sima C nyelvben, külső könyvtárak nélkül. A paraméterek és a VRAM-szükséglet is szóba kerül, sőt helyi telepítés és futtatás is bemutatásra kerül Olama és különféle GPU konfigurációkkal.
Izgalmas kérdések merülnek fel a modellek benchmarkingja, összehasonlíthatósága és valódi teljesítménye kapcsán. A videó végigjárja, mennyire meglepő, hogy egy 40 milliárd paraméteres modell képes hozni azt, amit a jóval nagyobb versenytársak (például Claude Opus 4.5), miközben a közösség számára elérhető nyílt forráskódú alternatívát nyújt.
Szó esik a fejlesztők tapasztalatairól, aggályairól is, például a benchmark-eljárások hitelességéről, valamint arról, mennyire reálisak ezek az eredmények. Végül különféle programozási és UI feladatokat tesztel a modell, példát mutatva annak kreatív képességeire és rugalmasságára.








