Az open source mesterséges intelligencia területén egy új, figyelemre méltó szereplő bukkant fel: a Stanford Egyetem Marin projektje. Ez egy kollaboratív kutatólabor, amely 2025-ben indult a Center for Research on Foundation Models égisze alatt, Percy Liang vezetésével. Céljuk, hogy teljesen átlátható módon fejlesszenek nagy nyelvi modelleket az alapoktól kezdve.
Kiemelkedő eleme a kezdeményezésnek, hogy minden fejlesztési lépést nyilvánosan dokumentálnak és tesznek közzé: a kódot, az adatkészleteket, a kísérleti eredményeket, valamint a kudarcokat és sikeres próbálkozásokat egyaránt. Bárki beszállhat a munkába GitHubon vagy Discordon, sőt, a legjobb tréningmódszereket versenyeken is keresik, ahol a nyertesek ingyenes számítási kapacitást kapnak.
A projekt zászlóshajója egy 32 milliárd paraméteres nyelvi modell, amelynek átláthatósága és teljes nyitottsága új mércét állít ebben a kategóriában. A fejlesztést teljes mértékben reprodukálhatónak tervezték, és bármely kutató vagy fejlesztő építhet rá. A Marin modell különösen jól teljesít matematikai, kódolási és ismeretalapú feladatokban. Az architektúrát tekintve egy Quen 3 típusú transformer, mely részletesen dokumentált paraméterekkel és tréningfázisokkal rendelkezik.
Érdemes említést tenni az európai AI-közösségről is, amely ugyancsak jelentős áttörésről számolt be. Például a Giga Chat Ultra modell, amely egy 700 milliárd paraméteres alapmodell, teljesen nyílt licenccel. Eközben a kínai laboratóriumok – mint például az Alibaba Quen széria, a Deep Seek vagy a Moonshot – továbbra is uralják a nyílt AI-modell piacát, folyamatos innovációval és szabad hozzáféréssel.
A videó végigjárja a Marin projekt jelentőségét, a fejlesztés átláthatóságát, a kutatói közösség bevonását, és azt a kérdést, képesek-e a nyugati laborok valódi alternatívát kínálni a kínai AI-vezetésnek. Emellett kibontja, milyen lehetőségeket rejt egy ilyen, teljesen nyílt fejlesztésű alapmodell a fejlesztők és kutatók számára.










