A beszélgetés középpontjában a mesterséges intelligencia alapú chipek fejlődése áll, ahol a SambaNova vezérigazgatója, Rodrigo Liang azt taglalja, hogyan próbálják technológiájukkal felvenni a versenyt az Nvidia piacvezető GPU-ival.
Kiemeli, hogy a modern AI-használatban egyre hangsúlyosabb szerepet kap a valós idejű modellek használata, vagyis az ‘inferencia’, amely eltérő hardveres elvárásokat támaszt az eddigi, főleg modelltréningre optimalizált architektúrákkal szemben. Az energiafogyasztás, a teljesítmény és az elérhetőség kulcskérdéssé vált, ahogy az AI-technológiák a laboratóriumokból a való világba kerülnek.
Liang bemutatja a SambaNova új, adatáramlás-alapú chiparchitektúráját, amely célzottan az inferenciára van optimalizálva, így lényegesen gyorsabb és energiahatékonyabb lehet a jelenlegi GPU-alapú megoldásoknál. Ez komoly gazdasági és technológiai változásokat ígér az adatközpontok és a szuverén felhőszolgáltatások számára.
A beszélgetés további érdekességeket taglal a SambaNova és az Intel friss partnerkapcsolatáról, valamint arról, hogy a különféle országok miért keresnek saját AI-megoldásokat szuverén, biztonságos adatkezelés céljából. A videó megvizsgálja, hogyan alakítja át egy új chiparchitektúra a nemzetközi adatközpontokat, és milyen kihívásokkal néznek szembe a szolgáltatók a prémium AI-szolgáltatások bevezetésekor.








