A
A
  • Angol
  • Magyar
  • 8 perc

Intel újítása: több VRAM integrált GPU-kon az AI futtatásához

Az Intel új memóriakezelési fejlesztése lehetőséget kínál arra, hogy több VRAM-ot használjunk integrált GPU-val, megkönnyítve ezzel a helyi AI futtatását, és kihívást intézve az Nvidia piacvezető szerepéhez.

Az Intel legújabb fejlesztése egy olyan irányba tereli a GPU-piacot, amely új lehetőségeket nyit az elérhető és költséghatékony VRAM használatában, különös tekintettel a mesterséges intelligencia helyi futtatására. Egy Bob Duffy nevű felhasználó kiemelt egy képet, amely látványosan demonstrálja az Intel új, Core Ultra rendszerekbe épített „shared GPU memory override” funkcióját. Ez a technológia lehetővé teszi, hogy a rendszer RAM-jából nagyobb részt rendeljünk az integrált grafikus vezérlőhöz dedikált memóriaként.

Felmerül a kérdés, mennyire lehet áttörő ez a módszer, ha az eddigi VRAM-szűkösség korlátozta az AI-modellek helyi működtetését, és az embereket az Nvidia hardverei felé terelte. A lehetőség, hogy olcsóbb gépeken is nagyobb modelleket indítsunk el GPU-n, sokak számára elérhetővé válhat anélkül, hogy jelentős befektetést igényelne egy csúcs Nvidia kártya beszerzése.

A koncepciónak vannak előképei: az AMD már alkalmaz hasonló megoldást „variable graphics memory” néven. Az Intel azonban most kifejezetten azok felé nyit, akik lokálisan, diszkrét GPU nélkül szeretnék kihasználni az AI-fejlesztés előnyeit. Ez nagy előrelépés lehet mindazoknak, akik nemcsak játszani, hanem dolgozni is szeretnének a hardverrel.

Természetesen a rendszernek vannak korlátai: az integrált grafikus chipek sávszélessége, valamint a RAM gyorsasága továbbra is akadályt jelenthet, különösen extrém méretű modelleknél. Mégis, ez egy újabb lépés afelé, hogy az AI fejlesztéshez elegendő VRAM ne legyen kizárólag az Nvidia-kompatibilis rendszerek kiváltsága.