A
A
  • Angol
  • Magyar
  • 10 perc

Óriási AI modellek futtatása otthon, kis VRAM-mal

Az OLM nevű eszköz bemutatja, hogyan futtathatunk hatalmas mesterséges intelligencia modelleket akár egy egyszerű, 8 GB VRAM-mal rendelkező videokártyán is.

Képzeld el, hogy egy óriási, 80 milliárd paraméteres mesterséges intelligencia modellt szeretnél futtatni egy egyszerű, 8 GB VRAM-mal rendelkező videokártyán – ez az, amire a bemutatott OLM nevű eszköz lehetőséget kínál.

A videó során bemutatásra kerül, hogyan lehet az OLM Python könyvtárat helyben telepíteni és elindítani. Miközben a telepítés lépései zajlanak, a narrátor külön kitér az alkalmazás működési elvére: például, hogy az eszköz hogyan tölt be minden réteget valós időben az SSD-ről a GPU-ba, és hogyan osztja meg a memóriaterhelést a CPU RAM és a GPU között.

Az érintett témák között szerepel, miként lehet a legnagyobb modelleket, például GPT OSS 20B vagy Quen 3 Next 80B, alacsony VRAM fogyasztással futtatni, és milyen kompromisszumokat kell vállalni a sebesség vagy a teljesítmény terén. A demonstráció során egy egyszerű példán keresztül szemlélteti, miként működik az eszköz, miközben rávilágít arra is, milyen jelentősége van az új technológiáknak a gépi tanulás hozzáférhetőségének növelésében.

Felvetődik a kérdés: vajon lehetséges-e mindez gyorsan és olcsón, illetve mely technológiai újdonságok segítenek a VRAM igény minimalizálásában? A nézők betekintést kapnak az LLM-ek működésébe, és abba, hogyan lehet nagy modelleket otthoni gépükön is kipróbálni.