A
A
  • Angol
  • Magyar
  • 12 perc

OpenAI és Cerebras szövetsége: ChatGPT sebességre kapcsol

Az OpenAI és a Cerebras multimilliárdos partnerségével új korszak kezdődhet az AI-modellek sebességében és kiszolgálási kapacitásában.

Az OpenAI és a Cerebras Systems között frissen bejelentett, több milliárd dolláros együttműködést elemzi a videó, amely három év alatt hatalmas, 750 megawatt számítási kapacitás megvásárlását foglalja magában. Az együttműködés célja, hogy a gyorsabb inferenciaidő révén a ChatGPT és más AI-modellek sebességét forradalmi módon növelje.

A háttér bemutatja, hogyan jelent meg a Google Gemini 3 modellje, amely először nem Nvidia GPU-kon, hanem TPU-kon futott, és ezzel jelentős változást idézett elő a piacon. Az Nvidia válaszlépéseként egy licencmegállapodás keretében hozzájutott a Groq technológiához, felismerve a speciális chipek szerepét az AI-inferencia területén.

Az iparág egyértelműen az inference, azaz a modellek kiszolgálása felé fordul, mert ebben rejlik a valódi üzleti potenciál. A gyorsaság kérdése egyre fontosabbá válik, különösen kódolási vagy ügynöki (agent) felhasználásoknál, hiszen az azonnali válaszképesség jelentősen növeli a hatékonyságot.

Külön kitér a Cerebras chipjei által kínált technológiai előnyökre, például a memóriakezelés újszerű megoldásaira, amelyekkel elkerülik a hagyományos GPU-piac memóriakészlet-problémáit. Emellett érinti az OpenAI kapacitáskihívásait és azt, hogy az új megállapodás hogyan oldhatja fel ezeket.

A videó említéseket tesz az AI-ökoszisztéma fejlődésének irányairól, a specializált és általános chipek közötti egyensúlyról, valamint arról, hogy a verseny gyorsul a számítási kapacitásért. Ez felveti a kérdéseket: Milyen előnyei lehetnek a specializált chipek használatának, hogyan alakul az AI-piac technológiai alappilléreinek versenye, és miként profitálnak majd mindebből a felhasználók?