A
A
  • Angol
  • Magyar
  • 14 perc

Microsoft Maya 200: Az új AI gyorsítóchip a felhőszolgáltatások élén

Az AI hardverek piacán megjelent a Microsoft Maya 200 gyorsítóchipje, amely új megoldásokat ígér a felhőszolgáltatók számára. A videóban a piac főbb szereplőinek fejlesztései és műszaki kérdések is terítékre kerülnek.

Az AI gyorsítóchipek piacán jelenleg az Nvidia Blackwell áll a középpontban, azonban más nagyvállalatok – mint például a Microsoft, az AMD, az Amazon és a Google – szintén jelentős fejlesztésekkel mozgatják meg a szegmens befektetőit és a szakmai közvéleményt. Ezek a cégek saját hardverplatformokat terveznek és dobnak piacra, miközben a gyártás és fejlesztés háttérfolyamataiban olyan ipari partnerek is feltűnnek, mint a Broadcom vagy a Marvell.

Kiemelt téma a Microsoft második generációs Maya 200 gyorsítója, amely új, 3 nanométeres gyártástechnológián alapul, és a modern adatközpontok számára kínál dedikált inferencia teljesítményt, fokozott hatékonysággal. Az eszköz jelentős memóriakapacitással, fejlett memóriakezelő architektúrával, széles körű hálózati integrációval rendelkezik – például 28 darab 400 gigabites Ethernet porttal és nagy sávszélességű skálázási lehetőségekkel.

A videóban további rivális fejlesztéseket is bemutatnak, például az AMD MI-szériát, a Google TPU-t (különösen a V7 Ironwood kiadást), illetve az Amazon Tranium és Inferentia processzorait is. Felmerülnek izgalmas kérdések a chipek tokozásával, gyártástechnológiáival, és azzal kapcsolatban, hogy miként érdemes egy ilyen új generációs gyorsítót tömegesen telepíteni a felhőalapú infrastruktúrákhoz.

Szó esik arról is, hogy a gyors GPU- és AI-chip-fejlesztések milyen szerepet töltenek be az adatközponti és felhőszolgáltatások jövőjében, illetve hogy az új, specializált hardverek milyen szoftveres környezetet, fejlesztői eszközöket és támogatást igényelnek.