Az AI gyorsítóchipek piacán jelenleg az Nvidia Blackwell áll a középpontban, azonban más nagyvállalatok – mint például a Microsoft, az AMD, az Amazon és a Google – szintén jelentős fejlesztésekkel mozgatják meg a szegmens befektetőit és a szakmai közvéleményt. Ezek a cégek saját hardverplatformokat terveznek és dobnak piacra, miközben a gyártás és fejlesztés háttérfolyamataiban olyan ipari partnerek is feltűnnek, mint a Broadcom vagy a Marvell.
Kiemelt téma a Microsoft második generációs Maya 200 gyorsítója, amely új, 3 nanométeres gyártástechnológián alapul, és a modern adatközpontok számára kínál dedikált inferencia teljesítményt, fokozott hatékonysággal. Az eszköz jelentős memóriakapacitással, fejlett memóriakezelő architektúrával, széles körű hálózati integrációval rendelkezik – például 28 darab 400 gigabites Ethernet porttal és nagy sávszélességű skálázási lehetőségekkel.
A videóban további rivális fejlesztéseket is bemutatnak, például az AMD MI-szériát, a Google TPU-t (különösen a V7 Ironwood kiadást), illetve az Amazon Tranium és Inferentia processzorait is. Felmerülnek izgalmas kérdések a chipek tokozásával, gyártástechnológiáival, és azzal kapcsolatban, hogy miként érdemes egy ilyen új generációs gyorsítót tömegesen telepíteni a felhőalapú infrastruktúrákhoz.
Szó esik arról is, hogy a gyors GPU- és AI-chip-fejlesztések milyen szerepet töltenek be az adatközponti és felhőszolgáltatások jövőjében, illetve hogy az új, specializált hardverek milyen szoftveres környezetet, fejlesztői eszközöket és támogatást igényelnek.








