Az Nvidia új, Vera Rubin névre keresztelt, rack méretű AI rendszerét bemutató anyag izgalmas betekintést nyújt a következő generációs adatközpont-architektúrák világába. A fejlesztések középpontjában az energiahatékonyság és a teljesítmény látványos növelése áll: a Rubin rendszer akár tízszeres hatékonyságot is elérhet watt/AI teljesítmény viszonylatában az előző generációhoz, a Blackwellhez képest.
Az architektúra tervezése során nemcsak az alkatrészek számát és típusát érintő komplexitásra, hanem globális ellátási lánc és logisztikai kihívásokra is fókuszálnak. A Rubin rendszer több mint 1,3 millió alkatrészből, több tucat beszállítótól, több mint húsz ország együttműködésében épül fel, ami számos kockázatot is felvet. A memóriahiány, az extrém gyártási igények és a tarifák mind hatással vannak a rendszer szállítására és árképzésére.
Kiemelt téma a folyadékhűtéses technológia teljes körű alkalmazása, amely egyszerre szolgálja a hatékony hűtést és segítheti az adatközpontok vízfogyasztásának csökkentését. Emellett rávilágítanak a moduláris dizájn előnyeire, többek közt a gyors szervizelhetőségre és bővíthetőségre.
A műsor érdekes versenyképet is vázol: az AMD Helios rendszere, az AWS saját Trainium chipjei, a Google Tensor Processing Unitjei mind alternatívát kínálnak, miközben a Rubin ökoszisztéma integrációs előnyeit hangsúlyozzák. Felmerül a kérdés, valóban behozhatja-e a riválisok fejlesztési ütemét, illetve hogyan formálja át az ilyen nagy léptékű AI rendszerek a globális technológiai piacot és az adatközpontok felépítését a közeljövőben.









