Kompletní řešení datového centra na klíč zrychluje dodávku pro kritické podnikové případy a eliminuje složitost budování velkého clusteru, což dříve bylo možné pouze prostřednictvím intenzivního ladění návrhu a časově náročné optimalizace superpočítačů.

Nejvyšší výpočetní hustota

S 32 NVIDIA HGX H100/H200 8-GPU, 4U kapalinou chlazených serverů (256 GPU) v 5 rozvaděčích

  • Zdvojnásobení hustoty výpočtů pomocí vlastního řešení kapalinového chlazení Supermicro s až 40% úsporou nákladů na elektřinu pro datové centrum
  • 256 GPU NVIDIA H100/H200 v jedné škálovatelné jednotce
  • 20 TB HBM3 s H100 nebo 36 TB HBM3e s H200 v jedné škálovatelné jednotce
  • 1:1 síťování ke každému GPU pro umožnění NVIDIA GPUDirect RDMA a Storage pro trénink velkých jazykových modelů s až trilióny parametry
  • Přizpůsobitelná infrastruktura úložiště pro datové AI pipeline s předními možnostmi paralelního souborového systému
  • Připraveno na software NVIDIA AI Enterprise

 

Prověřený design

 S 32 NVIDIA HGX H100/H200 8-GPU, 8U vzduchem chlazených serverů (256 GPU) v 9 rozvaděčích

  • Osvědčená špičková architektura pro nasazení infrastruktury AI ve velkém měřítku
  • 256 GPU NVIDIA H100/H200 v jedné škálovatelné jednotce
  • 20 TB HBM3 s H100 nebo 36 TB HBM3e s H200 v jedné škálovatelné jednotce
  • 1:1 síťování ke každému GPU pro umožnění NVIDIA GPUDirect RDMA a Storage pro trénink velkých jazykových modelů s až trilióny parametry
  • Přizpůsobitelná infrastruktura úložiště pro datové potrubí AI s předními možnostmi paralelního souborového systému
  • Připraveno na software NVIDIA AI Enterprise

 

Inference ve škále cloudu

S 256 NVIDIA GH200 Grace Hopper Superčipy, 1U MGX servery v 9 rozvaděčích

  • Sjednocená paměť GPU a CPU pro cloudové vysokoobjemové inference s nízkou latencí a vysokou velikostí dávky
  • 1U vzduchem chlazené systémy NVIDIA MGX v 9 racích, 256 superčipů NVIDIA GH200 Grace Hopper v jedné škálovatelné jednotce
  • Až 144 GB HBM3e + 480 GB LPDDR5X, dostatek kapacity na umístění modelu s více než 70B parametry do jednoho uzlu
  • Síťování bez blokování 400 Gb/s InfiniBand nebo Ethernet připojené k síťové infrastruktuře typu spine-leaf
  • Přizpůsobitelná infrastruktura úložiště pro datové potrubí AI s předními možnostmi paralelního souborového systému
  • Připraveno na software NVIDIA AI Enterprise

 

Chcete se dozvědět více?

Neváhejte se obrátit na náš obchodní tým, který vám poskytne kompletní informace a podporu.