NVIDIA DGX GB200

SKU
DGX GB200
Devis
EAN: 24794
État: Nouveau
Stock: Disponible sur commande
Lead time: 14-21 jours

The NVIDIA DGX GB200 is a cutting-edge, rack-scale AI infrastructure designed to handle the most demanding generative AI workloads, including training and inference of trillion-parameter models. Each liquid-cooled rack integrates 36 NVIDIA GB200 Grace Blackwell Superchips—comprising 36 Grace CPUs and 72 Blackwell GPUs—interconnected via fifth-generation NVLink to deliver up to 1.8 TB/s of GPU-to-GPU bandwidth.

Équipement NVIDIA — Il s'agit de plates-formes de traitement de données hautement productives, développées conformément aux exigences modernes des systèmes informatiques dans les domaines de l'intelligence artificielle, de la recherche, de l'automatisation industrielle et de l'analyse d'entreprise.. Architecture utilisée — Hopper, Grace Hopper, Blackwell — fournir une densité de calcul, une efficacité énergétique et une évolutivité élevées.

Les solutions NVIDIA se concentrent sur la prise en charge complète des tâches d'apprentissage et des réseaux neuronaux, notamment les grands modèles de langage, l'intelligence artificielle générative, la vision par ordinateur, le traitement du langage naturel, la modélisation et la virtualisation des processus..

Principales fonctionnalités des plateformes:

  • Prise en charge des technologies Hopper, Grace, Blackwell et Orin

  • L'utilisation de processeurs graphiques avec interfaces NVLink/NVSwitch pour une interaction accélérée entre GPU

  • Mémoire HBM3 ou HBM3e avec une bande passante élevée

  • Capacité à créer des clusters à grande échelle, combinés en un seul nœud informatique

  • Compatibilité avec NVIDIA AI Enterprise, CUDA, Triton Inference Server, TensorRT, RAPIDS et autres bibliothèques

Portée de l'équipement NVIDIA:

  • Formation et Infession de Modèles de Modélisation et d'Intelligence Artificielle

  • Modélisation et simulation de processus dans des tâches scientifiques et d'ingénierie

  • Automatisation des processus de production et des complexes robotiques

  • Créer des doubles numériques d'objets et de chaînes technologiques

  • Traitement de grands ensembles de données et calculs analytiques à forte charge

  • Rendu graphique, modélisation 3D, simulation et visualisation de processus physiques

Un bref aperçu des principales lignes d'équipement:

  • HGX — Plateformes de serveurs pour centres de traitement de données conçues pour construire une infrastructure d'intelligence artificielle à grande échelle. Utilisé dans les solutions de rack et les centres obsolètes.

  • DGX — Systèmes NVIDIA prêts pour AI-Clea. Ce sont des solutions préconfigurées avec une productivité maximale pour enseigner de grands modèles. Appliqué dans les centres scientifiques, les laboratoires et le secteur des entreprises.

  • IGX Orin — Plateforme industrielle pour systèmes d'intelligence artificielle embarqués. Utilisé en médecine, automatisation, transport, systèmes de sécurité.

  • GH200 / GB200 / GB300 — superflys nouvelle génération qui combinent CPU et GPU dans un seul module de calcul avec une mémoire cohérente. Appliqué dans le cluster AI, les solutions cloud, LLM-mannequins et doubles numériques.

  • RTX Workstation — Processeurs graphiques professionnels pour postes de travail. Conçu pour les spécialistes du design, du graphisme, 3D, CAD et visualisation. Assurer un traitement accéléré des applications professionnelles et des tâches d'IA.

  • GeForce RTX pour une note TbMême — processeurs graphiques mobiles conçus pour les tâches gourmandes en ressources: Jeux, Rendu, Modélisation, Application IA au niveau Utilisateur.

Avantages liés à l'utilisation d'équipements NVIDIA:

  • Productivité maximale pour les tâches d'intelligence artificielle et d'apprentissage automatique

  • Optimisation de l'infrastructure pour l'utilisation des modèles de nouvelle génération.

  • Haute évolutivité — d'un nœud au cluster II

  • Compatibilité avec les principaux frameworks et logiciels

  • Prise en charge des solutions d'entreprise et de l'infrastructure informatique

  • Perspectives pour la construction de centres de données modernes et d'informatique de pointe.

Caractéristiques NVIDIA DGX GB200:

Component Specification
Superchips per Rack 36 NVIDIA GB200 Grace Blackwell Superchips
CPU 36 NVIDIA Grace CPUs
GPU 72 NVIDIA Blackwell GPUs
GPU Memory Up to 13.4 TB HBM3e
GPU Memory Bandwidth 576 TB/s
CPU Memory Up to 17 TB LPDDR5X
CPU Memory Bandwidth 18.4 TB/s
GPU-to-GPU Interconnect Fifth-generation NVLink, 1.8 TB/s per GPU
Total NVLink Bandwidth 130 TB/s
Performance (FP8) Up to 720 PFLOPS
Performance (FP4) Up to 1,440 PFLOPS
Networking NVIDIA Quantum InfiniBand, up to 800 Gb/s per port
Cooling Liquid-cooled rack-scale system
Management Intelligent control plane with predictive analytics
Scalability Connect multiple racks to scale to hundreds of thousands of GB200 Superchips

Код товару 24794
Producteur Nvidia