Tâches modernes dans le domaine des calculs hautement productifs (HPC) et intelligence artificielle (AI) Nécessitent un débit de données et une fiabilité exceptionnels des équipements réseau. Commutateurs en série NVIDIA Quantum-2 QM9700 fournir 400 GbIL/C pour chaque port, formant une base pour des centres de données et des systèmes informatiques de pointe.
Principales caractéristiques NVIDIA Quantum-2 QM9700:
La productivité maximale est de 64 ports sur 400 GbIL/C infiniband qui fournit une bande passante totale 51,2 TbIL/avec.
Technologies innovantes - accompagnement RDMA, Routage et protocole adaptatifs NVIDIA SHARPv3 Pour une agrégation accélérée des données.
Délai minimal : examens en peu de temps des processus informatiques critiques et importants.
Évolutivité – intégration avec différentes topologies (Fat Tree, SlimFly, DragonFly+ et d'autres.), ainsi qu'une compatibilité totale avec les générations précédentes NVIDIA InfiniBand.
Gestion du trafic intellectuel : algorithmes adaptatifs pour équilibrer la charge, mécanismes avancés de charge du réseau et récupération automatique en cas de panne..
Ces commutateurs offrent une accélération de 32 fois la comparaison de l'IA par rapport aux modèles précédents, réduisant ainsi la charge sur le réseau et augmentant l'efficacité du traitement de grandes quantités de données.. NVIDIA Quantum-2 QM9700 – Choix pour les spécialistes qui créent les solutions du futur dans le domaine des supercalculateurs, de l'apprentissage automatique et de la recherche.
Spécifications du commutateur NVIDIA Quantum InfiniBand MQM9700-NS2F:
| Parameter |
Description |
| Model |
NVIDIA Quantum InfiniBand MQM9700-NS2F |
| Switch Type |
Modular HDR InfiniBand Switch (Director-Class) |
| Switch ASIC |
NVIDIA Quantum |
| Total Ports |
Up to 800 × 200Gb/s HDR InfiniBand ports (fully populated) |
| Port Speed Support |
200Gb/s (HDR), backward compatible with 100Gb/s (EDR) and 40Gb/s (FDR) |
| Switch Capacity |
Up to 320 Tbps aggregate throughput |
| Chassis Form Factor |
29U modular chassis |
| Line Cards |
Supports 16 line cards, each with 40 × 200Gb/s ports |
| Fabric Latency |
Sub-130ns (port-to-port latency) |
| Cooling |
Redundant hot-swappable fan units |
| Power Supply |
Redundant hot-swappable power modules |
| Management Interfaces |
Ethernet management ports, USB, console (RS232), integrated system controller |
| Management Software |
MLNX-OS, NVIDIA UFM Enterprise, UFM Cyber-AI, Telemetry tools |
| Telemetry & Monitoring |
Real-time In-Band Network Telemetry (IBNT), congestion tracking, health reports |
| Security Features |
Secure boot, RBAC, ACLs, authenticated firmware updates |
| Dimensions (W × H × D) |
446 × 1293 × 800 mm (17.6 × 50.9 × 31.5 inches) |
| Weight |
Approx. 250–300 kg (depending on configuration) |
| Power Consumption |
Up to 15,000 W (fully populated) |
| Operating Temperature |
5°C to 35°C (41°F to 95°F) |
| Compliance |
RoHS, CE, FCC, UL, NEBS Level 3 |
| Use Case |
Exascale HPC systems, AI supercomputing clusters, cloud-scale data centers |