The NVIDIA® ConnectX®-7 MCX75310AAC-NEAT provides high-performance and flexible solutions with a single port of 400Gb connectivity and supports InfiniBand and Ethernet protocols. It enables 256 to 4Kbyte maximum transmission unit (MTU), 2Gbyte messages. For storage workloads, MCX75310AAC-NEAT provides a broad set of software-defined, hardware-accelerated networking, storage, and security capabilities, enabling organizations to modernize and secure their IT infrastructures. Moreover, ConnectX-7 empowers agile and high-performance solutions from edge-to-core data centers to clouds, all while enhancing network security and reducing the total cost of ownership.
Klicken Sie auf das Bild, um es zu vergrößern.
NVIDIA Mellanox MCX75310AAC-NEAT ConnectX®-7 InfiniBand Adapterkarte 400GbE/NDR, Single-Port OSFP, PCIe 5.0 x 16, Krypto und Secure Boot, Große und Kleine Klammer
#212165
#212165
2.722,72 € (inkl. MwSt.)
FS P/N: MCX75310AAC-NEAT
10 verkauft
0 Bewertung
2 Fragen
Models:
Vorbestellung, Versand bis 26. Mai. 2025
Mehr Lagerhäuser anzeigen
Liefern an Berlin, 10082
Kostenloser Versand per TNT Express®
1-Jahres-Garantie
NVIDIA MCX75310AAC-NEAT ConnectX-7 VPI Adapter Card, 400GbE/NDR Single-Port OSFP, PCIe 5.0 x16, Tall&Short Bracket
Spezifikationen
Marke
Nvidia
Technologie
InfiniBand
Ports
Single
Host-Schnittstelle
PCIe 5.0 x16
Datenrate
(IB) NDR/NDR200/HDR/HDR100/EDR/FDR/SDR
(Eth) 400/200/100/50/40/10/1Gb/s
(Eth) 400/200/100/50/40/10/1Gb/s
Schnittstelle Typ
OSFP
RDMA
Ja
Größe der Adapterkarte(W×D)
6.6"x2.71" (167.65mmx68.90mm)
Höhe der Halterung
Groß & Klein
Operating Temperature
0 bis 55 °C (32 bis 131 °F)
Lagertemperatur
-40 bis 70 °C (-40 bis 158 °F)
Unterstützte
Betriebssysteme
Betriebssysteme
Linux, Windows, VMware, Kubernetes
RoHS-konform
Ja
SR-IOV
Ja
Qualitätszertifizierungen
Um die detaillierte Zertifizierung zu erhalten, besuchen Sie bitte das Compliance Center.
Merkmale
ConnectX InfiniBand-Adapter bieten unvergleichliche Leistung und Effizienz
RDMA-Technologie unterstützt EDC und HPC
RDMA ermöglicht echte CPU-Offloads und Kernel-Bypass, so dass RDMA-basierte Anwendungen die HW-Ressourcen des Netzwerks besser ausnutzen und gleichzeitig die Geschwindigkeit erhöhen und die Verbindungslatenzen senken.
QoS (Quality of Service) für bessere Verkehrssteuerung
InfiniBand ist die einzige Hochleistungs-Verbindungslösung mit bewährten Quality-of-Service-Funktionen, die zu einer unübertroffenen Netzwerkeffizienz führen.
Ports | Single-Port OSFP | Single-Port OSFP | Single-Port OSFP | Single-Port QSFP112 |
PCIe Interface | PCIe 5.0x 16 | PCIe 5.0x 16 | PCIe 5.0x 16 | PCIe 5.0x 16 |
Support InfiniBand Data Rate | NDR/NDR200/HDR/HDR100/EDR/FDR/SDR | SDR/FDR/EDR/HDR/NDR/NDR200 | NDR/NDR200/HDR/HDR100/EDR/FDR/SDR | NDR/NDR200/HDR/HDR100/EDR/FDR/SDR |
Support Ethernet Data Rate | 400/200/100/50/40/10/1 Gb/s | — | 400/200/100/50/40/10/1 Gb/s | 400/200/100/50/25/10 Gb/s |
RDMA | ||||
ASAP² (Virtual Switch offload) | ||||
SR-IOV | ||||
Hardware-based I/O Virtualization |
Fragen & Antworten
Eine Frage stellen
Bewertungen
Eine Bewertung schreiben
Es gibt noch keine Bewertung für dieses Produkt. Als Erster eine Bewertung schreiben
Ressourcen
Zuletzt angesehen