Die Ethernet-Netzwerkkarte ConnectX-5 MCX516A-CCAT bietet leistungsstarke und flexible Lösungen mit bis zu zwei 100GbE Port mit 750ns Latenz und bis zu 148 Millionen Nachrichten pro Sekunde (Mpps). Für Speicher-Workloads bietet die 100-Gigabit-Ethernet-Karte eine Reihe innovativer Beschleunigungsfunktionen, wie z. B. Signature Handover (T10-DIF) in Hardware, einen eingebetteten PCIe-Switch und NVMe over Fabric-Target-Offloads.

Klicken Sie auf das Bild, um es zu vergrößern.






NVIDIA Mellanox MCX516A-CCAT ConnectX®-5 EN Netzwerkkarte, 100GbE Dual-Port QSFP28, PCIe3.0 x16, Tall Bracket
NVIDIA Mellanox MCX516A-CCAT ConnectX®-5 EN Netzwerkkarte, 100GbE Dual-Port QSFP28, PCIe3.0 x16, Tall Bracket
Produktmerkmale

RDMA über konvergentes Ethernet (RoCE)
TCP/UDP/IP Stateless Offload
LSO, LRO, Checksum Offload
RSS (auch auf gekapselte Pakete), Einfügen/Entfernen von TSS-, HDS-, VLAN- und MPLS-Tags, Receive Flow Steering
Data Plane Development Kit (DPDK) für Kernel-Bypass-Anwendungen
Open VSwitch (OVS) Offload mit ASAP2
Intelligente Interrupt-Koaleszenz
Header-Rewrite-unterstützte Hardware-Offload des NAT-Routers

NVMe over Fabric-Offloads für die Zielmaschine
T10 DIF
Signature-Handover-Operation mit Drahtgeschwindigkeit für den ein- und ausgehenden Verkehr
Speicher-Protokolle, SRP, iSER, NFS RDMA, SMB Direct, NVMe-oF

Mellanox ASAP²
Single Root IOV
Adressübersetzung und -schutz
Unterstützt VMware NetQueue
Virtualization hierarchies
Konfigurierbare und vom Benutzer programmierbare QoS
Garantierte QoS für VMs
Anwendungslösung






Merkmale
Mit RDMA kann der Netzwerkverkehr die CPU umgehen, die Verwendung von TCP vermeiden und zusätzliche Kopien der Daten eliminieren, um die Leistung zu steigern und CPU-Kerne freizugeben.
Die fortschrittlichste Netzwerkkarte ermöglicht mehrere Offloads, einschließlich VXLAN, NVMEoF usw. in Netzwerkkartenhardware, um CPU-Ressourcen des Servers zu sparen. Sie konzentriert sich mehr auf die Datenverarbeitung und reduziert die Gesamtbetriebskosten in den Bereichen HPC, AI, Computing, Speicher und Netzwerk.
Mellanox-Ethernet-Adapterkarten werden getestet, um alle gängigen Geräte auf dem Markt zu unterstützen, z. B. Dell-, HPE-, Supermicro-, Cisco-Server usw.
Controller | ConnectX®-5 | ConnectX®-4 Lx | ConnectX®-5 | ConnectX®-5 | ConnectX®-6 Dx |
Ports | Dual-Port | Dual-Port | Dual-Port | Single-Port | Dual-Port |
Unterstützt Ethernet-Geschwindigkeit | 100/50/40/25/10/1GbE | 25/10/1GbE | 25/10/1GbE | 100/50/40/25/10/1GbE | 100/50/40/25/10/1GbE |
Typ der Systemschnittstelle | PCIe 3.0 x16 (8,0GT/s) | PCIe 3.0 x8 (8,0GT/s) | PCIe 3.0 x8 (8,0GT/s) | PCIe 3.0 x16 (8,0GT/s) | PCIe 4.0 x16 (16,0GT/s) |
RDMA over Converged Ethernet (RoCE) | |||||
Zero Touch RoCE (ZTR) | |||||
ASAP2 (Virtual Switch offload) | — | ||||
SR-IOV | |||||
Hardwarebasierte E/A-Virtualisierung | |||||
NVMe-oF Target Offload | — | ||||
Burst Buffer Offloads | — | ||||
Hardware Offload von VXLAN, NVGRE, und GENEVE Overlay Netzwerken | — |
Videos
NVIDIA Mellanox MCX516A-CCAT ConnectX®-5 EN Netzwerkkarte, 100GbE Dual-Port QSFP28, PCIe3.0 x16, Tall Bracket
Die Ethernet-Netzwerkkarte ConnectX-5 MCX516A-CCAT bietet leistungsstarke und flexible Lösungen mit bis zu zwei 100GbE Port mit 750ns Latenz und bis zu 148 Millionen Nachrichten pro Sekunde (Mpps). Für Speicher-Workloads bietet die 100-Gigabit-Ethernet-Karte eine Reihe innovativer Beschleunigungsfunktionen, wie z. B. Signature Handover (T10-DIF) in Hardware, einen eingebetteten PCIe-Switch und NVMe over Fabric-Target-Offloads.
Produktmerkmale

RDMA über konvergentes Ethernet (RoCE)
TCP/UDP/IP Stateless Offload
LSO, LRO, Checksum Offload
RSS (auch auf gekapselte Pakete), Einfügen/Entfernen von TSS-, HDS-, VLAN- und MPLS-Tags, Receive Flow Steering
Data Plane Development Kit (DPDK) für Kernel-Bypass-Anwendungen
Open VSwitch (OVS) Offload mit ASAP2
Intelligente Interrupt-Koaleszenz
Header-Rewrite-unterstützte Hardware-Offload des NAT-Routers

NVMe over Fabric-Offloads für die Zielmaschine
T10 DIF
Signature-Handover-Operation mit Drahtgeschwindigkeit für den ein- und ausgehenden Verkehr
Speicher-Protokolle, SRP, iSER, NFS RDMA, SMB Direct, NVMe-oF

Mellanox ASAP²
Single Root IOV
Adressübersetzung und -schutz
Unterstützt VMware NetQueue
Virtualization hierarchies
Konfigurierbare und vom Benutzer programmierbare QoS
Garantierte QoS für VMs






Mit RDMA kann der Netzwerkverkehr die CPU umgehen, die Verwendung von TCP vermeiden und zusätzliche Kopien der Daten eliminieren, um die Leistung zu steigern und CPU-Kerne freizugeben.
Die fortschrittlichste Netzwerkkarte ermöglicht mehrere Offloads, einschließlich VXLAN, NVMEoF usw. in Netzwerkkartenhardware, um CPU-Ressourcen des Servers zu sparen. Sie konzentriert sich mehr auf die Datenverarbeitung und reduziert die Gesamtbetriebskosten in den Bereichen HPC, AI, Computing, Speicher und Netzwerk.
Mellanox-Ethernet-Adapterkarten werden getestet, um alle gängigen Geräte auf dem Markt zu unterstützen, z. B. Dell-, HPE-, Supermicro-, Cisco-Server usw.
Controller | ConnectX®-5 | ConnectX®-4 Lx | ConnectX®-5 | ConnectX®-5 | ConnectX®-6 Dx |
Ports | Dual-Port | Dual-Port | Dual-Port | Single-Port | Dual-Port |
Unterstützt Ethernet-Geschwindigkeit | 100/50/40/25/10/1GbE | 25/10/1GbE | 25/10/1GbE | 100/50/40/25/10/1GbE | 100/50/40/25/10/1GbE |
Typ der Systemschnittstelle | PCIe 3.0 x16 (8,0GT/s) | PCIe 3.0 x8 (8,0GT/s) | PCIe 3.0 x8 (8,0GT/s) | PCIe 3.0 x16 (8,0GT/s) | PCIe 4.0 x16 (16,0GT/s) |
RDMA over Converged Ethernet (RoCE) | |||||
Zero Touch RoCE (ZTR) | |||||
ASAP2 (Virtual Switch offload) | — | ||||
SR-IOV | |||||
Hardwarebasierte E/A-Virtualisierung | |||||
NVMe-oF Target Offload | — | ||||
Burst Buffer Offloads | — | ||||
Hardware Offload von VXLAN, NVGRE, und GENEVE Overlay Netzwerken | — |
Fragen & Antworten
Bewertungen
D***e
Indonesia
A***z
Austria
B***s
United States
Ressourcen
898,00 € (exkl. MwSt.)
1.068,62 € (inkl. MwSt.)