
NetApp A800 im Realtest: Wie viel Performance steckt im All-Flash-Array?
Der NetApp A800 ist das Top-Modell der All-Flash-A-Series mit NVMe-Backend. Im Realtest zeigt schon die Minimalkonfiguration mit zwei Controllern (HA-Pair), was drinliegt: sehr tiefe Latenzen, hohe IOPS und zweistellige GB/s – Werte aus der High-End-Liga, erzielt über Ethernet/iSCSI.
Testaufbau: Transparent und praxisnah
Getestet wurde ein A800 mit 48 NVMe-Drives à 1,9 TB (≈ 91 TB roh) in 4U. Pro Controller arbeiten 2 CPUs mit je 24 Cores (insgesamt 96 Cores im HA-Pair), dazu 1’280 GB Cache und 64 GB NVRAM. Die Anbindung erfolgte mit 8×40 Gbit Ethernet (iSCSI).
Als Lastgeneratoren dienten 3 Lenovo SR650 (2× Intel Xeon Gold 6132, 384 GB RAM), je 2×10 Gbit per iSCSI. Auf den Hosts lief VMware ESX 6.7 U1, in den VMs RHEL 7.5. Es wurden 42 LUNs à 1 TB erstellt (14 pro Server). Die Workloads wurden mit IOgen zeitlich synchronisiert über drei VMs gefahren – in zwei Ausprägungen: 4 vCPU und 48 vCPU pro VM.
Random 8 KB: Viele I/Os bei niedriger Latenz
Reads: Bei geringer Parallelität liegen die Servicezeiten bei rund 0,26 ms. Der optimale Sweetspot wurde bei ~648’000 IOPS mit ~0,59 ms erreicht; maximal waren ~733’000 IOPS bei ~1,57 ms möglich.
Writes: Starten bei etwa 0,30 ms; optimal sind ~296’000 IOPS bei ~0,65 ms. Das Maximum lag bei ~572’000 IOPS mit ~2,83 ms.
Wichtig: Die Latenzen wurden auf dem Server gemessen. Bei steigender Parallelität bleibt die Antwortzeit lange stabil und steigt erst nahe der Sättigung an – ein gutes Zeichen für Controller- und Cache-Design.
Sequential 128 KB: Zweistellige GB/s
Read: Bis ~11,5 GB/s bei rund 4,4 ms Servicezeit. Die Sättigung war bei ~16 parallelen Prozessen pro VM erreicht.
Write: Optimal ~10,4 GB/s bei ~7,4 ms; maximal ~11,0 GB/s bei ~9,4 ms.
Warum das zählt
Random-IOPS bei stabil niedriger Latenz beschleunigen OLTP- und Metadaten-lastige Workloads; hohe sequentielle Raten sind Gold wert für Backups, Analytics und Replikation. Dass der A800 diese Werte über Ethernet/iSCSI liefert, ist bemerkenswert – FC eliminiert Protokolloverhead weiter, NVMe-oF reduziert Latenzen nochmals deutlich. Zudem lässt sich der A800 zu bis zu 12 HA-Pairs (24 Controller) clustern – mit entsprechend skalierender Gesamtleistung.
Zahlen kompakt
Test | „Speed“ (1 Prozess/VM) | „Optimum“ | „Maximum“ |
---|---|---|---|
8 KB Random Read | 11’308 IOPS · 261 µs | 648’293 IOPS · 590 µs | 732’767 IOPS · 1’571 µs |
8 KB Random Write | 9’963 IOPS · 297 µs | 296’158 IOPS · 647 µs | 572’022 IOPS · 2’833 µs |
128 KB Sequential Read | 2,8 GB/s · 1’141 µs | 11,5 GB/s · 4’419 µs | 11,5 GB/s · 4’419 µs |
128 KB Sequential Write | 1,2 GB/s · 2’446 µs | 10,4 GB/s · 7’385 µs | 11,0 GB/s · 9’416 µs |
Hinweis: Alle Durchsatz-/IOPS-Werte sind die Summe über drei VMs; die Parallelität bezieht sich auf Prozesse pro VM.
Einordnung & Fazit
Schon das Dual-Controller-Setup des A800 liefert fast 0,73 Mio. Random-Reads, 0,57 Mio. Random-Writes (8 KB) und >10 GB/s in beiden Richtungen (128 KB) – mit sub-Millisekunden-Latenzen bei geringer Last. Damit ist der A800 eine starke Basis für Workloads, die konstant niedrige Antwortzeiten und hohen Durchsatz verlangen. Mit FC oder NVMe-oF ist zusätzlicher Spielraum drin; Cluster-Erweiterungen heben die Decke weiter an.
Transparenz
Das Whitepaper wurde im Auftrag von NetApp unabhängig und neutral erstellt; die Testumgebung stellte NetApp bereit.