Mit der Kombination aus disaggregiertem Storage, integrierter KI-Datenverarbeitung und Cloud-Anbindung positioniert sich NetApp als Anbieter einer vollständigen Datenplattform für Enterprise-KI. Die vorgestellten Lösungen sollen es Unternehmen ermöglichen, Datenströme effizienter zu orchestrieren – von der Erfassung über Analyse bis zur KI-Inferenz.
Foto: Netapp
Foto: Netapp
NetApp hat auf der Konferenz INSIGHT 2025 in Las Vegas eine Reihe neuer Produkte vorgestellt, die gezielt auf den Betrieb moderner KI-Workloads ausgerichtet sind. Mit den AFX-Systemen und der NetApp AI Data Engine (AIDE) positioniert sich der Anbieter als Infrastrukturlieferant für Unternehmen, die große Mengen unstrukturierter Daten für Künstliche Intelligenz effizient managen und nutzen wollen.
Die AFX-Systeme bilden das Zentrum der neuen KI-Plattform. Das disaggregierte All-Flash-Storage-System basiert auf dem NetApp-Betriebssystem ONTAP und ermöglicht eine unabhängige Skalierung von Leistung und Kapazität. Laut Unternehmensangaben lassen sich bis zu 128 Nodes zu einem Cluster zusammenschließen – mit einer Gesamtkapazität im Exabyte-Bereich und Bandbreiten im Terabyte-pro-Sekunde-Segment.
Das AFX 1K-System ist als zertifizierter Speicher für NVIDIAs DGX SuperPOD ausgelegt. Neben klassischen Storage-Controllern können zusätzliche Data-Compute-Nodes (DX50) integriert werden, die unter anderem eine Metadaten-Engine für die Echtzeit-Katalogisierung von Unternehmensdaten bereitstellen.
Die neue AI Data Engine (AIDE) erweitert die Datenplattform um eine durchgängige Pipeline für KI-Daten – von der Aufnahme über die Aufbereitung bis zur Bereitstellung für KI-Anwendungen. Sie basiert auf dem NVIDIA-Referenzdesign „AI Data Platform“ und nutzt NVIDIA-AI-Enterprise-Software sowie NIM-Microservices.
Die Engine ermöglicht semantische Suche, Vektorisierung und Retrieval-Augmented Generation (RAG). Durch kontinuierliche Synchronisation und automatisches Erkennen von Datenänderungen werden redundante Kopien vermieden. Datenschutzrichtlinien begleiten die Daten über ihren gesamten Lebenszyklus. AIDE läuft nativ auf den AFX-Clustern und nutzt optional die DX50-Knoten für Compute-intensive Aufgaben.
Für Kunden in der Microsoft-Cloud bietet NetApp eine neue Object REST API im Public Preview an. Darüber können Anwendungen wie Azure OpenAI, Azure Databricks oder Azure Synapse direkt auf Daten in Azure NetApp Files zugreifen – ohne zusätzliche Kopien in separaten Objektspeichern.
Zudem erlaubt ein globaler Unified Namespace in Azure die verzögerungsfreie Nutzung von ONTAP-Daten über verschiedene Standorte und Clouds hinweg. Die FlexCache-Funktion ermöglicht so etwa hybride Workloads für Electronic Design Automation oder KI-Analytik.
NVIDIA spielt eine zentrale Rolle in der neuen Produktgeneration. Neben der Zertifizierung für SuperPOD sind GPUs und NIM-Software in die Data-Compute-Nodes integriert. Zukünftige Versionen sollen zudem NVIDIA RTX Pro 6000 Blackwell GPUs unterstützen. Laut NVIDIA-Vizepräsident Justin Boitano bildet die Integration die Basis für eine „KI-native Storage-Plattform“, die unstrukturierte Unternehmensdaten umfassend indexieren und durchsuchen kann.
Unternehmen können die neuen Systeme entweder klassisch erwerben oder über NetApp Keystone im Storage-as-a-Service-Modell (STaaS) abonnieren. Keystone erlaubt eine nutzungsbasierte Skalierung von Leistung und Kapazität, ohne langfristige Investitionsbindung. Zudem integriert NetApp die AFX-Systeme in FlexPod AI, eine validierte Infrastruktur mit Cisco-Hardware zur vereinfachten Implementierung von KI-Umgebungen.