Alle 14 Tage aktuelle News aus der IT-Szene >
Auf der Dell Technologies World 2025 in Las Vegas stellte Dell Technologies umfassende Neuerungen seiner Dell AI Factory vor. Mit neuen Servern, mobilen Workstations, Softwareplattformen und Partnerlösungen soll der Einsatz von Künstlicher Intelligenz für Unternehmen jeder Größe erleichtert werden.
Foto: Dell
Jeff Clarke, Chief Operating Officer von Dell Technologies
Foto: Dell
Die mobile Workstation Dell Pro Max Plus ist mit einer Qualcomm AI 100 PC Inference Card ausgestattet. Die Kombination ermöglicht es Unternehmen, am Edge Inferencing mit großen KI-Modellen durchzuführen
Foto: Dell
Dell PowerEdge XE9785L für mehr Leistung und Effizienz im Rechenzentrum
Foto: Dell
Das in sich geschlossene Luftstromsystem des Dell PowerCool Enclosed Rear Door Heat Exchanger (eRDHx) nimmt einhundert Prozent der von der IT erzeugten Wärme auf und kann damit die Energiekosten für die Kühlung um bis zu 60 Prozent reduzieren.
Mit einer Reihe neuer Produkte und Services baut Dell Technologies seine Dell AI Factory weiter aus. Die vorgestellten Innovationen zielen darauf ab, Künstliche Intelligenz leichter zugänglich zu machen – von der Modellentwicklung bis hin zum operativen Einsatz. Im Fokus stehen eine leistungsfähige und energieeffiziente Infrastruktur, ein erweiterter Software-Stack sowie engere Kooperationen mit Technologiepartnern. „Unsere neuesten Entwicklungen erstrecken sich von leistungsstarken KI-PCs bis hin zu hochmodernen Rechenzentrumslösungen und helfen Unternehmen aller Größen dabei, KI reibungslos einzuführen, ihre Effizienz zu verbessern und schnelle Ergebnisse zu erzielen“, sagt Jeff Clarke, Chief Operating Officer von Dell Technologies.
Ein Highlight des neuen Angebots ist die mobile Workstation Dell Pro Max Plus, die mit einer dedizierten Enterprise-Klasse-NPU ausgestattet ist. Die integrierte Qualcomm AI 100 PC Inference Card verfügt über 32 KI-Kerne und 64 GB RAM. Damit ist es möglich, große KI-Modelle direkt am Edge auszuführen – ein Szenario, das bisher der Cloud vorbehalten war.
Auch für das Rechenzentrum gibt es Neuheiten: Der PowerCool Enclosed Rear Door Heat Exchanger (eRDHx) nutzt ein geschlossenes Luftstromsystem, das laut Herstellerangaben die gesamte IT-Abwärme aufnehmen kann. Das soll die Kühlkosten um bis zu 60 Prozent senken. Künftig wird diese Technologie in den IR7000-Racks eingesetzt und durch den Dell Integrated Rack Controller ergänzt, der Funktionen wie Leckerkennung und Wärmeüberwachung auf Rack-Ebene ermöglicht.
Zusätzlich erhalten die Servermodelle PowerEdge XE9785 und XE9785L Support für AMD Instinct MI350 Series GPUs mit je 288 GB HBM3e-Speicher. Sie stehen in luft- und flüssigkeitsgekühlten Varianten zur Verfügung.
Die Dell AI Data Platform wird aktualisiert, um den Zugriff auf strukturierte und unstrukturierte Daten über den gesamten KI-Lebenszyklus hinweg zu verbessern. Mit Project Lightning enthält sie ein neues paralleles Filesystem, das laut ersten Tests die Trainingszeiten deutlich verkürzt und bis zu doppelt so hohe Datendurchsätze wie bisherige Systeme bietet.
Das Dell Data Lakehouse erhält ebenfalls neue Funktionen zur Unterstützung von Anwendungen wie Recommendation Engines und semantischer Suche. Zudem werden die Dell Linear Pluggable Optics eingeführt, die den Energieverbrauch im High Performance Computing senken und gleichzeitig die Latenzen reduzieren sollen. Für umfassenden Schutz sorgen die neuen Dell AI Security and Resilience Services, die alle Daten, Modelle und Anwendungen innerhalb der KI-Infrastruktur absichern.
Dell Technologies setzt verstärkt auf enge Partnerschaften, um KI-Lösungen besser in bestehende IT-Landschaften integrieren zu können. Neu ist unter anderem eine On-Premises-Version der Plattform Cohere North zur Automatisierung intelligenter Workflows.
Google Gemini und Google Distributed Cloud sind ab sofort auf den Servern PowerEdge XE9680 und XE9780 verfügbar, um datennahe Innovation zu ermöglichen. Darüber hinaus unterstützen die KI-Lösungen von Dell nun auch Llama 4-Modelle sowie den neuen Llama-Stack von Meta. Eine weitere neue On-Premises-Architektur betrifft die Work-AI-Plattform von Glean, und zusammen mit Mistral AI werden Lösungen für Wissensmanagement und sichere KI-Anwendungen angeboten.
Mit dem Software-Stack von Red Hat wird die Plattform zusätzlich für den Betrieb geschäftskritischer Anwendungen geöffnet.
Im Rahmen der Zusammenarbeit mit AMD wird die Dell AI Platform with AMD um 200 GB zusätzlichen Speicherdurchsatz erweitert. Der aktualisierte ROCm Open Software Stack ermöglicht dabei eine effizientere Verwaltung von LLM-Workflows. Gemeinsam bieten Dell und AMD außerdem leistungsoptimierte Container und Day-Zero-Support für Modelle wie Llama 4 an.
Mit der neuen Dell AI Platform mit Intel lassen sich auf Basis der Intel Gaudi 3 AI Accelerators skalierbare KI-Infrastrukturen aufbauen. Ergänzt wird das Portfolio durch Weiterentwicklungen in Zusammenarbeit mit NVIDIA sowie durch Updates der Edge-Plattform Dell NativeEdge, um auch KI-Anwendungen außerhalb des Rechenzentrums effizient umzusetzen.