Alle 14 Tage aktuelle News aus der IT-Szene >
Wie Unternehmen das eigene Rechenzentrum als Innovationsmotor nutzen können, erklärt Peter Hermann, Country Manager Österreich bei NetApp, im Gespräch.
Foto: NetApp Peter Hermann ist Country Manager Österreich bei NetApp Einer Studie von KPMG Austria zufolge war Cloud-Computing 2023 ein fester Bestandteil in 93 Prozent der österreichischen Unternehmen. Die zunehmende Digitalisierung, das Streben nach mehr Wettbewerbsfähigkeit, Ziele in Sachen Nachhaltigkeit und strengere Datenschutzbestimmungen sind bekannte Gründe. Dabei setzen 68 Prozent der Unternehmen in Österreich auf eine Multicloud-Strategie. Eine aktuelle globale Umfrage von NetApp unter IT-Entscheidern bestätigt diese Entwicklung: Danach sind sogar 98 Prozent der Unternehmen weltweit im Prozess der „Cloud-Journey“. Doch geben drei Viertel der Befragten an, dass ihr Unternehmen seine Workloads zum Großteil nach wie vor oder mittlerweile wieder im unternehmenseigenen Rechenzentrum speichert.
Angesichts dieser Zahlen erstaunt es kaum, dass der On-Premises-Storage bei Modernisierungen oft in Vergessenheit gerät. Häufig geht es hier in erster Linie um Tech Refresh statt „Innovations-Refresh“. Viele Unternehmen beachten zu wenig, dass sich besonders bestehende Rechenzentren oft optimieren lassen. Damit könnten Unternehmen zum Beispiel Zielen in Sachen Nachhaltigkeit, Datensicherheit oder Kosten- und Energieeffizienz näherkommen. it&t business hat mit Peter Hermann, Country Manager Österreich bei NetApp, darüber gesprochen, welche Innovationen On-Premises machbar sind.
it&t business: Die Cloud wird das unternehmenseigene Rechenzentrum über kurz oder lang ersetzen – stimmt diese Aussage noch? Und sind Cloud Computing und On-Premises überhaupt Gegensätze?
Peter Hermann: Wir begreifen Cloud-Computing und lokale Rechenzentren nicht als unvereinbare Gegensätze, sondern als Daten- und Workload-Speichermöglichkeiten, die einander ergänzen. Die Cloud ist ein wichtiger Schritt für die Digitalisierung eines Unternehmens, aber auch On-Premises hat eine Daseinsberechtigung und wird nicht in nächster Zeit verschwinden. Denn einige Daten sind zum Beispiel aus Governance- und anderen Gründen – etwa Performance oder Hyperscaler-Verfügbarkeit – weiterhin besser im eigenen Rechenzentrum verortet. In der Praxis sind daher hybride Multicloud-Umgebungen die Regel. Am meisten profitieren Unternehmen, wenn sie auch im Rechenzentrum performante und kosteneffektive Systeme einsetzen. Moderne Modelle bringen hier einige Vorteile in Bezug auf Nachhaltigkeit, Ransomware-Schutz, Kosteneffizienz und die Cloud-Integration. Das ist nicht zu unterschätzen: Wir sprechen hier von der nächsten Welle der Storage-Innovation.
it&t: Entgegen vielen Prognosen der vergangenen Jahre findet derzeit so etwas wie eine Remigration von der Cloud zurück ins Firmen-RZ statt. Was steckt hinter der „Cloud-Flucht“?
Hermann: Das ist tatsächlich eine signifikante Entwicklung, die wir aktuell auch mit vielen Kunden im Gespräch erörtern. Zwar ist die Cloud für den Unternehmenserfolg von großer Bedeutung, trotzdem gibt es zunehmend Skeptiker ihr gegenüber. Hier spielt die wachsende Erfahrung der Unternehmen hinsichtlich Cloud-Einsatz eine Rolle. Sie haben an Cloud-Reife dazu gewonnen und hinterfragen kritischer den Return of Investment (ROI) sowie die anfallenden Kosten. Obwohl sich lokale IT-Infrastrukturen bei steigendem Datenbedarf etwas weniger schnell skalieren lassen, als über ein Cloud-Modell, ist es vor allem bei größeren Datenmengen häufig kosteneffizienter, Daten On-Premises zu speichern.
Das eigene Rechenzentrum bleibt daher ein fester Anker, wie auch unsere aktuelle NetApp-Studie gezeigt hat. Drei Viertel der von uns befragten Unternehmen lagern ihre Workloads zum größten Teil immer noch oder wieder im eigenen Rechenzentrum, denn sie möchten nicht von Anbietern abhängig werden, deren Standards sie in der Cloud verpflichtend erfüllen müssen. Viele Branchen und Regionen sehen sich außerdem Compliance-Anforderungen gegenüber, die sich On-Premises besser realisieren lassen.
Rechenzentren stehen außerdem für hohe Sicherheitsstandards: Sie bieten physischen Schutz, schützen gleichzeitig aber auch vor Ransomware, unbefugtem Zugriff und Hacking, wenn sie richtig betreut sind. Diese Vorteile bewirken, dass Unternehmen möglichen Innovationen im unternehmenseigenen Rechenzentrum wieder mehr Aufmerksamkeit schenken. Hochperformante Speicher-Technologien wie Capacity Flash können hier die Cloud-Integration optimieren, Kosten senken und die Sicherheit verbessern.
it&t: Zahlen sich Investitionen ins eigene RZ noch aus, wenn Compute, Storage und Networking (vermeintlich?) günstig aus der Cloud zu beziehen sind? Wie können Unternehmen entscheiden, welche Workloads On-Premises finanziellen Sinn machen, und welche Workloads (vermeintlich?) günstig in die Cloud ausgelagert werden können?
Hermann: Das Stichwort hier heißt für uns Cloud-Tiering, ein aus unserer Sicht sehr gewinnbringender Ansatz: Damit können Unternehmen kaum oder nie genutzte Daten automatisch aus NetApp ONTAP-Systemen in die Cloud verschieben. Auf der Grundlage der Zugriffsmuster wechseln dann die Daten zwischen Primärspeicher und kostengünstigeren Storage-Arten wie dem Objekt-Speicher aus der Public Cloud. Unternehmen nutzen damit flexibel die jeweils effizientesten Speichermedien für die unterschiedlichen Anforderungen und die gesamte Infrastruktur – sowohl On-Premises als auch in der Cloud – das läuft nahtlos und hochverfügbar.
Eine weitere Option: Ein an die Cloud angebundenes All-Flash-Rechenzentrum, etwa mit Produkten aus unseren ASA-Serien, senkt die Kosten und kommt dank verbesserter Energieeffizienz auch der Umwelt zugute. Und das kann sich heutzutage auch der Mittelstand leisten, denn mittlerweile gibt es kostengünstige All-Flash-Speicher mit hoher Kapazität für Workloads, bei denen keine maximale Leistung erforderlich ist. Ein Beispiel ist sogenannter Capacity Flash auf Basis von Quadruple Level Cells: Er liefert zwar nicht die absolute Leistung eines High-End-Systems, in der Praxis ist es aber oft unerheblich, ob die Antwortzeit des Storage 300 Mikrosekunden oder 3 Millisekunden beträgt – der Unterschied spielt bei einer Webmail-Applikation oder in einem Online-Shop keine Rolle. Hingegen spart der CIO, der die Kosten für die Infrastruktur verantwortet, damit Kosten in fünf- oder sechsstelliger Höhe – je nachdem, auf welchem IT-Fundament die Applikation aufsetzt. Dieses Geld kann wieder für Wertschöpfung eingesetzt werden.
it&t: Auf welchen Technologien bauen moderne Rechenzentren heute auf? Wo geht die Reise in den kommenden Jahren hin?
Hermann: Mit der allgegenwärtigen Bedrohung durch Ransomware und dem steigenden Risiko eines Security-Vorfalls, sollte dieses Thema von Anfang an auch technologisch mitgedacht werden. Aktuelle Datentechnologien helfen Unternehmen dabei, ihre Storage-Herausforderungen mit wenig Aufwand zu überschaubaren Kosten zu bewältigen – sie können aber noch mehr, zum Beispiel mit integrierten Sicherheitslösungen für Ransomware-Attacken. NetApp kombiniert dafür ONTAPs Sicherheits- und Ransomware-Schutzfunktionen und geht mit seiner Ransomware Recovery-Garantie noch einen Schritt weiter: Im Falle eines Angriffs erstellt das System sofort zusätzliche Snapshots und kann so fehlerfreie Datenstände innerhalb kürzester Zeit wiederherstellen. Bei der Erkennung von schädlichem Verhalten, aber auch bei der Optimierung des Systems, kommt künstliche Intelligenz zum Einsatz.
it&t: Rechenzentren verbrauchen große Mengen Energie. Welche Rolle spielt die Nachhaltigkeit im modernen Data Center? An welchen Schrauben können RZ-Betreiber drehen, um schädliche Umweltauswirkungen zu reduzieren und Energieverbrauch und -kosten zu verringern?
Hermann: Rechenzentren können einiges leisten, damit sie energieeffizienter und nachhaltiger werden: So sind zum Beispiel Solid State Drives (SSDs) eine umweltfreundlichere Alternative zu bislang häufig eingesetzten Hard Disk Drives (HDDs), da erstere weniger Energie benötigen. Zusätzlich können Betreiber von Rechenzentren auf automatisiertes, intelligentes Datenmanagement setzen, das „kalte“, kaum genutzte, Daten identifiziert und kostengünstig speichert – etwa indem Cloud-Tiering genutzt wird. So sind Unternehmen in der Lage, dauerhaft nachhaltig zu wirtschaften. Außerdem können sie mit diesem ganzheitlichen Ansatz nicht nur den Energieverbrauch und die CO2-Emissionen senken, sondern auch ihre Ressourcen gezielter einsetzen.