Alle 14 Tage aktuelle News aus der IT-Szene   >   
Zscaler warnt vor Malware-Kampagnen nach Leak von Claude Code 09. 04. 2026
Nach der versehentlichen Veröffentlichung des Quellcodes von Claude Code analysiert Zscaler zunehmende Bedrohungsaktivitäten. Cyberkriminelle nutzen das öffentliche Interesse gezielt zur Verbreitung von Schadsoftware.
NetApp und Nutanix kooperieren bei Cloud-Plattform 08. 04. 2026
NetApp und Nutanix haben eine strategische Allianz angekündigt, die auf die Integration von Dateninfrastruktur und Hybrid-Multicloud-Plattform abzielt. Die Zusammenarbeit soll Unternehmen neue Optionen für die Modernisierung virtualisierter Umgebungen bieten und den Betrieb über verschiedene IT-Umgebungen hinweg vereinfachen.
Weniger Papier, mehr Effizienz: Digitale Signaturen zeigen messbare Wirkung 03. 04. 2026
Die aktuelle ÖkoStats-Auswertung von A-Trust zeigt: Die Nutzung qualifizierter elektronischer Signaturen steigt weiter – mit klar messbaren Effekten auf Ressourcenverbrauch und Effizienz.
Axios Supply-Chain-Attacke untergräbt Vertrauen in npm: Weit verbreitete Software im Fadenkreuz von Cyberkriminellen 02. 04. 2026
Die mutmaßliche Kompromittierung des weit verbreiteten HTTP-Clients Axios wirft ein Schlaglicht auf strukturelle Schwächen moderner Software-Lieferketten. Ein Kommentar von Ismael Valenzuela ordnet die Risiken für Unternehmen ein.
Michael Schmitz übernimmt Leitung von SAP Concur in der MEE-Region 01. 04. 2026
SAP bündelt das Concur-Geschäft in Mittel- und Osteuropa neu. Michael Schmitz verantwortet ab sofort die Region und soll die Vertriebsstruktur weiterentwickeln.
Michael Weinzierl übernimmt Geschäftsführung von Arrow ECS Österreich 01. 04. 2026
Der Technologieanbieter Arrow ordnet seine Führungsstruktur in der DACH-Region neu. Mit Michael Weinzierl übernimmt ein langjähriger Manager die Geschäftsleitung in Österreich, während die regionale Verantwortung gebündelt wird.
Cyberangriff auf EU-Kommission rückt Hackergruppe ShinyHunters in den Fokus 31. 03. 2026
Nach dem Angriff auf die Cloud-Infrastruktur der EU-Kommission analysiert ESET die mutmaßlichen Täter. Im Mittelpunkt steht die Gruppe ShinyHunters, deren Vorgehensweise auf bekannte Muster bei groß angelegten Datenlecks hinweist.
Adastra baut Wien-Standort aus und holt Go-to-Market-Lead 31. 03. 2026
Das kanadisch-tschechische IT-Beratungsunternehmen Adastra stärkt seine Präsenz in Wien und treibt die Expansion in Richtung Westeuropa voran. Mit Mario Klima übernimmt ein erfahrener Branchenkenner die Rolle des Go-to-Market-Lead für Österreich.
Insight ernennt Jack Azagury zum CEO 30. 03. 2026
Insight Enterprises bestellt mit Jack Azagury einen neuen President und CEO. Der frühere Accenture-Manager soll die Transformation des Unternehmens hin zu einem „AI-first“-Lösungsintegrator vorantreiben.
Check Point stellt Referenzarchitektur für KI-Rechenzentren vor 30. 03. 2026
Check Point hat mit dem „AI Factory Security Blueprint“ eine Referenzarchitektur zur Absicherung von KI-Infrastrukturen veröffentlicht. Der Ansatz deckt alle Ebenen von Hardware bis Anwendung ab und adressiert spezifische Bedrohungen moderner KI-Umgebungen.
Arctic Wolf und Wiz integrieren Cloud Detection und Response 27. 03. 2026
Arctic Wolf und Wiz (nun Teil von Google Cloud) haben eine Partnerschaft zur Integration ihrer Plattformen angekündigt. Ziel ist es, Cloud-Bedrohungen schneller zu erkennen und darauf zu reagieren. Die Lösung kombiniert Cloud-Transparenz und Risikobewertung mit Security Operations und ist ab sofort verfügbar.
NetApp und Commvault bündeln Technologien für integrierte Cyber-Resilienz 27. 03. 2026
NetApp und Commvault haben eine strategische Partnerschaft angekündigt. Ziel ist eine gemeinsame Plattform für Datenschutz, Cyber-Resilienz und schnelle Wiederherstellung über hybride Infrastrukturen hinweg.
MariaDB integriert GridGain und positioniert sich für agentische KI-Systeme 26. 03. 2026
Mit der Übernahme von GridGain Systems erweitert MariaDB seine Datenplattform um In-Memory-Technologie und reagiert damit auf steigende Anforderungen durch autonome KI-Agenten. Ziel ist eine einheitliche Architektur für Transaktionen, Analytik und KI-Workloads.
Vertiv übernimmt ThermoKey und stärkt Kühltechnologien für KI-Rechenzentren 26. 03. 2026
Vertiv plant die Übernahme des italienischen Wärmetechnik-Spezialisten ThermoKey. Ziel ist der Ausbau des Portfolios für thermisches Management in Rechenzentren und KI-Infrastrukturen.
Ungenutzte Software-Lizenzen: Millionenpotenzial in Österreichs Serverräumen 26. 03. 2026
In österreichischen Unternehmen sind laut Schätzungen Millionenbeträge in ungenutzten Software-Lizenzen gebunden. Besonders durch den Umstieg auf Cloud-Modelle entsteht ein wachsender finanzieller Spielraum.
Arrive ernennt Chief AI Officer und richtet Strategie auf „AI first“ aus 24. 03. 2026
Die Mobilitätsplattform Arrive setzt künftig verstärkt auf Künstliche Intelligenz. Mit der Ernennung eines Chief AI Officers und Investitionen in die Weiterbildung der Mitarbeitenden soll KI zentraler Bestandteil der Unternehmensstrategie werden.
Accenture Österreich: Christian Winkelhofer übernimmt Leitung von Michael Zettel 24. 03. 2026
Führungswechsel bei Accenture Österreich: Nach zehn Jahren als Country Managing Director übergibt Michael Zettel seine Funktion an Christian Winkelhofer. Zettel wechselt in das Management der Region EMEA.
ESET PROTECT: Mehr Sicherheit für Cloud, virtuelle Maschinen und KI-gestützte Analyse 23. 03. 2026
ESET baut seine Sicherheitsplattform ESET PROTECT gezielt für Cloud-Umgebungen aus. Neue Funktionen für Microsoft 365, Google Workspace und virtuelle Maschinen sowie erweiterte Analyse- und KI-Tools sollen Unternehmen mehr Transparenz und Schutz vor aktuellen Bedrohungen bieten.
weiter
Confidential Computing – Folge 1: Gastbeitrag von Betram Dorn, Principal in the Office of the CISO bei AWS

Anforderungen und Technologien, um hochsensible Daten sicher zu verarbeiten und zu schützen

In Zeiten von Cloud Computing arbeiten Unternehmen immer häufiger nicht mehr auf eigenen Systemen, sondern nutzen Rechenleistung und Speicherplatz von externen Anbietern. Die Frage, die sich Unternehmen dabei stellt müssen, ist: Wer –und welche Komponente – kann auf meine Daten zugreifen, wenn sie gerade verarbeitet werden? Und noch wichtiger: Wie kann ich sicherstellen, dass selbst der Betreiber der Infrastruktur keinen Zugriff hat? Confidential Computing liefert auf diese Frage eine umfassende Antwort.


Foto: Amazon Web Services Bertram Dorn ist Principal in the Office of the CISO bei AWS und unterstützt interne und externe AWS-Kunden sowie Partner dabei, sich in sicherheitsrelevanten Themen rund um AWS zurechtzufinden. Er verfügt über mehr als 30 Jahre Erfahrung in der Technologiebranche, mit einem Schwerpunkt auf Sicherheit, Netzwerke, Speicher- und Datenbanktechnologien. Confidential Computing beschreibt eine grundlegende Strategie in der Art und Weise, wie Daten in heutigen IT-Umgebungen verarbeitet und geschützt werden. Es geht darum, den Zugriff auf Daten während der Verarbeitung zu verhindern – und zwar auch für privilegierte Akteure wie Administratoren oder den Betreiber der zugrunde liegenden Cloud-Infrastruktur. Der zentrale Gedanke ist, dass selbst jemand mit höchsten Rechten nicht automatisch Einblick in die verarbeiteten Informationen erhält, wenn das nicht ausdrücklich gewünscht ist.
 

Was steckt hinter dem Begriff Confidential Computing, und warum gewinnt es in der heutigen Zeit an Bedeutung?

Oft wird Confidential Computing direkt mit spezialisierter Hardware in Verbindung gebracht, aber das greift zu kurz. Denn eigentlich beschreibt der Begriff eine Sicherheitsarchitektur, die sich über mehrere Ebenen – oder eine Hierarchie – eines Computersystems erstreckt. Der normale Benutzer operiert auf einer Anwendungsebene und hat bestimmte Rechte. Darunter gibt es eine Administrator-Ebene, die mehr Kontrolle über das System hat. Darunter wiederum existiert der Kernel, also der zentrale Bestandteil des Betriebssystems, der darüber entscheidet, welche Prozesse und Datenströme zugelassen werden. Unter dem Kernel haben wir die Hypervisor-Schicht, die virtuelle Maschinen verwaltet, und noch eine Ebene tiefer befindet sich die eigentliche Hardware. In traditionellen IT-Systemen kann jede dieser Ebenen auf die darüberliegenden zugreifen – der Administrator kann sehen, was der Benutzer tut, der Kernel kann auf alles zugreifen, der Hypervisor kann ganze Betriebssysteme verändern und letztendlich kann auch jemand mit direktem Hardwarezugriff sämtliche Schutzmaßnahmen aushebeln.

Genau hier setzt Confidential Computing an. Das Ziel ist es, eine Architektur zu schaffen, in der es nicht mehr automatisch möglich ist, von einer höheren Ebene aus auf Daten zuzugreifen, selbst wenn man die Berechtigung dazu hätte. Das hat in Zeiten von Cloud Computing eine enorme Bedeutung, weil Unternehmen immer häufiger nicht mehr auf eigenen Systemen arbeiten, sondern Rechenleistung und Speicherplatz von externen Anbietern nutzen. Die Frage, die sich Unternehmen dabei stellt müssen, ist: Wer – und welche Komponente – kann auf meine Daten zugreifen, wenn sie gerade verarbeitet werden? Und noch wichtiger: Wie kann ich sicherstellen, dass selbst der Betreiber der Infrastruktur keinen Zugriff hat?

Welche Anforderungen und Technologien sind notwendig, um hochsensible Daten sicher zu verarbeiten und zu schützen?

Zunächst sollte man die Formulierung „hochsensible Daten“ hinterfragen. Natürlich denkt man bei Confidential Computing sofort an Finanztransaktionen, Gesundheitsdaten oder geheime Forschungsergebnisse. Doch es geht nicht nur um einzelne besonders kritische Datenbereiche, sondern um eine grundsätzliche Architekturentscheidung. Denn wenn ich nur bestimmte Daten besonders schütze, bleibt immer das Risiko, dass sich an anderer Stelle ein Angriffspunkt findet. Viel sinnvoller ist es also, von vornherein sicherzustellen, dass alle Daten während der Verarbeitung durchgängig geschützt sind.

Technologisch gibt es verschiedene Möglichkeiten, das zu erreichen. Ein wichtiger Bestandteil ist die Trennung von Betriebssystem-Ebenen. Ein traditionelles Virtualisierungssystem, und insbesondere der Einsatz von „Containern“ bringt das Risiko mit sich, dass sich mehrere Kunden eine physische Maschine teilen, bei Containern ggf. auch noch gemeinsam auf einem Kernel aufsetzen. Falls der Hypervisor (oder bei Containern deren Implementierung im Kernel) kompromittiert wird, kann das dazu führen, dass Angreifer von einer Instanz auf eine andere übergreifen können. Um das zu verhindern, setzen fortschrittliche Sicherheitsarchitekturen darauf, dass jeder Workload auf einem isolierten Kernel, und auf eigenen CPU-Kernen läuft.

Ein weiteres zentrales Element ist die Kontrolle darüber, welcher Code überhaupt ausgeführt wird. In einer Welt, in der Software aus zahlreichen Drittanbieter-Komponenten besteht, reicht es nicht aus, nur den Zugriff auf Daten zu regulieren. Unternehmen müssen sicherstellen, dass auch die Software, die auf ihren Systemen läuft, nicht manipuliert wurde. Hier kommen kryptografische Attestierungen ins Spiel: Diese ermöglichen es, dass ein System zur Laufzeit überprüft, ob eine Software genau der Version entspricht, die ursprünglich freigegeben wurde. Gerade mit Blick auf Angriffe, die sich gezielt auf Software-Supply-Chains richten, ist das eine entscheidende Schutzmaßnahme.

Neben diesen technischen Konzepten spielt auch die Isolation auf Hardware-Ebene eine zentrale Rolle. Durch den Einsatz spezieller mandantenorientierter Speicherverwaltung kann verhindert werden, dass ein kompromittierter Prozess auf sensible Daten zugreift. Fortschrittliche Ansätze setzen zudem darauf, dass Ressourcen wie Arbeitsspeicher oder CPU-Kapazitäten nicht gemeinsam genutzt werden, um potenzielle Angriffsflächen zu minimieren.
 

Was bieten aktuelle Plattformen und Anbieter in diesem Bereich? Wie unterscheiden sich die Lösungen? Und wie unterstützt AWS seine Kunden?

Die IT-Industrie hat sich in den letzten Jahren intensiv mit der Frage beschäftigt, wie man Workloads so sicher wie möglich betreiben kann. Unterschiedliche Anbieter setzen dabei auf verschiedene Ansätze. Einige Lösungen basieren auf CPU-Funktionen wie Intel SGX oder AMD SEV, die geschützte Speicherbereiche innerhalb der CPU bereitstellen. Diese Technologien bieten eine gewisse Isolation, erfordern aber eine enge Integration in bestehende Anwendungen, was in der Praxis nicht immer einfach umzusetzen ist.

AWS geht mit der Nitro-Plattform einen anderen Weg. Nitro wurde von Grund auf so entwickelt, dass es eine vollständige Mandanten-Trennung bietet. Das bedeutet, dass AWS als Anbieter sich selbst aus der Hypervisorebene ausschließt. Auf Betriebssysteme des Kunden hatte AWS ohnehin nie Zugriff. Es gibt keinen Hypervisor-Administrator, keinen AWS-Mitarbeiter mit Zugriff und keine Möglichkeit, Speicher oder Netzwerkverkehr auf einer geteilten Plattform mitzulesen. Ein wichtiger Unterschied liegt darin, dass AWS den gesamten Ein- und Ausgabe-Prozess über dedizierte Nitro-Chips abwickelt. Dadurch werden klassische Angriffsszenarien – wie das unautorisierte Mitschneiden von Speicherinhalten oder das Überwachen von Netzwerkpaketen auf der Hypervisor-Ebene – vollständig eliminiert.

Für Unternehmen, die besonders kritische Workloads haben, bietet AWS zusätzlich die Möglichkeit, Nitro Enclaves zu nutzen. Diese Enklaven sind vollständig isolierte Umgebungen, in denen selbst der eigene Administrator des Kunden keinen Zugriff mehr hat. Während andere Lösungen auf softwarebasierte Sicherheitsmechanismen oder bestimmte CPU-Funktionen setzen, bietet AWS mit Nitro eine plattformunabhängige, vollständig hardware-gestützte Lösung.

Mehr zu Confidential Computing von Bertram Dorn:
Folge 2: Die Vorstellung einer vollständigen Absicherung ist trügerisch
 

it&t business medien eU
Tel.: +43/1/369 80 67-0
office@ittbusiness.at