Alle 14 Tage aktuelle News aus der IT-Szene   >   
Zscaler warnt vor Malware-Kampagnen nach Leak von Claude Code 09. 04. 2026
Nach der versehentlichen Veröffentlichung des Quellcodes von Claude Code analysiert Zscaler zunehmende Bedrohungsaktivitäten. Cyberkriminelle nutzen das öffentliche Interesse gezielt zur Verbreitung von Schadsoftware.
NetApp und Nutanix kooperieren bei Cloud-Plattform 08. 04. 2026
NetApp und Nutanix haben eine strategische Allianz angekündigt, die auf die Integration von Dateninfrastruktur und Hybrid-Multicloud-Plattform abzielt. Die Zusammenarbeit soll Unternehmen neue Optionen für die Modernisierung virtualisierter Umgebungen bieten und den Betrieb über verschiedene IT-Umgebungen hinweg vereinfachen.
Weniger Papier, mehr Effizienz: Digitale Signaturen zeigen messbare Wirkung 03. 04. 2026
Die aktuelle ÖkoStats-Auswertung von A-Trust zeigt: Die Nutzung qualifizierter elektronischer Signaturen steigt weiter – mit klar messbaren Effekten auf Ressourcenverbrauch und Effizienz.
Axios Supply-Chain-Attacke untergräbt Vertrauen in npm: Weit verbreitete Software im Fadenkreuz von Cyberkriminellen 02. 04. 2026
Die mutmaßliche Kompromittierung des weit verbreiteten HTTP-Clients Axios wirft ein Schlaglicht auf strukturelle Schwächen moderner Software-Lieferketten. Ein Kommentar von Ismael Valenzuela ordnet die Risiken für Unternehmen ein.
Michael Schmitz übernimmt Leitung von SAP Concur in der MEE-Region 01. 04. 2026
SAP bündelt das Concur-Geschäft in Mittel- und Osteuropa neu. Michael Schmitz verantwortet ab sofort die Region und soll die Vertriebsstruktur weiterentwickeln.
Michael Weinzierl übernimmt Geschäftsführung von Arrow ECS Österreich 01. 04. 2026
Der Technologieanbieter Arrow ordnet seine Führungsstruktur in der DACH-Region neu. Mit Michael Weinzierl übernimmt ein langjähriger Manager die Geschäftsleitung in Österreich, während die regionale Verantwortung gebündelt wird.
Cyberangriff auf EU-Kommission rückt Hackergruppe ShinyHunters in den Fokus 31. 03. 2026
Nach dem Angriff auf die Cloud-Infrastruktur der EU-Kommission analysiert ESET die mutmaßlichen Täter. Im Mittelpunkt steht die Gruppe ShinyHunters, deren Vorgehensweise auf bekannte Muster bei groß angelegten Datenlecks hinweist.
Adastra baut Wien-Standort aus und holt Go-to-Market-Lead 31. 03. 2026
Das kanadisch-tschechische IT-Beratungsunternehmen Adastra stärkt seine Präsenz in Wien und treibt die Expansion in Richtung Westeuropa voran. Mit Mario Klima übernimmt ein erfahrener Branchenkenner die Rolle des Go-to-Market-Lead für Österreich.
Insight ernennt Jack Azagury zum CEO 30. 03. 2026
Insight Enterprises bestellt mit Jack Azagury einen neuen President und CEO. Der frühere Accenture-Manager soll die Transformation des Unternehmens hin zu einem „AI-first“-Lösungsintegrator vorantreiben.
Check Point stellt Referenzarchitektur für KI-Rechenzentren vor 30. 03. 2026
Check Point hat mit dem „AI Factory Security Blueprint“ eine Referenzarchitektur zur Absicherung von KI-Infrastrukturen veröffentlicht. Der Ansatz deckt alle Ebenen von Hardware bis Anwendung ab und adressiert spezifische Bedrohungen moderner KI-Umgebungen.
Arctic Wolf und Wiz integrieren Cloud Detection und Response 27. 03. 2026
Arctic Wolf und Wiz (nun Teil von Google Cloud) haben eine Partnerschaft zur Integration ihrer Plattformen angekündigt. Ziel ist es, Cloud-Bedrohungen schneller zu erkennen und darauf zu reagieren. Die Lösung kombiniert Cloud-Transparenz und Risikobewertung mit Security Operations und ist ab sofort verfügbar.
NetApp und Commvault bündeln Technologien für integrierte Cyber-Resilienz 27. 03. 2026
NetApp und Commvault haben eine strategische Partnerschaft angekündigt. Ziel ist eine gemeinsame Plattform für Datenschutz, Cyber-Resilienz und schnelle Wiederherstellung über hybride Infrastrukturen hinweg.
MariaDB integriert GridGain und positioniert sich für agentische KI-Systeme 26. 03. 2026
Mit der Übernahme von GridGain Systems erweitert MariaDB seine Datenplattform um In-Memory-Technologie und reagiert damit auf steigende Anforderungen durch autonome KI-Agenten. Ziel ist eine einheitliche Architektur für Transaktionen, Analytik und KI-Workloads.
Vertiv übernimmt ThermoKey und stärkt Kühltechnologien für KI-Rechenzentren 26. 03. 2026
Vertiv plant die Übernahme des italienischen Wärmetechnik-Spezialisten ThermoKey. Ziel ist der Ausbau des Portfolios für thermisches Management in Rechenzentren und KI-Infrastrukturen.
Ungenutzte Software-Lizenzen: Millionenpotenzial in Österreichs Serverräumen 26. 03. 2026
In österreichischen Unternehmen sind laut Schätzungen Millionenbeträge in ungenutzten Software-Lizenzen gebunden. Besonders durch den Umstieg auf Cloud-Modelle entsteht ein wachsender finanzieller Spielraum.
Arrive ernennt Chief AI Officer und richtet Strategie auf „AI first“ aus 24. 03. 2026
Die Mobilitätsplattform Arrive setzt künftig verstärkt auf Künstliche Intelligenz. Mit der Ernennung eines Chief AI Officers und Investitionen in die Weiterbildung der Mitarbeitenden soll KI zentraler Bestandteil der Unternehmensstrategie werden.
Accenture Österreich: Christian Winkelhofer übernimmt Leitung von Michael Zettel 24. 03. 2026
Führungswechsel bei Accenture Österreich: Nach zehn Jahren als Country Managing Director übergibt Michael Zettel seine Funktion an Christian Winkelhofer. Zettel wechselt in das Management der Region EMEA.
ESET PROTECT: Mehr Sicherheit für Cloud, virtuelle Maschinen und KI-gestützte Analyse 23. 03. 2026
ESET baut seine Sicherheitsplattform ESET PROTECT gezielt für Cloud-Umgebungen aus. Neue Funktionen für Microsoft 365, Google Workspace und virtuelle Maschinen sowie erweiterte Analyse- und KI-Tools sollen Unternehmen mehr Transparenz und Schutz vor aktuellen Bedrohungen bieten.
weiter
AWS

10 Jahre „Industrie 4.0“

Gastbeitrag: „Für Industrie 4.0 ist es irrelevant, ob die Firmengründung gestern oder vor 100 Jahren stattgefunden hat“ – Gedanken zum Jubiläum eines epochemachenden Begriffs macht sich Jan Metzner.

Foto: AWS Der Autor Jan Metzner ist Specialist Solutions Architect für Manufacturing bei Amazon Web Services (AWS). Ein ganzes Jahrzehnt ist es inzwischen her, dass der Begriff „Industrie 4.0“ auf der Hannover Messe 2011 erstmals öffentlich diskutiert wurde. Seither setzen Industriekunden aus anlagenintensiven Branchen wie der Fertigung, Energie, Bergbau, Transport und Landwirtschaft vermehrt auf digitale Technologien, um fundierte Entscheidungen für ihre industriellen Prozesse treffen zu können. Oftmals sind ihre Anlagen jedoch in die Jahre gekommen und lassen sich nicht einfach so austauschen. Wie können Hersteller auf die moderne Produktion umstellen, wo sollen sie anfangen und wie behält man bei all den Möglichkeiten den Überblick?

Ob das Senken von Produktionskosten oder eine verbesserte Qualität, Sicherheit, Produktivität und Maschinenverfügbarkeit – nicht selten ist der Grund für die Einführung neuer Technologien in der Industrie auf eines dieser Ziele zurückzuführen. All das wird mit Cloud-Tools und Technologien wie Data Lakes, IoT, Künstlicher Intelligenz (KI) und Machine Learning (ML) möglich. Während einige Industriekunden schon über Know-how verfügen und eigene Lösungen mithilfe von Baukastenservices erstellen, sind andere noch auf branchenerfahrene Partner angewiesen, um ihre ersten Schritte zu setzen. Eines haben diese Unternehmen aber gemeinsam – sie verfügen bereits über das Wichtigste zum Erreichen ihrer Ziele: Daten. Dabei ist es irrelevant, ob die Firmengründung gestern oder schon vor 100 Jahren stattgefunden hat.

Datenschatz heben

Daten sind für eine Fabrik, was der Sauerstoff für den Menschen ist. Wird Sauerstoff eingeatmet, kann der Körper mit ihm Energie freisetzen. Je mehr Energie ein Mensch besitzt, desto größer ist auch seine Leistungsfähigkeit. Etwa so ähnlich verhält es sich mit Daten in der Industrie. Der erste Schritt ist für die meisten Unternehmen, die Berge an ungenutzten Informationen, über die sie verfügen, zu erschließen. Diese Daten können in einer „Smart Factory“ dann mit ML und KI angezapft werden. Doch hier beginnt schon die Herausforderung, den viele der wertvollen Informationen befinden sich an schwer zugänglichen Orten – beispielsweise in veralteten Maschinen, isolierten Systemen, Tabellenkalkulationen und sogar an Klemmbrettern. Das erschwert das Erfassen, Vergleichen und Bearbeiten der Daten. Um essenzielle Metriken wie z.B. Produktivität, Anlagenverfügbarkeit und Ausgabequalität zwischen Fertigungslinien oder Fabrikstandorten vergleichen zu können, müssen die Informationen aus Legacy-Protokollen und Datenformaten der letzten Jahrzehnte aus sogenannten Silos befreit werden.

Einsatz der richtigen Tools

Zunächst sollten sich die Unternehmen nur auf das Sammeln der Daten konzentrieren. Dabei geht es darum, sämtliche Informationen – lokal, aus der Prozessdatenarchivierung und von IoT-Sensoren – in die Cloud zu verschieben. Dort können die Anwender die Informationen organisieren, analysieren und visualisieren. Dadurch ergeben sich fortschrittliche Möglichkeiten wie etwa das Trainieren eines ML-Modells, mit dem sich Prognosen über den Status einer Anlage erstellen lassen: Wann sollte die Wartung erfolgen oder wie lassen sich ungeplante Ausfallzeiten im Betrieb vermeiden?

Cloudanbieter können mit ihren Lösungen dabei unterstützen: Bei AWS IoT Site Wise handelt es sich beispielsweise um einen Service, der das Sammeln, Speichern, Organisieren und Überwachen von großen Informationsmengen aus Industrieanlagen erleichtert. Dieser Dienst hilft auch, die Daten in einen Kontext zu setzen. So kann beispielsweise ein Typ oder Standort hinzugefügt werden oder auch die Beziehungen der Anlagen und Maschinen untereinander für eine bessere Übersicht hierarchisch dargestellt werden. Mithilfe der mathematischen Funktionen in der integrierten Bibliothek werden dann Betriebszeit oder branchenübliche Leistungskennzahlen definiert – beispielsweise die Gesamtanlageneffektivität (Overall Equipment Effectiveness, OEE).

Die richtigen Werkzeuge sparen Zeit, weil Entwickler damit ohne aufwändige Programmentwicklung direkt Daten sammeln, organisieren und daraus Metriken erstellen können. Allerdings müssen die Endanwender – etwa Prozessingenieure und Arbeiter – in der Lage sein, alle ermittelten Informationen und Erkenntnisse unkompliziert zu teilen und zu visualisieren. Nur so lassen sich Korrektur- und Optimierungsmöglichkeiten identifizieren und umsetzen.

Datenseen als Grundlage für ML und KI

Der nächste Schritt auf dem Weg zu einer Smart Factory ist der Einsatz von ML, beispielsweise für eine vorausschauende Instandhaltung (Predictive Maintenance). Bei vielen Unternehmen dominieren heute noch manuelle Routinediagnosen und vorbeugende Wartungen (Preventive Maintainance) nach festen Zeitplänen. ML ermöglicht mit der vorausschauenden Wartung eine zuverlässigere Variante, bei der mithilfe von Sensordaten die Wahrscheinlichkeit eines Anlagenausfalls vorhergesagt und die Wartungspläne wiederum optimiert werden können. Das reduziert nicht nur Wartungskosten, sondern verhindert auch ungeplante Ausfallzeiten.

Damit ML-Modelle mit einer großen Menge an Daten trainiert werden können, sind die Datenaufbereitung und -verwaltung die ersten wichtigen Schritte für eine Umstellung. Viele Unternehmen setzen auf sogenannte Data Lakes, zentrale Auffangbecken, wo sich Daten in beliebigem Umfang speichern lassen. Der Data Lake bietet dank seiner großen und vielfältigen Datensätze eine gute Grundlage für ML und KI.

Die Industrie gilt seit jeher als Innovationstreiber: Schon seit der industriellen Revolution haben Unternehmen kontinuierlich neue Ansätze zur Steigerung von Qualität, Geschwindigkeit, Sicherheit und Effizienz bei gleichzeitiger Senkung von Kosten und Ausschuss entwickelt. Durch den Einsatz intelligenter Technologien in der Cloud entstehen branchenübergreifend neue Möglichkeiten, unabhängig von der Firmengröße.

it&t business medien eU
Tel.: +43/1/369 80 67-0
office@ittbusiness.at