Alle 14 Tage aktuelle News aus der IT-Szene >
Zum elften Mal hat AWS Partner, Kunden und Gäste zur re:Invent 2022 nach Las Vegas eingeladen. Die Hausmesse fand nach Covid19 mit rund 50.000 Besuchern wieder zu ihrer alten Größe zurück.
Foto: AWS
Rund 50.000 Besucher und zahlreiche Experten fanden sich Ende November in Las Vegas ein
Clouddienstleister AWS präsentierte auf der re:Invent, die Ende November in Las Vegas über die Bühne ging, zahlreiche Neuigkeiten. So wurde am ersten Tag die fünfte Generation des neuen Nitro-Chips vorgestellt. Dies ist ein von Annapurna Labs entwickelter Data Processing Unit (DPU) Chip, der Hypervisor-, Netzwerk- und Managementworkloads gebündelt verarbeitet und damit die CPU der jeweiligen virtuellen Maschine entlastet. Neu beim Nitro v5 ist die native Unterstützung des von AWS entwickelten Netzwerkprotokolls Scalable Reliable Datagramm (SRD). Dieses Netzwerkprotokoll bietet beim Einsatz in großen Rechenzentren gegenüber TCP den Vorteil einer konsistenteren, niedrigeren Latenzzeit.
Auch für die EC2-Instanzen (AWS-Bezeichnung für verschiedene Arten von virtuellen Maschinen) gibt es neue Chips. Für die eigene Chip-Serie Graviton wurde ein 3E-Model entwickelt, das auf ARM basiert und besonders für High Performance Computing (HPC) Workloads optimiert sein soll. Passend zum neuen Chip gibt es neue EC2-Instanzen, die mit Nitro v5 und dem Graviton 3E Chip ausgestattet sind. Diese wurden explizit für HPC-Workloads optimiert. Hier gibt AWS an, eine 35 Prozent bessere Performance im Vergleich zum Vorgängermodell bei höherer Energieeffizienz zu erreichen.
Mit SimSpace Weaver stellt AWS ein neues Tool für 3D-Simulationen vor. Dabei werden Szenarien, die viele Millionen Objekte gleichzeitig simulieren müssen, ermöglicht. Beispiel für den Einsatz von SimSpace Weaver sind Simulationen im Verkehrsbereich oder in der virtuellen Architektur und Städteplanung.
Für Kunden, die eine gute Übersicht über ihre Lieferketten haben möchten, bietet AWS den neuen Service AWS Supply Chain an. Dieser kann nicht nur Daten aus vielen unterschiedlichen Quellen bündeln und visualisieren, sondern mit Hilfe von Machine-Learning-gestützter Prognose, Handlungsempfehlungen aussprechen.
Einen weiteren Schritt in Richtung Zero ETL geht AWS mit einer Integration von Amazon Aurora und Amazon Redshift. Die Integration hilft dabei, lange Prozesszeiten bei Extraktion, Transformation und beim Laden von Daten für Analysezwecke zu minimieren. Außerdem kündigte AWS eine Amazon Redshift-Integration mit Apache Spark an, die Spark-Nutzern die Analyse in Amazon Redshift erleichtert.
Immer mehr Geräte verwenden mobile Geodaten, wie zum Beispiel Standortdaten. Dafür kündigte AWS eine Erweiterung seines Machine-Learning-Dienstes Amazon SageMaker an. Diese Erweiterung unterstützt die Verknüpfung und Verarbeitung der mobilen Geodaten und lässt dabei viele verschiedene Datenquellen zu.
Am Donnerstag hielt AWS CTO Werner Vogels seine Keynote, in der er zeigte, warum AWS die Themen Parallelisierung und Entkopplung von Systemen auch in Zukunft weiter fördern will. So zeigte er am Beispiel des Kunden Trustpilot, wie Entkopplung, Parallelisierung und Event-gesteuerte Architektur zu einer besseren Belastbarkeit und Skalierbarkeit von Prozessen funktionieren kann. Diese Event-gesteuerten und entkoppelten Prozesse sind im Vergleich zum ursprünglich monolithischen Aufbau der IT angelehnt an das echte Leben, in dem verschiedene Prozesse gleichzeitig und unabhängig voneinander geschehen.
Um eine solche entkoppelte und parallelisierte Architektur im AWS-Universum aufbauen zu können, stellte Werner Vogels verschiedene neue AWS-Dienste vor. Einer dieser Dienste ist Amazon EventBridge Pipes. Damit ist es Cloud-Architekten möglich, ohne Code eine Vielzahl an AWS-Services miteinander zu verbinden und Ereignisse dazwischen spezifisch zu filtern.
Per Mausklick neue Architekturen aufzubauen, war bisher Wunschdenken unter Cloudarchitekten. Der AWS Application Composer ermöglicht es nun einem Cloud-Architekten, in grafischer Benutzeroberfläche verschiedene Komponenten zur Architektur zusammenzustellen. Das Ergebnis des Dienstes ist dann ein fertiger IaC-Block (Infrastructure as Code), der nur noch um die Business Logik des Unternehmens ergänzt werden muss und dann einsatzbereit ist.