Alle 14 Tage aktuelle News aus der IT-Szene   >   
84 Prozent der IT-Führungskräfte sehen Datenbereinigung als Schlüssel zur KI-Transformation 07. 11. 2025
Der aktuelle „State of Data and Analytics“-Report von Salesforce zeigt: Unternehmen stehen unter hohem Druck, ihre Datenstrategien grundlegend zu überarbeiten. Zwar bekennen sich viele zur Datenorientierung, doch die Realität ist geprägt von fragmentierten Datenbeständen, mangelnder Governance und isolierten Systemen – ein Risiko für den erfolgreichen Einsatz von KI.
Neues Rechenzentrum stärkt digitale Eigenständigkeit der HABAU GROUP 07. 11. 2025
Der Baukonzern HABAU hat am Standort Perg ein neues Rechenzentrum in Betrieb genommen. In Zusammenarbeit mit EPS Electric Power Systems entstand innerhalb von zwei Jahren eine hochverfügbare und energieeffiziente IT-Infrastruktur, die den steigenden Anforderungen der Digitalisierung Rechnung trägt.
SCHÄFER IT-Systems verstärkt Engagement in Österreich 06. 11. 2025
Der deutsche Rechenzentrums-Spezialist SCHÄFER IT-Systems intensiviert seine Aktivitäten in Österreich. Mit einem Fokus auf Partnerschaften im Vertrieb und Service sowie auf der modularen Produktlinie iQdata will das Unternehmen seine energieeffizienten und skalierbaren Lösungen auf dem österreichischen Markt fest etablieren.
Zscaler übernimmt SPLX und erweitert Zero Trust Exchange um KI-Sicherheitsfunktionen 06. 11. 2025
Der Cloud-Sicherheitsanbieter Zscaler hat den KI-Sicherheitspionier SPLX übernommen. Mit der Integration erweitert das Unternehmen seine Zero Trust Exchange-Plattform um Funktionen für KI-Asset-Erkennung, automatisiertes Red Teaming und Governance. Ziel ist es, Unternehmen eine durchgängige Absicherung ihrer KI-Anwendungen von der Entwicklung bis zur Bereitstellung zu ermöglichen.
Domains im Schatten der IT-Sicherheit 05. 11. 2025
Domains sind das Rückgrat digitaler Geschäftsmodelle. Sie tragen nicht nur Shop- und E-Mail-Verkehr, sondern auch zentrale Datenflüsse und Bezahlschnittstellen. Wer diesen Kern ungeschützt lässt, riskiert Umsatzverluste, Reputationsschäden und regulatorische Konsequenzen.
Wie SAP mit neuer KI-Strategie die Unternehmenssoftware neu denkt 05. 11. 2025
Auf der diesjährigen TechEd in Berlin präsentierte SAP umfassende Neuerungen, die Künstliche Intelligenz (KI) fest in den Entwicklungsalltag integrieren. Neue Werkzeuge, Partnerschaften und Datenlösungen sollen Entwicklern ermöglichen, Unternehmenssoftware schneller und intelligenter zu gestalten – ohne dabei die Kontrolle über Daten und Prozesse zu verlieren.
Cloudian und CTERA bündeln Kräfte für durchgängige Datenverwaltung vom Edge bis zur Cloud 05. 11. 2025
Der Objektspeicherspezialist Cloudian und der Data-Management-Anbieter CTERA vertiefen ihre Zusammenarbeit. Im Rahmen einer neuen globalen Partnerschaft kombinieren die Unternehmen ihre Technologien zu einer integrierten Plattform für die Verwaltung verteilter Unternehmensdaten. Ziel ist ein nahtloser, sicherer und skalierbarer Ansatz für moderne Datenarchitekturen.
AWS und OpenAI schließen strategische Partnerschaft im Wert von 38 Milliarden US-Dollar 04. 11. 2025
Amazon Web Services (AWS) und OpenAI haben eine mehrjährige strategische Partnerschaft angekündigt. OpenAI erhält ab sofort Zugriff auf die Hochleistungsinfrastruktur von AWS, um seine KI-Modelle zu betreiben und weiterzuentwickeln. Das Abkommen mit einem Gesamtvolumen von 38 Milliarden US-Dollar sieht den Ausbau der Rechenkapazitäten bis mindestens 2027 vor.
Neue it&d business Ausgabe 03/2025 beleuchtet Cybersecurity als Schlüssel zur digitalen Zukunft 31. 10. 2025
Cybersecurity ist längst mehr als Abwehr – sie wird zum entscheidenden Erfolgsfaktor in einer digitalisierten Wirtschaft. Die neue Ausgabe von it&d business (03/2025) beleuchtet, wie Unternehmen und Institutionen ihre Sicherheitsstrategien anpassen, um den Herausforderungen von KI, Datenflut und digitaler Souveränität zu begegnen.
Mit Kyano führt SNP den Wechsel in die SAP Public Cloud durch 31. 10. 2025
Der Heidelberger Softwareanbieter SNP hat seine SAP-Systeme von der SAP Cloud ERP Private in die Public Edition migriert – und nutzt dabei die eigene Transformationsplattform Kyano. Der Schritt gilt als Meilenstein in der Partnerschaft mit SAP und als neuer Anwendungsfall für SNPs Migrationslösungen.
183 Millionen Gmail-Passwörter? Warum die Schlagzeilen in die Irre führen 31. 10. 2025
In den Medien kursiert derzeit die Meldung über ein angebliches Datenleck bei Google mit Millionen kompromittierter Gmail-Passwörter. Doch der Fall liegt anders: Nicht Google selbst wurde gehackt, sondern bekannte und neue Datensätze aus verschiedenen Quellen wurden zusammengeführt. Tenable-Experte Satnam Narang erklärt, was wirklich dahintersteckt – und welche Schutzmaßnahmen jetzt wichtig sind.
Zoom und NVIDIA entwickeln hybride KI-Architektur für den Unternehmenseinsatz 30. 10. 2025
Zoom erweitert seine KI-Infrastruktur um NVIDIA-Technologien, um maßgeschneiderte KI-Funktionen für Unternehmen bereitzustellen. Der neue Zoom AI Companion 3.0 kombiniert offene und geschlossene Modelle zu einer flexiblen, ressourcenschonenden Lösung für produktivere Arbeitsprozesse.
Drei Viertel der Cloud-Nutzenden fordern europäische Datenhoheit 30. 10. 2025
Eine neue, von STRATO beauftragte Forsa-Studie zeigt: Für die Mehrheit der Deutschen ist der Cloud-Speicher längst Alltag – doch Vertrauen und Datenschutz stehen zunehmend im Vordergrund. 75 Prozent der Befragten wollen, dass keine außereuropäischen Institutionen Zugriff auf ihre Daten erhalten. Auch die Zahlungsbereitschaft für europäische Anbieter ist deutlich gestiegen.
HPE baut „Discovery“ und „Lux“ für das Oak Ridge National Laboratory 30. 10. 2025
Hewlett Packard Enterprise (HPE) errichtet zwei neue Systeme für das Oak Ridge National Laboratory des US-Energieministeriums: den Exascale-Supercomputer „Discovery“ und das KI-Cluster „Lux“. Während Discovery auf die nächste Generation der HPE-Cray-Supercomputing-Architektur setzt, entsteht mit Lux eine mandantenfähige Plattform für Künstliche Intelligenz.
Was Googles neuer AI Mode für Unternehmen bedeutet 29. 10. 2025
Nach den USA und Indien führt Google seinen „AI Mode“ nun auch in Deutschland ein. Der KI-gestützte Suchmodus verändert, wie Nutzer Informationen abrufen – und stellt Unternehmen vor neue Herausforderungen. Experte Mare Hojc von AN Digital erklärt, warum klassische Suchstrategien dennoch relevant bleiben und wie Firmen sich auf die neue Suchwelt vorbereiten können.
Programmierende KI: Die generierte Gefahr 29. 10. 2025
Large Language Modells schreiben Code in Sekunden. Was nach einem neuen Level an Effizienz klingt, hat allerdings auch eine Schattenseite. Das Problem: Sicherheit ist bislang kein integraler Bestandteil von KI-basierter Softwareentwicklung.
valantic integriert semantische Datenplattform Bardioc von Almato in sein Portfolio 29. 10. 2025
Die Digitalberatung valantic und Almato, Spezialist für KI-gestützte semantische Datenplattformen, gehen eine strategische Partnerschaft ein. Im Mittelpunkt steht die Plattform Bardioc, die datengetriebene Intelligenz mit erklärbarer KI verbindet und Unternehmen eine sichere, nachvollziehbare Datennutzung ermöglicht.
LG forciert Flüssigkeitskühlung für KI-Rechenzentren 28. 10. 2025
LG Electronics hat mit SK Enmove und Green Revolution Cooling eine Absichtserklärung zur gemeinsamen Entwicklung von Tauchkühlsystemen für KI-Rechenzentren unterzeichnet. Die Allianz soll den steigenden Energie- und Kühlbedarf leistungsstarker GPU-Infrastrukturen adressieren und neue Standards in Effizienz und Nachhaltigkeit setzen.
weiter
Gastbeitrag von Oliver Stein, Geschäftsführer DACH bei Redgate

Fünf Kernelemente zeichnen gute DBMS-Tools aus

Die Anforderungen an moderne Datenbankmanagementsysteme steigen stetig – besonders im Kontext von DevOps, Agilität und automatisierten Deployment-Prozessen. Unternehmen stehen vor der Herausforderung, aus einer Vielzahl an Tools jene Lösungen zu finden, die technische Tiefe mit Benutzerfreundlichkeit vereinen. Der DevOps Lösungsanbieter Redgate hat in einer aktuellen Analyse fünf Kernelemente identifiziert, die gute DBMS-Tools auszeichnen – von Flexibilität und nativer Sprachunterstützung über präzise Änderungsfunktionen bis hin zu agilen Workflows und hoher Usability.

Foto: Redgate Oliver Stein, Geschäftsführer DACH bei Redgate Für die Verwaltung von Datenbankmanagementsystemen nach dem DevOps-Prinzip gibt es viele Migrations- und Versionskontroll-Tools, doch die Suche nach der perfekten Lösung ist oft schwierig. Redgate, führender Anbieter von DevOps-Lösungen für holistisches Datenbankmanagement, hat die fünf Kernelemente guter DBMS-Tools evaluiert. Von elementarer Bedeutung sind nicht nur die Funktionsvielfalt und ein breites Portfolio an unterstützten Technologien, sondern auch Flexibilität und Usability.

Flexibilität ist das A und O

Jedes IT-Team hat eigene Prozesse und Vorgehensweisen bei Datenbankänderungen, besonders wenn sie nach dem DevOps-Prinzip arbeiten. Ein gutes DBMS-Tool sollte daher nicht einen festen Workflow vorgeben, sondern sich anpassen lassen; gleichzeitig sollte es mit zukünftigen Anforderungen wachsen können. Die Unterstützung unterschiedlicher Deployment-Ansätze bieten dafür die Grundlage: Bei einem skriptbasierten Ansatz versionieren Datenbankadministratoren zum Beispiel Änderungen als Skripte, die in vordefinierter Reihenfolge ausgeführt werden. Er ist ideal für Teams, die Wert auf lückenlose Nachvollziehbarkeit legen. Manche Unternehmen bevorzugen eher einen statusbasierten Ansatz, bei dem der gewünschte Zielzustand der Datenbank beschrieben wird und das System die notwendigen Änderungen automatisch ableitet.

Support für native Datenbanksprachen

Viele DBMS-Tools verwenden für Migrationen proprietäre domänenspezifische Sprachen (DSLs). Besser sind Versionskontroll- und Datenbankmigrationslösungen, die Skripte in der nativen Programmiersprache der Datenbank unterstützen. Auf diese Weise haben Teams eine deutlich niedrigere Einstiegshürde und müssen nicht eine zusätzliche DSL lernen. Auch aufwendige Überprüfungen, ob die Übersetzung von der nativen Datenbanksprache in eine DSL unbeabsichtigte Änderungen verursacht hat, entfallen. Gleichzeitig sollte ein DBMS-Tool neben Abfragesprachen wie SQL auch Programmiersprachen wie Java unterstützen, um komplexe Datenbankänderungen umzusetzen. So können Teams die passende Sprache für den jeweiligen Task wählen.

Elaborierte Funktionen für präzise Änderungen

Um komplexe Datenbankänderungen und Datenverschiebungen präzise umzusetzen, sind umfangreiche Funktionen und integrierte Kontrollpunkte erforderlich. Ein gutes DBMS-Tool sollte daher die Möglichkeit bieten, Datenbankschemata, Snapshots und statische Daten schnell zu vergleichen und daraus sowohl Deployment- als auch Undo-Skripte zu erzeugen. Wichtig ist zudem, dass es Änderungen stets in der richtigen Abhängigkeitsreihenfolge ausführt. Eine umfassende Unterstützung verschiedener Datenbankobjekte erhöht in diesem Zusammenhang die Skalierbarkeit und Flexibilität. Idealerweise sollte das Tool überdies Migrationsskripte automatisch generieren, um Zeit zu sparen und die Zuverlässigkeit von Datenbank-Deployments zu erhöhen.

Unterstützung agiler Workflows

Die Unterstützung agiler Workflows über den gesamten Datenbank-DevOps-Lebenszyklus hinweg ist ebenfalls ein Qualitätsmerkmal guter DBMS-Tools. Die Lösung sollte Zusammenarbeit, teamweite Nachverfolgung von Änderungen und kurze Feedbackzyklen ermöglichen. Dazu gehört unter anderem, dass sie eine Objekt-Historie bereitstellt. Darüber hinaus sollte ein Versionskontroll- und Datenbankmigrations-Tool automatisierte Unit- und Integrationstests in CI/CD-Pipelines unterstützen und Qualitätsprüfungen bereitstellen, um die Zuverlässigkeit zu erhöhen und Risiken zu minimieren. Self-Service-Provisionierung für Testdaten erleichtert paralleles Testen, verkürzt Feedbackzyklen und ermöglicht eine frühzeitige Fehlererkennung. Für das Release-Management empfiehlt sich die Unterstützung von Workflows für Benutzerakzeptanztests und fachliche Abnahmen in Bereichen wie Sicherheit und Performance sowie die Möglichkeit bedarfsgesteuerter Deployments. Ergänzende Funktionen wie Drift Detection, also die Erkennung von Abweichungen zwischen Soll- und Ist-Zustand der Datenbank, oder Dry Run, also die Simulation eines Deployments ohne tatsächliche Ausführung, runden ein gutes DBMS-Tool ab.

Benutzerfreundlichkeit spart Zeit und Geld

Leider sind viele Datenbankmanagementsysteme nicht besonders einfach zu bedienen. Gute DBMS-Tools bieten daher intuitive Benutzeroberflächen, sodass Datenbank-Teams ohne lange Einarbeitungszeit starten können. Auch das CoC (Convention over Configuration)-Prinzip ist bei Versionskontroll- und Datenbankmigrations-Tools wünschenswert, sodass die Nutzer nicht jede kleine Einstellung explizit konfigurieren müssen. Stattdessen verwenden CoC unterstützende Tools gängige Best Practices, bietet aber die Möglichkeit, individuell nachzujustieren. So können Datenbank-Teams schnell durchstarten, vermeiden anfänglich Konfigurationsfehler und passen bei Bedarf ihr Tool exakt den eigenen Bedürfnissen an.

„Die schiere Anzahl an unterschiedlichen DBMS-Tools ist gewaltig. Komplettlösungen, die alles Notwendige integrieren, suchen Unternehmen allerdings oft vergebens“, erklärt Oliver Stein, Geschäftsführer DACH bei Redgate. „Die Folge ist ein großer Flickenteppich an Einzellösungen, die mehr Aufwand verursachen, als sie reduzieren. Und selbst dann fehlt oft die Hälfte an Funktionen oder die Nutzerfreundlichkeit lässt zu wünschen übrig. Unternehmen sollten sich daher nach einer flexiblen, ganzheitlichen und individuell skalierbaren Versionskontroll- und Datenbankmigrations-Lösung umschauen, die den gesamten Database-DevOps-Lebenszyklus abdecken.“

it&t business medien eU
Tel.: +43/1/369 80 67-0
office@ittbusiness.at