Alle 14 Tage aktuelle News aus der IT-Szene   >   
84 Prozent der IT-Führungskräfte sehen Datenbereinigung als Schlüssel zur KI-Transformation 07. 11. 2025
Der aktuelle „State of Data and Analytics“-Report von Salesforce zeigt: Unternehmen stehen unter hohem Druck, ihre Datenstrategien grundlegend zu überarbeiten. Zwar bekennen sich viele zur Datenorientierung, doch die Realität ist geprägt von fragmentierten Datenbeständen, mangelnder Governance und isolierten Systemen – ein Risiko für den erfolgreichen Einsatz von KI.
Neues Rechenzentrum stärkt digitale Eigenständigkeit der HABAU GROUP 07. 11. 2025
Der Baukonzern HABAU hat am Standort Perg ein neues Rechenzentrum in Betrieb genommen. In Zusammenarbeit mit EPS Electric Power Systems entstand innerhalb von zwei Jahren eine hochverfügbare und energieeffiziente IT-Infrastruktur, die den steigenden Anforderungen der Digitalisierung Rechnung trägt.
SCHÄFER IT-Systems verstärkt Engagement in Österreich 06. 11. 2025
Der deutsche Rechenzentrums-Spezialist SCHÄFER IT-Systems intensiviert seine Aktivitäten in Österreich. Mit einem Fokus auf Partnerschaften im Vertrieb und Service sowie auf der modularen Produktlinie iQdata will das Unternehmen seine energieeffizienten und skalierbaren Lösungen auf dem österreichischen Markt fest etablieren.
Zscaler übernimmt SPLX und erweitert Zero Trust Exchange um KI-Sicherheitsfunktionen 06. 11. 2025
Der Cloud-Sicherheitsanbieter Zscaler hat den KI-Sicherheitspionier SPLX übernommen. Mit der Integration erweitert das Unternehmen seine Zero Trust Exchange-Plattform um Funktionen für KI-Asset-Erkennung, automatisiertes Red Teaming und Governance. Ziel ist es, Unternehmen eine durchgängige Absicherung ihrer KI-Anwendungen von der Entwicklung bis zur Bereitstellung zu ermöglichen.
Domains im Schatten der IT-Sicherheit 05. 11. 2025
Domains sind das Rückgrat digitaler Geschäftsmodelle. Sie tragen nicht nur Shop- und E-Mail-Verkehr, sondern auch zentrale Datenflüsse und Bezahlschnittstellen. Wer diesen Kern ungeschützt lässt, riskiert Umsatzverluste, Reputationsschäden und regulatorische Konsequenzen.
Wie SAP mit neuer KI-Strategie die Unternehmenssoftware neu denkt 05. 11. 2025
Auf der diesjährigen TechEd in Berlin präsentierte SAP umfassende Neuerungen, die Künstliche Intelligenz (KI) fest in den Entwicklungsalltag integrieren. Neue Werkzeuge, Partnerschaften und Datenlösungen sollen Entwicklern ermöglichen, Unternehmenssoftware schneller und intelligenter zu gestalten – ohne dabei die Kontrolle über Daten und Prozesse zu verlieren.
Cloudian und CTERA bündeln Kräfte für durchgängige Datenverwaltung vom Edge bis zur Cloud 05. 11. 2025
Der Objektspeicherspezialist Cloudian und der Data-Management-Anbieter CTERA vertiefen ihre Zusammenarbeit. Im Rahmen einer neuen globalen Partnerschaft kombinieren die Unternehmen ihre Technologien zu einer integrierten Plattform für die Verwaltung verteilter Unternehmensdaten. Ziel ist ein nahtloser, sicherer und skalierbarer Ansatz für moderne Datenarchitekturen.
AWS und OpenAI schließen strategische Partnerschaft im Wert von 38 Milliarden US-Dollar 04. 11. 2025
Amazon Web Services (AWS) und OpenAI haben eine mehrjährige strategische Partnerschaft angekündigt. OpenAI erhält ab sofort Zugriff auf die Hochleistungsinfrastruktur von AWS, um seine KI-Modelle zu betreiben und weiterzuentwickeln. Das Abkommen mit einem Gesamtvolumen von 38 Milliarden US-Dollar sieht den Ausbau der Rechenkapazitäten bis mindestens 2027 vor.
Neue it&d business Ausgabe 03/2025 beleuchtet Cybersecurity als Schlüssel zur digitalen Zukunft 31. 10. 2025
Cybersecurity ist längst mehr als Abwehr – sie wird zum entscheidenden Erfolgsfaktor in einer digitalisierten Wirtschaft. Die neue Ausgabe von it&d business (03/2025) beleuchtet, wie Unternehmen und Institutionen ihre Sicherheitsstrategien anpassen, um den Herausforderungen von KI, Datenflut und digitaler Souveränität zu begegnen.
Mit Kyano führt SNP den Wechsel in die SAP Public Cloud durch 31. 10. 2025
Der Heidelberger Softwareanbieter SNP hat seine SAP-Systeme von der SAP Cloud ERP Private in die Public Edition migriert – und nutzt dabei die eigene Transformationsplattform Kyano. Der Schritt gilt als Meilenstein in der Partnerschaft mit SAP und als neuer Anwendungsfall für SNPs Migrationslösungen.
183 Millionen Gmail-Passwörter? Warum die Schlagzeilen in die Irre führen 31. 10. 2025
In den Medien kursiert derzeit die Meldung über ein angebliches Datenleck bei Google mit Millionen kompromittierter Gmail-Passwörter. Doch der Fall liegt anders: Nicht Google selbst wurde gehackt, sondern bekannte und neue Datensätze aus verschiedenen Quellen wurden zusammengeführt. Tenable-Experte Satnam Narang erklärt, was wirklich dahintersteckt – und welche Schutzmaßnahmen jetzt wichtig sind.
Zoom und NVIDIA entwickeln hybride KI-Architektur für den Unternehmenseinsatz 30. 10. 2025
Zoom erweitert seine KI-Infrastruktur um NVIDIA-Technologien, um maßgeschneiderte KI-Funktionen für Unternehmen bereitzustellen. Der neue Zoom AI Companion 3.0 kombiniert offene und geschlossene Modelle zu einer flexiblen, ressourcenschonenden Lösung für produktivere Arbeitsprozesse.
Drei Viertel der Cloud-Nutzenden fordern europäische Datenhoheit 30. 10. 2025
Eine neue, von STRATO beauftragte Forsa-Studie zeigt: Für die Mehrheit der Deutschen ist der Cloud-Speicher längst Alltag – doch Vertrauen und Datenschutz stehen zunehmend im Vordergrund. 75 Prozent der Befragten wollen, dass keine außereuropäischen Institutionen Zugriff auf ihre Daten erhalten. Auch die Zahlungsbereitschaft für europäische Anbieter ist deutlich gestiegen.
HPE baut „Discovery“ und „Lux“ für das Oak Ridge National Laboratory 30. 10. 2025
Hewlett Packard Enterprise (HPE) errichtet zwei neue Systeme für das Oak Ridge National Laboratory des US-Energieministeriums: den Exascale-Supercomputer „Discovery“ und das KI-Cluster „Lux“. Während Discovery auf die nächste Generation der HPE-Cray-Supercomputing-Architektur setzt, entsteht mit Lux eine mandantenfähige Plattform für Künstliche Intelligenz.
Was Googles neuer AI Mode für Unternehmen bedeutet 29. 10. 2025
Nach den USA und Indien führt Google seinen „AI Mode“ nun auch in Deutschland ein. Der KI-gestützte Suchmodus verändert, wie Nutzer Informationen abrufen – und stellt Unternehmen vor neue Herausforderungen. Experte Mare Hojc von AN Digital erklärt, warum klassische Suchstrategien dennoch relevant bleiben und wie Firmen sich auf die neue Suchwelt vorbereiten können.
Programmierende KI: Die generierte Gefahr 29. 10. 2025
Large Language Modells schreiben Code in Sekunden. Was nach einem neuen Level an Effizienz klingt, hat allerdings auch eine Schattenseite. Das Problem: Sicherheit ist bislang kein integraler Bestandteil von KI-basierter Softwareentwicklung.
valantic integriert semantische Datenplattform Bardioc von Almato in sein Portfolio 29. 10. 2025
Die Digitalberatung valantic und Almato, Spezialist für KI-gestützte semantische Datenplattformen, gehen eine strategische Partnerschaft ein. Im Mittelpunkt steht die Plattform Bardioc, die datengetriebene Intelligenz mit erklärbarer KI verbindet und Unternehmen eine sichere, nachvollziehbare Datennutzung ermöglicht.
LG forciert Flüssigkeitskühlung für KI-Rechenzentren 28. 10. 2025
LG Electronics hat mit SK Enmove und Green Revolution Cooling eine Absichtserklärung zur gemeinsamen Entwicklung von Tauchkühlsystemen für KI-Rechenzentren unterzeichnet. Die Allianz soll den steigenden Energie- und Kühlbedarf leistungsstarker GPU-Infrastrukturen adressieren und neue Standards in Effizienz und Nachhaltigkeit setzen.
weiter
Produktiver KI-Einsatz verlangt neue Betriebsmodelle

Wie AgentOps den produktiven Einsatz von KI-Agenten sichert

KI-Agenten gelten als entscheidender Schritt in der Unternehmensdigitalisierung. Doch viele Projekte scheitern, bevor sie nachhaltigen Nutzen entfalten. Warum der stabile Betrieb von Agenten weit über ihre Entwicklung hinausgeht – und welche Rolle „AgentOps“ dabei spielt.

Foto: KNIME Michael Berthold, CEO von KNIME Der Einsatz von KI-Agenten – Systeme, die eigenständig Aufgaben übernehmen und mehrere Datenquellen oder Tools orchestrieren – nimmt in Unternehmen deutlich zu. In der Praxis zeigt sich jedoch: Der Schritt von der Entwicklung in den stabilen Betrieb ist oft der schwierigste. Häufig unterschätzen Organisationen den Aufwand, bestehende Prozesse anzupassen oder zu überwachen. Hinzu kommen Bedenken beim Datenschutz und der Datenteilung. Vor allem aber fehlt es an klaren Strukturen, um Agenten dauerhaft zu pflegen, anzupassen und zu kontrollieren.

Datenspezialist Michael Berthold, CEO von KNIME, sieht darin eine Parallele zu etablierten MLOps-Prozessen aus dem Machine Learning: „AgentOps ist weit mehr als ein neues Schlagwort – es ist der Schlüssel, um KI-Agenten in der Praxis wirksam und zuverlässig einzusetzen. Ob ein Data-Science-Modell Preise vorhersagt oder ein KI-Agent Fragen zu Produkten beantwortet, im Kern unterscheiden sie sich kaum: Beide brauchen ein stabiles Fundament, um zuverlässig zu funktionieren. Dafür sind interdisziplinäre Teams aus Data Scientists, IT und Fachbereichen notwendig, die eng zusammenarbeiten. Low-Code- und No-Code-Plattformen sind hier hilfreich, da sie die erforderlichen Werkzeuge und Datenquellen bündeln und den Betrieb planbar und nachvollziehbar machen, ohne dass jeder Mitarbeiter programmieren können muss.“

Unterschiedliche Herangehensweisen, ähnliche Probleme

Viele Unternehmen setzen bei der Umsetzung von Agenten auf bekannte Methoden aus der Software- oder Machine-Learning-Welt. Drei Vorgehensweisen haben sich etabliert – mit teils gravierenden Nachteilen.

Bei der „Wildwest-Methode“ entwickeln Fachabteilungen Agenten und Tools unabhängig voneinander. Das führt häufig zu unkoordinierten Einzellösungen, die nach kurzer Zeit kaum mehr wartbar sind.

Die „Wasserfall-Methode“ übergibt fertige Agenten von der Data Science an die IT-Abteilung, die sie eigenständig produktiv setzen soll. Ändert sich jedoch die zugrundeliegende KI oder ein Tool, sinkt die Qualität des Agenten oft drastisch – die Prozesse bleiben starr und träge.

Und die „klassische Software-Methode“, bei der traditionelle Entwicklungspraktiken auf Agenten angewandt werden, vernachlässigt die besonderen Anforderungen an Überwachung, Validierung und Anpassung. Das Ergebnis: Systeme, die entweder unflexibel oder nicht nachhaltig sind.

AgentOps als Brücke in den stabilen Betrieb

Hier setzt das Konzept AgentOps an. Es umfasst alle Prozesse, mit denen Agenten in produktive Umgebungen überführt, dort überwacht und regelmäßig gepflegt werden. Statt Agenten nur zu entwickeln, rückt der dauerhafte Betrieb in den Fokus.

AgentOps sorgt dafür, dass Agenten automatisch auf Veränderungen in Daten, Märkten oder Rahmenbedingungen reagieren können. Wenn Abweichungen auftreten, sollen Systeme entweder selbst Anpassungen vornehmen oder das verantwortliche Team informieren. Nur durch diesen geschlossenen Zyklus bleibt die Qualität erhalten – sowohl technisch als auch inhaltlich.

Während klassische CI/CD-Prozesse aus der Softwareentwicklung vor allem auf regelmäßige Updates zielen, umfasst ein AgentOps-Deployment ein ganzes „Production Package“. Dieses beinhaltet den Agenten, seine Tools, Abhängigkeiten und gegebenenfalls trainierte Modelle. Damit verbunden sind deutlich höhere Anforderungen an Nachvollziehbarkeit und Stabilität.

Drei Säulen für nachhaltige AgentOps-Strukturen

Damit Agenten langfristig zuverlässig arbeiten, stützt sich AgentOps auf drei zentrale Prinzipien:

  1. Datenqualität: Agenten müssen stets mit aktuellen und relevanten Informationen arbeiten. Änderungen an Tools oder Datenquellen dürfen ihre Entscheidungen nicht unbemerkt beeinflussen.

  2. Versionierung: Jede Anpassung an Agenten, Tools oder Daten muss nachvollziehbar bleiben. So lassen sich Ursachen für Qualitätsverluste identifizieren und beheben.

  3. Monitoring: Kontinuierliche – möglichst automatisierte – Überwachung ist unerlässlich, um Bias, Fehlentwicklungen oder veränderte Bedingungen frühzeitig zu erkennen.

Nur wenn diese drei Säulen konsequent umgesetzt werden, lässt sich sicherstellen, dass Agenten nicht nur kurzfristig, sondern auch über längere Zeiträume hinweg verlässlich arbeiten.

Zusammenarbeit als Schlüssel

Wie schon im MLOps-Umfeld hängt der Erfolg auch bei AgentOps stark von der interdisziplinären Zusammenarbeit ab. Data Scientists, IT und Fachabteilungen müssen ihre Prozesse eng verzahnen. Nur so entsteht die notwendige Transparenz, um Agenten im laufenden Betrieb flexibel anzupassen – ohne Stabilität oder Kontrolle zu verlieren.

it&t business medien eU
Tel.: +43/1/369 80 67-0
office@ittbusiness.at