Alle 14 Tage aktuelle News aus der IT-Szene   >   
84 Prozent der IT-Führungskräfte sehen Datenbereinigung als Schlüssel zur KI-Transformation 07. 11. 2025
Der aktuelle „State of Data and Analytics“-Report von Salesforce zeigt: Unternehmen stehen unter hohem Druck, ihre Datenstrategien grundlegend zu überarbeiten. Zwar bekennen sich viele zur Datenorientierung, doch die Realität ist geprägt von fragmentierten Datenbeständen, mangelnder Governance und isolierten Systemen – ein Risiko für den erfolgreichen Einsatz von KI.
Neues Rechenzentrum stärkt digitale Eigenständigkeit der HABAU GROUP 07. 11. 2025
Der Baukonzern HABAU hat am Standort Perg ein neues Rechenzentrum in Betrieb genommen. In Zusammenarbeit mit EPS Electric Power Systems entstand innerhalb von zwei Jahren eine hochverfügbare und energieeffiziente IT-Infrastruktur, die den steigenden Anforderungen der Digitalisierung Rechnung trägt.
SCHÄFER IT-Systems verstärkt Engagement in Österreich 06. 11. 2025
Der deutsche Rechenzentrums-Spezialist SCHÄFER IT-Systems intensiviert seine Aktivitäten in Österreich. Mit einem Fokus auf Partnerschaften im Vertrieb und Service sowie auf der modularen Produktlinie iQdata will das Unternehmen seine energieeffizienten und skalierbaren Lösungen auf dem österreichischen Markt fest etablieren.
Zscaler übernimmt SPLX und erweitert Zero Trust Exchange um KI-Sicherheitsfunktionen 06. 11. 2025
Der Cloud-Sicherheitsanbieter Zscaler hat den KI-Sicherheitspionier SPLX übernommen. Mit der Integration erweitert das Unternehmen seine Zero Trust Exchange-Plattform um Funktionen für KI-Asset-Erkennung, automatisiertes Red Teaming und Governance. Ziel ist es, Unternehmen eine durchgängige Absicherung ihrer KI-Anwendungen von der Entwicklung bis zur Bereitstellung zu ermöglichen.
Domains im Schatten der IT-Sicherheit 05. 11. 2025
Domains sind das Rückgrat digitaler Geschäftsmodelle. Sie tragen nicht nur Shop- und E-Mail-Verkehr, sondern auch zentrale Datenflüsse und Bezahlschnittstellen. Wer diesen Kern ungeschützt lässt, riskiert Umsatzverluste, Reputationsschäden und regulatorische Konsequenzen.
Wie SAP mit neuer KI-Strategie die Unternehmenssoftware neu denkt 05. 11. 2025
Auf der diesjährigen TechEd in Berlin präsentierte SAP umfassende Neuerungen, die Künstliche Intelligenz (KI) fest in den Entwicklungsalltag integrieren. Neue Werkzeuge, Partnerschaften und Datenlösungen sollen Entwicklern ermöglichen, Unternehmenssoftware schneller und intelligenter zu gestalten – ohne dabei die Kontrolle über Daten und Prozesse zu verlieren.
Cloudian und CTERA bündeln Kräfte für durchgängige Datenverwaltung vom Edge bis zur Cloud 05. 11. 2025
Der Objektspeicherspezialist Cloudian und der Data-Management-Anbieter CTERA vertiefen ihre Zusammenarbeit. Im Rahmen einer neuen globalen Partnerschaft kombinieren die Unternehmen ihre Technologien zu einer integrierten Plattform für die Verwaltung verteilter Unternehmensdaten. Ziel ist ein nahtloser, sicherer und skalierbarer Ansatz für moderne Datenarchitekturen.
AWS und OpenAI schließen strategische Partnerschaft im Wert von 38 Milliarden US-Dollar 04. 11. 2025
Amazon Web Services (AWS) und OpenAI haben eine mehrjährige strategische Partnerschaft angekündigt. OpenAI erhält ab sofort Zugriff auf die Hochleistungsinfrastruktur von AWS, um seine KI-Modelle zu betreiben und weiterzuentwickeln. Das Abkommen mit einem Gesamtvolumen von 38 Milliarden US-Dollar sieht den Ausbau der Rechenkapazitäten bis mindestens 2027 vor.
Neue it&d business Ausgabe 03/2025 beleuchtet Cybersecurity als Schlüssel zur digitalen Zukunft 31. 10. 2025
Cybersecurity ist längst mehr als Abwehr – sie wird zum entscheidenden Erfolgsfaktor in einer digitalisierten Wirtschaft. Die neue Ausgabe von it&d business (03/2025) beleuchtet, wie Unternehmen und Institutionen ihre Sicherheitsstrategien anpassen, um den Herausforderungen von KI, Datenflut und digitaler Souveränität zu begegnen.
Mit Kyano führt SNP den Wechsel in die SAP Public Cloud durch 31. 10. 2025
Der Heidelberger Softwareanbieter SNP hat seine SAP-Systeme von der SAP Cloud ERP Private in die Public Edition migriert – und nutzt dabei die eigene Transformationsplattform Kyano. Der Schritt gilt als Meilenstein in der Partnerschaft mit SAP und als neuer Anwendungsfall für SNPs Migrationslösungen.
183 Millionen Gmail-Passwörter? Warum die Schlagzeilen in die Irre führen 31. 10. 2025
In den Medien kursiert derzeit die Meldung über ein angebliches Datenleck bei Google mit Millionen kompromittierter Gmail-Passwörter. Doch der Fall liegt anders: Nicht Google selbst wurde gehackt, sondern bekannte und neue Datensätze aus verschiedenen Quellen wurden zusammengeführt. Tenable-Experte Satnam Narang erklärt, was wirklich dahintersteckt – und welche Schutzmaßnahmen jetzt wichtig sind.
Zoom und NVIDIA entwickeln hybride KI-Architektur für den Unternehmenseinsatz 30. 10. 2025
Zoom erweitert seine KI-Infrastruktur um NVIDIA-Technologien, um maßgeschneiderte KI-Funktionen für Unternehmen bereitzustellen. Der neue Zoom AI Companion 3.0 kombiniert offene und geschlossene Modelle zu einer flexiblen, ressourcenschonenden Lösung für produktivere Arbeitsprozesse.
Drei Viertel der Cloud-Nutzenden fordern europäische Datenhoheit 30. 10. 2025
Eine neue, von STRATO beauftragte Forsa-Studie zeigt: Für die Mehrheit der Deutschen ist der Cloud-Speicher längst Alltag – doch Vertrauen und Datenschutz stehen zunehmend im Vordergrund. 75 Prozent der Befragten wollen, dass keine außereuropäischen Institutionen Zugriff auf ihre Daten erhalten. Auch die Zahlungsbereitschaft für europäische Anbieter ist deutlich gestiegen.
HPE baut „Discovery“ und „Lux“ für das Oak Ridge National Laboratory 30. 10. 2025
Hewlett Packard Enterprise (HPE) errichtet zwei neue Systeme für das Oak Ridge National Laboratory des US-Energieministeriums: den Exascale-Supercomputer „Discovery“ und das KI-Cluster „Lux“. Während Discovery auf die nächste Generation der HPE-Cray-Supercomputing-Architektur setzt, entsteht mit Lux eine mandantenfähige Plattform für Künstliche Intelligenz.
Was Googles neuer AI Mode für Unternehmen bedeutet 29. 10. 2025
Nach den USA und Indien führt Google seinen „AI Mode“ nun auch in Deutschland ein. Der KI-gestützte Suchmodus verändert, wie Nutzer Informationen abrufen – und stellt Unternehmen vor neue Herausforderungen. Experte Mare Hojc von AN Digital erklärt, warum klassische Suchstrategien dennoch relevant bleiben und wie Firmen sich auf die neue Suchwelt vorbereiten können.
Programmierende KI: Die generierte Gefahr 29. 10. 2025
Large Language Modells schreiben Code in Sekunden. Was nach einem neuen Level an Effizienz klingt, hat allerdings auch eine Schattenseite. Das Problem: Sicherheit ist bislang kein integraler Bestandteil von KI-basierter Softwareentwicklung.
valantic integriert semantische Datenplattform Bardioc von Almato in sein Portfolio 29. 10. 2025
Die Digitalberatung valantic und Almato, Spezialist für KI-gestützte semantische Datenplattformen, gehen eine strategische Partnerschaft ein. Im Mittelpunkt steht die Plattform Bardioc, die datengetriebene Intelligenz mit erklärbarer KI verbindet und Unternehmen eine sichere, nachvollziehbare Datennutzung ermöglicht.
LG forciert Flüssigkeitskühlung für KI-Rechenzentren 28. 10. 2025
LG Electronics hat mit SK Enmove und Green Revolution Cooling eine Absichtserklärung zur gemeinsamen Entwicklung von Tauchkühlsystemen für KI-Rechenzentren unterzeichnet. Die Allianz soll den steigenden Energie- und Kühlbedarf leistungsstarker GPU-Infrastrukturen adressieren und neue Standards in Effizienz und Nachhaltigkeit setzen.
weiter
Gastbeitrag von Jan Wildeboer, EMEA Evangelist bei Red Hat

Small AI auf der Überholspur

Die Erwartungen an die neuesten LLMs waren immens, aber für viele ist die anfängliche Begeisterung inzwischen der Enttäuschung gewichen. Der Hype rund um LLMs ebbt ab und SLMs rücken immer stärker ins Blickfeld – aus gutem Grund. Sie bieten klare Vorteile, darunter Kosteneffizienz und Anpassbarkeit. Zudem können sie schneller produktionsnah und unternehmensspezifisch genutzt werden.

Foto: Red Hat Jan Wildeboer, EMEA Evangelist bei Red Hat Unternehmen sollten vor jeder Einführung von KI genau prüfen, welches Sprachmodell – ein LLM (Large Language Model) oder ein SLM (Small Language Model) – am besten zu den eigenen Anforderungen passt. Die Ziele des KI-Einsatzes bestimmen, ob ein generalistisches LLM oder ein spezialisiertes SLM optimal ist. Unternehmen sollten die Unterschiede beachten, damit ein erfolgreicher Einsatz gewährleistet ist.

LLMs sind universell ausgelegt und verfügen über Basiswissen, sodass sie nicht auf fachspezifische Antworten abzielen. Auch das Problem möglicher Halluzinationen ist schwer in den Griff zu bekommen. Hingegen ist ein SLM eine kleinere Version eines LLMs, das über mehr Fachwissen verfügt, schneller angepasst und effizienter ausgeführt werden kann.

SLMs werden in der Regel anhand kleinerer Datensätze trainiert, die auf bestimmte Branchen- oder Fachbereiche und Themen zugeschnitten sind. Ein Gesundheitsdienstleister könnte beispielsweise einen SLM-gestützten Chatbot verwenden, der auf medizinischen Datensätzen basiert. In einem solchen Fall muss der SLM-gestützte Chatbot nicht anhand generischen, universellen Wissens trainiert werden, da dies für den konkreten Use Case im Gesundheitswesen irrelevant ist.

Im Vergleich zu LLMs bietet die Nutzung kleinerer Modelle zahlreiche Vorteile. Sie unterstützen eine dynamische Anpassung und kontinuierliche Integration neuer Daten. Das heißt, mit ihnen sind auch Trainingsläufe deutlich schneller durchführbar. Kleine Modelle tragen auch zu einer erheblichen Kosteneinsparung bei, schließlich erfordern LLMs mit Milliarden von Parametern erhebliche Investitionen. Mit SLMs können große Datenmengen auch mit geringen Rechenressourcen ausgewertet werden. Small bedeutet dabei keineswegs „klein“ und „wenig Funktionen“, sondern vielmehr „anforderungsspezifisch“, „schnell“ und „austauschbar“.

Nicht zuletzt verringert die Nutzung kleiner Modelle mit domänenspezifischen Daten auch die Abhängigkeit der Unternehmen von großen LLM-Anbietern, deren Lösungen vielfach eine Blackbox hinsichtlich Algorithmen, Trainingsdaten oder Modellen sind. Damit trägt Small AI im Sinne eines „Own your Stack“ und „Own your Data“ zur digitalen Souveränität bei.

Von der Antwortverbesserung zum Aufruf externer Funktionen

Diese Vorteile führen dazu, dass künftig verstärkt kleine KI-Modelle für fachspezifische Aufgaben genutzt werden. Selbst große LLM-Anbieter stellen inzwischen zusätzlich kleinere Modelle bereit. Prinzipiell können auch LLMs, also die sogenannten Foundation Models, als Technologiebasis dienen und auf die konkreten Unternehmensanforderungen hin optimiert werden, wie einige Beispiele zeigen. RAG (Retrieval-Augmented Generation) bietet die Möglichkeit, die in einem LLM vorhandenen Daten durch externe Wissensquellen wie Daten-Repositories, Textsammlungen oder bestehende Dokumentationen zu ergänzen. Diese Ressourcen werden segmentiert, in einer Vektordatenbank indiziert und als Referenzmaterial genutzt, um genauere Antworten zu liefern. So wird auch die Gefahr von Halluzinationen verringert. Ein anderes Beispiel ist der offene Standard MCP (Model Context Protocol), eine standardisierte Schnittstelle für den Datenaustausch zwischen LLMs und externen Tools, Datenquellen oder Systemen. MCP hat aufgrund der Benutzerfreundlichkeit und der Vorteile für den Einsatz von KI schnell an Relevanz gewonnen. Während es bei einer RAG-Nutzung nur darum geht, die LLM-Antworten mit externen oder aktuellen Informationen zu ergänzen und zu verbessern, bietet der MCP-Ansatz vor allem auch die Möglichkeit, direkte Aktionen auszuführen. KI-Agenten können so mit APIs, Tools oder Datenbanken interagieren, um zum Beispiel Datensätze zu aktualisieren.

Open-Source-basiert zur vertrauenswürdigen KI

Bei jeder Nutzung eines KI-Modells stellt sich unweigerlich die Frage nach der Sicherheit und Unabhängigkeit, gerade in einer Zeit, in der die digitale Souveränität an Bedeutung gewinnt. Aber auch hier gibt es inzwischen viele Lösungen wie die Granite-Familie von Open-Source-lizensierten Modellen. Bei Granite handelt es sich um ein LLM, das von IBM für Unternehmensanwendungen entwickelt wurde. Die Modellfamilie deckt ein breites Spektrum an KI-Anwendungsfällen ab, von der Codegenerierung über die Verarbeitung natürlicher Sprache bis hin zur Gewinnung von Erkenntnissen aus großen Datensätzen – alles unter einer Open-Source-Lizenz. Die Modelle verfügen über ein grundlegendes Wissen, das sich durch Finetuning weiter anpassen lässt, damit die Modelle bestimmte Aufgaben für nahezu alle Branchen ausführen können. Was die Granite-KI-Modelle von anderen Basismodellen unterscheidet, ist die Offenlegung der Trainingsdaten, was den Nutzenden mehr Transparenz bietet.

Abbildung 1: Der Ansatz von Red Hat im KI- und ML-Engineering ist zu 100 Prozent Open-Source-basiert (Quelle: Red Hat)

vLLM und llm-d als Bausteine moderner KI-Anwendungen

Der KI-Bereich ist derzeit von einer hohen Dynamik mit vielen neuen Angeboten und Leistungsmerkmalen geprägt. Zwei neue Entwicklungen aus der Open-Source-Welt sind dabei von besonderer Relevanz: vLLM und llm-d.

vLLM ist eine Library von Open Source Codes, die von der vLLM Community verwaltet werden. Das Modell unterstützt LLMs, Berechnungen effizienter durchzuführen. Konkret handelt es sich bei einem vLLM um einen Inferenzserver, der den Output generativer KI-Anwendungen durch eine bessere Nutzung des GPU-Speichers beschleunigt. Damit adressiert der Inferenzserver eine zentrale Herausforderung: GenAI-Modelle werden immer komplexer und in immer größerem Umfang produktiv eingesetzt, sodass die Inferenz zum Flaschenhals wird. Sie benötigt viele Hardware-Ressourcen, beeinträchtigt die Reaktionsfähigkeit und treibt die Kosten in die Höhe. Mit robusten Inferenzservern kann die für KI-Workloads erforderliche Hardware nun wesentlich effizienter genutzt werden.

Während vLLM eine umfassende Modellunterstützung für eine Vielzahl von Hardwareplattformen bietet, geht llm-d noch einen Schritt weiter. Aufbauend auf bestehenden IT-Infrastrukturen in Unternehmen bietet llm-d verteilte und fortschrittliche Inferenzfunktionen, die zur Ressourceneinsparung und Leistungssteigerung beitragen, darunter eine deutliche Verbesserung der Time-to-First-Token und des Durchsatzes unter Latenzbedingungen. llm-d ist eine leistungsstarke Suite von Neuerungen, entscheidend sind aber zwei Innovationen, die zur Verbesserung der Inferenz beitragen: die Disaggregation und der intelligente Scheduling Layer. Durch die Disaggregation können Hardware-Beschleuniger während der Inferenz wirksamer genutzt werden. Dabei wird die Prompt-Verarbeitung von der Token-Generierung in einzelne Workloads, sogenannte Pods, getrennt. Diese Aufteilung ermöglicht eine unabhängige Skalierung und Optimierung in den einzelnen Phasen, die schließlich unterschiedliche Rechenanforderungen haben. Der intelligente Scheduling Layer erweitert zudem die Kubernetes Gateway API und ermöglicht differenziertere Routing-Entscheidungen für eingehende Anfragen. Dafür werden Echtzeitdaten wie die Cache- und Pod-Auslastung genutzt, um Anfragen an die optimale Instanz weiterzuleiten, wodurch die Arbeitslast im Cluster ausgeglichen wird.

Hybrid Cloud als Infrastrukturbasis

Welchen KI-Weg ein Unternehmen auch einschlägt, wichtig sind auf jeden Fall immer eine adäquate Architekturbasis und Infrastruktur. Zur Vermeidung eines Vendor-Lock-ins, Nutzung neuer KI-Innovationen und Umsetzung beliebiger Anwendungsfälle empfiehlt sich eine flexible und hybride Plattform, die auf Open Source basiert. Eine solche Plattform bietet auch die erforderliche Flexibilität für das Training und Finetuning sowie für die Bereitstellung und Überwachung von KI-Modellen in der Cloud, am Edge oder on-premises. So kann ein Training beispielsweise auf GPU-Farmen mit klarer Mandantentrennung in der Cloud erfolgen und anschließend das Modell on-premises im Produktivbetrieb eingesetzt werden. Auf diese Weise wird auch die Datensicherheit und -hoheit mit der für anspruchsvolle KI-Modelle nötigen kostenintensiven Rechenleistung in Einklang gebracht.

Abbildung 2: Mit Red Hat OpenShift AI, einer flexiblen, skalierbaren KI/ML-Plattform, können Unternehmen KI-gestützte Anwendungen in Hybrid-Cloud-Umgebungen entwickeln und bereitstellen. (Quelle: Red Hat)

Hybrid-Cloud-Lösungen sind allein schon deshalb sinnvoll, weil sie die Chancen, die KI bietet, nicht durch isolierte Infrastrukturen einschränkt. Schließlich sollte es das Ziel sein, dass ein Unternehmen jedes Modell auf jedem Beschleuniger und in jeder Cloud einsetzen kann – und zwar mit konsistenter Benutzererfahrung und ohne exorbitante Kosten. Die Möglichkeiten dazu existieren schon heute. Vor allem aber kann ein Swarm-AI-Ansatz, der auf der Nutzung vieler kleiner Modelle für spezifische Aufgaben basiert und eine Alternative zu LLMs darstellt, den Weg in eine vielversprechende KI-Zukunft weisen. KI wird so zu einem Tool, das jetzt greifbar und für Unternehmen eigenständig nutzbar ist sowie unmittelbar bei der täglichen Arbeit unterstützt.

it&t business medien eU
Tel.: +43/1/369 80 67-0
office@ittbusiness.at