Alle 14 Tage aktuelle News aus der IT-Szene   >   
Social-Engineering-Angriffe nehmen macOS-Nutzer stärker ins Visier 16. 03. 2026
Neue Analysen von Sophos zeigen eine deutliche Zunahme von ClickFix- und Infostealer-Kampagnen gegen macOS. Besonders Social Engineering und neue Angriffstechniken rund um generative KI erweitern das Bedrohungsszenario für Apple-Systeme.
AWS European Sovereign Cloud erreicht SOC 2, C5 und sieben ISO-Zertifizierungen 13. 03. 2026
Zwei Monate nach dem Start meldet die AWS European Sovereign Cloud einen ersten wichtigen Compliance-Meilenstein: Neben einer SOC 2-Zertifizierung wurden ein C5-Type-1-Testat des BSI sowie sieben ISO-Zertifizierungen erreicht. Damit adressiert das Angebot die hohen regulatorischen Anforderungen europäischer Behörden und Unternehmen beim Umgang mit sensiblen Daten.
Panasonic präsentiert robustes Notebook TOUGHBOOK 56 für den mobilen Außeneinsatz 13. 03. 2026
Panasonic bringt mit dem TOUGHBOOK 56 eine neue Generation robuster Notebooks für mobile Mitarbeitende auf den Markt. Das Gerät soll insbesondere durch verbesserte Konnektivität, Edge-AI-Leistung und ergonomische Funktionen für den Außeneinsatz in Branchen wie Verteidigung, Versorgungswirtschaft oder Automotive entwickelt worden sein.
insideAx und insideNAV bündeln Kompetenzen 13. 03. 2026
Mit einem Management Buyout stellt sich die inside-Gruppe organisatorisch neu auf. Die Unternehmen insideAx und insideNAV wurden zusammengeführt, um ihr Portfolio rund um ERP- und Digitalisierungslösungen zu bündeln.
Forschungsprojekt zu Cloud-Interoperabilität in Energiesystemen 13. 03. 2026
Die PSI Software arbeitet im Verbundprojekt CloudEnerChain an cloudbasierten Mehrwertdiensten und an der sicheren Integration von Cloud- und IoT-Technologien in Leit­systeme für Energiesysteme. Das Projekt untersucht dafür sichere Kommunikationsstrukturen zwischen Feldgeräten, Cloud-Plattformen und Leit­systemen.
Security braucht Entscheidungen – nicht noch mehr Alarme 12. 03. 2026
Die Zahl der Security-Alerts steigt kontinuierlich, doch mehr Warnmeldungen bedeuten nicht automatisch mehr Sicherheit. Im Leader Cockpit analysieret Maik Höhne vom Sicherheitsanbieter Arctic Wolf, warum Unternehmen heute vor allem bessere Entscheidungen statt zusätzlicher Alarme brauchen – und welche Rolle klare Verantwortlichkeiten, Priorisierung und strategisches Security-Management dabei spielen.
Doris Lippert wird neue Geschäftsführerin von Cloudflight Österreich 12. 03. 2026
Der IT-Dienstleister Cloudflight stellt seine Führung neu auf: Mit 1. April 2026 übernimmt Doris Lippert die Geschäftsführung der Österreich-Tochter. Parallel dazu setzt das Unternehmen strategisch verstärkt auf den Wandel zu einem integrierten, KI-first Technologiepartner.
Zendesk plant Übernahme von Forethought und setzt auf selbstlernende KI-Agenten im Kundenservice 11. 03. 2026
Zendesk will seine Resolution-Plattform durch die geplante Übernahme des KI-Spezialisten Forethought erweitern. Ziel ist der Ausbau autonomer KI-Agenten, die Serviceprozesse zunehmend selbstständig ausführen und weiterentwickeln können. Das Unternehmen erwartet bereits in diesem Jahr einen grundlegenden Wandel im Kundenservice: KI-Systeme könnten mehr Interaktionen bearbeiten als menschliche Servicekräfte.
NIS2: Österreichs Unternehmen kennen die Richtlinie – bei der Umsetzung gibt es jedoch großen Nachholbedarf 10. 03. 2026
Eine aktuelle Studie zeigt ein ambivalentes Bild bei der Vorbereitung österreichischer Unternehmen auf die EU-Cybersicherheitsrichtlinie NIS2. Zwar ist die Richtlinie den meisten Organisationen bekannt, doch bei der praktischen Umsetzung und bei der Einschätzung der eigenen Betroffenheit bestehen weiterhin erhebliche Unsicherheiten.
Ausbau von MareNostrum 5 soll KI-Entwicklung in Europa stärken 10. 03. 2026
Fsas Technologies und Telefónica wurden von EuroHPC JU mit der Erweiterung des Supercomputers MareNostrum 5 am Barcelona Supercomputing Center beauftragt. Die neue Infrastruktur soll europäischen Start-ups, Scale-ups und KMU mehr Rechenkapazitäten für KI-Projekte bereitstellen und damit die technologische Wettbewerbsfähigkeit Europas stärken.
KMU wollen KI – aber sie brauchen Partner, die sie greifbar machen 09. 03. 2026
Künstliche Intelligenz ist längst auch im Mittelstand angekommen – doch zwischen Interesse und konkreter Umsetzung liegt oft noch ein weiter Weg. Im Interview spricht Naemi Benz, Partner Ecosystem Leader DACH bei IBM, darüber, warum KMU praxisnahe Partner brauchen, wie KI-Projekte erfolgreich gestartet werden können und welche Rolle Vertrauen und Verständlichkeit dabei spielen.
Ein Molekül mit Halb-Möbius-Topologie: Quantencomputer helfen bei der Analyse einer neuen elektronischen Struktur 09. 03. 2026
Ein internationales Forschungsteam unter Beteiligung von IBM sowie mehreren europäischen Universitäten hat ein bislang unbekanntes Molekül erzeugt und untersucht. Die Studie, veröffentlicht in der Fachzeitschrift Science, beschreibt erstmals die experimentelle Beobachtung einer elektronischen Halb-Möbius-Topologie in einem einzelnen Molekül. Quantencomputing spielte dabei eine zentrale Rolle bei der Analyse der elektronischen Struktur.
FC Bayern setzt mit RISE with SAP auf strategische Cloud-Offensive 09. 03. 2026
SAP und der FC Bayern intensivieren ihre langjährige Technologie-Partnerschaft: Der Rekordmeister hat seine zentrale IT‑Landschaft vollständig in die Cloud überführt mit RISE with SAP als strategischem Fundament für die digitale Zukunft des Clubs. Mit der neuen Cloud-Umgebung sichert sich der FC Bayern bedarfsgerechte Skalierbarkeit für hohe Auslastung an Spieltagen, einheitliche Sicherheitsstandards, vereinfachte IT‑Betriebsprozesse und ein klar planbares Kostenmodell.
All for One übernimmt SAP-Procurement-Spezialisten apsolut 06. 03. 2026
Die All for One Group SE hat Anfang März 2026 sämtliche Anteile an der apsolut Group übernommen. Mit dem Erwerb des auf SAP Procurement spezialisierten Beratungsunternehmens baut der IT- und Consultinganbieter seine internationale Lieferfähigkeit aus und stärkt seine Position im SAP-Ökosystem.
CrowdStrike und Schwarz Digits bringen Cybersecurity-Plattform in die STACKIT-Cloud 05. 03. 2026
CrowdStrike und Schwarz Digits haben eine langfristige strategische Partnerschaft angekündigt. Die CrowdStrike Falcon-Plattform wird künftig über die souveräne Cloud-Infrastruktur STACKIT bereitgestellt und soll europäischen Unternehmen sowie öffentlichen Institutionen Cyberschutz bei gleichzeitiger Wahrung der Datenhoheit ermöglichen.
Tieto und osapiens kooperieren bei Digitalisierung und Compliance 04. 03. 2026
Der IT-Dienstleister Tieto und der Softwareanbieter osapiens haben eine Partnerschaft geschlossen. Ziel der Zusammenarbeit ist es, Unternehmen bei der Umsetzung regulatorischer Anforderungen sowie bei der digitalen Transformation zu unterstützen.
Rainer Steinlesberger übernimmt Geschäftsführung von Zühlke Österreich 04. 03. 2026
Der Technologieberater und -entwickler Zühlke hat Rainer Steinlesberger zum CEO von Zühlke Österreich ernannt. Der 45-jährige Manager, der seit rund 20 Jahren in internationalen Technologieunternehmen in Management- und C-Level-Funktionen tätig ist, hat die Position mit 1. März übernommen.
tokeneurope.ai startet als europäische LLM-Plattform 03. 03. 2026
Mit tokeneurope.ai nehmen FiveSquare und eww ITandTEL eine europäische „LLM as a Service“-Plattform in Betrieb. Ziel ist es, Unternehmen und öffentlichen Einrichtungen den Einsatz moderner Large Language Models auf vollständig europäischer Infrastruktur zu ermöglichen – mit Rechenzentrumsstandorten in Österreich und klarem Fokus auf Datensouveränität.
weiter
Gastbeitrag von Jan Wildeboer, EMEA Evangelist bei Red Hat

Small AI auf der Überholspur

Die Erwartungen an die neuesten LLMs waren immens, aber für viele ist die anfängliche Begeisterung inzwischen der Enttäuschung gewichen. Der Hype rund um LLMs ebbt ab und SLMs rücken immer stärker ins Blickfeld – aus gutem Grund. Sie bieten klare Vorteile, darunter Kosteneffizienz und Anpassbarkeit. Zudem können sie schneller produktionsnah und unternehmensspezifisch genutzt werden.

Foto: Red Hat Jan Wildeboer, EMEA Evangelist bei Red Hat Unternehmen sollten vor jeder Einführung von KI genau prüfen, welches Sprachmodell – ein LLM (Large Language Model) oder ein SLM (Small Language Model) – am besten zu den eigenen Anforderungen passt. Die Ziele des KI-Einsatzes bestimmen, ob ein generalistisches LLM oder ein spezialisiertes SLM optimal ist. Unternehmen sollten die Unterschiede beachten, damit ein erfolgreicher Einsatz gewährleistet ist.

LLMs sind universell ausgelegt und verfügen über Basiswissen, sodass sie nicht auf fachspezifische Antworten abzielen. Auch das Problem möglicher Halluzinationen ist schwer in den Griff zu bekommen. Hingegen ist ein SLM eine kleinere Version eines LLMs, das über mehr Fachwissen verfügt, schneller angepasst und effizienter ausgeführt werden kann.

SLMs werden in der Regel anhand kleinerer Datensätze trainiert, die auf bestimmte Branchen- oder Fachbereiche und Themen zugeschnitten sind. Ein Gesundheitsdienstleister könnte beispielsweise einen SLM-gestützten Chatbot verwenden, der auf medizinischen Datensätzen basiert. In einem solchen Fall muss der SLM-gestützte Chatbot nicht anhand generischen, universellen Wissens trainiert werden, da dies für den konkreten Use Case im Gesundheitswesen irrelevant ist.

Im Vergleich zu LLMs bietet die Nutzung kleinerer Modelle zahlreiche Vorteile. Sie unterstützen eine dynamische Anpassung und kontinuierliche Integration neuer Daten. Das heißt, mit ihnen sind auch Trainingsläufe deutlich schneller durchführbar. Kleine Modelle tragen auch zu einer erheblichen Kosteneinsparung bei, schließlich erfordern LLMs mit Milliarden von Parametern erhebliche Investitionen. Mit SLMs können große Datenmengen auch mit geringen Rechenressourcen ausgewertet werden. Small bedeutet dabei keineswegs „klein“ und „wenig Funktionen“, sondern vielmehr „anforderungsspezifisch“, „schnell“ und „austauschbar“.

Nicht zuletzt verringert die Nutzung kleiner Modelle mit domänenspezifischen Daten auch die Abhängigkeit der Unternehmen von großen LLM-Anbietern, deren Lösungen vielfach eine Blackbox hinsichtlich Algorithmen, Trainingsdaten oder Modellen sind. Damit trägt Small AI im Sinne eines „Own your Stack“ und „Own your Data“ zur digitalen Souveränität bei.

Von der Antwortverbesserung zum Aufruf externer Funktionen

Diese Vorteile führen dazu, dass künftig verstärkt kleine KI-Modelle für fachspezifische Aufgaben genutzt werden. Selbst große LLM-Anbieter stellen inzwischen zusätzlich kleinere Modelle bereit. Prinzipiell können auch LLMs, also die sogenannten Foundation Models, als Technologiebasis dienen und auf die konkreten Unternehmensanforderungen hin optimiert werden, wie einige Beispiele zeigen. RAG (Retrieval-Augmented Generation) bietet die Möglichkeit, die in einem LLM vorhandenen Daten durch externe Wissensquellen wie Daten-Repositories, Textsammlungen oder bestehende Dokumentationen zu ergänzen. Diese Ressourcen werden segmentiert, in einer Vektordatenbank indiziert und als Referenzmaterial genutzt, um genauere Antworten zu liefern. So wird auch die Gefahr von Halluzinationen verringert. Ein anderes Beispiel ist der offene Standard MCP (Model Context Protocol), eine standardisierte Schnittstelle für den Datenaustausch zwischen LLMs und externen Tools, Datenquellen oder Systemen. MCP hat aufgrund der Benutzerfreundlichkeit und der Vorteile für den Einsatz von KI schnell an Relevanz gewonnen. Während es bei einer RAG-Nutzung nur darum geht, die LLM-Antworten mit externen oder aktuellen Informationen zu ergänzen und zu verbessern, bietet der MCP-Ansatz vor allem auch die Möglichkeit, direkte Aktionen auszuführen. KI-Agenten können so mit APIs, Tools oder Datenbanken interagieren, um zum Beispiel Datensätze zu aktualisieren.

Open-Source-basiert zur vertrauenswürdigen KI

Bei jeder Nutzung eines KI-Modells stellt sich unweigerlich die Frage nach der Sicherheit und Unabhängigkeit, gerade in einer Zeit, in der die digitale Souveränität an Bedeutung gewinnt. Aber auch hier gibt es inzwischen viele Lösungen wie die Granite-Familie von Open-Source-lizensierten Modellen. Bei Granite handelt es sich um ein LLM, das von IBM für Unternehmensanwendungen entwickelt wurde. Die Modellfamilie deckt ein breites Spektrum an KI-Anwendungsfällen ab, von der Codegenerierung über die Verarbeitung natürlicher Sprache bis hin zur Gewinnung von Erkenntnissen aus großen Datensätzen – alles unter einer Open-Source-Lizenz. Die Modelle verfügen über ein grundlegendes Wissen, das sich durch Finetuning weiter anpassen lässt, damit die Modelle bestimmte Aufgaben für nahezu alle Branchen ausführen können. Was die Granite-KI-Modelle von anderen Basismodellen unterscheidet, ist die Offenlegung der Trainingsdaten, was den Nutzenden mehr Transparenz bietet.

Abbildung 1: Der Ansatz von Red Hat im KI- und ML-Engineering ist zu 100 Prozent Open-Source-basiert (Quelle: Red Hat)

vLLM und llm-d als Bausteine moderner KI-Anwendungen

Der KI-Bereich ist derzeit von einer hohen Dynamik mit vielen neuen Angeboten und Leistungsmerkmalen geprägt. Zwei neue Entwicklungen aus der Open-Source-Welt sind dabei von besonderer Relevanz: vLLM und llm-d.

vLLM ist eine Library von Open Source Codes, die von der vLLM Community verwaltet werden. Das Modell unterstützt LLMs, Berechnungen effizienter durchzuführen. Konkret handelt es sich bei einem vLLM um einen Inferenzserver, der den Output generativer KI-Anwendungen durch eine bessere Nutzung des GPU-Speichers beschleunigt. Damit adressiert der Inferenzserver eine zentrale Herausforderung: GenAI-Modelle werden immer komplexer und in immer größerem Umfang produktiv eingesetzt, sodass die Inferenz zum Flaschenhals wird. Sie benötigt viele Hardware-Ressourcen, beeinträchtigt die Reaktionsfähigkeit und treibt die Kosten in die Höhe. Mit robusten Inferenzservern kann die für KI-Workloads erforderliche Hardware nun wesentlich effizienter genutzt werden.

Während vLLM eine umfassende Modellunterstützung für eine Vielzahl von Hardwareplattformen bietet, geht llm-d noch einen Schritt weiter. Aufbauend auf bestehenden IT-Infrastrukturen in Unternehmen bietet llm-d verteilte und fortschrittliche Inferenzfunktionen, die zur Ressourceneinsparung und Leistungssteigerung beitragen, darunter eine deutliche Verbesserung der Time-to-First-Token und des Durchsatzes unter Latenzbedingungen. llm-d ist eine leistungsstarke Suite von Neuerungen, entscheidend sind aber zwei Innovationen, die zur Verbesserung der Inferenz beitragen: die Disaggregation und der intelligente Scheduling Layer. Durch die Disaggregation können Hardware-Beschleuniger während der Inferenz wirksamer genutzt werden. Dabei wird die Prompt-Verarbeitung von der Token-Generierung in einzelne Workloads, sogenannte Pods, getrennt. Diese Aufteilung ermöglicht eine unabhängige Skalierung und Optimierung in den einzelnen Phasen, die schließlich unterschiedliche Rechenanforderungen haben. Der intelligente Scheduling Layer erweitert zudem die Kubernetes Gateway API und ermöglicht differenziertere Routing-Entscheidungen für eingehende Anfragen. Dafür werden Echtzeitdaten wie die Cache- und Pod-Auslastung genutzt, um Anfragen an die optimale Instanz weiterzuleiten, wodurch die Arbeitslast im Cluster ausgeglichen wird.

Hybrid Cloud als Infrastrukturbasis

Welchen KI-Weg ein Unternehmen auch einschlägt, wichtig sind auf jeden Fall immer eine adäquate Architekturbasis und Infrastruktur. Zur Vermeidung eines Vendor-Lock-ins, Nutzung neuer KI-Innovationen und Umsetzung beliebiger Anwendungsfälle empfiehlt sich eine flexible und hybride Plattform, die auf Open Source basiert. Eine solche Plattform bietet auch die erforderliche Flexibilität für das Training und Finetuning sowie für die Bereitstellung und Überwachung von KI-Modellen in der Cloud, am Edge oder on-premises. So kann ein Training beispielsweise auf GPU-Farmen mit klarer Mandantentrennung in der Cloud erfolgen und anschließend das Modell on-premises im Produktivbetrieb eingesetzt werden. Auf diese Weise wird auch die Datensicherheit und -hoheit mit der für anspruchsvolle KI-Modelle nötigen kostenintensiven Rechenleistung in Einklang gebracht.

Abbildung 2: Mit Red Hat OpenShift AI, einer flexiblen, skalierbaren KI/ML-Plattform, können Unternehmen KI-gestützte Anwendungen in Hybrid-Cloud-Umgebungen entwickeln und bereitstellen. (Quelle: Red Hat)

Hybrid-Cloud-Lösungen sind allein schon deshalb sinnvoll, weil sie die Chancen, die KI bietet, nicht durch isolierte Infrastrukturen einschränkt. Schließlich sollte es das Ziel sein, dass ein Unternehmen jedes Modell auf jedem Beschleuniger und in jeder Cloud einsetzen kann – und zwar mit konsistenter Benutzererfahrung und ohne exorbitante Kosten. Die Möglichkeiten dazu existieren schon heute. Vor allem aber kann ein Swarm-AI-Ansatz, der auf der Nutzung vieler kleiner Modelle für spezifische Aufgaben basiert und eine Alternative zu LLMs darstellt, den Weg in eine vielversprechende KI-Zukunft weisen. KI wird so zu einem Tool, das jetzt greifbar und für Unternehmen eigenständig nutzbar ist sowie unmittelbar bei der täglichen Arbeit unterstützt.

it&t business medien eU
Tel.: +43/1/369 80 67-0
office@ittbusiness.at