Red Hat hat neue Versionen seiner KI-Plattformen veröffentlicht. OpenShift AI 2.18 und RHEL AI 1.4 bringen erweiterte Sicherheitsmechanismen, bessere Bewertungsmöglichkeiten für KI-Modelle und neue Tools für die Individualisierung und den Betrieb von LLMs.
Foto: Red Hat
Joe Fernandes, Vice President und General Manager, AI Business Unit, Red Hat
Mit den neuen Versionen von OpenShift AI und Red Hat Enterprise Linux AI verfolgt Red Hat das Ziel, Unternehmen bei der Entwicklung und dem sicheren Einsatz großer Sprachmodelle (LLMs) zu unterstützen. Die Lösungen sollen nicht nur die Leistung, sondern auch Transparenz, Datensicherheit und Governance verbessern.
OpenShift AI 2.18 führt eine Technologieprüfung der sogenannten AI Guardrails ein. Diese Funktion überwacht Nutzerinteraktionen sowie Modellausgaben, um problematische Inhalte zu verhindern. Dazu gehören etwa obszöne oder missbräuchliche Sprache, personenbezogene Daten sowie sensible Unternehmensinformationen. Die Guardrails greifen dabei auf unternehmensspezifische Richtlinien zurück.
Mit der Komponente lm-eval können Data Scientists die Leistung ihrer LLMs gezielter analysieren. Bewertet werden dabei unter anderem logisches Denken, mathematische Fähigkeiten und der Umgang mit widersprüchlicher Sprache. Die Ergebnisse sollen helfen, Modelle spezifischer und effizienter zu trainieren.
Die neue Version RHEL AI 1.4 enthält Granite 3.1 8B, ein Open-Source-Modell mit 128k-Kontextfenster und mehrsprachiger Unterstützung – vorerst als Developer Preview. Ebenfalls neu ist eine grafische Benutzeroberfläche für Skill- und Knowledge-Beiträge. Diese soll das Erstellen und Einpflegen von KI-Kompetenzen erleichtern. Die Komponente DK-bench ermöglicht es zudem, Modelle mit firmeneigenen Daten zu vergleichen, ohne die Leistung der Grundmodelle zu verlieren.
Red Hat AI InstructLab wird künftig als Service über die IBM Cloud verfügbar sein. Ziel ist die Vereinfachung des Trainings und Tunings von KI-Modellen bei gleichzeitiger Wahrung der Datenhoheit. Ergänzend bietet Red Hat seinen Kunden kostenfreie Trainingsprogramme unter dem Titel AI Foundations an. Diese richten sich sowohl an Führungskräfte als auch an Einsteiger und behandeln praxisorientiert den Einsatz von Red Hat KI-Lösungen im Unternehmen.
Joe Fernandes, Vice President und General Manager, AI Business Unit, Red Hat dazu: „Red Hat weiß, dass Unternehmen Wege finden müssen, die steigenden Kosten für ihre GenAI-Deployments zu managen, während sie mehr Anwendungsfälle in die Produktion bringen und in großem Maßstab betreiben. Sie müssen darüber hinaus die Herausforderung meistern, KI-Modelle mit privaten Unternehmensdaten zusammenzuführen und diese Modelle überall dort bereitzustellen, wo eben jene gespeichert sind. Red Hat AI hilft Unternehmen, diese Herausforderungen zu bewältigen, indem es ihnen ermöglicht, effizientere, maßgeschneiderte Modelle zu nutzen, die auf ihren Daten trainiert wurden, und flexible Inferenz über On-Premises-, Cloud- und Edge-Umgebungen hinweg zu ermöglichen.“