ServiceNow und OpenAI haben eine erweiterte strategische Zusammenarbeit bekanntgegeben. Ziel ist es, agentische KI-Erlebnisse in Unternehmen voranzutreiben und KI-Ergebnisse in großem Maßstab zu beschleunigen. Die Partnerschaft verbindet Frontier-Modelle – darunter GPT-5.2 – mit ServiceNow-Workflows, setzt auf eine Governance- und Orchestrierungsebene über den AI Control Tower und kündigt neue Speech-to-Speech-Funktionen für natürlichere, sprachübergreifende Interaktionen an.
Foto: Sync - stock.adobe.com
Foto: ServiceNow
Amit Zavery, President, Chief Operating Officer und Chief Product Officer bei ServiceNow
ServiceNow und OpenAI gehen den nächsten Schritt in ihrer Zusammenarbeit: Beide Unternehmen wollen fortschrittliche KI-Fähigkeiten näher an den operativen Kern großer Organisationen bringen – dorthin, wo Prozesse, Entscheidungen und Freigaben in Workflows zusammenlaufen. Die Vereinbarung setzt dabei auf eine direkte technische Kooperation und soll es Kunden ermöglichen, moderne Modelle für konkrete Unternehmensaufgaben zu nutzen, ohne zusätzliche individuelle Sonderentwicklungen.
Im Zentrum steht die Idee, agentische KI stärker in bestehende Arbeitsabläufe einzubetten. Statt isolierter KI-Anwendungen sollen KI-Systeme End-to-End-Aktionen in komplexen Umgebungen ausführen können – mit Kontrolle, Skalierbarkeit und klaren Schnittstellen zu Unternehmensdaten und -systemen.
Ein zentraler Baustein der mehrjährigen Partnerschaft ist die enge Zusammenarbeit zwischen technischen Beratern von OpenAI und Ingenieuren von ServiceNow. Diese sollen gemeinsam mit Frontier-Modellen ausgestattet werden, um Kunden direkten Zugang zu modernsten KI-Fähigkeiten zu eröffnen. ServiceNow spricht in diesem Kontext von maßgeschneiderten ServiceNow-AI-Lösungen, die sich an individuellen Roadmaps orientieren lassen – bei gleichzeitig höherer Geschwindigkeit und Skalierbarkeit.
ServiceNow verknüpft die Integration von OpenAI-Modellen mit der eigenen ServiceNow AI Platform. Damit wird nicht nur ein Zugriff auf KI-Funktionen beschrieben, sondern auch ein Ansatz, der Unternehmenskontext einbezieht: Die Einbindung ergänzt laut Ankündigung die Configuration Management Database (CMDB) der Kunden und liefert nativen, eingebetteten Zugriff auf Intelligenz, die Aktionen innerhalb von Workflows gezielt unterstützt.
Amit Zavery, President, Chief Operating Officer und Chief Product Officer bei ServiceNow, stellt den Anspruch in einen größeren Kontext:
„ServiceNow ist Marktführer für KI-gestützte Workflows und setzt den Enterprise-Standard für messbare Ergebnisse in der Praxis. Gemeinsam mit OpenAI gestalten wir die nächste Generation von KI-Erlebnissen: mit Lösungen, die in komplexen Unternehmensumgebungen End-to-End-Aktionen ausführen. Während Unternehmen von ersten Experimenten zur breiten Einführung übergehen, brauchen sie die gebündelte Stärke mehrerer Technologieführer, um schneller und nachhaltiger Mehrwert zu schaffen. Die Verbindung unserer jeweiligen Technologien ermöglicht genau das - und eröffnet neue, intuitivere Wege, mit KI zu arbeiten.“
Neben der Modellintegration nimmt die Partnerschaft auch eine neue Schnittstelle zwischen Mensch und System in den Fokus: ServiceNow will direkte Speech-to-Speech-Technologie auf Basis von OpenAI-Modellen entwickeln. Der Ansatz zielt darauf ab, Sprachbarrieren zu überwinden und Interaktionen natürlicher zu machen. Angekündigt werden „native Speech-to-Speech- und Voice-Technologie“ für sprachübergreifende Kommunikation – ohne den Umweg über textbasierte Zwischenschritte.
Als Beispiel wird die Entwicklung von Echtzeit-Speech-to-Speech-Voice-Agents genannt. Diese sollen Sprache in Echtzeit verarbeiten und direkt darauf reagieren können – ohne Zwischenschritt über Text. Das Anwendungsszenario: Anwender sprechen in ihrer bevorzugten Sprache und erhalten unmittelbar eine Antwort; parallel können KI-Agenten Prozesse anstoßen, etwa einen Case eröffnen, eine Freigabe auslösen oder die nächsten Schritte orchestrieren. Hervorgehoben werden dabei der Wegfall von Übersetzungsverzögerungen, eine präzise Bedeutungsübertragung und weniger Übergaben im Prozess.
Mit der zunehmenden Geschwindigkeit, mit der neue KI-Modelle entstehen, wächst der Druck auf Unternehmen, ihre Abläufe kontinuierlich zu aktualisieren. ServiceNow und OpenAI ordnen die Kooperation daher auch als Antwort auf einen kürzer werdenden Innovationszyklus ein. Die technische Grundlage soll so gestaltet sein, dass sich neue Modellfähigkeiten in Unternehmensprozesse integrieren lassen, ohne dass jede Anpassung ein eigenes Entwicklungsprojekt auslöst.
Als Steuerungs- und Orchestrierungsebene positioniert ServiceNow dabei den AI Control Tower. Dieser soll eine zentrale Übersicht schaffen, wie Modelle in Workflows eingesetzt werden, wie sie mit Unternehmensdaten und -systemen interagieren und wie KI-gesteuerte Aktionen kontrolliert sowie revisionssicher im großen Maßstab ausgeführt werden. Das Governance-Narrativ ist dabei klar: Je autonomer KI innerhalb von Prozessen wird, desto wichtiger werden Transparenz, Kontrolle und Nachvollziehbarkeit.
Brad Lightcap, Chief Operating Officer bei OpenAI, betont den Enterprise-Fokus und die Zielsetzung agentischer KI in geregelten Abläufen:
„ServiceNow hilft Unternehmen dabei, agentische KI in sichere, skalierbare Workflows zu integrieren, die auf messbare Ergebnisse ausgelegt sind. Mit OpenAI-Frontier-Modellen und multimodalen Fähigkeiten innerhalb von ServiceNow profitieren Unternehmen branchenübergreifend von Intelligenz, die Arbeit auch in den komplexesten Umgebungen ganzheitlich übernimmt.”
Ein weiterer Schwerpunkt liegt auf der Beschleunigung von Automatisierung. ServiceNow nennt hier explizit die Computer-Use-Modelle von OpenAI, die eine neue Klasse der IT-Automatisierung eröffnen sollen, indem sie Interaktionen mit Systemen ermöglichen. Dadurch sollen sich Tätigkeiten automatisieren lassen, die bislang schwer zu standardisieren waren – etwa dort, wo Informationen in unstrukturierten Dokumenten vorliegen oder Legacy-Landschaften eine klassische Integration erschweren.
Die Ankündigung skizziert mehrere Einsatzfelder: unstrukturierte Dokumente sollen in verwertbare Daten umgewandelt werden; zugleich soll die Fähigkeit sichere, kontextbewusste Automatisierung auf mehr Umgebungen ausdehnen. Genannt werden die autonome Orchestrierung von Arbeitsplatz-Tools wie E-Mail und Chat, die Automatisierung von Legacy-Systemen inklusive Mainframes sowie Effizienzgewinne in komplexen IT-Landschaften.
Die Partnerschaft lässt sich daher nicht nur als technisches Upgrade lesen, sondern als zentraler Baustein, die Reichweite automatisierter Workflows zu vergrößern – insbesondere dort, wo Integrationshürden und Medienbrüche die Skalierung bislang ausgebremst haben.
Die Vereinbarung baut laut Darstellung auf den bisherigen Bestrebungen von ServiceNow auf, Kunden die Wahl zu lassen, OpenAI-Modelle für mehrere etablierte Einsatzbereiche zu nutzen. Dazu zählen KI-Assistenz für Fragen in natürlicher Sprache mit Speech-to-Text-Funktionen, KI-gestützte Zusammenfassungen und Content-Erstellung für Incidents, Cases, Wissensartikel und Service-Interaktionen sowie Developer- und Admin-Tools, die Absichten direkt in Workflows, Logik und Automatisierung übersetzen. Ergänzt wird dies durch intelligente Suche und kontextbasierte Informationserschließung, die relevante Inhalte aus unternehmensweiten Systemen bündelt und nutzbar macht.
Größenordnung und Ambition werden mit einer Kennzahl unterlegt: ServiceNow unterstützt nach eigenen Angaben jedes Jahr mehr als 80 Milliarden Workflows. In Kombination mit OpenAI sollen neue Fähigkeiten für fortschrittlichere Automatisierung und Workflows über Branchen und Anwendungsfälle hinweg zu Kunden gebracht werden – mit OpenAI-Modellen als bevorzugter Intelligence-Funktion für ServiceNow-Enterprise-Kunden.