Im Vorfeld der AWS re:Invent 2025 hat Amazon Web Services drei neue Agentic-AI-Kategorien für sein KI-Kompetenzprogramm vorgestellt. Begleitend dazu legt eine neue Omdia-Studie dar, wie stark Partnerunternehmen vom AWS-Ökosystem profitieren. Auch technische Integrationen – etwa von Deepgram – sollen Unternehmen beim Aufbau produktiver KI-Anwendungen unterstützen.
Foto: JHVEPhoto - stock.adobe.com
AWS schärft seine Partnerstrategie im Bereich agentischer KI-Systeme und reagiert damit auf die wachsende Nachfrage nach autonomen Anwendungen und Beratungsleistungen. Die drei neu eingeführten Kategorien im KI-Kompetenzprogramm sollen Kunden ermöglichen, gezielt jene Anbieter zu identifizieren, die sie beim Übergang von ersten Experimenten zu produktiven agentischen Systemen unterstützen. Parallel dazu veröffentlicht AWS neue Zahlen zum wirtschaftlichen Potenzial des Partnernetzwerks. Ergänzende Technologieintegrationen, unter anderem von Deepgram, erweitern die KI-Funktionalität innerhalb zentraler AWS-Dienste.
AWS führt drei spezialisierte Kategorien ein, die im Partnerprogramm die bisherige „Generative AI Competency“ ablösen.
Agentic AI Applications umfasst Partner, die autonome Systeme entwickeln, die Umgebungen wahrnehmen, über komplexe Ziele nachdenken und zielgerichtete Aktionen ausführen. Solche Lösungen orchestrieren umfangreiche Workflows, arbeiten plattformübergreifend und berücksichtigen Governance-Anforderungen.
Agentic AI Tools richtet sich an Plattformen, Frameworks und Entwicklungswerkzeuge, die Unternehmen beim Aufbau, der Bereitstellung und Verwaltung agentischer KI-Systeme unterstützen. Die Bandbreite reicht laut AWS von Low-Code-Lösungen bis hin zu kundenspezifischen Implementierungen, die regionale regulatorische Anforderungen berücksichtigen.
Agentic AI Consulting Services umfasst Beratungsunternehmen, die strategische, technische und operative Unterstützung anbieten. Ziel ist es, Unternehmen durch komplexe agentische KI-Projekte zu begleiten, Governance-Richtlinien einzuhalten und geschäftliche Anforderungen abzusichern.
AWS kündigt zwei zusätzliche Investitionen in das Programm an: Ab 2026 stehen Partnern 25.000 US-Dollar an zusätzlichen Marketing Development Funds (MDF) für die Validierung in einer der neuen Kategorien zur Verfügung – zusätzlich zu den bestehenden 50.000 US-Dollar für die KI-Spezialisierung. Zudem soll ein automatisierter, agentenbasierter Review-Prozess die Bearbeitungszeit von Partneranträgen um bis zu 70 Prozent reduzieren.
Zu den 60 Launch-Partnern zählen unter anderem Accenture, Deloitte und IBM.
Begleitend zu den Programmneuerungen veröffentlicht AWS die aktuelle Omdia-Studie „2025 AWS Partner Ecosystem Multiplier“. Die Analyse zeigt, dass Partner pro verkauftem US-Dollar AWS-Technologie bis zu 7,13 US-Dollar an Services-Umsatz erzielen können. Das entspricht einem Anstieg gegenüber 6,40 US-Dollar im Jahr 2022.
Die Untersuchung differenziert vier Reifegradkategorien:
Focused Partner: 1,26 US-Dollar
Multi-Kategorie Partner: 3,26 US-Dollar
Progressive Partner: 5,78 US-Dollar
Expert Partner: 7,13 US-Dollar
Laut Studie bieten insbesondere Expert-Partner Services über den gesamten Kundenlebenszyklus hinweg und begleiten Unternehmen durch komplexe digitale Transformationsprojekte.
Als zentrale Wachstumstreiber identifiziert Omdia unter anderem KI und AWS Marketplace. 82 Prozent der Partner nutzen KI für Transformationsprojekte, 64 Prozent integrieren AWS Marketplace in ihre Go-to-Market-Strategie. Besonders stark wachsen die Service-Kategorien Manage und Build, getrieben durch die Nachfrage nach generativer und agentischer KI.
Omdia beschreibt sechs Strategien zur Maximierung des Wertschöpfungspotenzials, darunter die Erweiterung des Serviceportfolios, die Nutzung von Marketplace-Budgets, Co-Selling mit AWS Partner Managern (mit 51 Prozent höherem Jahresumsatz) sowie ergebnisbasierte Preisgestaltung.
Mit zwei technischen Integrationen stärkt Deepgram die Nutzung sprachbasierter KI in AWS-Diensten. Zum einen wird die Voice-AI-Plattform nativ in Amazon SageMaker AI eingebunden. Die verfügbaren Streaming-Endpunkte für Spracherkennung, Sprachsynthese und Voice-Agent-Funktionen ermöglichen Latenzzeiten unter einer Sekunde und richten sich an Einsatzszenarien wie Kontaktzentren, Handelsplattformen oder Live-Analysen.
Parallel dazu integriert Deepgram seine Enterprise-Modelle in Amazon Connect und Amazon Lex. Die Vorteile umfassen Echtzeit-Transkription, Analytics, Voice-Bots mit niedriger Latenz sowie ein präzises Sprachverständnis – auch in anspruchsvollen akustischen Umgebungen. Die Bereitstellung erfolgt innerhalb der bestehenden AWS-Umgebung, einschließlich Datenhaltung und Beschaffung über den AWS Marketplace.
Durch die Kombination beider Integrationen sollen Kontaktzentren laut AWS eine höhere Genauigkeit, geringere Latenz und größere Flexibilität beim Deployment erreichen.