Amazon Web Services (AWS) und OpenAI haben eine mehrjährige strategische Partnerschaft angekündigt. OpenAI erhält ab sofort Zugriff auf die Hochleistungsinfrastruktur von AWS, um seine KI-Modelle zu betreiben und weiterzuentwickeln. Das Abkommen mit einem Gesamtvolumen von 38 Milliarden US-Dollar sieht den Ausbau der Rechenkapazitäten bis mindestens 2027 vor.
Foto: AWS
Die Vereinbarung zwischen Amazon Web Services (AWS) und OpenAI markiert einen der bislang größten Infrastrukturverträge im Bereich Künstliche Intelligenz. Das US-Unternehmen OpenAI, bekannt durch Anwendungen wie ChatGPT, wird seine KI-Workloads künftig auf der globalen Cloud-Infrastruktur von AWS ausführen und skalieren. Die Partnerschaft ist auf mehrere Jahre angelegt und soll laut AWS unmittelbar starten.
Im Rahmen der Vereinbarung erhält OpenAI Zugang zu Hunderttausenden NVIDIA-GPUs der neuesten Generation sowie die Möglichkeit, die Kapazitäten auf mehrere Millionen CPUs auszuweiten. Die Bereitstellung dieser Ressourcen soll bis Ende 2026 abgeschlossen sein, mit einer Option auf Erweiterung bis 2027 und darüber hinaus. Insgesamt repräsentiert die Kooperation eine Investition in Höhe von 38 Milliarden US-Dollar.
Die zugrunde liegende Infrastruktur basiert auf Amazon EC2 UltraServers, die speziell für KI-Workloads entwickelt wurden. Durch die Bündelung der GPU-Typen GB200 und GB300 innerhalb desselben Netzwerks soll eine besonders niedrige Latenz bei der Verarbeitung großer Datenmengen erreicht werden. Die Architektur ist darauf ausgelegt, sowohl Trainings- als auch Inferenzprozesse effizient zu unterstützen und sich an die sich wandelnden Anforderungen von OpenAI anzupassen.
AWS verfügt laut eigenen Angaben über umfangreiche Erfahrung im Betrieb großskaliger, sicherer und zuverlässiger KI-Infrastrukturen. Die Cluster können bis zu 500.000 Chips umfassen und sind darauf ausgelegt, die steigende Nachfrage nach Rechenleistung für generative und agentische KI-Modelle zu decken.
OpenAI will mit der Nutzung der AWS-Plattform seine Kapazitäten rasch ausbauen und gleichzeitig von den Vorteilen in Bezug auf Leistung, Sicherheit und Skalierbarkeit profitieren. „Scaling frontier AI requires massive, reliable compute“, erklärte OpenAI-Mitgründer und CEO Sam Altman. AWS-CEO Matt Garman ergänzte, die Infrastruktur von AWS werde „als Rückgrat für OpenAIs KI-Ambitionen dienen“.
Die neue Vereinbarung baut auf einer bereits etablierten Kooperation auf. Anfang 2025 hatte OpenAI seine Open Weight Foundation Models über den AWS-Dienst Amazon Bedrock verfügbar gemacht. Dadurch erhielten Unternehmen weltweit Zugriff auf zusätzliche Modelloptionen, die sich insbesondere für agentische Workflows, wissenschaftliche Analysen und Softwareentwicklung eignen. Zu den Nutzern zählen unter anderem Bystreet, Comscore, Peloton, Thomson Reuters, Triomics und Verana Health.
Mit der aktuellen Partnerschaft vertiefen AWS und OpenAI ihre technische und wirtschaftliche Zusammenarbeit erheblich. Sie positionieren sich damit an der Schnittstelle von Cloud-Computing und generativer KI – einem Bereich, der für die kommenden Jahre als zentraler Wachstumstreiber der digitalen Wirtschaft gilt.