openai-taps-amazon-cloud-to-scale-ai-agents-as-microsoft-ties-loosen
OpenAI nutzt Amazon-Cloud zur Skalierung von KI-Agenten, während Microsoft-Verbindungen lockerer werden
OpenAI bringt seine neuesten Modelle und den Codex-Agenten über Amazon Bedrock zu Amazon Web Services, nach einer überarbeiteten Vereinbarung mit Microsoft, die eine Multi-Cloud-Bereitstellung ermöglicht. Neue von OpenAI unterstützte Amazon Bedrock Managed Agents erlauben Unternehmen, KI-Agenten mit Gedächtnis- und mehrstufigen Aufgabenfähigkeiten innerhalb von AWS-Umgebungen zu erstellen. Amazon intensiviert seine KI-Offensive durch engere Zusammenarbeit mit OpenAI und eine Investition von bis zu 25 Milliarden US-Dollar in Anthropic, da die Nachfrage nach groß angelegter KI-Infrastruktur zunimmt.
2026-04-29 Quelle:crypto.news

OpenAI erweitert den Zugang zu seinen generativen KI-Modellen, indem es sie auf Amazon Web Services bringt. Dieser Schritt folgt kurz nach einer überarbeiteten Vereinbarung mit Microsoft, die frühere Exklusivitätsklauseln bezüglich der Cloud-Nutzung lockert.

Zusammenfassung
  • OpenAI bringt seine neuesten Modelle und den Codex-Agenten über Amazon Bedrock zu Amazon Web Services, nach einer überarbeiteten Vereinbarung mit Microsoft, die eine Multi-Cloud-Bereitstellung ermöglicht.
  • Neue Amazon Bedrock Managed Agents, betrieben von OpenAI, ermöglichen es Unternehmen, KI-Agenten mit Gedächtnis und mehrstufigen Aufgabenfunktionen in AWS-Umgebungen zu erstellen.
  • Amazon verstärkt seinen KI-Vorstoß mit engeren OpenAI-Verbindungen und einer Investition von bis zu 25 Milliarden US-Dollar in Anthropic, da die Nachfrage nach groß angelegter KI-Infrastruktur steigt.

Berichten zufolge ermöglicht das Update OpenAI, seine Produkte über mehrere Cloud-Anbieter hinweg bereitzustellen. Innerhalb eines Tages nach dieser Änderung bestätigte das Unternehmen, dass seine Modelle nun über AWS angeboten werden, was Unternehmenskunden einen weiteren Kanal zum Zugriff auf seine neuesten Systeme bietet.

Entwickler, die AWS nutzen, können OpenAI-Modelle zusammen mit seinem Codex-Coding-Agenten über Amazon Bedrock testen, so eine gemeinsame Ankündigung vom Dienstag. Eine breitere Verfügbarkeit wird in den kommenden Wochen erwartet.

AWS-CEO Matt Garman sagte auf einer Veranstaltung in San Francisco, dass die Nachfrage nach einer solchen Integration konstant gewesen sei und bemerkte: „Das ist es, worum uns unsere Kunden schon sehr lange bitten.“

Zuvor konnten AWS-Nutzer nur auf die im August eingeführten Open-Weight-Modelle von OpenAI zugreifen. Die neueste Einführung erweitert dieses Angebot um fortgeschrittenere Systeme über Bedrocks vereinheitlichte APIs und Unternehmenssteuerungen.

Ein wichtiger Bestandteil der Einführung sind die Amazon Bedrock Managed Agents, die von OpenAI betrieben werden und Unternehmen dabei helfen sollen, KI-Agenten zu entwickeln, die in der Lage sind, mehrstufige Aufgaben mit Erinnerung an frühere Interaktionen zu bearbeiten. Das System kombiniert die Modelle von OpenAI mit der AWS-Infrastruktur und ermöglicht es Unternehmen, produktionsreife Agenten in ihren bestehenden Umgebungen einzusetzen.

Die Beziehungen von OpenAI zu Microsoft bleiben bedeutsam. Das Softwareunternehmen liefert seit vor dem Debüt von ChatGPT im Jahr 2022 Rechenkapazität. Dennoch deuteten interne Mitteilungen darauf hin, dass die Vereinbarung Einschränkungen hatte. Umsatzchefin Denise Dresser teilte den Mitarbeitern mit, dass die Partnerschaft „entscheidend gewesen sei“, aber „auch unsere Fähigkeit eingeschränkt hat, Unternehmen dort abzuholen, wo sie sind – für viele ist das Bedrock.“

Die Anfang der Woche angekündigte überarbeitete Vereinbarung ermöglicht es OpenAI, Umsatzbeteiligungsverpflichtungen mit Microsoft zu deckeln und Kunden über verschiedene Cloud-Plattformen hinweg zu bedienen. Andy Jassy beschrieb die Entwicklung in einem Post auf X als „sehr interessant“ und deutete weitere Updates an.

Erweiterung der AWS-Partnerschaft

Die Zusammenarbeit von OpenAI mit Amazon hat sich in den letzten Monaten entwickelt.

Im November kündigte das Unternehmen eine Verpflichtung in Höhe von 38 Milliarden US-Dollar an, die mit AWS verbunden ist, kurz nachdem es angedeutet hatte, dass Microsoft Azure der einzige Cloud-Anbieter für bestimmte API-Dienste bleiben würde, die Dritte betreffen.

Rund drei Monate später vertiefte Amazon die Beziehung und kündigte Pläne an, 50 Milliarden US-Dollar in OpenAI zu investieren. Das KI-Unternehmen erklärte außerdem, dass es sich auf die AWS-Infrastruktur verlassen werde, einschließlich einer Trainium-Chipkapazität von bis zu zwei Gigawatt, um seine Modelle zu trainieren.

Die Ankündigung erfolgte inmitten von Prüfungen nach einem Bericht des Wall Street Journal, der darauf hindeutete, dass OpenAI interne Ziele in Bezug auf Nutzerwachstum und Umsatz verfehlt hatte. Der Bericht warf auch Fragen zu den Ausgabenplänen auf, was zu Rückgängen bei den Aktien von Chipherstellern wie Nvidia und Broadcom führte.

Die Führung von OpenAI wehrte sich vehement. CEO Sam Altman und CFO Sarah Friar sagten in einer gemeinsamen Erklärung: „Das ist lächerlich“, und fügten hinzu, dass das Unternehmen „völlig darauf ausgerichtet ist, so viel Rechenkapazität wie möglich zu kaufen.“

Amazon verstärkt den Ausbau der KI-Infrastruktur

Amazon hat seine Investitionen in das gesamte KI-Ökosystem parallel zu seiner Zusammenarbeit mit OpenAI verstärkt.

Erst eine Woche zuvor bestätigte das Unternehmen eine frische Investition von 5 Milliarden US-Dollar in Anthropic, den Entwickler der Claude-Familie von KI-Modellen, da sich der Wettbewerb um Rechenkapazitäten verschärft.

Die Vereinbarung umfasst Bestimmungen für bis zu 20 Milliarden US-Dollar an zusätzlichen Finanzmitteln, die an Leistungsmeilensteine gebunden sind, was die gesamte potenzielle Investition auf 25 Milliarden US-Dollar erhöht.

Im Rahmen der Vereinbarung hat sich Anthropic verpflichtet, in den nächsten zehn Jahren mehr als 100 Milliarden US-Dollar für die AWS-Infrastruktur auszugeben, um das Modelltraining und die Bereitstellung zu unterstützen. Das Unternehmen hat sich außerdem Zugang zu bis zu 5 Gigawatt Rechenleistung gesichert, wobei etwa 1 Gigawatt voraussichtlich bis Ende des Jahres mit Trainium2- und Trainium3-Chips in Betrieb gehen wird.

Die Reihe von Maßnahmen signalisiert Amazons Absicht, AWS als zentrale Plattform für fortschrittliche KI-Workloads zu positionieren, während OpenAIs jüngste Verschiebung auf einen flexibleren Multi-Cloud-Ansatz zur Bereitstellung seiner Technologie für Unternehmen hinweist.