OpenAI nutzt künftig die Rechenkapazitäten von
AWS, um seine KI-Dienste zu betreiben und zu erweitern. Nach
Angaben von AWS umfasst die neue Vereinbarung ein Volumen von 38 Milliarden Dollar, das über die kommenden sieben Jahre weiter wachsen soll.
OpenAI erhält dafür Zugriff auf Hunderttausende Nvidia-GPUs sowie auf Rechenleistung mit bis zu mehreren zehn Millionen CPUs, um agentenbasierte Workloads schnell zu skalieren.
Die von AWS bereitgestellte Umgebung ist für hohe Leistung und Effizienz ausgelegt. Laut AWS werden Nvidia-GPUs der Reihen GB200 und GB300 über Amazon EC2 Ultraserver in einem gemeinsamen Netzwerk geclustert, um geringe Latenz zu erreichen. Die Cluster sollen Inferenz für ChatGPT unterstützen sowie das Training neuer Modelle und lassen sich an den Bedarf von OpenAI anpassen. AWS verweist auf Betriebserfahrung mit KI-Clustern von über 500'000 Chips.
Der Ausbau startet sofort. Wie
AWS mitteilt, soll die volle Kapazität bis Ende 2026 bereitstehen und ab 2027 weiter ausgebaut werden können. OpenAI-Chef Sam Altman sagt: "Unsere Partnerschaft mit AWS stärkt das breite Rechenökosystem, das diese nächste Ära antreiben und fortschrittliche KI für alle zugänglich machen wird." AWS CEO Matt Garman ergänzt: "Da
OpenAI die Grenzen des Machbaren kontinuierlich erweitert, bildet die erstklassige Infrastruktur von AWS das Rückgrat ihrer KI-Ambitionen."
Die Unternehmen verweisen zudem auf bestehende Kooperationen. Nach Angaben von AWS sind seit Anfang des Jahres OpenAI Open Weight Foundation-Modelle auf Amazon Bedrock verfügbar. Tausende Kundinnen und Kunden nutzen diese Modelle bereits, darunter Bystreet, Comscore, Peloton, Thomson Reuters, Triomics und Verana Health.
(dow)