
OpenAI 正在擴大其生成式 AI 模型的使用範圍,將其引入 Amazon Web Services(AWS)。此舉緊隨與微軟修訂協議之後,該協議放寬了此前雲端使用方面的排他性條款。
據報導,這次更新允許 OpenAI 將其產品部署到多個雲端供應商。變更後的隔天,該公司證實其模型現在將透過 AWS 提供,為企業客戶提供另一個管道來存取其最新系統。
根據週二的聯合聲明,使用 AWS 的開發人員將能夠透過 Amazon Bedrock 測試 OpenAI 模型及其 Codex 編碼代理。預計在未來幾週內將更廣泛地提供。
AWS 執行長 Matt Garman 在舊金山的一場活動中表示,對這種整合的需求一直存在,並指出:「這是我們的客戶長期以來一直要求的。」
此前,AWS 用戶只能存取 OpenAI 在八月推出的開放權重模型。最新的推出擴展了這項服務,透過 Bedrock 的統一 API 和企業控制,納入更先進的系統。
此次推出的關鍵部分是由 OpenAI 支援的 Amazon Bedrock 受管代理,旨在幫助企業建構能夠處理多步驟任務並具備記憶先前互動的 AI 代理。該系統結合了 OpenAI 的模型和 AWS 基礎設施,允許公司在其現有環境中部署可投入生產的代理。
OpenAI 與微軟的關係仍然舉足輕重。這家軟體公司自 2022 年 ChatGPT 首次亮相之前就一直提供運算能力。然而,內部訊息表明該協議存在限制。營收長 Denise Dresser 告訴員工,該合作關係「至關重要」,但「也限制了我們在企業所在之處提供服務的能力——對於許多企業而言,那就是 Bedrock。」
本週早些時候宣布的修訂協議允許 OpenAI 設定與微軟的營收分成承諾上限,並為不同雲端平台的客戶提供服務。Andy Jassy 在 X 貼文稱此發展「非常有趣」,暗示將有進一步的更新。
OpenAI 與亞馬遜的合作在最近幾個月不斷發展。
去年 11 月,該公司承諾向 AWS 投入 380 億美元,不久後表示 Microsoft Azure 將仍然是涉及第三方的某些 API 服務的唯一雲端供應商。
大約三個月後,亞馬遜深化了合作關係,宣布計畫向 OpenAI 投資 500 億美元。這家 AI 公司還表示,它將依賴 AWS 基礎設施,包括高達 2 兆瓦的 Trainium 晶片容量,來訓練其模型。
這項宣布是在《華爾街日報》一篇報導指出 OpenAI 未達到用戶增長和收入的內部目標後受到審查。該報導也對支出計畫提出質疑,引發了 Nvidia 和 Broadcom 等晶片製造商股價下跌。
OpenAI 領導層強烈反駁。執行長 Sam Altman 和財務長 Sarah Friar 在一份聯合聲明中表示:「這太荒謬了」,並補充說該公司「完全致力於購買盡可能多的運算資源」。
亞馬遜一直在加強對 AI 生態系統的投資,同時也與 OpenAI 合作。
就在一週前,該公司證實對 Anthropic(Claude 系列 AI 模型的開發商)追加 50 億美元投資,因為對運算能力的需求競爭日益激烈。
該協議包括根據績效里程碑提供高達 200 億美元額外資金的條款,使潛在投資總額達到 250 億美元。
作為協議的一部分,Anthropic 已承諾在未來十年內在 AWS 基礎設施上花費超過 1000 億美元,以支援模型訓練和部署。該公司還獲得了高達 5 兆瓦的運算能力,其中約 1 兆瓦預計將在今年底前使用 Trainium2 和 Trainium3 晶片投入營運。
這一系列舉動預示著亞馬遜有意將 AWS 定位為先進 AI 工作負載的中心平台,而 OpenAI 最新的轉變則表明了為企業提供技術更靈活、多雲端的方法。