據《路透》周五援引多位知情人士報道,人工智能開發商OpenAI近期已開始租用Alphabet旗下Google提供的AI晶片,正式啟用其張量處理單元(TPU)來支援包括ChatGPT在內各項產品的龐大運算需求。這一動作,標誌著OpenAI首次在大規模運算上採用非英偉達(Nvidia)的解決方案,成為AI產業競合關係轉變的重要信號。
OpenAI過去一直是英偉達GPU的最大企業客戶之一。英偉達的圖形處理單元廣泛用於AI模型的訓練與推理,而推理運算是指模型在學習後,利用既有知識處理新資訊並作出預測或判斷。隨著AI模型規模與使用者數量快速上升,OpenAI的計算需求亦大幅增長,驅使其尋求更具彈性與成本效益的運算資源。
根據《路透》稍早獨家消息,OpenAI已計劃加入Google Cloud服務,為未來發展提供更大算力支援。此舉在業界引發廣泛關注,因為OpenAI與Google皆為全球AI領域的領先企業,雙方既是競爭者,亦在特定層面上形成合作,代表產業合作模式正朝向更多樣與開放的方向演變。
對Google而言,這筆交易正逢其自研TPU對外開放進程加速之際。TPU原為內部專用AI晶片,過去多應用於Google自身的搜尋、翻譯及YouTube推薦系統等服務。近期,Google積極將TPU外供,並已吸引包括蘋果(Apple)、Anthropic及Safe Superintelligence等重要客戶。其中後兩者均由前OpenAI高層創立,與OpenAI在基礎模型領域形成競爭態勢。
雙方合作仍採謹慎策略
值得注意的是,OpenAI採用TPU晶片也可能反映其對成本結構進行重新評估。《The Information》指出,OpenAI希望透過Google Cloud所提供的TPU降低推理運算成本。相比之下,英偉達GPU供應持續緊張、價格高昂,TPU或成潛在替代方案。
然而,據一名Google Cloud內部人士透露,目前Google尚未向OpenAI開放其最強版本的TPU運算資源。此舉顯示儘管雙方展開合作,Google在技術共享上仍採取審慎策略,顧及雙方在AI領域的競爭關係。
從宏觀角度觀察,OpenAI採用Google TPU也被視為其逐步降低對微軟(Microsoft)資料中心依賴的象徵。微軟為OpenAI最大金主之一,提供Azure雲端平台與大量GPU資源。然而,當前AI應用市場迅速擴張,分散供應來源與提升彈性,對OpenAI未來發展至關重要。
此次OpenAI加入Google雲端客戶群,也象徵Google正積極擴張其AI晶片與雲端解決方案的市場版圖。從硬體TPU到AI模型框架及軟體工具,Google試圖打造一體化的AI基礎設施服務,鞏固其雲端業務的競爭力。
綜上所述,OpenAI與Google在AI基礎設施上的新合作,代表全球AI運算產業正在迎來結構性變化。在GPU供應持續吃緊、AI模型需求爆炸的背景下,雲端與晶片廠商間的合作與競爭將愈加交錯與多元。業界將密切關注此舉是否促使更多AI公司探索英偉達以外的選項,進一步改變全球算力格局。 (編輯部)