【AI新聞】博通與OpenAI攜手設計AI加速器,AI運算正從「通用 GPU 時代」進入「專用晶片時代」
2025 年 10 月中旬,OpenAI 宣布與晶片與網路設備巨頭博通(Broadcom)建立戰略合作,雙方將共同設計、開發並部署定制的 AI 加速器。此舉不僅標誌著 OpenAI 在 AI 基礎架構上的自主化野心,也體現出爆炸性算力與特定模型數據中心的需求、硬體與網路生態系統的巨大拉動作用。

這筆合作預估將從 2026 年下半年開始部署硬體系統,並於 2029 年前完成全部佈建。博通將負責生產、部署與網路基礎設施,而OpenAI 則主導加速器的設計與整體架構。這一合作點正處於整體 AI 基礎設施浪潮的核心:在 AI 模型訓練與推論需求快速增長的背景下,OpenAI 意圖降低對外部硬體供應商(尤其是 NVIDIA)的依賴,並在規格、性能、成本與效率上取得更大主動權。
目前 AI 硬體競爭的核心關鍵——「AI 加速器(AI Accelerator)」到底是什麼?它和 GPU 有什麼不同?
AI 加速器是一種專門為人工智慧運算(例如深度學習模型的訓練與推理)設計的晶片。它的主要任務是加快 AI 模型中大量的矩陣乘法(Matrix Multiplication)與向量計算(Vector Computation),這些是神經網路最耗時、最吃運算資源的部分。簡單來說,AI 加速器是一種特化(specialized)的「計算引擎」,為 AI 任務而生。

隨著 ChatGPT 與其他生成式 AI 應用的普及,OpenAI 面臨的最大瓶頸之一就是計算能力與資料中心擴展的資源壓力。與硬體製造商簽訂 GPU 或加速器供應協議已成為常態,如最近與 NVIDIA 的 10 吉瓦協議、與 AMD 的 6 吉瓦合作。但這些合作仍帶有被動性:OpenAI 需仰賴外部供應商的技術演進與製程進步。為了在硬體層獲得更大控制空間,OpenAI 選擇在架構與設計層面向內靠攏,與 博通 一同打造專屬 AI 加速器,內嵌模型優化的設計思路。
吉瓦是什麼?
「吉瓦(gigawatt, GW)」是電力(功率)的單位,代表 10 億瓦(1,000,000,000 W),用來衡量能在某一瞬間產生或消耗的電力。在AI領域除了用GPU的數量,也時常會用吉瓦當作算力的參考。

AI 應用對運算與網路吞吐量的要求遠高於傳統 IT 任務。隨著模型規模與推論需求上升,資料中心必須支撐更高密度的加速器佈局、更低延遲的網絡,以及更高效的功率、散熱設計。在這樣的背景下,OpenAI 與 Broadcom 的合作被視為一個「垂直整合」的嘗試:它不只是訂購硬體,而是從設計、部署、連接到操作整體考量,以期在 AI 基礎設施上取得更佳協同效率與優勢。因為博通擁有豐富的網路與連接硬體實力,其設備廣泛應用於資料中心網通領域。 在過去也被視為潛在 AI 晶片市場後起之秀。若定制加速器能成功推出並被大規模應用,將有助於挑戰 NVIDIA 在 AI 加速器市場的霸主地位。
即便如此,業界普遍認為這樣的項目難度極高;要從零開始設計、測試並大規模量產 AI 加速器,尤其要與現有軟體生態與加速器架構兼容,是一條漫長路。目前多家大廠(如 Google、Meta、Amazon)也在嘗試自研 AI 芯片,但尚未撼動 NVIDIA 在 AI 加速市場的領導地位。
宣布合作後,Broadcom 股價應聲大漲,反映市場對其在 AI 生態中角色提升的期待。不過,市場與分析師也提出諸多疑慮:
成本與資金壓力:一吉瓦級的計算能力佈建成本高昂,有分析指出每 GW 的設置成本可能達數百億美元級別。
技術風險:設計與製造 AI 加速器需要克服極高的技術門檻,若性能、兼容性或熱功率控制不足,可能影響整體方案可行性。
生態整合挑戰:OpenAI 的軟體模型、框架與系統需與定制硬體良好配合。若軟硬未能協同優化,可能難以達到預期效益。
競爭壓力與市場反撲:NVIDIA、AMD 等現有供應商具備成熟製程、廣泛生態與資源;他們可能採取降價、加強技術迭代等方式反制。
儘管挑戰重重,若 Broadcom + OpenAI 的合作成功,標誌著 AI 基礎設施競賽進入新階段。OpenAI 意圖透過垂直整合降低對外部硬體依賴,Broadcom 則藉此強化自己在 AI 生態中的角色。這項合作既蘊含巨大機會,也伴隨高風險與未知挑戰。未來幾年,算力、網絡、能源與軟硬整合能力,將成為 AI 資本與技術競賽的焦點,並為未來 AI 資源設計與部署樹立範本。