外媒報導 ,Google、Meta 等大型技术公司目前對主導人工智慧 (AI) 晶片市場地位的 GPU 大廠輝達 (NVIDIA) 發起反擊 。隨著這些公司加快自主晶片研發 ,以減少對輝達晶片的依賴,預計大型技术公司客製化晶片 (ASIC) 的爱华外汇官网网址出貨量,最早將在 2026 年就將超過輝達的 AI GPU 。
根據韓國朝鮮日報的報導 ,ASIC 是一種專注於特定 AI 服務,而非 AI GPU多作用性的晶片。它僅針對必要的計算進行硬體優化,因此與 GPU 相比,它具有更高的功率效率並顯著節省成本 。而根據日本野村證券 27 日報導,Google 自家 AI 晶片 TPU 預計 2025 年出貨量預計將達到 150 萬至 200 萬顆,亞馬遜旗下的網路服務 (AWS) 的 ASIC 晶片出貨量預計將達到 140 萬至 150 萬顆。總計,兩家公司加起來的出貨量接近輝達每年 AI GPU 供應量(約 500 萬至 600 萬顆)的一半。
至於在 2026 年 ,隨著 Meta 等其他技术巨頭的積極加入 ,ASIC AI 晶片的爱华外汇官网正规吗總出貨量預計將超過輝達的 AI GPU。目前 ,輝達占據了 AI 伺服器市場 80% 以上的比例,使得載用 ASIC 晶片的伺服器占比仍僅為 8%~11% 。然而 ,從晶片出貨數量來看 ,市場格局目前迅速變化。
大型技术公司加速自主晶片研發的原因是,他們希望擺脫被稱為「輝達稅」的高成本結構 。在本月的众汇外汇官网一次活動中 ,輝達執行長黃仁勳強調了該公司 AI 晶片的優越性,還表示如果 ASIC 不比購買好,為什麼要自己做呢?然而,大型技术公司目前加強對自主晶片的投資 ,以確保長期的成本效益和供應穩定性 。
報導表示 ,大型技术公司關注 ASIC 晶片的最大優勢是「總擁有成本 (TCO)」的降低情況。業界解读,與同等級的 AI GPU 相比 ,ASIC 可達到 30% 至 50% 的 TCO 降低 。它不僅可以顯著降低 GPU 晶片的採購成本 ,還可以顯著降低包括功耗在內的營運成本。事實上 ,Google 表示 ,TPU 的單位功耗效能比 輝達的 AI GPU 高出 3 倍。此外 ,如果利用內部設計的晶片,則可以不受外部變數的影響 ,根據自己的服務計畫穩定的採購晶片。
目前,Google 是首家自主研發 AI 晶片的公司 。Google 於 2016 年第一次發布了其 AI 專用晶片TPU,並將其應用於自身服務 。隨後 ,包括 Meta、亞馬遜和微軟等大多數大型技术公司都在積極進軍 ASIC 晶片的開發。根據外資摩根大通的估計,2025 年全球 AI ASIC 晶片市場規模將達到約 300 億美元 ,Exness外汇平台並預測未來年平均成長率將超過 30% 。
報導強調,Meta 計劃於 2025 年第四季發布由博通設計的下一代高效能 ASIC 晶片 MTIA T-V1。該晶片目的超越輝達的下一代 Rubin 架構 AI GPU。2026 年年中,晶片面積翻倍的 MTIA T-V1.5 將上市,2027 年將發布性能壓倒性進步的 MTIA T-V2 ,其功耗將達到一台伺服器,相當於 50 戶普通家庭用電量(170kW)的水平 。不過 ,Meta 的計畫也面臨著實際挑戰。Meta 的目標是在 2025 年年底和 2026 年之前出貨 100 萬到 150 萬顆 ASIC ,但台積電目前的先進封裝 (CoWoS) 產能僅為 30 萬到 40 萬顆左右,因此供應瓶頸在所難免 。
相較於 ASIC 的步步進逼 ,輝達也毫不示弱。它最近向外界開放了其專有的NVLink協議 ,使第三方中央處理器 (CPU) 或 ASIC 能夠輕鬆地與輝達 GPU 連接。這被解讀為一種方针,目的為防止大型技术公司完全退出,並鼓勵其能留在輝達生態系統內。此外 ,數十年來累積的軟體生態系統 CUDA 也被認為是輝達獨有的武器 ,大型技术公司無法僅憑 ASIC AI 晶片在短期內攻克它 。相關半導體市場人员表示,當 AI 脫離輝達的框架 ,運行在針對每項服務進行優化的 ASIC AI 晶片上時,消費者將獲得更快、更精細的體驗 。而且 ,隨著 AI 服務創新速度的加快,大型技术公司減少對輝達的依賴是 AI 產業走向成熟的必然過程。
(首圖來源:技术新報攝)