星期四, 18 12 月, 2025
其他Nvidia Vera Rubin 的 2300W 豪賭:為何 2026 將是「微通道水冷 (MCC...

Nvidia Vera Rubin 的 2300W 豪賭:為何 2026 將是「微通道水冷 (MCCP)」全面取代氣冷的轉捩點?

前言:當氣冷觸碰到物理天花板

在半導體的世界裡,數字通常意味著效能,但現在,有一個數字正讓整個矽谷與台灣供應鏈神經緊繃:2,300瓦 (W)

這不是一台高階吹風機的功率,而是 Nvidia 下一代 AI 晶片「Vera Rubin」單顆晶片的預估熱設計功耗 (TDP) 。為了讓讀者有感,目前主流的 H100 功耗約為 700W,這意味著短短幾年間,熱能挑戰翻了三倍以上。

我們正站在一個歷史性的轉折點。如果說 2024 年是 AI 的爆發元年,那麼 2026 年將是資料中心「物理基礎設施」的革命元年。隨著 TDP 的指數級攀升,傳統氣冷散熱將正式退位,取而代之的是一種名為「微通道水冷板 (MCCP)」的精密技術 。

這不僅是技術規格的升級,更是一場由 Nvidia 主導、重新分配全球伺服器供應鏈利潤的豪賭。


一、 熱能海嘯:從 1,400W 到 2,300W 的跨越

要理解為什麼「氣冷」即將走入歷史,我們必須先看懂晶片的熱能演進。

目前的 AI 伺服器市場,液冷散熱已經開始成為主流。Nvidia 的 B300 晶片 TDP 已達 1,400W ,這已經逼近氣冷散熱的極限。然而,這只是前菜。預計於 2026 年登場的 Vera Rubin 架構,其單顆晶片功耗將上看 2,300W 。

與此同時,雲端服務供應商 (CSPs) 也不遑多讓。AWS 明年將推出的自研晶片 Trainium 3,功耗也將從前一代的 700W 增至 800W 。雖然 ASIC(特殊應用積體電路)目前的功耗相對較低,但為了未來的擴充性與穩定性,液冷基礎設施的部署已是箭在弦上 。

在這個高功率時代,熱能不再只是需要「被移除」的廢物,而是決定運算效能上限的關鍵瓶頸。

二、 技術解密:MCCP 微通道水冷板是什麼?

為了馴服這頭 2,300W 的熱能怪獸,Nvidia 在 Vera Rubin 的系統設計上祭出了殺手鐧——微通道水冷板 (Micro Channel Cold Plate, MCCP)

1. 奈米級的工藝升級

傳統的水冷板 (Cold Plate) 利用液體流過金屬板帶走熱量。而 MCCP 則是將內部的液流通道極致微縮到 80-90 微米 (um) 的等級 。這項技術能大幅增加液體與熱源的接觸面積,並透過擴大進水量來顯著提高散熱能力 。

2. VR NVL 144 的全液冷設計

在 Nvidia 規劃的 VR NVL 144 系統中,運算層上方將配置 2 大片升級版的 MCCP 水冷板來直接冷卻 Vera Rubin 晶片 。不僅如此,系統下方的周邊元件散熱則交由 CSP 業者自行設計,多見水冷板與熱管的混合使用 。

這意味著,未來的 AI 伺服器內部將遍布精密的液體血管。與 GB300 相比,VR NVL 144 在水冷板、快接頭 (QD) 以及分歧管 (Inner Manifold) 的用量上都有長足的增長 。

三、 供應鏈重組:Nvidia 的「統一規格」戰略

這或許是這份報告中最值得投資人留意的訊號:Nvidia 計劃收回散熱設計的主導權

1. 收權與標準化

為了確保在極端功耗下的系統穩定性,Nvidia 針對 Vera Rubin 及 Switch 晶片的散熱模組,極高機率會採取「統一設計、指定供應商」的策略 。這與過去開放多家供應商自行設計的模式截然不同。

這就像是蘋果 (Apple) 對其供應鏈的控制模式——規格我定,你負責做。這種「產品標準化」雖然可能因為集中採購而壓抑價格,但也大幅墊高了技術門檻,淘汰了技術不到位的二線廠 。

2. 台灣「散熱雙雄」的地位

  • 奇鋐 (AVC):憑藉著與 Nvidia 長期的散熱合作經驗,以及具備 CSP 訂單明確、產品自製程度高(同時具備機箱量產能力)的優勢,預計仍將是 Nvidia 指定的主要供應商之一 。

  • Cooler Master:同樣被列為主要供應商 ,顯示出台廠在精密散熱領域的宰制力。

若我們將視角拉到國際,日本的 Nidec (尼得科) 雖然在精密馬達與風扇領域是霸主,但在這種高度客製化、且需與晶片設計緊密結合的「液冷板」戰場上,台灣廠商憑藉著快速響應與整合能力(如奇鋐能同時提供機箱與散熱方案 ),目前築起了相當高的護城河。

四、 液冷與滑軌的黃金交叉

 

展望 2026 年,除了散熱,另一個被低估的零組件是「滑軌」。

隨著伺服器機櫃塞入了更多液冷設備、電源棚 (Power shelf) 和備用電池 (BBU),整機重量與複雜度大幅提升 。這直接推動了高階伺服器滑軌的需求。

川湖 (2059 TT) 在此領域展現了驚人的統治力。報告預估,川湖在 GPU 與 ASIC 等 AI 伺服器滑軌的供應比重高達 8成 。這種市佔率,在科技產業中幾乎等同於壟斷。即便面臨通訊及邊緣伺服器等低階產品的稀釋,川湖在 AI 高階市場的地位依然難以撼動 。

結語:跟隨「熱」的足跡

 

投資 AI 硬體,本質上就是投資「能量的轉換效率」。從 2025 年末到 2026 年,我們將見證 AI 伺服器從「氣冷時代」全面過渡到「液冷時代」。

Nvidia 的 Vera Rubin 晶片是這場變革的催化劑,而 MCCP 技術則是解鎖下一代算力的鑰匙。對於台灣投資人而言,關注那些能通過 Nvidia 嚴苛認證、掌握液冷核心技術(如奇鋐)以及承載這些精密算力巨獸的機構件王者(如川湖),將是佈局 2026 的關鍵策略 。

在這個 2,300W 的豪賭中,唯有能「降溫」的人,才能在市場中維持「熱度」。

相關文章

LINE社群討論

熱門文章

目錄