人工智慧(AI)革命的浪潮正以前所未有的速度席捲全球產業,當市場的鎂光燈幾乎全部聚焦在輝達(NVIDIA)、超微(AMD)等巨頭推出的強大GPU晶片時,一場攸關AI算力能否真正落地的「隱形戰爭」卻在伺服器機櫃內悄然上演。這場戰爭的主角並非晶片,而是那些過去被視為配角的「連接線」與「連接器」。對於習慣以半導體視角看待科技趨勢的台灣投資者而言,這是一個必須重新建立的認知框架:AI的未來,不僅僅是運算核心的競賽,更是資料傳輸效率的極限挑戰。這場變革的核心,是支撐起龐大AI模型訓練與推論的「神經系統」——高速互連技術。這不僅重新定義了資料中心的架構,也為台灣與日本在全球科技供應鏈中的角色,帶來了全新的機遇與挑戰。
AI資料中心的典範轉移:從「大腦」到「神經系統」的戰爭
要理解這場變革的深刻性,首先必須釐清傳統資料中心與AI資料中心的本質區別。傳統資料中心的核心是中央處理器(CPU),其設計哲學是「串列運算」,就像一位博學的教授,能夠依序、精準地處理各種複雜但獨立的任務,例如網頁伺服、資料庫管理。然而,AI訓練的本質是「大規模平行運算」,它需要同時處理數以萬計的相似性任務,這好比讓成千上萬名學生同時計算一個龐大數學問題的不同部分。這正是圖形處理器(GPU)或專用AI晶片(ASIC)的專長所在。
為何傳統架構已不堪重負?
傳統資料中心的網路流量模式,主要是所謂的「南北向流量」,也就是資料從外部使用者流入資料中心,經過伺服器處理後再流出。這就像一座城市的中央車站,人流主要從城外進出。然而,在AI訓練的場景中,數百甚至數千個GPU需要以極高的頻率彼此溝通、同步模型參數與交換梯度資料,這導致了「東西向流量」——也就是伺服器與伺服器之間的內部流量——呈現爆炸性增長。這好比城市內部所有街區之間,都需要建設成高速公路,任何一個路口的壅塞,都會讓整個城市的交通陷入癱瘓。傳統資料中心的100G甚至400G網路,在這種需求面前顯得捉襟見肘,延遲時間動輒數十毫秒(ms),這對爭分奪秒的AI運算來說是無法接受的。AI資料中心追求的是微秒級(μs)的超低延遲,這就催生了對InfiniBand、NVLink以及超高規格乙太網路(800G/1.6T)的巨大需求。
NVIDIA GB200的啟示:一台伺服器機櫃裡的萬條高速公路
NVIDIA最新推出的GB200 NVL72架構,正是這場傳輸革命最極致的體現。它不僅僅是將72個Blackwell架構GPU堆疊在一起,更是透過第五代NVLink Switch技術,將它們整合成一個具備130TB/s總頻寬的單一巨型GPU。這背後隱藏的秘密,就在於其驚人的內部連接密度。根據市場分析,一個標準的GB200 NVL72機櫃,內部所需的高速銅纜(DAC)和主動式光纖纜線(AOC)數量可能高達驚人的一萬條。這些線纜構成的已不再是傳統的點對點連接,而是一個複雜、高密度的矩陣式網路,確保任何一個GPU都能以最低延遲與其他夥伴進行通訊。
這個架構的出現,直接將資料傳輸的技術規格推向了新的高峰。過去,PCIe Gen 5的112G SerDes(串列器/解串列器)已是產業頂尖,但為了滿足GB200的需求,支援PCIe Gen 7的224G SerDes技術應運而生,成為新一代AI伺服器的標配。速度的倍增帶來了巨大的技術挑戰,尤其是在訊號完整性、功耗和散熱方面。在機櫃內部短距離(通常在3米以內)的連接中,兼具成本效益與低功耗優勢的高速銅纜成為首選;而當距離拉長,或需要在不同機櫃之間連接時,能夠克服訊號衰減問題的主動式光纖纜線則成為必需品。這種銅線與光纖混合應用的架構,為全球供應鏈帶來了全新的市場格局。根據市場研究機構預估,GB200伺服器機櫃的出貨量在2024年有望達到3.4萬櫃,而到了2025年,更有可能突破6萬櫃大關,這背後代表的是數以億計的高速連接器與纜線的龐大商機。
全球供應鏈的重新洗牌:美、日、台三強鼎立
在這場由AI驅動的高速連接革命中,全球供應鏈正形成以美國、日本和台灣為核心的三強鼎立格局。每個地區都憑藉其獨特的優勢,在這條新興的價值鏈中佔據了不可或缺的地位。
美國巨頭定義規格,掌握生態系
毫無疑問,美國企業是這場遊戲的規則制定者。NVIDIA憑藉其CUDA平台和GPU架構,定義了整個AI運算的生態系。博通(Broadcom)和邁威爾(Marvell)則在高速交換器晶片、SerDes IP以及數位訊號處理器(DSP)等核心技術領域佔據主導地位。而在連接器領域,安費諾(Amphenol)和莫仕(Molex)等老牌大廠,憑藉深厚的技術累積和與終端客戶的緊密關係,率先推出了符合最新規格的產品。它們不僅掌握了最關鍵的專利,更透過制定UALink、UEC等產業標準,試圖將生態系的主導權牢牢掌握在自己手中。
日本精工的護城河:村田、廣瀨電機的隱形實力
相較於美國企業的平台化策略,日本企業則延續了其在精密製造和材料科學領域的傳統優勢。對於台灣投資者而言,村田製作所(Murata)在MLCC(積層陶瓷電容)領域的霸主地位早已深入人心,但在高速連接領域,日本企業同樣扮演著「隱形冠軍」的角色。例如,廣瀨電機(Hirose Electric)和日本航空電子工業(JAE)在板對板(Board-to-Board)等高精密連接器市場擁有極高的市佔率,其產品的可靠性與精密度是AI伺服器這種高密度、高功耗環境下穩定運行的關鍵。此外,日本在特殊高頻材料、精密沖壓模具等上游領域的技術護城河,使其成為許多美、台廠商都必須仰賴的關鍵零組件供應商。他們的實力不在於規模,而在於那些難以被取代的「工匠級」技術深度。
台灣廠商的彈性與速度:從貿聯到佳必琪的突圍之路
在這場競賽中,台灣廠商展現了其最擅長的優勢:無與倫比的彈性、速度與系統整合能力。台灣不僅擁有鴻海、廣達、緯創等全球頂尖的伺服器代工廠,能夠將NVIDIA複雜的設計藍圖迅速付諸實現,更孕育出一批在高速連接領域極具競爭力的專業廠商。
其中,貿聯-KY(BizLink)憑藉其在外部高速線束的長期耕耘,成功切入AI伺服器所需的主動式光纖纜線(AOC)和高速銅纜(DAC)市場,成為NVIDIA等大廠的重要供應商。佳必琪(JPC)則專注於伺服器內部的連接線束,以其高度客製化的設計能力和快速的反應速度,滿足了AI伺服器內部複雜走線和散熱的嚴苛要求。湧德(ATTEND)等傳統網通連接器廠商,也正積極向更高頻、更高規格的產品轉型。台灣廠商的優勢在於,它們緊密圍繞著伺服器代工廠這個核心,形成了一個反應迅速、分工精細的產業聚落。當美國客戶提出一個新概念時,台灣供應鏈往往能在最短時間內提供從設計、打樣到量產的完整解決方案,這種產業生態系的效率,是其他地區難以複製的。
投資者的羅盤:如何在高速連接的浪潮中尋找價值?
面對這個由技術規格升級所引爆的龐大市場,投資者應如何佈局?關鍵在於跳脫單純的「產能」思維,轉向關注「技術價值」與「生態系卡位」。
首先,必須密切關注規格升級的領先者。這場遊戲的核心是速度,能夠率先掌握800G、1.6T甚至未來3.2T傳輸規格,並透過NVIDIA等主要客戶認證的廠商,將能享有最高的技術溢價和訂單優先權。這不僅考驗廠商的研發能力,更考驗其在高頻訊號處理、材料應用和散熱整合上的綜合實力。
其次,功耗與散熱衍生的新機會不容忽視。傳輸速度的倍增,意味著功耗和熱量的幾何級數增長。這使得散熱成為AI伺服器設計的重中之重。從傳統氣冷到先進的液冷散熱方案,這不僅帶動了如雙鴻、奇鋐等散熱模組廠的崛起,也對連接器本身的耐熱性、密封性提出了更高要求。能夠提供整合散熱功能的連接方案,將具備更高的附加價值。
最後,必須理性評估風險。AI基礎設施建置雖然是長期趨勢,但短期內仍會受到雲端服務供應商(CSP)資本支出的週期性影響。同時,隨著市場潛力浮現,競爭勢必加劇,價格壓力將隨之而來。因此,選擇那些不僅擁有技術領先地位,同時在供應鏈管理、客戶關係和成本控制方面具備深厚護城河的企業,才是穿越週期的致勝關鍵。
總結而言,AI革命的真正瓶頸,正從晶片的算力轉向資料的傳輸力。這場圍繞「連接」展開的產業升級,其規模與深度,絲毫不亞於半導體製程的演進。它為台灣的電子產業,提供了一個從傳統代工製造,邁向高附加價值系統整合的絕佳契機。對於投資者來說,這意味著需要將目光從閃亮的晶片,投向那些默默支撐著資料洪流的高速公路建設者。在這條由銅線與光纖交織而成的賽道上,掌握了速度與連接的廠商,無疑將成為下一波AI浪潮中,最值得期待的贏家。


