雲端戰爭新變局:NVIDIA的秘密武器CoreWeave,如何從礦工變身估值190億美元的AI巨獸?
當我們談論雲端運算,腦海中浮現的幾乎總是那三個無法撼動的名字:亞馬遜的AWS、微軟的Azure,以及Google的GCP。這三大巨頭(Hyperscalers)如同掌握著數位世界基礎設施的托拉斯,佔據了全球超過三分之二的市場份額。它們的資料中心遍佈全球,提供的服務包羅萬象,從簡單的儲存到複雜的機器學習,無所不包。然而,就在2023年生成式AI的浪潮席捲全球之際,這個看似堅不可摧的「三國鼎立」格局,正被一家名不見經傳的公司,從一個意想不到的角度撕開了一道裂縫。
這家公司的名字叫CoreWeave。許多台灣的投資人可能對它相當陌生。它不是科技巨頭,沒有悠久的歷史,甚至在幾年前,它的主業還是被許多人視為投機的「加密貨幣挖礦」。但就在短短不到兩年的時間裡,這家公司完成了驚天動地的轉身,搖身一變成為AI領域最炙手可熱的算力供應商。它的估值從數億美元一路狂飆,在2023年8月達到80億美元,而根據2024年5月最新一輪由富達(Fidelity)領投的融資數據,其估值已高達190億美元。
更令人玩味的是,全球AI晶片霸主NVIDIA(輝達),不僅是其重要的投資者,更在背後給予了它非比尋常的戰略支持。這引發了一個深刻的問題:為什麼NVIDIA寧願力挺一家新創公司,而不是與其長期的大客戶——AWS、Azure和Google深化合作?CoreWeave究竟做對了什麼,讓它能在大象的腳邊靈敏起舞,甚至隱隱有挑戰巨頭的態勢?這場由AI算力需求引爆的雲端戰爭新變局,對身處全球半導體和硬體製造中心的台灣,又意味著什麼樣的機會與警示?
一、雲端三巨頭的圍牆花園,為何出現了裂縫?
要理解CoreWeave的崛起,必須先看懂傳統雲端巨頭在AI時代所面臨的「甜蜜的煩惱」。AWS、Azure和GCP的成功,建立在提供「通用型」服務的基礎之上。它們就像是數位世界的全聯或家樂福,商品琳瑯滿目,能滿足90%以上客戶的需求。無論你是需要架設網站、儲存數據,還是運行企業軟體,它們都能提供標準化、規模化的解決方案。
傳統雲端服務的「通用型」困境
這種「一站式購足」的模式在過去十年取得了巨大成功。但生成式AI的出現,徹底改變了遊戲規則。訓練和運行大型語言模型(LLM)不再是傳統的計算任務,它對算力的需求是極度專一且貪婪的。它需要成千上萬顆高效能GPU(圖形處理器)以極低的延遲、極高的頻寬緊密協同工作,就像一個交響樂團,任何一個環節的延遲都可能導致整個演奏的失敗。
傳統雲端巨頭的基礎設施,雖然龐大,卻是為通用型任務設計的。它們的網路架構主要是基於乙太網路(Ethernet),這好比是我們日常使用的城市道路系統,雖然四通八達,但紅綠燈多、路況複雜,無法滿足數千輛F1賽車同時以最高速、零誤差奔馳的需求。因此,當AI新創公司或大型企業想要在AWS上租用數千顆NVIDIA H100 GPU進行模型訓練時,往往會發現,即便租到了GPU,也難以發揮其全部效能,成本高昂且效率不彰。這正是「通用型」服務在面對「專精型」需求時的結構性矛盾。
當客戶變成對手:雲端巨頭自研晶片的「雙刃劍」
另一個更深層次的裂縫,來自於雲端巨頭與NVIDIA之間微妙的競合關係。多年來,AWS、Google和微軟是NVIDIA資料中心晶片最大的採購方。然而,為了降低對NVIDIA的依賴並追求更高的利潤率,這些巨頭早已投入鉅資研發自己的AI晶片。
- 亞馬遜AWS推出了用於訓練的Trainium晶片和用於推論的Inferentia晶片。
- Google則擁有其著名的TPU(Tensor Processing Unit),已經迭代了多個版本。
- 微軟Azure也發布了其Maia AI加速器晶片。
這一系列動作,無疑向市場和NVIDIA傳達了一個清晰的訊號:我們既是你的最大客戶,也是你未來的潛在競爭對手。對於NVIDIA的黃仁勳而言,這是一個潛在的巨大威脅。將自己最先進、最稀缺的H100晶片產能,優先供應給這些正在試圖「另起爐灶」的巨頭們,無異於資助對手來挑戰自己的霸權。
這種微妙的戰略矛盾,為一個「純粹」的合作夥伴創造了絕佳的登場機會。一個沒有野心自研晶片、願意全心全意擁抱NVIDIA技術生態、並能將NVIDIA GPU效能發揮到極致的雲端服務商,自然會成為NVIDIA眼中理想的扶植對象。CoreWeave,就在這個完美的時機,出現在了歷史的舞台中央。
二、CoreWeave 的崛起:從加密貨幣礦工到AI算力新王
CoreWeave的故事,是一個典型的「時勢造英雄」的矽谷傳奇。它成立於2017年,最初的業務是利用GPU進行以太坊(Ethereum)挖礦。這段看似「不務正業」的經歷,卻為它日後的成功埋下了至關重要的伏筆。
轉型的智慧:在對的時間,押注對的賽道
挖礦的本質,就是用最低的成本,最大化GPU的運算效率。這使得CoreWeave的創始團隊從一開始就對大規模GPU叢集的管理、散熱、電力和營運成本有著極為深刻的理解。他們比任何傳統的IT服務商都更懂如何「壓榨」出每一分GPU的潛能。
2019年,當加密貨幣市場波動不定時,CoreWeave敏銳地意識到,他們手中累積的大量GPU和營運經驗,可以應用在更廣闊的市場。他們開始轉型,將業務重心放在為視覺效果(VFX)渲染、生命科學和機器學習等需要大量平行運算的領域提供GPU雲端運算服務。這個決策,讓他們在ChatGPT引爆全球AI熱潮之前,就已經完成了關鍵的技術和市場佈局。當2023年全球對NVIDIA GPU的需求呈爆炸式增長時,CoreWeave不是一個追趕者,而是一個早已在賽道上準備就緒的領跑者。
NVIDIA的「親兒子」:獨享的H100供應鏈優勢
CoreWeave與NVIDIA的緊密關係,是其崛起的核心驅動力。早在2020年,它就加入了NVIDIA的合作夥伴網路。當雲端三巨頭還在猶豫是否要全力押注NVIDIA的專用硬體時,CoreWeave毫不猶豫地全面擁抱NVIDIA的生態系統。
這種忠誠換來了豐厚的回報。在NVIDIA H100 GPU「一卡難求」,全球供應鏈極度緊張的時刻,CoreWeave卻能獲得相對穩定的優先供應。這項優勢是致命的。對於AI公司來說,能夠更快地獲得算力,意味著能更快地訓練模型、推出產品、搶佔市場。CoreWeave幾乎成了那些無法從AWS或Azure獲得足夠H100的公司的唯一選擇。
NVIDIA的投資,更像是一種戰略背書。2023年4月,NVIDIA參與了CoreWeave的2.21億美元B輪融資。這不僅僅是財務支持,更是向整個市場宣告:CoreWeave是我們信賴的、能將我們產品效能最大化的戰略夥伴。
技術護城河:專為AI打造的InfiniBand與Kubernetes架構
除了商業模式和供應鏈優勢,CoreWeave在技術架構上的選擇也極具遠見。它沒有沿用傳統雲端的乙太網路,而是選擇了InfiniBand技術來連接其GPU叢集。
如果說乙太網路是複雜的城市道路,那麼InfiniBand就是一條專為GPU數據傳輸打造的、沒有紅綠燈的超級高速公路。它提供超低延遲和超高頻寬,讓成千上萬的GPU能夠像一個單一的、巨大的處理器一樣無縫協同工作。這對於動輒需要數週甚至數月的大模型訓練至關重要,任何網路瓶頸都可能造成時間和金錢的巨大浪費。
此外,CoreWeave的整個平台是基於Kubernetes原生設計的。對於不熟悉技術的讀者,可以將Kubernetes想像成一個極其高效的「自動化貨櫃調度系統」。在傳統雲端,啟動或配置一台虛擬機可能需要數分鐘,但在CoreWeave的平台上,借助Kubernetes,AI開發者可以在幾秒鐘內啟動和部署所需的運算資源,極大地提升了開發和迭代的效率。
這種專為AI工作負載量身打造的技術架構,構成了CoreWeave難以被輕易複製的核心競爭力。它不是在現有基礎上修修補補,而是從零開始,打造了一個最適合AI運算的理想環境。
三、不只是價格戰:CoreWeave如何重塑雲端市場的價值主張?
許多人將CoreWeave的成功簡單歸因於「更便宜」。其官方宣稱,與傳統雲端供應商相比,其解決方案速度提高了35倍,成本降低了80%。但這背後,遠非一場簡單的價格戰,而是一場關於價值主張的重塑。
成本降低80%?專業化帶來的極致效率
CoreWeave的低成本並非來自於犧牲品質,而是源於其高度的專業化。想像一下,一家只生產頂級跑車的工廠,和一家從家用車到大卡車無所不造的工廠,哪一家的生產效率和成本控制會更優?答案顯而易見。
CoreWeave只專注於GPU加速運算這一件事。它的資料中心設計、散熱方案、電力配置、網路架構,全部是為NVIDIA GPU量身最佳化。這使得它能夠以遠低於通用型資料中心的單位成本來營運GPU。相比之下,AWS等巨頭需要兼顧數百種不同的服務,其基礎設施必須具備普適性,這無形中增加了營運AI這種「特種」工作負載的複雜度和間接成本。因此,CoreWeave的價格優勢,是其商業模式和技術架構專一性的必然結果。
靈活與客製化:從GPU抵押貸款到彈性定價
CoreWeave的商業模式也展現出驚人的靈活性。2023年8月,它完成了一筆高達23億美元的債務融資,而這筆融資的抵押品,正是其手中炙手可熱的NVIDIA H100 GPU。這種創新的金融操作,充分證明了頂級算力本身已經成為一種極具價值的硬資產,也讓CoreWeave能夠快速籌集資金,進一步擴建資料中心,形成正向循環。
在定價方面,它也比傳統雲端巨頭更具彈性。客戶可以根據需要,精準地租用特定型號的GPU、特定數量的CPU核心和記憶體,而不是被綁定在幾個固定的「方案」中。這種高度客製化的能力,讓客戶能夠最大化每一分錢的效益,避免了資源浪費。這對於仍在燒錢、對成本極度敏感的AI新創公司而言,具有無與倫比的吸引力。
四、全球賽局下的台灣視角:我們在哪裡?
CoreWeave的崛起,對台灣的投資人和產業來說,是一面鏡子,映照出我們在全球AI浪潮中的優勢與潛在的挑戰。
算力心臟的製造者:台積電與AI伺服器供應鏈
首先,我們必須清楚地認識到,這場全球算力革命的核心引擎,依然在台灣。CoreWeave資料中心裡那些價值連城的NVIDIA H100晶片,其心臟——那塊最先進的晶片,正是由台積電(TSMC)採用其尖端製程技術生產的。沒有台積電,就沒有NVIDIA的輝煌,自然也沒有CoreWeave的崛起。
不僅如此,將這些晶片組裝成功能強大的AI伺服器,並部署到全球資料中心的,也主要是台灣的廠商。從鴻海(Foxconn)、廣達(Quanta)、緯穎(Wiwynn)到英業達(Inventec),台灣的伺服器代工廠(ODM)幾乎囊括了全球AI伺服器的絕大部分訂單。它們是這場算力軍備競賽中,沉默但不可或缺的「軍火庫」。
從這個角度看,台灣是CoreWeave模式的最大受益者之一。CoreWeave的擴張,以及由此引發的雲端巨頭和各國政府對AI基礎設施的瘋狂投資,都將直接轉化為對台積電先進製程和台灣伺服器供應鏈的巨量訂單。這是台灣在全球科技版圖中,最堅實的根基。
日本的啟示與台灣的機會
然而,CoreWeave的故事也帶來了警示。日本政府和企業,如軟銀(SoftBank),已經意識到算力即國力,正投入數千億日圓,試圖建立由本國主導的AI算力基礎設施,以擺脫對美國雲端巨頭的依賴。他們不僅在購買硬體,更在積極扶植能夠提供算力「服務」的平台型企業。
反觀台灣,我們擁有世界頂尖的硬體製造能力,但在提供「算力即服務」(Compute-as-a-Service)的軟體和平台層面,卻相對薄弱。我們的雲端市場,主要由中華電信、遠傳、台灣大哥大等電信巨頭主導,它們的服務模式更接近傳統的IDC(網際網路資料中心)或通用型雲端,缺乏像CoreWeave這樣專為AI打造的、具備全球競爭力的專業平台。
這意味著,台灣在全球AI價值鏈中,目前更多扮演的是「硬體供應商」的角色,賺取的是製造端的利潤。而CoreWeave這樣的公司,則是透過整合硬體、最佳化軟體、創新商業模式,賺取了價值更高的「服務」利潤。一個H100晶片賣給NVIDIA,NVIDIA組裝成加速卡賣給CoreWeave,CoreWeave再將其算力以小時為單位出租給AI公司,每一層都在加值。我們需要思考的是,台灣除了繼續鞏固硬體製造的優勢外,是否有可能誕生出我們自己的「CoreWeave」?
這需要的不僅是技術,更是商業模式的創新和對市場需求的敏銳洞察。或許,台灣的企業可以利用我們靠近硬體供應鏈的獨特優勢,打造出針對特定領域(如半導體設計、生技醫療)的專用型AI雲端平台,提供比全球巨頭更具性價比、更客製化的服務。
結論:算力即國力——CoreWeave掀起的雲端革命與未來展望
CoreWeave的驚人崛起,不僅僅是一家新創公司的成功故事。它標誌著雲端運算市場一個新時代的到來:在AI定義一切的未來,專業化正在戰勝通用化。過去那種「一招半式闖天下」的通用型雲端服務,在面對AI這種極端專精的需求時,開始顯得力不從心。
這場變革的核心驅動力,是NVIDIA與雲端三巨頭之間從純粹的供需關係,演變為複雜的戰略競合。NVIDIA透過扶植CoreWeave這樣的「代理人」,成功地在由其客戶主導的雲端市場中,打入了一枚關鍵的楔子,確保了自身技術生態的影響力和議價權。
對於台灣的投資人而言,這場雲端戰爭的啟示是多層次的。短期來看,任何對AI算力的需求,無論是來自CoreWeave還是AWS,都將持續為台灣的半導體和伺服器產業鏈注入強勁的成長動能。但從長遠來看,我們必須警惕價值鏈固化的風險。CoreWeave證明了,真正的護城河不僅僅是擁有最先進的硬體,更是將這些硬體轉化為高效、易用、且具成本效益的服務的能力。
未來,雲端市場的競爭將不再僅僅是資料中心的規模之爭,更是架構、效率和生態系統之爭。CoreWeave點燃的這把火,才剛剛開始燃燒。它是否能真正顛覆三巨頭的統治尚待觀察,但它已經成功地證明了一件事:在生成式AI這場滔天巨浪中,即使是小蝦米,只要找對了浪頭,也能與鯨魚共舞。而身處浪潮中心的台灣,除了造船,更應該思考如何成為一名優秀的衝浪手。


