人工智慧(AI)的發展正以前所未有的速度席捲全球,從改變產業樣貌到顛覆我們的工作模式,其能力飛躍的步伐令人驚嘆。對許多投資人而言,AI是當下最炙手可熱的賽道,各大科技巨頭發布的新模型,就像過去蘋果發表新iPhone一樣,總能引發市場狂熱。然而,在這場看似風光的技術革命背後,一個至關重要的問題卻被普遍忽視:當我們為這輛名為「AI」的超級跑車不斷提升引擎馬力時,它的煞車系統是否同樣可靠?
最近一份針對全球八家頂尖AI公司的獨立安全評估報告,為我們揭示了一個令人不安的真相。這份報告猶如一份權威的「安全成績單」,評估了包括ChatGPT開發商OpenAI、Google DeepMind,以及被視為安全模範生的Anthropic等產業領頭羊。結果顯示,即便是表現最好的公司,其綜合安全評分也僅僅是「C+」,處於勉強及格的邊緣。更令人震驚的是,在攸關人類未來的「存在風險」(Existential Safety)管理項目上,所有公司都不及格。
這份報告不僅是技術圈的警鐘,更是對所有投資者和商業決策者的重要提醒。它揭示了AI產業一個巨大的結構性矛盾:技術能力的發展速度,已遠遠拋離了安全治理的步伐。本文將深入剖析這份成績單背後的關鍵發現,並從台灣投資者熟悉的產業視角出發,對比美國、日本和台灣在AI競賽中的不同角色與風險考量,幫助讀者在AI的投資狂熱中,看清那些被光環所掩蓋的潛在風險。
科技巨頭的安全成績單:為何C+是最高分?
在這份嚴格的評估中,產業的三大巨頭——Anthropic、OpenAI和Google DeepMind——雖然位列前三,但成績卻難言理想。他們分別獲得了C+(2.67分)、C+(2.31分)和C(2.08分)的評分(滿分為4.3分)。這意味著,即使是產業內公認投入最多資源於安全的企業,其整體表現也僅僅是「尚可」,存在著明顯的改進空間。
Anthropic:模範生的光環與隱憂
Anthropic長期以來被視為AI安全領域的領跑者,其公司結構設計為「公益公司」(Public Benefit Corporation),從根本上試圖平衡商業利益與公共安全。此次評估中,它在所有評估領域都獲得最高分,尤其在風險評估的透明度、相對完善的安全框架、以及對技術安全研究的大量投入上備受肯定。
然而,這位模範生也並非完美無瑕。報告指出,Anthropic近期在某些方面出現了退步。例如,在其最新模型的風險評估週期中,缺少了衡量AI是否會提升人類從事惡意活動能力的「人類提升試驗」(Human Uplift Trials)。更值得注意的是,該公司在2025年8月修改了用戶隱私政策,從過去的「用戶主動選擇加入(Opt-in)」才能將對話數據用於模型訓練,改為「預設使用(Opt-out)」,這無疑增加了用戶數據隱私的風險。這項轉變,也讓它失去了過去在用戶隱私保護上的獨特優勢。
OpenAI與Google DeepMind:能力突出,安全瘸腿
作為ChatGPT的開發者,OpenAI在全球享有極高的知名度。其風險評估流程涵蓋了較廣泛的風險類別,並且提供了比同業更詳細的評估報告,這點值得肯定。其公司結構同樣是公益公司,在治理上有一定的制衡機制。然而,報告建議OpenAI必須使其安全框架的觸發門檻更具體、更可量化,並加強外部監督,同時也點出其在遊說反對美國州級AI安全法規上的負面行為。
Google DeepMind同樣在透明度上有所提升,並分享了其內部吹哨者政策的細節。但其風險評估的嚴謹性和獨立性依然受到質疑,例如外部評估人員由公司支付報酬,其獨立性難免受到影響。此外,其安全框架中的門檻設定與治理結構仍不夠具體,缺乏清晰的行動觸發機制。
總體來看,前三名巨頭的表現揭示了一個普遍現象:他們擁有最先進的技術和最完善的書面框架,但在將承諾轉化為具體、可衡量且獨立可驗證的行動上,仍有很長的路要走。C+的成績,更像是對其「有在努力,但遠遠不夠」的客觀評價。
斷崖式的差距:第二梯隊為何遠遠落後?
如果說第一梯隊的成績是「差強人意」,那麼第二梯隊的表現則可以用「岌岌可危」來形容。這份報告中,包括伊隆・馬斯克(Elon Musk)創立的xAI、Meta(Facebook母公司),以及來自中國的智譜AI(Z.ai)、深度求索(DeepSeek)和阿里雲(Alibaba Cloud),它們的得分都落在「D」級(1.0分左右),與前三名之間存在著巨大的斷層。
這就好比一場F1賽車,前三輛賽車至少配備了還算堪用的煞車系統,而後方的車輛則幾乎是在無煞車狀態下狂奔。第二梯隊的主要問題集中在幾個方面:
1. 風險評估資訊揭露嚴重不足:相較於前三名動輒上百頁的系統安全報告,第二梯隊的公司大多只提供非常有限的資訊,讓外界難以評估其模型的真實風險。
2. 安全框架不完整或付之闕如:除了Meta和xAI近期開始發布初步的安全框架外,多數公司甚至沒有公開的、結構化的安全治理藍圖。
3. 治理結構薄弱:例如,完善的吹哨者保護政策在這些公司中普遍缺失,這意味著內部員工若發現嚴重安全隱憂,可能沒有安全、有效的管道可以發聲。
不過,報告也點出了一些正面發展。例如,Meta新發布的安全框架,是唯一採用「基於結果」的風險門檻,雖然觸發標準設得過高,但仍不失為一個有意義的嘗試。xAI也形式化了其安全框架並引入量化門檻,儘管其風險覆蓋範圍依然狹窄。來自中國的智譜AI則表示正在制定存在風險管理計畫,並在外部監督上採取了較開放的態度,例如允許第三方評估者在不受審查的情況下發表安全評估結果。
值得注意的是,報告特別提到,中國的公司雖然整體評分偏低,但在某些方面因應國內法規要求,反而展現出比西方同業更強的問責基準。例如,中國法規強制要求AI生成內容必須加上浮水印,並建立事件通報機制,這些都為其 базова 安全實踐提供了底線保障。
最大的結構性失靈:「存在風險」的空頭支票
本次評估中最令人觸目驚心的發現,莫過於「存在風險」(Existential Safety)這一項目的全面潰敗。所謂存在風險,指的是AI發展可能導致的災難性後果,例如AI失控、被用於製造大規模毀滅性武器,或對人類社會造成不可逆轉的傷害。這是AI安全領域的終極議題,也是各大公司宣稱其追求通用人工智慧(AGI)或超級智慧時,無法迴避的責任。
然而,報告顯示,沒有一家公司的得分高於「D」。這意味著,儘管這些公司的領導者們(如OpenAI的Sam Altman、Google DeepMind的Demis Hassabis)頻繁在公開場合談論AI的長遠風險,但這些言論尚未轉化為任何具體的、可信的行動計畫。
整個產業在此議題上呈現出一種「 foundational hypocrisy」(根本性的偽善):
- 口號與行動脫節:一邊高喊著要創造超越人類智慧的AGI,一邊卻沒有任何可靠的計畫來防止其失控或被濫用。
- 缺乏量化安全計畫:沒有公司能提出一個量化的安全方案,例如,他們無法估計其開發的AGI有多大的機率會出現嚴重失控。
- 控制手段付之闕如:對於如何監控一個遠比人類聰明的AI系統、如何在其出現惡意行為時進行干預,目前仍停留在理論探討階段,缺乏可信的內部監控與控制機制。
這就像一個團隊宣稱要建造一座核融合反應爐,卻拿不出一份經過驗證的反應爐安全殼設計圖。這種能力與安全準備之間的巨大鴻溝,是整個AI產業最大的結構性失靈,也是投資者在評估這些公司長期價值時,一個絕對不容忽視的巨大未定價風險。
亞洲視角:當美國AI巨頭對上日本與台灣
對於身處亞洲的我們而言,這份報告不僅揭示了美國AI巨頭的內部問題,也提供了一個絕佳的機會,來審視我們自身及鄰近國家在AI浪潮中的定位與策略。
日本的豪賭與保守並行
面對美國AI技術的強勢主導,日本展現出了一種混合了豪賭與保守的追趕姿態。最具代表性的就是軟銀集團(SoftBank)的創辦人孫正義。他近年來將集團的未來全部押注於AI,誓言要投入巨資,打造超越人類智慧一萬倍的「超級智慧」。這種孤注一擲的姿態,與美國科技巨頭的雄心壯志如出一轍,但也同樣面臨著報告中所警示的「能力與安全脫節」的風險。孫正義的AI願景,目前更多是建立在對技術能力的極致追求上,其安全治理藍圖同樣模糊不清。
相較之下,日本電信電話公司(NTT)則代表了另一種更為穩健的國家隊路線。NTT推出了名為「Tsuzumi」的大型語言模型,其規模和能力雖然不及美國的頂尖模型,但更注重於與日本國內產業的結合,並在輕量化、低功耗方面下功夫。這種策略或許在技術巔峰的競賽中處於劣勢,但在風險可控性和特定應用場景上,可能更具韌性。日本的雙軌發展,恰恰反映了全球AI競賽中的兩種不同心態:一種是追求極致能力的「超級智慧競賽」,另一種則是更務實、更注重風險控制的「產業應用競賽」。
台灣的根基與挑戰
台灣在這場全球AI競見中的角色則更為獨特。如果說OpenAI、Google設計的是AI的「超級引擎」(模型算法),那麼台灣的台積電(TSMC)就是製造這些引擎核心零組件——「活塞與汽缸」(高性能晶片)的無可取代的供應商。這份報告中的所有美國公司,其模型的訓練和推理都極度依賴台灣的半導體製造能力。
這一定位賦予了台灣在全球AI產業鏈中不可或缺的關鍵地位,但也帶來了獨特的挑戰。我們的風險,更多是來自於供應鏈的地緣政治風險,以及被捲入大國科技競賽的壓力。
在AI模型本身的發展上,台灣的腳步相對謹慎。由工研院(ITRI)、台灣人工智慧實驗室(Taiwan AI Labs)等機構主導的AI發展,更多是集中在特定領域的應用,例如醫療、製造業優化、以及繁體中文的語言模型。這種模式規模較小,其安全考量自然與追求AGI的美國巨頭不同,更側重於資料隱私、演算法偏見等當前可見的風險,而非遙遠的「存在風險」。
從這個角度看,美國巨頭的安全成績單對台灣的啟示在於:我們必須意識到,即使我們不直接開發那些可能帶來災難性風險的頂尖模型,我們依然身處這個高風險生態系的核心。作為關鍵硬體的提供者,台灣未來的產業政策,勢必需要將AI安全治理的國際趨勢納入考量。
投資者的啟示:在AI狂熱中,你該看懂的四大警訊
這份AI安全成績單,為身處投資市場的我們提供了超越財報和產品發布的深層洞察。在評估一家AI公司的長期價值時,除了關注其技術有多強大、用戶有多少,以下四個安全警訊,可能是決定其未來成敗的關鍵。
警訊一:能力與安全的脫鉤
一個模型在各種性能評測(Benchmark)上得分再高,也不代表它是安全的。投資者需要學會區分「能力展示」與「安全證明」。當一家公司大肆宣揚其模型的新能力時,應反問:它的安全評估報告在哪裡?評估過程是否獨立?是否涵蓋了最壞情況的壓力測試?
警訊二:公司治理的照妖鏡
公司的法律結構(是追求股東利益最大化的普通公司,還是兼顧社會責任的公益公司?)、吹哨者保護政策的完善程度,以及領導層對風險的公開態度,都是判斷其安全文化的重要指標。一家真正重視安全的公司,會建立讓內部異議得以順暢表達的機制,而不是壓制或懲罰提出問題的員工。
警訊三:監管的模糊地帶與企業的真實態度
報告中提到,一些AI巨頭在公開場合支持負責任的AI,私下卻花費巨資遊說,試圖削弱或阻擋旨在加強安全的法案(如加州的SB 1047法案)。這種言行不一的態度,是評估公司誠信度的重要參考。未來的監管環境,將是影響AI產業發展的最大變數之一,而企業對監管的真實態度,將決定它們是產業的建設者還是潛在的風險製造者。
警訊四:亞洲的追趕與制衡力量
美國並非唯一的玩家。日本在國家層級的AI布局、中國在特定監管措施上的強制力,以及台灣在全球硬體供應鏈中的核心地位,都是影響全球AI安全格局的重要變數。投資者需要具備全球視野,理解不同區域的發展策略與監管文化,才能更全面地評估風險。
結論
AI的未來充滿無限可能,但通往這個未來的道路並非坦途。這份安全報告猶如一張航海圖,標示出了前方的暗礁與險灘。它告訴我們,當前整個產業在安全實踐上,正危險地落後於其技術能力的狂飆突進。領導者們的「C+」成績不是榮譽,而是警告。
對於投資者和決策者而言,現在是時候將視線從AI光鮮亮麗的技術展示,轉向其背後那些枯燥但至關重要的安全地基。因為在AI的長遠競賽中,最終的贏家,或許不是跑得最快的,而是那個能夠確保在終點線前,依然能穩穩煞住車的。看懂這份安全成績單,就是在為我們的投資組合,乃至我們共同的未來,安裝一個必要的風險預警系統。


