星期四, 18 12 月, 2025
AI人工智慧AI人才戰爭的致命斷層:美國國安危機給台灣的警示

AI人才戰爭的致命斷層:美國國安危機給台灣的警示

想像一個場景:遍佈全美的電網突然出現一系列微小但無法解釋的異常波動,負責監控的AI防禦系統卻顯示一切正常。同時,資安人員發現,過去頻繁觸發警報的某種特定網路探測攻擊,如今卻銷聲匿跡。這不是系統變得更安全,而是AI防禦系統本身已經被滲透,成了一個「潛伏的間諜」,它正在為敵國的網攻行動打掩護,為一場可能造成數十億美元損失、甚至癱瘓社會的災難鋪平道路。

這並非好萊塢的電影情節,而是美國國安專家嚴肅推演的未來危機之一。然而,當這樣的危機爆發時,美國政府正面臨一個令人不安的真相:他們可能沒有足夠的專家來應對。全美國最頂尖、最了解這些前沿AI系統弱點的大腦,絕大多數都不在華盛頓特區的政府辦公室裡,而是在加州的矽谷,在OpenAI、Google DeepMind或Anthropic的辦公室裡。這形成了一道巨大的鴻溝,一道可能在未來攸關國家存亡的戰略脆弱性。

這場危機的核心不是技術,而是「人」。當國家最需要AI安全專家在幾天甚至幾小時內做出反應時,聯邦政府的招募和安全審查體系卻仍以「月」為單位運轉。本文將深入剖析美國政府面臨的AI人才赤字困境,探討這道鴻溝為何形成,並對比日本與台灣的應對策略,為身處科技戰略前沿的台灣投資者與企業家,提供一份獨特的觀察與洞見。

為什麼OpenAI的工程師,不去五角大廈上班?

美國政府與矽谷科技巨頭之間的人才爭奪戰,早已不是新聞。但在AI領域,這場競賽的差距被拉大到了前所未有的程度。頂尖AI人才之所以選擇留在私營部門,背後是薪酬、文化與速度構成的巨大鴻溝。

兩個世界的巨大鴻溝:薪酬、文化與速度

首先是薪酬。根據公開資料與業界訪談,頂尖AI研究人員在OpenAI或Google等公司的年薪,加上股權分紅,輕鬆可達七位數甚至八位數美元。相比之下,美國聯邦政府的薪酬體系,即「總薪級表」(General Schedule),最高級別(GS-15)的年薪上限在2024年約為19萬美元。這之間的差距已非「巨大」可以形容,而是一個數量級的差異。對於能夠創造數億美元價值的頂尖人才而言,公共服務的吸引力在金錢上顯得微不足道。

其次是文化衝突。矽谷以其扁平化的組織、快速迭代的開發模式和鼓勵冒險的文化著稱。工程師們習慣於在開放的環境中挑戰權威、迅速解決問題。而美國政府,特別是國防與情報部門,則是一個層級分明、流程嚴謹、極度重視保密與程序的官僚體系。一位前國防部官員曾比喻,這就像要求一位習慣在米其林三星廚房自由創作的頂級主廚,去學校餐廳嚴格按照食譜烹飪——不僅工具和食材不同,整個思維模式都格格不入。在分秒必爭的AI危機中,這種文化上的摩擦力本身就是一種巨大的障礙。

最後是速度。AI技術的發展日新月異,模型每隔幾個月就會有重大突破。身處科技前沿的私營公司能夠以驚人的速度投入資源、開發工具、部署解決方案。而政府的採購、審核和部署流程往往需要數月甚至數年。對於追求技術影響力的AI專家來說,政府的緩慢節奏意味著他們的技能可能在派上用場之前就已經過時。

「紅色膠帶」的迷宮:耗時數月的安全審查

即便有AI專家出於愛國心或使命感願意投身政府,他們也必須先闖過一道名為「安全審查」(Security Clearance)的漫長關卡。這是進入美國國安體系工作的必要通行證,旨在確保個人沒有可能被外國勢力利用的弱點。

然而,這個過程極其耗時。根據美國政府問責署(GAO)的數據,獲得較低級別的「機密」(Secret)許可平均需要數月時間,而應對重大危機所需的高級別「最高機密」(Top Secret)許可,加上敏感資訊存取權限(SCI),通常需要六個月到一年以上。在AI危機中,威脅可能在幾天內就造成無法挽回的損失,這種以「月」為單位的審查速度無疑是遠水救不了近火。

更深層次的問題在於審查標準與科技圈文化的脫節。例如,審查指南對於過去的藥物使用有著嚴格的規定,即使是娛樂性大麻在許多州已合法化,在聯邦層級依然是審查的 disqualifier(不合格因素)之一。這項規定可能會直接排除掉一部分來自矽谷等地區的優秀人才。此外,安全審查通常僅限於美國公民,而根據喬治城大學安全與新興技術中心(CSET)的報告,美國頂尖AI領域的博士畢業生中,有超過六成是國際學生。這意味著,美國AI領導地位背後最重要的人才庫,大部分都無法在國家最需要的時候參與機密應對工作。

當危機爆發:美國政府手上的牌有多少?

面對迫在眉睫的威脅,美國政府並非毫無準備。其內部確實存在一些專業的AI團隊,也建立了幾種緊急招募機制。然而,這些現有的資源和工具,在應對大規模、高複雜性的AI危機時,顯得捉襟見肘。

現有人才庫:星星之火,難以燎原

美國政府內部確實散佈著一些AI專業能力的「口袋」,例如美國國家標準暨技術研究院(NIST)下的AI安全中心、國防高等研究計畫署(DARPA)、國家實驗室以及國家安全局(NSA)等。這些機構擁有世界一流的科學家和工程師,並在AI基礎研究、標準制定和國防應用方面扮演著關鍵角色。

然而,這些團隊的普遍問題是規模太小、任務繁重。例如,NIST的AI安全中心雖然是政府內部的評估權威,但其核心技術人員僅有二十餘人。在平時,他們要負責研究、制定標準、與數百個外部機構合作,已是滿載運作。若要他們在危機中同時承擔根本原因分析、威脅預測和設計修復方案等多重任務,顯然力不從心。這些專家團隊如同星星之火,雖能照亮特定角落,卻難以形成撲滅整場森林大火的燎原之勢。

應急方案的困境:現有招募機制的「三難」

為了在短期內引進外部專家,美國聯邦政府設計了幾種快速招募授權,但每種機制都有其致命的缺陷,形成了一種「三難困境」。

1. 《政府間人事法》(IPA):這是最常用的機制之一,允許政府與大學、非營利組織等機構進行人員的臨時借調。其最大的優點是成本分攤靈活,政府甚至可以不支付薪水,由原機構繼續發薪。然而,它的致命傷在於法律明確排除了「營利組織」。這意味著,AI安全人才最集中的地方——OpenAI、Google、微軟等科技巨頭——完全被排除在外。

2. 專家/顧問任命:這項授權允許政府從任何地方(包括私營部門)聘請專家。但它的限制是,這些專家「不能從事政府正式員工已在從事的工作」。這項規定極大地限制了他們的角色。在危機應對中,政府需要的是能夠親自動手分析程式碼、修補漏洞的「球員」,而非僅僅在場邊提供建議的「球評」。

3. A類計畫任命(Schedule A):這是一系列更靈活的快速招募授權,允許從私營部門招募,且工作範圍限制較少。但它的問題在於,政府必須按照公務員薪酬標準支付全額薪水,且沒有成本分攤機制。鑑於前述的巨大薪酬差距,這對政府財政是個負擔,對頂尖人才也缺乏吸引力。

這三種機制,要麼無法觸及最關鍵的人才庫,要麼限制了專家的實際作用,要麼在薪酬上缺乏彈性。它們共同構成了一張充滿漏洞的安全網,難以在真正的危機中有效發揮作用。

他山之石:日本與台灣的AI人才戰略

美國政府在動員私營部門AI人才方面所面臨的結構性困境,為其他國家提供了寶貴的鏡像。特別是同為美國盟友且身處科技競爭前沿的日本與台灣,其不同的「官產學」合作模式,展現了應對此類挑戰的替代路徑。

日本模式:大企業主導下的「官產學」合作

日本的科技生態與美國截然不同,並非由顛覆性的新創公司主導,而是由索尼(Sony)、日本電氣(NEC)、富士通(Fujitsu)等大型綜合性企業集團掌控。這些企業內部擁有龐大的研發部門,其AI人才也主要集中在這些巨頭內部。日本政府,特別是經濟產業省(METI)和產業技術總合研究所(AIST),長期以來與這些大企業建立了緊密的合作關係。

相較於美國政府與矽谷之間的文化隔閡與薪酬鴻溝,日本政府與企業界的關係更為融洽。人才在政府、研究機構與大企業之間的流動雖然不像美國那樣頻繁,但合作的框架卻更為穩固。例如,日本頂尖的AI新創公司Preferred Networks,自創立以來就與豐田汽車等傳統工業巨頭以及政府研究機構有著深度合作。這種模式下,當國家需要動員AI專家時,溝通的管道和合作的默契早已存在,人才動員的阻力相對較小。

台灣模式:半導體巨頭領軍的「公私協力」

台灣的模式則更具特色,可以稱之為由半導體產業成功經驗所塑造的「國家隊」模式。台灣的AI發展與其硬體優勢緊密相連,台積電(TSMC)、聯發科(MediaTek)等巨頭不僅是晶片製造商,也投入了大量資源進行AI相關的研發,尤其是在終端AI(Edge AI)和高效能運算領域。

台灣政府,從過去的國科會到現在的數位發展部(MODA),以及工研院(ITRI)、國研院等法人機構,與產業界的關係極為密切。這種「公私協力」(Public-Private Partnership)的傳統,使得政府在推動科技政策時,能夠有效地與產業界協同作戰。台灣人工智慧實驗室(Taiwan AI Labs)的存在,更是一個獨特的例子。它作為一個私營的研究機構,卻承擔了許多類似國家級實驗室的任務,成為學術界、產業界與政府之間的橋樑。

面對AI人才動員的挑戰,台灣的優勢在於其緊密的產業網絡和行之有年的公私協力文化。當危機發生時,政府可以透過既有的合作管道,迅速接觸到在台積電、聯發科或AI新創公司裡的頂尖工程師。儘管台灣在純軟體和基礎模型研究方面的人才庫不如美國龐大,但在應對與硬體、製造或特定應用領域相關的AI危機時,其動員效率可能更高。

美國的解方:打造一支AI「數位後備軍」

面對自身結構性的困境,美國的政策專家們提出了一項堪稱根本性的解決方案:建立一支「國家AI後備軍團」(National AI Reserve Corps)。這個構想的核心,是試圖在政府與科技界之間建立一種全新的社會契約。

這個概念類似於軍事上的後備役制度。政府將預先招募一批來自私營企業、學術界和非營利組織的頂尖AI安全專家。這些專家在平時留在各自的職位上,繼續從事最前沿的研究和工作,以保持其技能的先進性。政府則會預先為他們完成耗時的安全審查,並定期組織他們與政府相關部門進行聯合演習,模擬應對各種AI危機。

一旦真正的危機爆發,總統或相關部門首長即可「啟動」(activate)這支後備軍。這些專家將在幾天內放下手邊工作,以「特別政府雇員」(SGE)的身份投入危機應對,任期可能只有幾週或幾個月。SGE身份可以讓他們在服務期間,適用較為寬鬆的利益衝突法規,並可能繼續領取原公司的部分薪酬,從而大大降低了參與的門檻。

這個方案的精妙之處在於,它試圖一舉解決前述的多個難題:

  • 速度問題:透過預先完成安全審查,徹底消除了危機爆發後最耗時的瓶頸。
  • 人才觸及問題:它能將私營部門最頂尖的人才納入國家儲備,繞開了《政府間人事法》的限制。
  • 成本效益問題:政府只需在啟動期間支付薪酬,遠比長期雇用這些昂貴的專家要經濟得多。
  • 技能更新問題:專家們平時在業界工作,確保了他們的知識和技能永遠處於最新狀態。

當然,要建立這樣一支隊伍,還需要配套的改革,包括簡化安全審查流程、修訂利益衝突法規、以及提供足夠的資金和法律授權。但它代表了一種全新的思維:不再試圖將頂尖人才「拉進」政府的舊體系,而是建立一個靈活的「插件式」新體系,讓外部專家能夠在關鍵時刻即時接入。

結論:從美國的焦慮看台灣的警示

美國政府在AI國安人才上的焦慮,揭示了一個深刻的現代治理難題:當國家最尖端的戰略能力掌握在私營部門手中時,政府該如何確保在危急時刻能夠有效調動這些能力?華盛頓與矽谷之間的鴻溝,不僅僅是地理或文化上的,更是一種戰略脆弱性。

「AI後備軍團」的構想,正是美國試圖彌合這道鴻溝的大膽嘗試。它不僅是個人才招募計畫,更是一種制度創新,試圖在21世紀的科技地緣政治格局下,重新定義國家與頂尖科技人才的關係。

對身處地緣政治風暴中心的台灣而言,美國的困境提供了一面鏡子。台灣的公私協力模式根基深厚,這是一項巨大的戰略資產。然而,我們仍需不斷自問:面對瞬息萬變的AI威脅,我們現有的動員機制是否足夠快速、足夠靈活?我們是否能夠在數天之內,將分散在竹科、南科、內湖的頂尖AI軟體工程師、演算法專家和半導體架構師,整合為一支能有效應對國安危機的團隊?

未來國家的安全,或許不再僅僅取決於有多少戰機和飛彈,更取決於能否在危機的「零時差」內,動員其最聰明的大腦。這場無聲的人才戰爭,已經開始。

相關文章

LINE社群討論

熱門文章

目錄