生成式 AI 的法律邊界:當創意不再專屬於人類,我們該如何守護商業護城河?
在科技迭代的浪潮中,我們正經歷著一場前所未有的生產力革命。從 ChatGPT 的文字生成到 Midjourney 的圖像創作,AI 已經不再僅僅是輔助工具,它更像是一位不知疲倦的超級員工。然而,當我們沉浸在「一鍵生成」的高效紅利時,一個巨大的陰影正悄然籠罩在商業世界的上空——那就是法律的邊界。
這是一個充滿矛盾的時刻:一方面,企業渴望利用生成式 AI 降本增效;另一方面,對於產出的內容究竟屬於誰、是否侵權,以及如何保護輸入的商業機密,大多數人仍是一知半解。
如果 AI 生成的程式碼被判不具著作權,你的軟體護城河還存在嗎?如果你的行銷素材不慎使用了受保護的風格,誰該為此買單?
為了拆解這個複雜且迫切的議題,我邀請了瀛睿律師機構創辦人簡榮宗律師。簡律師不僅具備深厚的法律專業,更有著豐富的財金與產業創新歷練。在這場深度對談中,我們不談晦澀的法條背誦,而是從商業邏輯出發,探討在 AI 時代,企業與創作者該如何重新定義「原創」,並在法律的灰階地帶中,構建起自己的安全防線。
著作權的核心戰場:人類精神的創作與 AI 的運算
要理解 AI 的法律爭議,我們必須回歸第一性原理:著作權法保護的究竟是什麼?
簡榮宗律師在對談中一針見血地指出,著作權法的立法初衷,是為了保障「人類」的精神創作。這是一個非常關鍵的底層邏輯。在目前的法律實務見解中,無論是台灣、美國還是歐盟,普遍認為只有人類的創作才能享有著作權的保護。
這引發了一個有趣的商業悖論。當你輸入一串精密的 Prompt(提示詞),讓 AI 產出一幅精美的畫作,這幅畫的著作權屬於誰?
若依照現行見解,如果 AI 僅僅是根據指令生成結果,而人類在過程中沒有進行「精神創作」的介入(例如後期的修改、繪製或高度具體的構圖設計),那麼這張圖很可能被視為「非人類創作」,進而落入公共領域(Public Domain),這意味著任何人都可以免費使用它,你無法主張權利。
這對企業來說是一個巨大的警訊。如果你花費巨資訓練 AI 模型或生成內容,卻發現這些產出無法被法律保護,你的資產價值將大打折扣。因此,簡律師強調,未來的競爭力或許不在於「生成」本身,而在於人機協作過程中的「人類貢獻度」。企業必須保留創作過程的軌跡,證明人類在 AI 生成之後,進行了實質性的篩選、編輯或再創作,這才是守護著作權的關鍵鑰匙。
委託與被委託的博弈:合約中的「權利擔保」新思維
在商業場景中,最常見的風險來自於「外包」。當你委託廣告公司設計主視覺,或是請工程師開發程式碼,對方為了加速交付,使用了生成式 AI,這中間便埋下了兩顆地雷:
1. 權利歸屬地雷: 如果廠商交付的作品全是 AI 生成,如前所述,這可能導致你付了錢,卻買到一個沒有著作權的商品。
2. 侵權地雷: 生成式 AI 的訓練資料庫可能包含受版權保護的作品。如果 AI 生成的圖像意外地與某位藝術家的風格或作品高度雷同,業主可能會無端捲入侵權訴訟。
面對這種新常態,簡榮宗律師提出了一個極具實操價值的建議:重新審視並修訂你的合約條款。
過去的合約條款通常只規範「著作權歸屬」,但在 AI 時代,這遠遠不夠。現在的合約必須加入嚴格的「權利擔保」(Indemnification)條款。
如果你是發包方(甲方),你必須要求乙方在合約中聲明:交付之作品是否使用了生成式 AI?如果使用了,使用了哪些工具?更重要的是,乙方必須擔保該作品不侵害第三方權益。一旦發生侵權爭議,所有的賠償責任、訴訟費用與律師費,都必須由乙方承擔。
反之,如果你是接案方(乙方),你也需要保護自己。你應該在合約中明確告知甲方,這部分內容是由 AI 輔助生成,並就 AI 工具本身的法律風險(如平台的使用條款)進行免責聲明,而非無上限地承擔不可控的演算法風險。
在 AI 時代,合約不只是交易的憑證,更是風險轉移的防火牆。
數據煉金術的代價:個資保護與營業秘密的兩難
生成式 AI 的強大來自於海量數據的餵養,這也帶出了另一個深水區議題:個資與機密。
許多企業急於導入 AI 進行客戶數據分析或內部知識管理,卻忽略了隱私權的邊界。簡律師提醒,當我們將客戶的個人資料(Personal Data)「喂」給 AI 時,必須極度審慎。依據個資法,使用個資必須在特定的目的範圍內,且通常需要當事人的同意。
如果企業直接將含有客戶姓名、電話或消費紀錄的原始數據上傳到公開版的 ChatGPT 進行分析,這不僅可能違反個資法,更是一種極度危險的行為。因為這些數據可能會被 AI 模型吸收,成為其訓練的一部分,甚至在未來的某個時刻,被生成給你的競爭對手看。
這就引出了「營業秘密」(Trade Secrets)的保護議題。
著名的案例就像三星工程師曾將機密程式碼上傳至生成式 AI 尋求優化,結果導致機密外洩。簡律師強調,營業秘密的成立有三個要件:秘密性、經濟價值、以及合理的保密措施。
如果你隨意將公司機密輸入到一個公開的、會利用輸入數據進行模型訓練的 AI 工具中,你在法律上就很難主張你有採取「合理的保密措施」。一旦機密外洩,你將失去營業秘密法的保護。
因此,企業在使用 AI 時,必須建立嚴格的 SOP(標準作業程序):
1. 資料分級: 嚴格定義哪些數據可以上傳,哪些絕對禁止。
2. 去識別化: 在進行數據分析前,必須將個資進行去識別化處理。
3. 工具選擇: 對於高機密需求,應優先考慮使用企業版(Enterprise)或本地部署(On-premise)的 AI 模型,確保數據不會被回傳用於公共模型訓練。
建立 AI 治理的範本:從防堵到疏導
在訪談的最後,我們談到了企業該如何建立內部的 AI 使用規範。很多公司的第一反應是「全面禁止」,但在我看來,這不僅不切實際,更會扼殺創新的可能。
簡榮宗律師建議,企業應該從「防堵」轉向「治理」。我們可以參考目前國際上或部分領先企業的 AI 使用範本,制定明確的內部政策。這個政策不應該只是冷冰冰的條文,而應該包含具體的場景指引:
- 員工可以使用哪些 AI 工具?(建立白名單)
- 產出的內容如何標註?(強制標示 AI 生成)
- 輸入數據的紅線在哪裡?(明確的資料外洩防範機制)
當法律跑得比科技慢時,企業的自律與規範就成為了最重要的風險控制手段。
結語:法律是護欄,也是導航
這次與簡榮宗律師的對話,讓我對 AI 時代的商業規則有了更清晰的認知。我們往往將法律視為創新的阻礙,但在生成式 AI 的蠻荒西部中,法律其實是保護我們不至於迷失方向的護欄,甚至是能夠利用規則優勢超車的導航。
技術本身是中性的,風險與價值取決於使用者的智慧。未來的贏家,不會是那些單純擁有最強 AI 工具的人,而是那些懂得在法律框架下,安全、合規且最大化利用人機協作價值的企業。
在這個充滿變數的時代,我想留給大家一個思考題:當你的競爭對手正在毫無顧忌地使用 AI 加速時,你是否已經建立了一套既能保護核心資產,又能釋放 AI 潛能的法律戰略? 這或許才是你真正的護城河所在。
本專欄整理自2024-03-02
EP84 | 【法律】生成式AI是否有著作權—簡榮宗


