跳至主要內容

人工智能與版權改革:雙城記

隨著生成人工智能 (AI) 的快速發展,世界各國正爭相改革其法律,以應對這科技所帶來的新挑戰和機遇。

由於人工智能的發展需要大量資料進行訓練,而大多數訓練資料都受到版權法 (copyright)的保護,因此立法者面臨的挑戰是如何在人工智能公司與版權擁有者之間達成利益平衡。

過於寬鬆的法規可能會損害現有的權利和權益,而過於嚴格的法規則可能使國家喪失國際競爭優勢。

本文將探討2024年有關版權和人工智能的兩次公眾諮詢,包括:於2024年7月由香港政府發起[1]以及 於2024年12月由英國政府發起的公眾諮詢[2]

這兩次諮詢之所以引人關注,不僅因為兩地涉及法律(英國1988 年《版權、設計與專利法》(UK Copyright, Designs and Patents Act 1988)和香港第 528 章《版權條例》 (Copyright Ordinance (Cap.528))相似,還因兩地政府都明確表達了各自屬意的立法方向。兩地政府在立法取態上的差異,突顯出立法者可以從類似的法律中得出截然不同的結論。

我將集中討論兩大最受關注的範疇:引入廣泛的文字與資料探勘例外規定的可能性;以及人工智能生成作品的版權保護現況。

這兩次公眾諮詢還涉及其他主題,如深度偽造技術和人工智能公司的透明度,但這些主題的關注度較低,也似乎沒有與之相關的即時立法計畫。

引入廣泛的文本和數據開採侵犯版權豁免規定(TDM豁免規定

人工智能演算法的訓練涉及大規模的資料收集、抽取、複製和分析。資料的收集主要是透過使用“網路爬蟲” (web-crawlers) 來「搜刮」網絡上發佈的資訊。

這涉及到大量資料的複製和使用,其中大部分資料受到版權法的保護。除非有相關的法律例外規定,否則使用(或在法律上稱為「倣造/複製」)這些資料必須得到版權擁有人的許可。

目前,大多數領先的人工智能模組(如 ChatGPT、Stable Diffusion等)均在未取得權擁有人之許可下使用其資料進行訓練,導致版權擁有人(如藝術家、新聞出版商、音樂出版商等)指控這些模組背後的人工智能公司侵犯了他們的版權。這進一步導致多宗(主要但不全是發生在美國)訴訟。(文章連結:https://www.haldanes.com/publications/artists-rage-against-the-machine/).

針對這些訴訟,人工智能開發商辯稱,他們的行為受到美國法律中的「公平使用」(fair use)原則的保護[3]

然而,全球大多數司法管轄區 (包括大部分歐洲國家、中國、香港、印度和澳洲)不採用美國「開放式」的「公平使用」原則。大多數司法管轄區採用「封閉」(通常標示為「公平處理」(fair dealing))的侵犯版權豁免架構。在這種架構下,必須在相關成文法中單獨立法並明確標明每項特定豁免。任何不符合特定豁免規定的使用將被視為侵權。

有些司法管轄區,例如日本、新加坡和歐盟,已推出各種文本和數據開採例外規定 (Text and Data Mining Exception;簡稱「TDM 豁免規定」) —— 日本和新加坡引入了涵蓋商業和非商業用途的廣泛TDM豁免規定;歐盟提供了一個帶有「選擇退出 (opt-out)」選項的TDM豁免規定;而英國現有的TDM豁免規定僅限於非商業性的學術研究。

香港和英國政府均表示有意引入(就香港而言)或擴大(就英國而言)TDM豁免規定,以涵蓋商業用途。兩地政府以推進人工智能發展和維持科技行業的競爭力為由,作為這些改變。

兩地政府指出TDM例外規定應受到條件和保障措施的約束,以保護版權擁有人的權利。然而,魔鬼往往在細節。

香港政府只在一個段落中提及TDM豁免規定應附帶 「條件」(如提供「選擇退出 (opt-out)」選項),但並未闡述他們所考慮的進一步條件,以及這些條件在實際中將如何運作。

另一方面,英國政府則用了15段段討論落潛在可行的條件以及這些條件在實際中如何運作。值得稱讚的是,英國政府承認在判斷何謂有效的「權利保留」(rights reservation) 或「退出」選項時所遇到的困難和不確定性。

英國政府建議,「權利保留」(即選擇不參加人工智能訓練)應以「有效且可存取的機器讀取格式呈現,並盡可能標準化」。英國政府指出現有的措施包括:部署阻止網路爬蟲運作的措施,或在作品的元數據(metadata)中清楚標示該作品不可用於AI訓練。

然而,我認為在英國政府的立場,「權利保留」或「退出」選項應以「有效且可存取的機器可讀格式」表達並非良好政策。

雖然對企業版權擁有人(如新聞機構或出版公司)而言,機器可讀措施是可行的,但這項措施可能絕大部分個人版權擁有人的技術力和財務能力。

舉例來說,許多藝術家現時只是簡單地插入浮水印、標籤或注釋,以表明他們不同意其作品被用於人工智能訓練,但這些標識都很可能無法被機器讀取,並因此在英國政府提出的標準下被視為「無效 」。

強加「退出」選項亦會給版權擁有人帶來額外負擔。

原則上,人工智能公司應有責任確保只使用「合法」的資料進行訓練,確保資料蒐集方法不會意外擷取屬於已選擇「退出」選項的版權擁有人的資料,並承擔相關的成本和風險。我相信任何明確的退出意向聲明已經足夠。

此外,我認為政府應當解決版權擁有人與平台之間固有的權力差距。

大部分個人版權擁有人(如藝術家、內容創作者、獨立音樂人)依賴各種網上平台發佈他們的作品,如X(前身為Twitter)、YouTube、DeviantArt等,並受到這些平台條款和條件約束。

這使平台對發佈在其平台上的作品擁有相當大的權力。例如,在2024年11月,X更改了其服務條款,表明所有發佈在其X平台上的內容均可用於X之Grok人工智能演算法的訓練,這引發了用戶的強烈反對[4]。政府應審視此類强制許可是否有效,以及能否被使用者的個別「退出」選項所覆蓋。

人工智能生成作品是否受版權保護

另一個熱門議題是人工智能「創作」的作品 (如ChatGPT生成的文章或Stable Diffusion生成的圖片) 能否及應否受到版權法保護。

在許多司法管轄區,如美國和大多數歐盟國家等,答案都是「否定」的,因為這些作品不具備必要的人類作者資格(human authorship),所以不符合版權保護的要求。

正如我在之前的文章中提到(文章連結:https://www.lexology.com/library/detail.aspx?g=92277358-605b-43fc-b8b0-93db1707f37d),英國《1988 年版權、設計和專利法》(Copyright, Designs and Patents Act 1988)中有一項相當獨特的條文(第 9(3)條),人工智能生成作品的人類作者為「進行作品創作所需安排的人」(「安排條文」),從而使人工智能生成作品理論上能受版權法保護。

安排條文已在多個英國普通法系統的地區中被採用,例如香港、新加坡、印度和紐西蘭等。

香港政府在 2024 年 7 月發表的諮詢文件中,以《版權條例》(第 11(3)條)中已存在的安排條文作為目前不修改法例的理據,認為應由法庭自然地進一步發展有關安排條文的法理。

然而,正如我在之前的文章中討論,安排條文操作上充滿了困難和不確定性。在英國超過30年的案件記錄中,這項條文僅被法院引用過一次,而那次應用並非與人工智能作品相關。

在 2024 年 12 月發表的諮詢文件中,英國政府承認安排條文存在問題:1) 一個「原創(original) 」但由 「電腦產生而沒有人類作者」的作品存在邏輯謬誤;2) 沒有合理理由為電腦生成作品提供特定的保護。

英國政府也認為,安排條文的正面效果不大,它不會導致英國的人工智能投資增加。事實上,大多數領先的人工智能國家(如美國)並不為人工智能生成作品提供版權保護。

這導致一個令人驚訝的結論:如公眾諮詢階段沒有足夠證據顯示安排條文有任何正面效果,英國政府傾向完全删除該安排條文

雖然英國政府保留改革安排條文「以釐清其範圍」的可能性,但英國政府也說明需要有力的證據來說服,才會採取此做法。

我同意剔除安排條文是正確的做法,因為該條款所造成的不確定性多於它所解決的問題。我也相信沒有經濟理由為人工智能生成作品提供版權保護。

至於香港政府會否在考慮到英國的新發展後改變方向,仍有待觀察。

然而,有些諷刺的是,該安排條文是在90年代專門為人工智能技術制定,卻在人工智能技術逐漸成為現實之際面臨被刪除的風險。


[1] https://www.ipd.gov.hk/filemanager/ipd/en/share/consultation-papers/Eng-Copyright-and-AI-Consultation-Paper-20240708.pdf

[2] https://www.gov.uk/government/consultations/copyright-and-artificial-intelligence/copyright-and-artificial-intelligence

[3] 根據美國版權法,「公平使用」是一種「開放式」的例外規定。至於何時適用此例外規定,並沒有詳盡無遺的清單。相反地,法院會考慮一系列的因素,以決定有關使用是否「公平」,從而免除侵犯版權申索。

[4] https://edition.cnn.com/2024/10/21/tech/x-twitter-terms-of-service/index.html


訂閱我們獨家的法律新聞通訊