生成式人工智能平臺版權注意義務的類型化分析
2026年02月10日 14:46
【摘要】隨著生成式人工智能在文本、圖像及音視頻內容生產(chǎn)領域的廣泛應用,人工智能平臺在版權合規(guī)中的法律性質與注意義務邊界問題日益凸顯。純提示詞生成類、提示詞檢索增強生成類、基礎模型 +LoRA 調優(yōu)類等不同生成式人工智能服務平臺的版權侵權責任均已引發(fā)訴訟糾紛并呈現(xiàn)差異化裁判思路。因此,有必要對生成式人工智能服務提供者進行類型化區(qū)分,在堅持過錯責任原則的前提下,立足服務提供者在具體技術場景中的功能定位,實行分類分層的注意義務配置。司法裁判應對提供中立技術服務平臺的注意義務設定保持適度克制,在生成式人工智能平臺履行風險提示、生成內容標識、建立投訴處理機制等義務的前提下,類推適用“通知—刪除”避風港規(guī)則,鼓勵探索權利人與服務提供者的協(xié)作機制,實現(xiàn)版權保護與人工智能技術創(chuàng)新之間的動態(tài)平衡。
【關鍵詞】生成式人工智能;版權侵權;注意義務;平臺責任;
一、問題的提出
生成式人工智能在文本、圖像、音視頻等內容生產(chǎn)領域的應用,正在深刻改變作品的創(chuàng)作、傳播與利用方式。與傳統(tǒng)互聯(lián)網(wǎng)平臺不同,生成式人工智能并非僅對既有內容進行存儲或信息索引,而是通過模型推理直接生成新的表達形式。隨著技術和應用的迭代發(fā)展,生成式人工智能服務與用戶的交互方式也在不斷演變,衍生出不同的生成式人工智能服務形態(tài)與平臺類型,包括但不限于純提示詞生成類、提示詞檢索增強生成(RAG)類,以及“基礎模型+LoRA”調優(yōu)類等服務形態(tài)。不同服務形態(tài)下,服務提供者對生成過程的控制力以及生成結果的原因力均不相同,從而導致在認定服務提供者生成環(huán)節(jié)的版權侵權責任時呈現(xiàn)出高度復雜性。
在我國現(xiàn)行著作權法相關規(guī)則的框架下,網(wǎng)絡服務提供者的責任主要圍繞“通知—刪除”規(guī)則與以注意義務為核心的過錯認定展開。然而,如何構建適配生成式人工智能平臺的注意義務體系,已成為司法實踐亟待回應的問題。廣州互聯(lián)網(wǎng)法院“奧特曼”案(以下簡稱廣互“奧特曼案”)、杭州互聯(lián)網(wǎng)法院和杭州中院“奧特曼”案(以下簡稱杭州“奧特曼案”)以及上海金山法院“美杜莎”案(以下簡稱“美杜莎案”)所呈現(xiàn)的裁判分歧,集中反映了這一制度在不同生成式人工智能平臺具體侵權場景下的適用張力。
二、生成式人工智能平臺的服務類型及特征
依照提供服務內容及與用戶交互形式的不同,目前主流的生成式人工智能服務可以大致分為以下三種類型:
(一)純提示詞生成類
此類生成式人工智能服務以基礎大模型為核心,用戶通過自然語言輸入提示詞或圖片,由模型直接輸出文本、圖像或視頻內容,是生成式人工智能服務最先出現(xiàn)的、目前主要的服務形態(tài)。廣互“奧特曼”案中的被告即為此類平臺的代表。
(二)提示詞檢索增強生成(RAG)類
檢索增強生成(Retrieval-Augmented Generation,RAG)是一種結合了檢索(Retrieval)與生成(Generation)技術的自然語言處理模型架構。此類生成式人工智能服務是指在模型生成前引入外部信息檢索機制,使輸出內容同時包含模型生成部分與來源網(wǎng)站的信息整合內容,兼具搜索引擎與生成式人工智能的雙重屬性,也被稱為AI搜索服務(以下簡稱AI搜索)。相較單純基于提示詞生成的服務,AI搜索整合了“檢索”和“生成”兩個步驟,使得其提供的內容和服務不限于生成式AI在訓練階段學習的知識和掌握的泛化能力,而同時能整合互聯(lián)網(wǎng)或者特定知識庫的信息,并以總結概要的形式呈現(xiàn),提高搜索結果準確性和相關性。
AI搜索在全球范圍內已經(jīng)引發(fā)了不少糾紛,如Dow Jones新聞集團訴Perplexity一案中,原告便指出:與傳統(tǒng)互聯(lián)網(wǎng)搜索引擎的商業(yè)模式不同,被告Perplexity的AI搜索商業(yè)模式并沒有將業(yè)務推向內容創(chuàng)作者,反而篡奪了內容創(chuàng)作者的盈利機會。秘塔科技也因在其AI搜索服務中提供了中國知網(wǎng)的學術文獻題錄及摘要而收到了侵權告知函并主動停止收錄知網(wǎng)文獻的題錄及摘要數(shù)據(jù)。
(三)“基礎模型 +LoRA”調優(yōu)類服務
LoRA(Low-Rank Adaptation)是微軟在2021年提出的一種高效的模型微調方法,旨在提升大模型的微調效率。不同于傳統(tǒng)微調需要修改模型中所有參數(shù)從而導致資源消耗巨大的特性,LoRA只在模型的全連接層旁加入一個小型低秩結構,僅調整這部分參數(shù)而保持原模型不變。在推理階段,LoRA會將這部分結構“折疊”進原模型參數(shù),不增加額外計算,因此不會影響模型運行速度。與其他微調方法相比,LoRA的優(yōu)勢在于:既保持了推理效率,又支持不同微調成果,即LoRA權重的靈活疊加,方便實現(xiàn)模塊化組合。特別是在藝術生成等AI應用中,用戶可以在一個通用基礎模型上疊加多個LoRA模塊,輕松生成不同風格的圖像。
圍繞“基礎模型+LoRA”調優(yōu)類服務的版權侵權認定及責任承擔問題,我國已出現(xiàn)兩起具有代表性的裁判案例,即杭州“奧特曼案”與“美杜莎”案。
三、生成式人工智能平臺的法律屬性及版權注意義務的類型化分析
(一)純提示詞生成類
生成式人工智能服務提供者與傳統(tǒng)網(wǎng)絡服務提供者存在顯著差異,兼具內容提供者和技術工具提供者的雙重屬性,如何認定其在著作權法框架下的法律屬性和定位,是極具爭議的議題。
盡管中國《生成式人工智能服務管理辦法》第九條規(guī)定提供者應當依法承擔網(wǎng)絡信息內容生產(chǎn)者責任,履行網(wǎng)絡信息安全義務,也因此有觀點認為作為內容生產(chǎn)者,生成式人工智能的服務提供者一律要對生成內容承擔直接侵權責任。然而,本文認為,對此不宜做簡單化解讀。首先,網(wǎng)絡信息內容生產(chǎn)者的定義首見于《網(wǎng)絡信息內容生態(tài)治理規(guī)定》,其網(wǎng)絡信息安全義務主要是指公法上防范、抵制違法和不良信息的義務,并不能因此而直接適用于版權侵權的認定和責任分配問題。其次,盡管生成式人工智能服務具有內容生成的外觀特征,但其生成內容具有海量、實時變動等特征,不同于創(chuàng)作有限內容的傳統(tǒng)內容生產(chǎn)者對生成內容是否侵權具有明確的感知和控制能力。生成式人工智能的服務更類似于傳統(tǒng)搜索引擎的搜索補足算法服務。所謂搜索補足算法,是指搜索引擎基于自動補足算法對用戶搜索詞進行的自動填充,通常稱為搜索提示、搜索聯(lián)想等。其基本原理為搜索引擎根據(jù)不特定用戶搜索、瀏覽的歷史記錄自動生成并更新變化。此時,該搜索提示詞、搜索聯(lián)想詞的提供者是搜索引擎服務提供者。然而,既有的司法實踐并未將其認定為內容生產(chǎn)者進而要求其承擔直接侵權責任,而是在間接侵權的法律框架下,將其注意義務聚焦于事后的阻止、預防義務,而非事前的審查義務。即服務提供者在收到通知后及時刪除侵權提示詞,即可認定為無過錯,無需對搜索提示詞、搜索聯(lián)想詞承擔侵權責任。最后,生成式人工智能服務生成內容需要由用戶觸發(fā),具有被動性特征,并不存在直接侵權要求的“自主行為”。根據(jù)美國“VHT公司訴齊洛集團公司案”一案所確立的標準,版權直接侵權要求存在“自主行為”。然而,生成式人工智能服務僅在用戶輸入提示詞或上傳起始圖像等時才生成輸出。此時,生成式人工智能服務平臺并未主動選擇生成任何特定的表達要素。決定生成何種輸出的是用戶,而非生成式人工智能服務提供者。因此,有必要在用戶、生成式人工智能平臺之間區(qū)分誰是真正的直接侵權人,進而合理地進行責任分配。
廣互“奧特曼案”中,法院認定被告屬于生成式人工智能服務提供者,被告平臺生成的圖像與在先版權作品存在全部或部分的實質性相似,構成復制權、改編權的侵權,并認定平臺未建立投訴舉報機制、未提示潛在風險、未進行顯著標識,未盡到生成式人工智能服務提供者應盡到的合理注意義務,應承擔賠償責任。該案中,法院究竟是在直接侵權還是間接侵權的框架下討論被告的責任,并不顯而易見。原告在起訴前并未向被告平臺發(fā)出侵權投訴,被告平臺也并未提出適用“通知—必要措施”的避風港抗辯,導致法院并未明確基于間接侵權的法律框架對被告行為進行分析,但并不能因此而得出法院認定被告屬于直接侵權的結論。因為,現(xiàn)行《著作權法》框架下,無論是直接侵權還是間接侵權,侵權主體的責任承擔方式均是停止侵權以及過錯情況下的賠償損失責任。區(qū)別僅僅是直接侵權下,法定義務是停止自己的侵權行為;間接侵權下,法定義務是阻卻他人的侵權行為。從法院要求被告采取關鍵詞過濾等措施,防范其服務繼續(xù)生成與案涉奧特曼作品實質性相似的圖片來看,本文認為,法院實質上是要求被告停止基于用戶指令生成侵權內容的間接侵權行為。當然,間接侵權行為的成立需以用戶構成直接侵權為前提,而在用戶提示詞生成的場景下,用戶是否構成直接侵權,仍值得商榷。例如用戶輸入指令要求AI生成奧特曼,或用戶輸入奧特曼的圖片,要求AI生成武俠風格的奧特曼等場景下,用戶輸入的指令或受版權保護的圖片決定了生成內容也必然含有受版權保護的表達。此時,如果AI生成內容僅處于人機對話的一對一場景,而并未進行進一步傳播,則用戶構成《著作權法》規(guī)定的“為個人學習、研究目的”的合理使用行為,并不構成直接侵權行為,此時也不存在認定服務提供者間接侵權的前提。當然,如果用戶將AI生成內容進行進一步的網(wǎng)絡傳播,則傳播環(huán)節(jié)的侵權主體是用戶,用戶需為此承擔責任。正如北京通州法院審理的北京首例利用AI制圖侵犯著作權案中,法院認定:被告人利用生成式人工智能技術生成圖片,將他人美術作品轉換為商品拼圖并售賣獲利27萬余元。被告單位、被告人的行為應認定為侵犯版權的行為。
據(jù)此,有必要將生成式人工智能基于用戶指令的生成環(huán)節(jié)與用戶獲得生成內容后的傳播環(huán)節(jié)進行區(qū)分。在生成環(huán)節(jié)注意義務的標準上,由于用戶的提示語完全源自用戶的個性化需求,平臺無法事先預知,所以在此環(huán)節(jié)中用戶的輸入行為類似在搜索引擎上輸入搜索信息?,F(xiàn)行法律對搜索鏈接服務的立法和司法經(jīng)驗中一直以來的觀點,都認為對傳輸?shù)淖髌?、表演、錄音錄像制品或者搜索到的作品、表演、錄音錄像制品是否存在權利上的瑕疵先行作出判斷和篩選是不現(xiàn)實的。
在停止侵權行為的認定上,廣互“奧特曼”案中法院認為:被告應承擔停止生成的責任,即應采取技術性措施來停止生成與案涉奧特曼作品實質性相似的圖片,如關鍵詞過濾等措施進行防范,防范程度應達到:用戶正常使用與奧特曼相關的提示詞,不能生成與案涉奧特曼作品實質性相似的圖片。此外,學界還有觀點認為銷毀模型、重新訓練、遺忘學習、強化學習、輸入過濾、輸出過濾都是AI平臺可以采取的停止生成與作品相同或相似內容的措施。
然而,從技術實現(xiàn)層面看,生成式人工智能大模型在完成訓練并投入使用后,原則上難以針對某一特定作品對應的模型參數(shù)進行單獨定位并加以刪除。一方面,現(xiàn)有大模型的參數(shù)結構呈現(xiàn)高度分布式特征,特定訓練作品與具體模型參數(shù)之間并不存在清晰、穩(wěn)定的一一對應關系;另一方面,若試圖通過“剔除特定作品后重新訓練模型”的方式消除該作品對模型的影響,往往需要以新的語料集對模型進行整體再訓練,其所需的算力成本、時間成本及工程復雜度均顯著高于現(xiàn)有產(chǎn)業(yè)實踐所能承受的范圍,在現(xiàn)實中難以作為常規(guī)合規(guī)路徑加以實施。至于通過遺忘學習或強化學習等方式對模型行為進行調整,雖然在理論上具有一定可能性,但仍需結合當前技術成熟度、實施成本及可控效果進行審慎評估,尚難被視為生成式人工智能服務提供者在一般情形下當然應當履行的法定義務。相對而言,基于輸入或輸出層面的過濾機制在現(xiàn)階段更具現(xiàn)實可行性,但其有效運行依賴于權利人與平臺之間的協(xié)同配合,同時亦不可忽視過濾機制可能引發(fā)的誤傷合法內容或難以窮盡過濾提示詞導致的侵權內容漏放等問題。此外,過濾等技術措施的執(zhí)行應堅持可行性與比例原則,否則可能將注意義務演變?yōu)槭聦嵣系慕Y果責任。在此背景下,對生成式人工智能平臺注意義務的評價,應當立足于其是否建立了合理、可操作的侵權投訴與處理機制,是否切實履行了生成內容標識義務,以及是否積極與權利人協(xié)作在現(xiàn)有技術能力與經(jīng)濟條件允許的范圍內采取必要的制止措施,不宜對過濾結果的絕對有效性提出過高要求,以免過度施加責任對技術發(fā)展與合法內容生成產(chǎn)生不當抑制。
(二)提示詞檢索增強生成(RAG)類服務
AI搜索整合了“檢索”和“生成”兩個步驟,因此基于其生成部分的注意義務和責任與前文討論的純提示詞生成類具有共性,此處不再贅述,僅討論AI搜索基于“檢索”后生成行為所可能產(chǎn)生的版權爭議。
根據(jù)AI搜索結果展現(xiàn)形態(tài)的不同,可以將其進一步分為兩類。一類是基于用戶指令的簡單索引結果。例如,長沙某法院審理的AI搜索侵權案中,原告發(fā)現(xiàn),在某AI搜索引擎輸入“我要看某影視劇”等提示詞后,該AI搜索引擎經(jīng)過“精心篩選”后“優(yōu)先展示”了六條鏈接,其中多數(shù)直接指向盜版資源網(wǎng)站。這一爭議實為搜索排序算法對侵權內容的注意義務問題。本文認為,“精心篩選”后“優(yōu)先展示”的描述并不符合AI搜索的服務性質。AI搜索的搜索結果之所以呈現(xiàn)出與傳統(tǒng)搜索引擎在展示鏈接條數(shù)和形式上的差異,并非因為AI搜索的服務提供者進行了特別干預,而是基于其與傳統(tǒng)搜索的服務目標差異。傳統(tǒng)搜索引擎以“信息列表”為導向,其呈現(xiàn)結果為網(wǎng)頁鏈接的權重排序,需要用戶在多頁的搜索結果中再次篩選所需內容,并自行整合。AI搜索則以“答案生成”為導向,所以AI搜索的產(chǎn)品邏輯決定了其不可能采取與傳統(tǒng)搜索引擎相同的大量信息列表展現(xiàn)的形式。因此,不能從回答內容的外觀上簡單認定該結果是AI搜索“精心篩選”后的“優(yōu)先展示”,從而認定AI搜索對侵權內容當然地具有更高的注意義務或對其中的侵權內容具有過錯,而是應回到個案的場景和技術原理中審慎認定其注意義務范圍和過錯程度。
在上海市浦東新區(qū)法院審理的一起涉及AI搜索的案件中,對于原告主張的被告在回答用戶提問中對侵權網(wǎng)站及超鏈接進行了推薦這一主張,法院認定:被告提供的是生成式人工智能搜索服務,被訴侵權視頻的搜索結果系基于網(wǎng)絡用戶在一定時間內的搜索、瀏覽等歷史選擇信息和用戶相應反饋情況,通過既定的算法規(guī)則分析、推送符合用戶個性化需求的信息,推薦內容受用戶歷史操作和選擇情況、可選內容源的變化而變化,具有個性化推薦的特點,區(qū)別于網(wǎng)絡服務提供者人工對本案作品進行選擇、編輯、修改并統(tǒng)一向所有用戶進行推薦的行為,被告不構成應知。被告已經(jīng)設置便捷程序接收侵權通知并及時對侵權通知作出合理的反應,盡到了合理的注意義務。
另一類AI搜索服務是基于用戶指令輸出了關于內容來源網(wǎng)站的詳細總結摘要,從而引發(fā)構成合理使用亦或實質性替代侵權的問題。此類AI搜索融合了自然語言處理、機器學習與深度學習、多模態(tài)搜索等多種技術,呈現(xiàn)出與傳統(tǒng)搜索顯著區(qū)別的特點:(1)與傳統(tǒng)搜索主要給用戶提供網(wǎng)頁鏈接不同,AI搜索直接給予用戶以回答,回答中相當部分內容源自來源網(wǎng)站;(2)AI 搜索在回答中,通常會以注釋的方式對源自來源網(wǎng)站的內容進行來源標識,用戶點擊標識鏈接后可以直接進入內容來源網(wǎng)站;(3)AI搜索的回答混合了AI模型獨立生成的內容和源自來源網(wǎng)站的內容。該法律問題的核心在于合理使用中“適當引用”“不影響作品正常使用”“不得不合理地損害著作權人的合法利益”的判斷?,F(xiàn)行司法實踐關于搜索引擎提供縮略圖服務是否構成合理使用的認定,對AI搜索對內容來源網(wǎng)站是否構成合理使用的認定具有借鑒意義??s略圖作為搜索引擎提供的內容,與AI搜索場景下服務提供者向用戶提供內容具有相似性。相關案件中,法院認為,一般意義上,搜索引擎服務提供商提供的縮略圖本身即系指向原圖的鏈接,系對于原圖鏈接的更為直觀的一種展現(xiàn)形式,其作用相當于圖片文件的預覽及目錄,提供縮略圖行為也旨在更好地服務于搜索引擎的功能發(fā)揮,該網(wǎng)絡服務提供者不構成侵權。據(jù)此,考慮到隨著用戶提問的不同,AI搜索結果呈現(xiàn)出實時性、隨機性等特征,以及除特定主題全網(wǎng)僅有少量信源等特殊情形外,大部分AI搜索的呈現(xiàn)結果相較于海量來源中的某一具體內容來源而言,仍大概率滿足“適當引用”的比例要求。特別是,考慮到AI幻覺可能性以及信源核實等用戶使用習慣等,AI搜索場景下用戶通過注釋、索引等進入來源網(wǎng)站核查原始來源相關內容的可能性仍然很高,因此,原則上AI搜索仍應適用“合理使用”原則。對于小概率可能出現(xiàn)的實質性替代內容來源網(wǎng)站的情況,鑒于AI搜索的技術中立性、搜索結果的隨機性以及服務提供者難以通過技術手段事先確定對來源網(wǎng)站的“適當引用”比例和標準,有必要參考“避風港”制度為AI搜索服務提供者設計免責制度, 由服務提供者履行設立投訴機制、潛在風險提示、內容標識義務。同時,不宜設定對用戶輸入的提示詞和生成內容進行過濾的事前審查義務。原因在于,前者使得服務提供者面臨在沒有權利人或有權機關提供相關信息的情況下,如何在海量的詞匯中選擇適當詞匯作為過濾關鍵詞等難題,后者則面臨技術手段難以區(qū)分何為“適當引用”的難題。
(三)“基礎模型+LoRA”調優(yōu)類服務
杭州“奧特曼案”“美杜莎”案中的被告是此類平臺的代表。兩案所涉被告平臺在服務功能層面具有高度相似性,均向用戶提供基礎模型支持、LoRA 模型訓練及模型的發(fā)布、分享、下載三項核心服務,但法院在平臺法律性質界定、注意義務強度認定等關鍵問題上形成了明顯不同的裁判結論。
在被告平臺性質的認定上,杭州“奧特曼”案的兩審法院均認為被告AI平臺兼具技術服務與內容供給的雙重屬性,屬于新型網(wǎng)絡服務提供者,應以同質行業(yè)理性人的標準,綜合考量生成式人工智能服務的性質、當前人工智能技術的發(fā)展水平、避免損害的替代設計的可行性與成本、可以采取的必要措施及其效果、侵權責任的承擔對行業(yè)的影響等因素,通過動態(tài)地調整過錯的認定標準,將平臺注意義務控制在合理的程度。最終結合涉案權利作品奧特曼的知名度和被訴侵權事實的明顯程度、可能引發(fā)的侵權后果、AI平臺的營利模式等認定被告未盡到合理注意義務。與之相對,上?!懊蓝派卑钢?,法院則采取了更為審慎的立場,認為被告AI平臺的服務具有中立性、平臺性的特征,被告公司未參與LoRA模型素材的截取,僅提供LoRA模型訓練功能,本身并不參與LoRA模型訓練生成,被告公司對LoRA模型發(fā)布和圖片發(fā)布亦無事前審查義務,屬于網(wǎng)絡服務提供者。同時,考慮到涉案的美杜莎相對于奧特曼等具有極高知名度的IP而言,并不具有普遍性和全民性,以及會員服務和直接購買算力兩種付費服務與人工智能生成內容沒有關聯(lián),被告在履行服務協(xié)議提示、建立投訴舉報機制、通知刪除義務后已經(jīng)盡到了合理的注意義務,不構成幫助侵權。
由此可見,盡管兩案中的涉案平臺均提供了基礎模型支持、LoRA 模型訓練以及模型的發(fā)布、分享、下載三項服務,但是兩案判決結論存在實質性差異,其中固然有涉案權利作品知名度和平臺設置專區(qū)的事實差異,但仍然折射出法院認定此類AI平臺法律性質及版權注意義務時的分歧。一是在營利模式的認定上,杭州法院將付費會員與激勵視為平臺從AI創(chuàng)作中直接獲得經(jīng)濟利益從而作為認定注意義務較高的考量因素之一,而上海法院則認為會員服務和直接購買算力兩種付費服務與人工智能生成內容沒有關聯(lián)。二是對于被告平臺在訴訟后采取的侵權防控措施,包括關鍵詞屏蔽、下架侵權模型圖片、更新審核機制等措施,法院評價也存在重大差異。杭州法院認為該等措施證明被告有能力卻怠于采取符合侵權損害發(fā)生時技術水平的必要措施來預防侵權,暗含之意為被告平臺應在原告投訴之前就采取此類預防侵權措施,而上海法院則綜合考慮作品數(shù)量龐大、過濾可能產(chǎn)生的“誤傷”或“漏放”問題以及平臺主動審查判斷有誤可能會被用戶追責和索賠等因素,否認了被告平臺的過濾義務。
本文認為,根據(jù)《最高人民法院關于審理侵害信息網(wǎng)絡傳播權民事糾紛案件適用法律若干問題的規(guī)定》第十一條規(guī)定,網(wǎng)絡服務提供者從網(wǎng)絡用戶提供的作品、表演、錄音錄像制品中直接獲得經(jīng)濟利益的,其對該網(wǎng)絡用戶侵害信息網(wǎng)絡傳播權的行為負有較高的注意義務,但一般性廣告費、服務費等不屬于本條規(guī)定的情形。因此,直接獲得經(jīng)濟利益系指與特定作品存在直接聯(lián)系的經(jīng)濟利益,即平臺的收入需與特定的侵權行為存在必然的關聯(lián)性,不宜將會員付費等一般性的商業(yè)盈利模式認定為直接獲得經(jīng)濟利益,從而賦予平臺更高的注意義務。此外,在認定生成式人工智能平臺的“應知”過錯時,應審慎克制,除極高知名度的作品之外,更多地應通過權利人通知平臺處置的方式進行,這樣不僅可以高效地實現(xiàn)保障權利人的目的,所耗費的成本也遠低于平臺主動進行審查、過濾的成本。最后,在平臺收到權利人通知后的必要措施方面,也不宜要求平臺窮盡所有手段將侵權內容全部清除,達到清除明顯侵權的效果即可。
四、結語
當前,司法圍繞生成式人工智能平臺的法律性質及其注意義務所作出的差異化裁判,集中反映了既有版權責任規(guī)則在新型技術場景下的適配復雜性。生成式人工智能在內容生成過程中所呈現(xiàn)的技術特征與運行機制,使其難以被直接納入傳統(tǒng)網(wǎng)絡服務提供者的責任范疇之中。因此,在判斷生成式人工智能服務提供者是否構成版權侵權時,有必要立足于具體的服務類型、應用場景,采取分類分層的分析方法,分別界定其侵權責任邊界,以避免“一刀切”式歸責。在此基礎上,司法裁判應對被動響應用戶指令、提供中立技術支持的服務平臺保持適度的責任克制,防止因過度擴張注意義務而對技術發(fā)展產(chǎn)生不當抑制。同時,生成式人工智能服務提供者仍應在其能力范圍內履行必要的風險防范義務,包括通過顯著方式提示用戶生成內容的屬性及其可能涉及的版權風險,并對生成內容進行合理標識,以降低權利侵害發(fā)生的可能性。此外,可類推適用“通知—刪除”規(guī)則,推動權利人與平臺之間形成協(xié)同機制,在尊重技術發(fā)展規(guī)律的前提下,共同探索版權保護與人工智能產(chǎn)業(yè)創(chuàng)新之間的平衡路徑,實現(xiàn)版權保護目標與技術進步需求的協(xié)調統(tǒng)一。
注:原文刊發(fā)于《版權理論與實務》2026年第1期。篇幅較長,已略去原文注釋。
本文作者:王潔 中國互聯(lián)網(wǎng)協(xié)會知識產(chǎn)權工作委員會副秘書長





