生成式人工智慧侵權誰負責?
金色財經
作者:鄧建鵬,中央財經大學法學院教授、金融科技法治研究中心主任
本文首發《中國社會科學報》
近年來,以ChatGPT和DeepSeek等為代表的國內外生成式人工智慧的崛起,在技術層面引發顛覆性變革,也給現行侵權責任體系帶來新挑戰。既有的監管規則試圖在傳統侵權法框架內釐清其責任歸屬,將應用環節簡單劃分為「提供」與「使用」,並以技術服務提供者作為核心規制對象,但隨著技術日益深入多元產業場景,這類「二分法」思維明顯不足,亟須跳出既定學術範式和監管框架,重新審視人工智慧侵權的責任認定邏輯。
責任主體「三分框架」的擴展
現行《生成式人工智慧服務管理暫行辦法》沿用「提供者」和「使用者」的二元責任主體結構,然而在產業深度融合背景下,這一分類難以覆蓋各類主體。生成式人工智慧輸出結果受到訓練數據質量、算法架構、實時調取數據、用戶指令等多因素影響,特別是部署者即通過接口調用、本地部署、系統集成等方式將基礎模型適配於具體場景的主體——已成為影響輸出內容的關鍵一方。部署者一方面是人工智慧的使用者,另一方面又利用人工智慧提供更精細的專業服務。主體分類的簡單化導致責任義務範圍及合理注意義務標準模糊,進而影響責任歸屬判定。如金融機構利用大語言模型開發智能投顧產品,在此過程中通過自有客戶數據對模型微調,並嵌入風控邏輯。若生成的投資建議導致客戶嚴重損失,此時責任是由原模型提供者還是部署者承擔?顯然,部署模型並對其場景化適配的金融機構,其角色遠超出純粹「使用者」範疇,而更接近共同控制者的身份。人工智慧輸出的結果受模型和數據共同影響,其責任歸屬也應按照過錯程度合理分配。
因此,有必要確立三類責任主體:服務提供者(開發並供應基礎模型)、部署者(場景適配和系統集成)和使用者(最終生成內容的使用)。法律依據其實際控制力和影響力重構義務與責任,而非僵化固守傳統分類。
過錯認定困境及其化解
生成式人工智慧的侵權行為在過錯認定層面遭遇障礙,核心矛盾在於「算法黑箱」與法律歸責所需可解釋性之間的張力。傳統侵權法要求對行為人主觀過錯進行判斷,但多個責任主體、算法決策的不透明性、隨機性使故意或過失的認定極為困難。
為此,可考慮通過以下路徑緩解該困境:首先是算法透明度的制度推進。監管機構未來可通過規則指引,要求服務提供者和部署者公開基礎算法的設計原則、訓練數據的類型及可能的偏差範圍,並提交算法備案和透明度報告。其次是行為對比標準的引入。通過將生成式人工智慧的內容輸出與同類系統或在相同情境下「合理人」的預期行為進行比對,間接推斷其是否存在過錯。最後是歷史行為分析。藉助系統日誌和歷史輸出記錄,審查其是否曾出現相似侵權內容,或是否已通過反饋機制進行過修正。如某模型多次輸出侵權文本卻未被修正,可推定服務提供者存在過失。這些方式未必能徹底打開「黑箱」,但基本可在現有技術條件下建立相對合理的過錯推定框架。
共同侵權與連帶責任的適用與限制
在多元主體參與的內容生成鏈條中,單一主體往往難以獨立導致損害結果。尤其在生成式人工智慧深度嵌入學術研究、金融或醫療等各專業領域時,其行為可能涉及算法偏差、數據污染、部署不當、惡意使用等多重因素。例如,某在線醫療諮詢平台使用大模型提供初步診斷建議,因模型過度依賴已有歷史數據,導致對特定人群的心血管病風險評估連續出現錯誤,引發多起訴訟。在此類案件中,基礎模型提供者、本地化部署的醫療科技公司以及最終使用該生成內容作出簡易診斷的平台,均成為共同被告。此時,傳統單獨責任模式在此類結構性侵權中難以適用。對此,應更多適用共同侵權與連帶責任制度,尤其在部署者調取外部數據接口、修改模型參數,或使用者惡意誘導生成侵權內容等情形中。一旦服務提供者或部署者明知或應知風險卻未採取合理防範措施,則可能構成共同侵權。
我國《民法典》第1168條至第1175條為多數人侵權提供了豐富的制度資源,可針對生成式人工智慧場景進行適配化解釋。例如,若多個生成式人工智慧相關責任主體無意思聯絡但分別實施侵權行為造成同一損害,且各行為均足以造成全部損害的,應適用連帶責任(《民法典》第1171條)。若二人以上分別實施侵權行為造成同一損害,能夠確定責任大小的,各自承擔相應責任;難以確定責任大小的,平均承擔責任(《民法典》第1172條)。在生成式人工智慧侵權中,由於輸出內容的多因性,往往更符合《民法典》第1172條的按份責任情形,但若某一主體(如部署者)對輸出內容具有決定性控制,則仍需承擔主要責任。
不過,連帶責任的適用應審慎,避免挫傷創新企業的積極性。例如,模型被某第三方部署於自動化新聞寫作並生成大量虛假資訊,原始開發者是否應承擔連帶責任?從技術可控性和經濟效率角度,除非原模型存在明顯設計缺陷或已知漏洞未修補,否則不應過度追溯至原始開發者。總之,侵權責任界定應在鼓勵企業創新與保護社會公益間找到平衡點,避免使開源模型開發者陷入無謂訟累。
免責事由的轉型
近年來,一些學者主張生成式人工智慧可完全適用傳統網路服務的「通知—刪除」規則,但學者可能忽視了生成式人工智慧內容生成主動性及其不可預測性的差異。以人工智慧繪畫軟體平台為例,用戶通過輸入文本提示詞生成肖像圖片,若用戶故意輸入他人姓名及誹謗性描述,誘導人工智慧生成對應圖像,系統很可能輸出侵權內容。此時,若僅因人工智慧繪畫軟體平台接到通知後刪除圖片就完全免責,顯然無法彌補對受害人人格權的損害。
因此,應當構建有限度、分層級的免責機制,重點考量「合理控制能力」和「技術可行性」。首先,若服務提供者或部署者能證明已採取當前技術條件下一切合理措施(如數據清洗、合規過濾、風險提示、實時監控等),仍無法避免某些生成的內容侵權,可部分或全部免除責任。其次,及時修正與反饋機制的有效性。若責任主體證明在接到通知後及時刪除侵權內容或調整模型,可作為減輕責任的事由。最後,合規體系的有效性作為免責考量因素。技術研發企業若能證明自身已建立完備的合規流程並嚴格遵循行業標準,在發生無法預見的侵權結果時應予以責任減免。如企業在大模型中引入「生成溯源」技術,對關鍵輸出提供數據來源標註,可以極大降低虛假資訊和版權爭議的風險,這類技術創新應成為減免責任的重要考量因素
來源:金色財經
發佈者對本文章的內容承擔全部責任
在投資加密貨幣前,請務必深入研究,理解相關風險,並謹慎評估自己的風險承受能力。不要因為短期高回報的誘惑而忽視潛在的重大損失。
暢行幣圈交易全攻略,專家駐群實戰交流
▌立即加入鉅亨買幣實戰交流 LINE 社群(點此入群)
不管是新手發問,還是老手交流,只要你想參與加密貨幣現貨交易、合約跟單、合約網格、量化交易、理財產品的投資,都歡迎入群討論學習!
- 佈局加密資產,台北台中鉅亨買幣實體授課!
- 掌握全球財經資訊點我下載APP
延伸閱讀
上一篇
下一篇