□ 法治日報全媒體記者 王春
□ 法治日報全媒體通訊員 滕騰
ChatGPT、DeepSeek……近年來,多個AI平臺陸續問世,在網絡上掀起一陣AI風暴。AI平臺的日漸完善離不開大量語料、圖片的“喂養”,由人工智能模型及其生成內容引發的法律問題成了必須面對的“成長的煩惱”。近日,浙江省杭州市中級人民法院就審結一起涉AI平臺案件。
平臺兼具兩重身份
奧特曼,作為家喻戶曉的動漫IP,自20世紀90年代引入中國以來,迅速風靡全國,成為一代又一代孩子們心中的偶像。
原告上海某文化發展公司擁有奧特曼系列作品著作權獨占授權,被告杭州某智能科技公司是某AI平臺的運營主體,平臺用戶能通過上傳圖片等方式利用該平臺訓練和分享奧特曼AI模型,并可再利用奧特曼AI模型生成與原告奧特曼形象構成實質性相似的作品。
2024年2月,原告一紙訴狀將被告起訴至杭州互聯網法院,要求停止侵權行為并賠償合理費用。
在生成式人工智能服務時代,平臺管理者與內容生產者的界限開始模糊。這也成了本案審理的關鍵問題。
“生成式人工智能服務提供者提供的網絡服務有別于傳統的網絡內容提供行為、網絡存儲空間服務提供行為和搜索鏈接服務提供行為等。”本案一審法官沙麗告訴《法治日報》記者,在生成式人工智能服務中,創作行為需要用戶提示予以激發,模型與用戶之間的交疊增強,服務提供者對于生成的內容控制力降低,生成式人工智能服務提供者兼具內容生產者與平臺管理者的雙重身份,屬于新型網絡服務提供者。
回到案件本身,原告主張被告應作為內容提供者承擔直接侵權責任,如不構成直接侵權,則對用戶上傳內容也應承擔幫助侵權責任;被告則主張其屬于對用戶上傳內容提供信息存儲空間的網絡服務提供者,調用第三方模型屬于提供網絡技術服務,屬于“避風港”規則下的平臺免責范圍,即主張只對平臺侵權內容承擔“通知—刪除”義務。
如何結合不同類型的大模型平臺,明確作為應用層生成式人工智能服務提供者的合理注意義務及過錯認定規則,無先例可循。沙麗坦言:“這對我們司法審判提出了更高要求和全新挑戰。”
構成幫助侵權行為
經比對,原告主張的被訴侵權圖片系在涉案奧特曼權利作品的基礎上結合文本提示做了簡單修改,主要作用在于使圖片的背景內容按照提示詞的指令進行呈現,被訴侵權內容與權利作品在奧特曼人物形象、色彩搭配、服飾細節等方面具有較高相似度,整體構成實質性相似。
但要確認平臺的侵權責任,這還遠遠不夠。
據了解,生成式人工智能通常具有4個重要階段,分別是數據輸入、數據訓練、內容輸出、內容使用。當前學術界對AI版權侵權爭議的常見分析是將4個階段合并在一起討論,即認為模型不經過數據訓練無法生成有意義的結果,因此數據訓練和結果生成有因果關系,進而可以合并成一個法律行為整體評價。在此視角下,對任何一個環節的侵權判斷都會影響全局。
而杭州互聯網法院審判團隊則主張對不同階段區別處理。沙麗說:“這樣能精準評價每個階段,為生成式人工智能服務提供者的侵權責任認定提供清晰思路。”
據此,杭州互聯網法院認定,被告雖然提供生成式人工智能服務,但數據輸入端侵權訓練素材由用戶上傳,在內容輸出階段侵權模型和侵權圖片生成后亦由用戶決定發布或分享,無證據證明被告與用戶共同提供侵權作品,被告未直接實施受信息網絡傳播權控制的行為,不構成直接侵權。
那么,被告是否構成幫助侵權,即被告是否采取必要措施,盡到合理注意義務?
據了解,案件發生前,涉案平臺“疊加模型LoRA”等欄目中存在多個奧特曼LoRA模型,用戶可自行選用,疊加使用奧特曼LoRA模型后,涉案AI平臺可以穩定輸出帶有奧特曼角色形象特征的圖片。
沙麗介紹:“由于技術的便捷性,用戶生成并發布的圖片和LoRA模型可被其他用戶反復使用,其引發侵權擴散后果的態勢已相當明顯。被告應當就相關侵權內容的生成承擔更高注意義務,并應預見到侵權行為發生的可能性。”
綜合考量被告提供生成式人工智能服務的性質、人工智能技術的發展水平、平臺營利模式以及預防侵權的合理措施等因素,最終,杭州互聯網法院認定被告應當知道網絡用戶利用其網絡服務侵害信息網絡傳播權,而未采取必要措施,其未盡到合理注意義務,主觀上存在過錯,因此構成侵害信息網絡傳播權的幫助侵權行為。
分類施策實現平衡
2024年9月25日,杭州互聯網法院作出民事判決:其一,被告立即停止侵害原告涉案奧特曼作品信息網絡傳播權的行為,包括但不限于立即刪除已生成并發布的涉案奧特曼圖片、奧特曼LoRA模型,停止提供相關奧特曼LoRA模型的發布和應用服務,并采取必要措施有效制止侵權行為等;其二,被告判賠原告經濟損失及為制止侵權而支出的合理費用。
2024年10月,原告上訴至杭州中院。原告認為,除一審認定涉案侵權圖片外,涉案平臺上還存在著大量與奧特曼有一定相似之處、但實際上又存在一定區別的模型與作品,對于這部分難以適用著作權法保護的大量模型與作品應適用反不正當競爭法進行規制。
二審的焦點集中在涉案行為是否構成不正當競爭。
杭州中院同樣分階段分析,從數據輸入和數據訓練階段看,生成式人工智能的數據來源不僅有平臺自己輸入的訓練數據庫,還有平臺在服務用戶過程中,由用戶輸入的數據。當服務提供者向公眾提供由用戶參與訓練的模型服務時,有來自全球各地的海量用戶對模型進行數據“投喂”,這些數據的合法性和版權狀態可能各不相同。
“在此情況下,若嚴格要求服務提供者對用戶輸入端的每一份數據進行逐一審查和驗證,既不具有可行性,也與其法律屬性不相適應,無疑會加重開發監管負擔,勢必阻礙生成式人工智能的發展,因此服務提供者的注意義務應當與其身份及信息管理能力相適應。”該案二審承辦人、杭州中院知識產權審判庭副庭長吳媛媛分析說。
杭州中院的法官們還有更深的考量。杭州中院知識產權審判庭庭長王江橋說:“從促進生成式人工智能技術發展的角度來看,對于大模型的數據輸入、數據訓練行為的侵權認定,宜采取相對寬松包容的認定標準,對大模型的生成內容輸出、生成內容使用行為的侵權認定,則宜采取相對從嚴的認定標準,通過分類施策實現發展與保護的平衡。”
近日,杭州中院作出二審判決,駁回上訴,維持原判。
編輯:杜洋