試論生成式人工智能侵權的責任主體---以ChatGPT為例
一、問題提出
作為討論規(guī)范治理的邏輯起點,法律主體資格是指在法律關系中享有權利、履行義務、承擔責任的資格或能力。隨著人工智能時代的到來,以聊天機器人ChatGPT為代表的生成式人工智能將廣泛應用于各大場景中,在豐富與便利生產生活,創(chuàng)造更多創(chuàng)新發(fā)展機會的同時,也引發(fā)了諸多侵權損害與法律挑戰(zhàn),如數(shù)據合規(guī)風險、生成內容濫用風險、算法濫用風險、隱私保護風險等。其中最大的風險是數(shù)據來源與生成內容以假亂真等引發(fā)的侵權問題,需要我們在法律上做出必要的回應。以AI孫燕姿侵權案為例,從生成式人工智能的技術邏輯和行為特征可以看出,其內容的輸入與輸出都是基于對海量數(shù)據樣本的分析、訓練和學習,這就可能涉及包含個人信息、知識產權等內容的數(shù)據。故在其數(shù)據收集或內容生成的過程中,就可能對他人的隱私權、人格尊嚴、知識產權等構成侵權。[1]另外,以布萊恩·胡德訴ChatGPT誹謗案為例,生成式人工智能對海量多源數(shù)據的分析與學習既無法真正實現(xiàn)全部由人工檢查、標注和監(jiān)督,在運行時也無法保證每一次都能識別使用者的惡意誘導,從而導致可能生成侵犯他人名譽的虛假文本、圖片、視頻信息。
有損害就要有救濟,那么為切實保障受到侵害的合法權益,應當由誰來承擔侵權責任就成為一個不可避免的問題。然而,我國以往關于人工智能的法治研究與規(guī)范,主要集中在自動駕駛和智慧醫(yī)療等領域。近年來,學者們對生成式人工智能的研究也主要集中在風險治理方面,侵權責任方面的研究較少。另外,生成式人工智能領域的相關法律規(guī)范尚未健全。2023年7月發(fā)布的《生成式人工智能服務管理暫行辦法》盡管規(guī)定了生成式人工智能服務提供者的責任,即明確了生成式人工智能的技術開發(fā)商、提供可編程接口等接入服務的組織和個人均需對其生成的內容承擔責任,但并未對生成式人工智能侵權的具體責任承擔主體進行細化和規(guī)范。因此,對生成式人工智能侵權責任主體的研究具有現(xiàn)實意義。基于此,本文將從對生成式人工智能非責任主體的論證出發(fā),進一步剖析賦予生成式人工智能服務提供者、使用者與第三方責任主體地位的合理性,以期學界能有更深入的研究與規(guī)范。
二、生成式人工智能的非責任主體地位
隨著人工智能的出現(xiàn)、應用與發(fā)展,其智能性、自主性、創(chuàng)造性日益增強。其中人工智能是否具有法律主體地位,能否承擔侵權責任,是責任劃分的前提性條件,也是世人關注的焦點。因此,在這一問題上,理論界就人工智能的法律主體資格展開了激烈討論,各有不同觀點。通過梳理有關文獻資料,可發(fā)現(xiàn)國內學者大致分為兩種流派。
第一種是否定說,即人工智能不具備類似自然人的思維和獨立自由的意識,也不存在似法人一般的社會價值,人工智能只能作為法律客體,不具備成為法律主體的條件。這也是國內法學界的主流意見。譬如,白玉杰和張昱提出法律制度的核心始終在于以人為中心,而人工智能本質上仍只是一種機器,不具備作為法律主體的資格。[2]
第二種是肯定說,即不同于否定說對人工智能的保守看法,它認為應突破“二元主體論”,在自然人和法人之外將人工智能設立為新的法律主體。但對于賦予人工智能以何種法律主體資格的問題上,學者們各抒己見,主要包括完全人格說、擬制人格說、電子人格說、有限主體資格說等。例如,2017年沙特阿拉伯確認機器人索菲亞與自然人同等的公民地位,享有與履行和自然人同等的權利與義務。袁曾主張生成式人工智能已經具備類人類意識能力與行為能力特征,在法人這一擬制主體的現(xiàn)實借鑒下,可考慮給予它以特殊的法律主體地位,但由于其智能機器的身份限制以及以人為本的倫理基礎,決定了其自身法律人格的限度。[3]
無論否定說,還是肯定說,都從理論邏輯出發(fā)展開了較為深入的研究并具有一定的說服力。以筆者之見,人工智能作為提升人們生活水平和生產效率的技術工具,現(xiàn)階段無論其多么智能,本質上仍只是受人支配的輔助物,并不具備享有法律主體資格的條件。主要基于如下幾點考慮:
第一,人工智能缺乏自然人的理性自主意識。在判斷人工智能的法律主體資格時,其是否具備理性自主意識是其中的核心要素。當前,以ChatGPT為代表的生成式人工智能相比傳統(tǒng)人工智能自主性和智能性都有了明顯提升,可以在與人類交流互動的同時,“創(chuàng)作”出文本、繪畫、視頻等內容物。但結合其技術邏輯和運行原理可知,其行為完全是基于數(shù)據樣本及算法模型下實施的,而原始數(shù)據離不開人類的采集和整理,算法模型是由人類預先設計且建構而成的,其運作也依賴于人類下達指令。因此,生成式人工智能本身內在價值觀的產生及其基本行為方式的選擇,完全可以歸咎于該人工智能的設計研發(fā)者、服務提供者等。換句話說,其并不具備像自然人一樣的獨立自主意識,體現(xiàn)的只是背后設計開發(fā)者與服務提供者的主觀判斷和價值取向,這也是目前AIGC普遍帶有偏見與歧視風險的原因之一。此外,以ChatGPT為代表的大語言模型之所以會出現(xiàn)“幻覺”通病,主要原因就在于其并無所謂的人類思維與理性意識,對于情感抒發(fā)與語言表達,它并非能像人類一樣理解,而只能是基于訓練數(shù)據的高度模仿。因此,不可避免地會出現(xiàn)一本正經的胡說八道,編造“看起來合理,本質上卻不正確或不存在”的信息。
第二,人工智能與法人組織不同,不能自主承擔法律責任。法人是擬制的法律主體,是由人集合而成的實體,它的意志是由下轄的組織機關及其成員共同形成,獨立財產也由其成員共同出資構成。與此同時,即便法人憑其獨有財產獨立承擔了法律責任,從實踐中可以看出,歸根結底也只是由其成員承受被懲罰的痛苦。相反,人工智能是人為了滿足生活和工作需要而創(chuàng)造的機械工具。以ChatGPT為例,其只是由GPT3.5模型架構的、能與使用者進行對話互動的智能應用,并非由人組合而成。也就說,設計研發(fā)者、服務提供者、使用者等并非是其成員。同時,人工智能也不像法人擁有負擔法律責任的獨立財產,也沒有規(guī)范認識和理解能力,即不會認識到所犯錯誤,更無法感知懲罰帶來的痛苦,故若讓其承擔法律責任則沒有任何意義。一方面,無法發(fā)揮法律的救濟作用,不能讓受害人得到實質性的彌補。另一方面,無法實現(xiàn)法律的懲戒效用,難以避免再犯罪的危險。
綜上,人工智能不應被賦予法律主體資格。究其根本,人工智能作為新時代信息技術革命的產物,無論是傳統(tǒng)人工智能,抑或是生成式人工智能始終都以服務人類、服務社會而非實現(xiàn)自我為目標,正如張凌寒所言:“在鼓勵我國生成式人工智能發(fā)展的思路下,應將生成式人工智能定位為基礎設施,”[4]而非人類社會中法律主體中的一員,否則人類將沒有理由把人工智能作為一種服務工具來使用。
三、生成式人工智能服務提供者、使用者和第三方的責任主體地位
在生成式人工智能不具備法律主體資格的前提下,需要重新考慮其侵權的責任承擔者。在傳統(tǒng)網絡侵權中,根據《民法典》第七編的相關規(guī)定往往涉及三方侵權責任主體,即網絡用戶、網絡服務提供者和第三人。對應到生成式人工智能領域中,可歸責之主體可以細分為生成式人工智能服務提供者、使用者、第三方等多方責任承擔者。首先,數(shù)據來源與算法設計等是決定人工智能生成內容質量與可信度的關鍵,生成式人工智能服務提供者在這一核心要素上充當著把關人和決定者的角色。因此,根據“誰支配,誰負責”的原則,明確其是生成式人工智能侵權行為的責任主體具有合理性,理由如下。
一是,由于生成式人工智能輸出結果的準確性依賴于海量多源的數(shù)據,而根據《辦法》第七條規(guī)定,高質量的數(shù)據離不開人為干預,服務提供者應當落實《網絡安全法》、《數(shù)據安全法》、《個人信息保護法》等法律法規(guī)的監(jiān)管要求,對生成式人工智能的預訓練數(shù)據、優(yōu)化訓練數(shù)據等訓練數(shù)據類型與來源的合法性負責。同時,《辦法》第九條強調服務提供者對輸出內容承擔生產者責任和個人信息處理者責任,故當篩選數(shù)據和輸出內容過程中出現(xiàn)了合法性與真實性偏差時,監(jiān)管者可依據責任規(guī)范來判定有關主體的責任。
二是,以ChatGPT為例,生成式人工智能所依賴的基礎數(shù)據和算法使用方式由其服務提供者控制和決定,其可以在對數(shù)據進行標注或設計算法時,將某些價值觀嵌入其中。故而,在生成式人工智能自身缺乏理性意識的前提下,其生成行為本質上仍體現(xiàn)著數(shù)據把關者和算法程序編制者---生成式人工智能服務提供者的主觀意志與價值選擇。具而言之,生成式人工智能服務提供者在很大程度上可以決定和支配人工智能輸出成果的合法合規(guī)性。如此,可以將生成式人工智能與其服務提供者之間的關系類比為“委托-代理”的法律關系,其中人工智能的生成行為可以視為“代理”其服務提供者從事行為或作出決定。據《民法典》第162條,相應的就應當由服務提供者對人工智能的侵權行為承擔法律責任。
其次,以ChatGPT為例,生成式人工智能內容的輸出不僅依賴于系統(tǒng)本身的訓練數(shù)據和算法邏輯,亦取決于不同使用者的個性化需求以及對生成內容所作的反饋。加之,即便生成式人工智能服務提供者履行了審慎注意義務,因其沒有審查監(jiān)管生成內容全過程的能力,從而無法避免不良用心的使用者利用其服務制造侵犯他人權益的內容。例如,據美國新聞可信度評估與研究機構對ChatGPT所做的測試,虛假信息研究人員對它提出充滿誤導性敘述的問題,發(fā)現(xiàn)它能在極短時間內對信息進行改編,生成大量有說服力但又不真實的信息。[5]這一特點可能導致ChatGPT被有心之人所利用,成為高效的犯罪工具,侵害個人權益,甚至可能會引發(fā)整個社會信任體系的崩潰。故不僅存在生成式人工智能自動侵權的情況,也有使用者輸入相關指令“調教”生成式人工智能對外生成含有違法性內容的情況。根據“誰的行為支配生成式AI引發(fā)了侵害結果,誰就應當對該結果負責”的責任承擔機制,在使用者故意誘導致侵權結果發(fā)生的情形下,使用者作為過錯一方,理應承擔侵權的責任。
另外,生成式人工智能侵權風險與各環(huán)節(jié)主體均有關系,包括貌似無關的第三方。如智能系統(tǒng)遭遇黑客侵入,并被惡意操控與篡改,使得系統(tǒng)程序紊亂而無法按照正當?shù)某绦蛟O計運行,正常且合理問題下出現(xiàn)了仇視性或暴力攻擊性言論,通過傳播由此給他人造成了嚴重威脅。聊天機器人Meta AI便有類似經歷。[4]在這種情況下,據《民法典》第1175條規(guī)定,黑客作為造成損害的第三人,理應承擔侵權責任。
四、結語
科學技術是把雙刃劍。人們在享受以ChatGPT為代表的生成式人工智能為人類社會提供便利的同時,也要正視其帶來的多樣性侵權風險,以及復雜的責任承擔問題。本文基于對我國現(xiàn)行法律基礎和法律價值的考慮,結合ChatGPT等的技術邏輯和運行原理論證生成式人工智能侵權的責任主體。一方面,生成式人工智能作為數(shù)字時代的產物,缺乏獨立自主意識和責任承擔能力,其存在只是為了服務于現(xiàn)實人類的生存與發(fā)展。因此,應將其定位為法律客體,不享有責任主體地位。另一方面,根據“誰支配,誰負責”原則,綜合分析服務提供者、使用者和第三方對侵權行為的實質作用,合理承擔責任,為目前法律體系下無法賦予生成式人工智能獨立法律主體地位的問題提供解決途徑;也為進一步構建安全有序、科學合理、惠及人民的未來智能生態(tài)系統(tǒng)提供了法律保障。
本文來源:《產品可靠性報告》http://12-baidu.cn/w/kj/32519.html
- 官方認定!CSSCI南大核心首批191家“青年學者友好期刊名單”
- 2023JCR影響因子正式公布!
- 國內核心期刊分級情況概覽及說明!本篇適用人群:需要發(fā)南核、北核、CSCD、科核、AMI、SCD、RCCSE期刊的學者
- 我用了一個很復雜的圖,幫你們解釋下“23版最新北大核心目錄有效期問題”。
- 重磅!CSSCI來源期刊(2023-2024版)最新期刊目錄看點分析!全網首發(fā)!
- CSSCI官方早就公布了最新南核目錄,有心的人已經拿到并且投入使用!附南核目錄新增期刊!
- 北大核心期刊目錄換屆,我們應該熟知的10個知識點。
- 注意,最新期刊論文格式標準已發(fā)布,論文寫作規(guī)則發(fā)生重大變化!文字版GB/T 7713.2—2022 學術論文編寫規(guī)則
- 盤點那些評職稱超管用的資源,1,3和5已經“絕種”了
- 職稱話題| 為什么黨校更認可省市級黨報?是否有什么說據?還有哪些機構認可黨報?