<nobr id="hlbhj"></nobr>
    <em id="hlbhj"></em>

    <form id="hlbhj"><form id="hlbhj"><sub id="hlbhj"></sub></form></form>

      <ins id="hlbhj"><sub id="hlbhj"><p id="hlbhj"></p></sub></ins>

          生成式AI應不應該視為法律上的人?
          發布日期:2024-03-17 來源:西南政法大學


          開欄語


          佇立在五千年蒼霞沐浴的神州大地,聆聽新時代新征程的號角聲聲,望百年變局加速演進,時代大潮澎湃向前……“法治興則國興,法治強則國強”的信念激蕩在我們的心中。如何以理論之思回答“四個之問”?西南政法大學官方微信公眾號、《現代法學》期刊微信公眾號特聯合開設“廌會筆談”欄目,希冀匯聚各位專家學者圍繞法治前沿問題,開展述學立論、方案探討、觀點爭鳴、學術探索,在助力譜寫強國建設、民族復興的偉大篇章中,“立時代之潮頭、通古今之變化、發思想之先聲”。

          主持人

          周尚君 教授

          國家級人才項目入選者

          第十屆全國十大杰出青年法學家

          圖片


           主持人語 





          今年全國兩會期間,習近平總書記就發展新質生產力、推動高質量發展等發表一系列重要講話,“深化大數據、人工智能等研發應用,開展 ‘ 人工智能+’ 行動”也首次寫入兩會政府工作報告。眾所周知,人工智能是發展新質生產力的重要引擎,人工智能賦能千行百業將成為我國經濟社會發展的常態。人工智能社會應用在產生巨大收益的同時,不可避免地會引發不少風險。這些收益與風險如何分配?是分配給人工智能產業鏈條上的各利益相關者,還是分配給人工智能自身?對這一問題的回答,涉及到人工智能的法律主體地位,追問的是人工智能是不是法律意義上的人,能不能成為權利義務的最終歸屬。
                本期“廌會筆談”,我們邀請到國內六位相關領域法律學者,圍繞這一問題進行觀點交鋒,以期引發更多人對這一問題的關注和思考。





          觀點一

          人工智能也可以成為法律意義上的人

          圖片

          陳亮

          西南政法大學人工智能法學院教授、科技法學研究院副院長

          法律意義上的人是法定權利與法定義務的最終歸屬,是法律分配收益和分攤風險的最終承受者。一國法律的人法制度,關乎該國社會主體的行為激勵與行為約束,進而關乎該國的經濟發展、社會穩定乃至整個人類社會的持久繁榮。在人工智能廣泛介入人類社會生活各領域的當代中國,理性而科學地回答人工智能是不是法律意義上的人,并據此反思和重構我國的人法制度,不僅具有非常重要的理論意義,而且具有極其不菲的實踐價值。

          從詞源學上看,英文世界中用以表示法律意義上的人person一詞,源自拉丁詞匯persona,意為戲劇舞臺上演員所佩戴的面具,引申為演員所扮演的角色。與之相適應,法律意義上的人,則是活躍于法律世界中的各種角色的統稱,用以區別活躍于生活世界中的各色人等。法律意義上的人與戲曲舞臺上的面具的這種同源同宗,為我們考察法律意義上的人提供了非常有趣的視角。具體而言,我們可以推論出以下3個非常有意義的結論:(1)特定實體能否成為法律意義上的人,這是法律根據社會需要而定,正如戲劇中的演員是由戲劇根據其劇情需要而設一樣;(2)法律意義上的人與生物學意義上的人是分離的,正如戲曲中演員所扮演的角色有別于演員在社會生活中的真實樣態一樣;(3)法律意義上的人是為保護其背后的實體而設,正如面具是為保護其背后的演員而戴一樣(想想因飾演黃世仁而險些被觀眾揍死的惡霸專業戶陳強便可窺豹一斑)。

          從法律史來看,法律上的人的演化史,或多或少證實了上述三個結論的有效性:(1)各國法律所承認的法律意義上的人,盡管總體上趨于“大同”,但仍存在“小異”,這種“小異”正是各國法律根據其社會需要進行理性選擇的結果;(2)從古至今的法律意義上的人,歷經了從“人為非人”到“人人為人”再到“非人為人”的滄海桑田般的巨大變遷,這恰恰是法律意義上人與生物學意義上的人相互分離的如山鐵證;(3)公司法人資格的取得,使其股東獲得了免受公司債權人直接追索債務的“公司面紗”,則活脫脫地證明了法律意義上的人具有護佑其背后實體免受法律制裁的保護功能。

          由是觀之,人工智能是不是法律意義上的人,應該根據法律意義上的人的制度功能進行綜合研判,而不能僅僅因為人工智能不具有生物學意義上的人的某些本質特征而斷然否決。畢竟,法律意義上的人與生物學意義上的人是分離的,以人工智能是否具備生物學上的某些特征而判斷其是否是法律意義上的人,無益于緣木求魚、南轅北轍。若僅僅因為這一點而否認人工智能的法律主體地位,那么公平分配人工智能收益和分攤人工智能風險將成為一句空話,更遑論激勵我國人工智能產業鏈上的利益相關者為將我國打造成“世界主要人工智能創新中心”而奮斗!

          觀點二

          人工智能知識產權法律主體地位分析
          圖片

          尹鋒林

          中國科學院大學公共政策與管理學院知識產權系主任、副教授

          隨著人工智能技術的發展,特別是隨著ChatGPT、Sora等生成式人工智能系統的廣泛應用,人工智能系統在智力成果創造方面對人類的輔助作用、甚至替代作用越來越大。人工智能系統能否成為AI發明的發明人、能否成為“文生圖”或“文生視頻”的作者?這些問題已經實實在在地擺在了各國知識產權主管機構和法院面前。關于人工智能知識產權法律主體地位問題,根據目前各國的知識產權制度和相關實踐,至少有如下思考:

          第一,人工智能創造物,包括利用人工智能系統創作的發明創作、文字材料、圖畫和視頻等,雖然這些人工智能創造物與人類單純的智力成果(即人類未利用人工智能而創造的成果)相比,可能可以通過圖靈測試,難分伯仲,但是這些人工智能創造物能否可以像人類單純的智力成果那樣作為知識產權的客體,則仍然存在較大爭議,不同國家、不同法院根據不同的案情會有不同的答案。一般而言,在人工智能創造物中,如果人類對之的智力貢獻越大,比如人類向人工智能系統輸入的提示詞越多、進行的選擇或判斷越多越復雜,那么,該創造物就越有可能被認為是可專利或可版權的客體。相反,在人工智能創造物中,如果人類對之的智力貢獻越小,比如人類僅向人工智能輸入了一個簡單的提示詞,人工智能就輸出的一段文字、一幅畫、一個視頻或一個技術方案,那么該“創造物”就可能不會被認為是可專利性或可版權性的客體。

          第二,由于知識產權制度本質目標是鼓勵人類智力成果的創造和傳播,因此,各國法律和實踐絕大部分否認人工智能系統可以作為人工創造物的發明人或作者,更否認人工智能系統可以作為專利權人或著作權人。例如,我國最新版的《專利審查指南》就明確規定:發明人應當是個人,不得填寫人工智能系統。美國版權局《包含人工智能生成內容作品的版權登記指南》也明確規定,只有自然人才能被登記為作品的作者,美國憲法和美國版權法均排除非人類可以作為作品的作者。因此,人工智能系統不能作為作品的作者,如果申請人把人工智能系統列為作者,美國版權局將直接不予登記。在人工智能創造物被認為具有可版權性或可專利性的前提下,輸入提示詞或對AI輸出結果進行選擇和判斷的人則通常會被認為是發明人或作者。這種實踐可能會引發爭議。例如,在某些情況下,提示詞非常簡單,提示詞輸入者確實對AI系統輸出的“作品”或“發明創造”并無實質性創造貢獻,“作品”或“發明創造”幾乎完全來自于AI系統的貢獻,那么在這種情況下把提示詞輸入者列為發明人或作者,就會與民法中的誠實信用原則相悖。為了解決這一問題,美國版權局的上述指南進一步規定,如果AI輸出的結果的表達要素確實是由AI系統決定的,那么該輸出內容就不屬于人類作品,當然,也就不能獲得版權保護。

          第三,雖然人工智能系統不能作為作者或發明人對其“創造物”享有相關權利,但是,當其“創造物”涉及侵權時,該人工智能系統的所有者就有可能作為責任主體承擔侵權責任。最近,廣州互聯網法院審理了一起AI公司文生圖版權侵權案,在該案中,原告是奧特曼系列形象的國內版權獨占被許可人,被告是一家人工智能系統公司,原告使用被告的人工智能系統要求其生成與奧特曼相關的圖片時,原告使用被告人工智能系統生成的圖片與原告享有獨占許可權的奧特曼形象可構成實質相似,因此,原告指控被告構成版權侵權。法院審理后判決被告侵犯了原告對奧特曼作品所享有的復制權和改編權。而在上述案件之前,北京互聯網法院也審理了一起涉及AI系統文生圖的著作權糾紛案,北京互聯網法院判決向人工智能系統輸入提示詞、利用AI系統生成的圖片可構成美術作品,同時還認為提示詞的輸入者或AI系統的使用者可以作為AI文生圖的作者,并享有著作權。雖然廣州互聯網法院與北京互聯網法院在AI文生圖的相關法律主體認定問題上可能有著不同的審理思路,但是,人工智能“創造物”侵犯他人知識產權的可能性卻是現實的,到底應由誰——是AI系統的所有者、還是AI系統的使用者來承擔侵權責任,以及AI系統所有者在何種情況下應承擔責任或者可以受到“避風港”原則的保護?這些問題不僅是當前實務界直接面對的問題,而且也是理論界需要深入研究的問題。

          觀點三


          人工智能挑戰了法律上人與物的關系

          圖片

          丁曉東

          中國人民大學法學院教授、未來法治研究院副院長

          人工智能是不是法律上的人?答案可能非常明顯,絕大多數學者和專家可能都會給出否定回答。ChatGPT與Sora或許可以創造類似于人類或遠勝于人類的生成內容,自動駕駛或許可以比人類更安全與高效駕駛,但人工智能在本質上仍然是一種工具。人工智能既不像人一樣具有個人意志,也不像法人一樣具有群體聚合性的集體意志,將人工智能視為法律上的人,無法通過法律制度的權利義務設置而對其進行合理激勵。

          但人工智能挑戰了傳統法律中對人與物的關系設定。傳統法律預設了人是具有創造性、自由意志的主體,而物則是人類被支配的對象。在這種預設下,法律圍繞人與物設置了不同的法律制度。例如合同與侵權以人為中心,其典型制度設計包含了“意思自治”“過錯”等具有典型人類特征的要素;物權或財產權則以物為中心,產品責任也以物為中心,這些制度往往不注重人類的主觀狀態或人的特征,往往具有可以針對不特定個體的“對世性”(in rem)特征。而知識產權則可以視為人與物的鏈接性制度,這一制度一邊強調知識產權的人格性特征,強調作品、專利與人的聯系性;另一方面則將作品、專利作為物來看待,對其適用權利用盡原則。

          人工智能帶來的變化是,人工智能變得越來越像人,而人類在不少情況下則反而變得更像機器主體。例如在智能投顧、股市量化交易中,人工智能算法替代了人類進行“意思表示”;在自動駕駛中,人類駕駛員則轉變為乘客或承擔較少監督義務的安全監管員。而最為典型的還是知識產權中的著作權。很多人工智能生成作品在外觀上更接近于人類作品,具有高價值與歷史創造性( historical creativity),而有的人類作品則更像是沒有價值的機器產出,至多具有心理創造性 ( psychological creativity)。如果完全采取人類中心主義或浪漫主義作者(romantic author)的作者觀,其結論將是法律可以保護低價值的人類作品,但不能保護具有高價值的機器作品。

          面對人與物的邊界模糊與關系變化,傳統法律制度需要與時俱進、轉型升級。例如對于人工智能的法律責任,法律可以根據人工智能的具體特征而將其歸入不同類型。對于那些構成產品部分的人工智能系統,例如自動駕駛系統,法律可以將其視為產品組成部分而進行規制,對其施加產品責任。對于那些獨立存在的人工智能服務系統,例如生成式人工智能,則可以將其視為人類或人類組織提供的聚合性服務,對涉及人工智能的不同人類主體進行行為規制。對于人工智能生成作品,法律則可以避免著作權制度的全有或全無適用,提供更具顆粒度的精細化保護。例如法律可以賦予人工智能企業初始署名權,為企業提供聲譽激勵,同時為人工智能作品提供類數據庫保護與反不正當競爭法保護。

          在傳統法學中,人與物的關系也是隱匿的核心議題。私法上對物債二分與物權變動模式的討論,公法對監管人還是監管物的爭論,都包含了對人與物的關系的討論。近年來,域外法學界還興起了模塊理論(modular theory)的研究,試圖重新加深對部門法與法理學的理解。在這個意義上,人工智能是人還是物,就不僅僅是一個熱點噱頭問題,而是一個真正深刻的法學命題。

          觀點四

          人工智能不具有民事法律主體地位

          圖片

          葉名怡

          上海財經大學法學院教授、博士生導師

          人工智能是否具有民事法律主體地位?在未來是否應當立法賦予其主體地位?是近些年理論界主要的爭議點。確立人工智能主體地位的主要目的是解決涉人工智能的侵權責任承擔問題,而通過現行法的法律解釋或類推適用,即可在人工智能客體性質的范圍內達此目的。創設人工智能主體地位不僅對現有民法體系造成沖擊,還會導致受害者索賠困難、風險分配不合理的情況。本人持否定觀點,具體理由如下。

          第一,現行法未確認人工智能主體地位。

          有學者將人工智能視作其所有人或使用人的代理人,也有學者將其視為侵權行為發生時的被替代責任人;有觀點建議將人工智能視作擬作人格,即類似法人性質的主體;更有激進的域外立法草案直接賦予其新型的電子人格。然而這并非我國的法律實際,我國《民法典》不存在確定人工智能民事法律主體地位的條文,實踐中也未曾出現“代理說”“替代說”“法人說”的裁判。

          第二,“客體解釋論”足以解決現有涉人工智能侵權問題。

          根據人工智能模型類型,可以分為判別式人工智能產品與生成式人工智能服務。前者是根據輸入數據來預測或者分類不同的結果,通過“輸入—輸出”的關系來做出預測;后者是通過學習輸入數據的分布和生成規律來構建模型,并根據該模型生成新的數據樣本。二者本質都是一種客體意義上的工具。

          關于判別式人工智能產品的侵權問題,可適用產品責任認定規則。從保護受害人角度看,嚴格責任不考慮過錯要件,排除受害者證明加害者的過錯義務。同時,產品責任降低了受害人因果關系的證明要求。從市場地位角度看,人工智能產品的制造商(加害人)處于成本承擔的有利位置,可以通過市場定價等手段分散承擔產品責任后的經濟負擔。從行業發展角度看,嚴格責任可以對制造商提出更高的產品質量要求,激勵產品生產方的投入與行業的進步。

          關于生成式人工產品的侵權問題,可類推適用網絡服務提供者責任認定規則。生成式人工智能服務提供者應當依法處理個人信息的義務、有對個人信息的安全保護義務,否則應當認定其具有過錯;服務提供者面對涉及公共利益的違法、敏感詞匯,有較高的注意義務來屏蔽,但是不能要求服務提供者對所有生成內容盡一般注意義務;此外,避風港規則可以類推適用于生成式人工智能服務提供者。

          第三,“主體立法論”不符合法律主體的應有要件。

          作為能夠承擔責任的民事法律主體,最重要的兩個要件分別是擁有獨立財產與能夠表達意思。一方面,即便支持人工智能法律主體的創設,當發生損害賠償時,其財產來源依舊是人工智能設計、制作、銷售、使用中的傳統民事主體。另一方面,當下人工智能仍處于“弱人工智能”時代,其無法產生獨立的意識,即不存在意思表示的能力。因此,立法論層面的主體創設不符合法律主體固有之義。

          綜上所述,目前人工智能事實上不具有民事法律主體地位,其主體地位既不可被解釋論擬制、更不可被立法論創設。

          觀點五


          “法律上的人”有納入人工智能的余地

          圖片

          高艷東

          浙江大學數字法治研究院副院長


          隨著人工智能的發展,人工智能能否成為法律上的人,成為法律界探討的熱點。法律界討論的核心是從人工智能的角度出發,審視人工智能能否具有人的意思等因素,進而判斷其能否成為法律上的人。但是,這一角度忽視了,“法律上的人”從來都不是一個恒定的概念。

          首先,“法律上的人”是一個擬制概念。美國法學家博登海默曾說:“正義有著一張普羅透斯式的臉,變幻無常、可隨時呈現出不同形狀并具有不相同的面貌!边@句話對于“法律上的人”同樣適用!胺梢饬x上的人”是一種擬制規定,是法律價值的判斷,而非生物學判斷。生物意義上的人,與法律意義上的人,是不同的概念。狼孩是生物意義上的人,但未必是法律意義上的人。同樣,做過變性手術的主持人,在生物意義上是男人,但在法律意義上是女人!胺梢饬x上的人”不僅要考慮人的生物特征,還要考慮人的社會特征。按照這個邏輯,當人工智能具有的和人一樣的社會特征,即可以和生物人一樣建立社會關系,也就當然會被評價為“法律意義上的人”。

          其次,在不同時代,“法律上的人”的范圍是不同的。不爭的事實是,在奴隸社會中,雖然奴隸是生物意義上的人,但不是法律意義上的人。在歷史上的很多國家中,殺害奴隸和殘害耕畜的處罰大體相當。美國的黑人成為法律上的人,進而獲得選舉權,也不過是幾十年的事情。法國大革命前,婦女也并非完全法律意義上的人。即使在今天,在很多部落社會(甚至包括印度),很多類型的人,都因為膚色、種族、姓氏、信仰、性別等因素,在事實上沒有成為真正法律意義上的人。顯然,在漫長的歷史長河中,奴隸、黑人、婦女、特定族群,都被排除在“法律意義上的人”的范圍之外。而隨著社會的發展,“法律意義上的人”的范圍逐漸在擴張,不斷包容著各種擬制的人格體。民法中的法人責任、刑法中的單位犯罪,都是“法律意義上的人”擴張的結果。

          最后,人工智能不是生物意義上的人,但能夠成為“法律上的人”。當然,這取決于兩個條件:一是人工智能發展的速度,按照目前生成式人工智能的發展速度,估計在10年左右,人工智能就會具有類似于人的意思和情感能力。即使其達不到科學家的程度,也會超越高中生的水平。二是隨著人工智能的發展,法律概念也將逐漸作出修改,“法人”就是法律因公司等機構的出現,而擬制出的人格體。未來,“法律上的人”的范圍會不斷擴大,將部分人工智能納入其中。

          由于當前人工智能發展水平有限,我們還在討論,人工智能能否成為“法律上的人”?相信3-5年后,我們要討論的問題就會變成,人工智能“何時”會成為“法律上的人”?10年之后,我們要討論的問題就會變成,人工智能“應該以何種方式”成為“法律上的人”?

          法律只能服務于技術。在制度與技術的較量中,技術總是勝利者。制度總是想占據主導地位,但技術才是制度的設計者。

          觀點六

          人工智能法律主體地位的擬制應當基于對產業需求的回應

          圖片

          劉曉春

          中國社會科學院大學法學院副教授、互聯網法治研究中心執行主任

          人工智能是否可以被視為法律中的人,具體而言主要涉及三個層面的問題,一是人工智能是否可以作為權利主體享有法定權利或權益,二是人工智能是否可以作為責任主體承擔相應的法律責任,三是人工智能的運行過程是否可以視為法律上的“人”的行為并產生相應后果。以當下討論熱烈的著作權法為例,跟這三個層面對應的問題,一是人工智能是否可以成為其生成物相關權益的權利主體,二是人工智能生成內容過程中出現侵犯在先著作權的情況時,人工智能是否可以擔責,三是人工智能生成內容的過程是否可以視為“創作”從而形成作品。

          從目前的法律原則和規定來說,的確尚不存在將人工智能認定為法律意義上的人的空間。但是以人工智能在自然屬性上是機器而不是人這一理由,直接排除人工智能獲取法律上主體地位的可能性,這個邏輯還是過于簡單了。實際上出于各種利益關系的考慮,法律體系中對“人”或“主體”的認定和安排一直存在擬制和變通!胺ㄈ恕弊鳛榉审w系中最為重要的擬制主體,獨立于單個自然人的意志和法律地位,在社會經濟生活中發揮基礎性的作用,即為典型的順應生產模式和利益關系需要的法律上的創設。除此之外,法律上對于死者利益、胎兒利益乃至動物利益等的保護,實質上也不是僅限于“自然人”的機械考慮。具體制度安排上,例如,在著作權法上,法人雖無法直接從事自然屬性的智力創造,但代表法人意志并由其組織、負責的作品可以視為法人作品,法人可以直接被視為作者;作者去世后,其署名權、發表權等人身權依然可以得到保護,與民法上的死者名譽權保護不同,作者這類權利并沒有完全轉化為對于近親屬利益的保護,而是存在相對獨立的法益包括公眾的知情利益需要保護。因此,法律上對于“人”的認定并不是簡單基于自然屬性,而經常是出于社會需求和特定利益關系安排的需要。

          當然,如果要將人工智能確立為法律意義上的人,雖然并非全無可能,但也需要充分論證其必要性。在上述三個層次中,第三個層次涉及到比較具體而局部的利益權衡,是否要將人工智能生成過程視為“創作”從而獲得著作權保護,根本上需要考慮,是否有必要通過這種擬制方式,由著作權制度來為人工智能生成內容提供生產激勵。其他可選的方案是,或者不必突破法律作出此種擬制,而將生成物采用特殊權利保護模式(如創設鄰接權)或者反不正當競爭法保護,或者索性不予保護。這種情況是涉及具體制度內部的價值判斷問題。第一個和第二個層次即人工智能是否可以成為權利和責任主體,則涉及比較基礎和全局的決策,需要回答的問題是,人工智能作為一種組織和參與生產的方式,是否產生了具有獨立法律地位的需求。如果人工智能與作為其提供者的法人或者自然人能夠產生一一對應的關系,那么法律上的權利和責任完全可以由后者承擔,沒有必要疊床架屋將人工智能獨立出來。但是如果出現了科斯意義上企業與市場的分野,由于人工智能組織和參與生產的過程過于復雜,參與主體眾多,以至于在法律上需要承認一個單獨的“人工智能”組織體,來降低市場交易帶來的成本,促進高效率的生產和分配,此時,確立“人工智能”作為一個生產和分配組織者的法律主體地位,也未嘗不可,只不過,在人工智能技術和產業發展的當下,還是沒有看到這樣的必要性。


          責任編輯:郝魁府
          本站系非盈利性學術網站,所有文章均為學術研究用途,如有任何權利問題請與我們聯系。
          ^

            <nobr id="hlbhj"></nobr>
            <em id="hlbhj"></em>

            <form id="hlbhj"><form id="hlbhj"><sub id="hlbhj"></sub></form></form>

              <ins id="hlbhj"><sub id="hlbhj"><p id="hlbhj"></p></sub></ins>

                  操逼视屏