網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 經(jīng)濟金融 > 經(jīng)濟理論 > 正文

AI生成品應(yīng)不應(yīng)受法律保護

當前,人工智能相關(guān)的法律問題是我國學術(shù)界的熱點之一。2019年4月26日,北京互聯(lián)網(wǎng)法院審結(jié)了我國首例人工智能生成內(nèi)容著作權(quán)案“北京菲林律師事務(wù)所訴北京百度網(wǎng)訊科技有限公司著作權(quán)侵權(quán)糾紛案”,首次以判決的形式對人工智能生成內(nèi)容的著作權(quán)問題進行了探索,給學術(shù)討論提供了寶貴的司法實例。

為了充分探討人工智能生成內(nèi)容的相關(guān)法律問題,北京師范大學法學院網(wǎng)絡(luò)與智慧社會法治研究中心聯(lián)合亞太網(wǎng)絡(luò)法律研究中心、亞太人工智能法律研究院共同舉辦了“人工智能生成內(nèi)容的相關(guān)法律問題研討會”。會議圍繞“菲林律所訴百度”案及人工智能相關(guān)法律問題展開,專家、學者從不同角度對人工智能及其生成物的法律地位、權(quán)利歸屬和保護等相關(guān)問題展開了熱烈討論。

北京互聯(lián)網(wǎng)法院盧正新法官:

自然人創(chuàng)作仍是著作權(quán)法上作品的必要條件

北京互聯(lián)網(wǎng)法院盧正新法官作為“菲林律所訴百度”案的主審法官,對案情進行了簡要介紹,并闡述了判決的相關(guān)思路。盧法官認為,法官不能拒絕審判,對案件進行裁判是法院、法官的本職工作。然而現(xiàn)行法律缺乏對軟件或人工智能自動生成內(nèi)容著作權(quán)的直接規(guī)定,“自然人創(chuàng)作完成”仍是著作權(quán)法上作品的必要條件。同時,菲林律師事務(wù)所的涉案分析報告雖有一定獨創(chuàng)性,但并非是軟件用戶感情、思想的獨創(chuàng)性表達,因此不能將分析報告認定為作品。盧法官也認為,雖然分析報告不構(gòu)成作品,但由于軟件使用者進行了一定投入,軟件使用者應(yīng)當享有一定權(quán)益。

北京大學法學院楊明教授:

人工智能是創(chuàng)作的工具作品權(quán)利與人工智能無關(guān)

北京大學法學院楊明教授認為,至少在現(xiàn)階段,人工智能還不是法律主體,也無必要以主體對待。在討論人工智能生成物是不是作品時,應(yīng)該先從作品本身出發(fā),而不是先考察是否有作者。人工智能同樣是創(chuàng)作的工具,作品權(quán)利與人工智能無關(guān)。權(quán)利歸屬的本質(zhì)是賦權(quán),按照科斯的理論,所有賦權(quán)的目的都是服務(wù)于交易,所以后續(xù)交易成本最低的原因理應(yīng)被賦權(quán)。在人工智能生成內(nèi)容特殊性上,楊明教授認為人工智能生成內(nèi)容相比一般意義上的作品沒有特殊性,未改變由人創(chuàng)作的事實,只是外部力量介入的方式有了一些變化,但創(chuàng)作的根本還是自然人。

最高法院互聯(lián)網(wǎng)司法研究中心宋健寶主任:

人工智能生成物缺乏思想性

最高人民法院應(yīng)用法學研究所互聯(lián)網(wǎng)司法研究中心宋健寶主任認為,人工智能生成物的表現(xiàn)形式是一篇文章,從文章整體來看,我們可以對有獨創(chuàng)性的部分進行保護。至于這個案件,實際上就是向檢索軟件輸入關(guān)鍵詞,最后生成一個報告。獨創(chuàng)性也好,原創(chuàng)性也好,必須有一個思想。而人工智能中,相同的輸入經(jīng)過軟件以后輸出,輸出是一樣的,它的表達就是確定的。這是人工智能和人的思想不能相比的地方。

騰訊研究院張欽坤秘書長:

人工智能自動寫作的體育新聞作者是誰

騰訊研究院張欽坤秘書長從騰訊自身的實踐出發(fā),向與會專家提出問題:騰訊在新聞領(lǐng)域如體育新聞使用了大量的人工智能自動寫作,從軟件開發(fā)到軟件使用再到內(nèi)容發(fā)送在騰訊公司內(nèi)部形成閉環(huán),那么新聞的作者是誰?楊明教授回答道,使用人工智能創(chuàng)作也屬于創(chuàng)作,其過程必然有人力介入,對新聞有實質(zhì)性貢獻的人應(yīng)享有著作權(quán)。宋健寶主任回答,他同意“菲林律所訴百度”案判決書的邏輯,在目前法律下,此類新聞不構(gòu)成作品。北京師范大學法學院夏揚教授則認為,是否將人工智能設(shè)置為主體是法律技術(shù)的問題,在傳統(tǒng)法律無法解決作者問題或者解決成本過大時,立法承認人工智能的主體地位或許是一個可以考慮的選擇。

北京師范大學吳沈括副教授:

此案被告侵害了原告數(shù)據(jù)的完整性

北京師范大學吳沈括副教授認為,人工智能生成內(nèi)容的法律問題,這個話題特別新,而且特別有價值,這個判例具有非常重要的歷史意義。在這個案件中,要考慮人工智能生成物的法律屬性,可能需要判斷兩個層面的問題,第一層面是強人工智能,第二個層面是弱人工智能。隨后他還從數(shù)據(jù)流轉(zhuǎn)的角度談了這個問題,從數(shù)據(jù)的輸入、數(shù)據(jù)的處理到最后數(shù)據(jù)的生成這三個方面進行分析?;诂F(xiàn)有的網(wǎng)絡(luò)安全法,在數(shù)據(jù)處理過程中,對數(shù)據(jù)的完整性、保密性,處理者有保護完整和保密義務(wù),處理者對這個完整性有法律責任。“菲林律所訴百度”案中,被告實際上侵害了原告數(shù)據(jù)的完整性。

清華大學法學院吳偉光副教授:

人工智能生成物獨創(chuàng)性不高但仍屬于作品

清華大學法學院吳偉光副教授首先從歷史的角度分析,認為人工智能目前無須賦予主體地位。其次,關(guān)于人工智能生成內(nèi)容的保護,應(yīng)當先分析作品再分析作者。作品的獨創(chuàng)性是否構(gòu)成作品的判斷標準,主觀獨創(chuàng)性標準違背了民事主體民事權(quán)利能力平等的原則,應(yīng)當采用客觀標準。獨創(chuàng)性在著作權(quán)中的功能是識別作品,人工干預(yù)越多,獨創(chuàng)性就越強。然而隨著時代變化,標準化程度日益提高,獨創(chuàng)性要求的高低也在發(fā)生變化。若以獨創(chuàng)性的高低論是否是作品,法官在司法審判中就要面對無數(shù)種個案情況,不僅制度成本高昂,而且難以實現(xiàn)。獨創(chuàng)性越低,經(jīng)濟成本就越低,制度成本也越低。人工智能生成物雖然獨創(chuàng)性不高,但仍然屬于作品。

華為大中華終端高端法務(wù)部部長王高明律師:

人工智能生成物的相關(guān)權(quán)益需要保護

華為大中華終端高端法務(wù)部部長王高明律師認為,通過這個案例,思考到了作品完整性、署名權(quán)以及相關(guān)的權(quán)益,就相關(guān)權(quán)益付出人的利益對權(quán)屬收益進行分配、保護。侵權(quán)責任的問題,也需要從立法、司法角度進行思考。從一個企業(yè)角度來看,對人工智能生成物相關(guān)權(quán)益需要進行保護,這樣才能激勵人工智能后面付出勞動的人。

百度法務(wù)部徐佳航律師:

構(gòu)不成著作權(quán)的人工智能生成物該如何保護

百度法務(wù)部徐佳航律師結(jié)合自己的一些認識和域外的一些經(jīng)驗,提出了以下幾個觀點和問題:第一,當下人工智能的概念到底是什么,隨著科技的發(fā)展,人工智能的概念是不是應(yīng)該重新定義。第二,人工智能的產(chǎn)業(yè)化已經(jīng)在無時無刻不影響到我們的日常生活,如何保護數(shù)據(jù),目前沒有一個專門的法律規(guī)定。第三,人工智能的創(chuàng)造過程離不開開發(fā)者的努力,構(gòu)成著作權(quán)的作品可以有著作權(quán)法的保護,構(gòu)不成著作權(quán)的該如何保護。

北京師范大學法學院夏揚教授:

賦予人工智能法律人格或更有利于解決問題

北京師范大學法學院夏揚教授認為,法官本來就是以保守的態(tài)度來面對社會現(xiàn)實。通過這個案件,怎么在現(xiàn)有的法律制度下做出一個大眾可以接受的合理判決,在這個案件中看到了法官的智慧。說到人工智能的主體問題、獨創(chuàng)性問題、作品的定義等等,在這方面,近年來英美法的影響越來越讓人接受,法人也可以成為著作權(quán)的主體,這對著作權(quán)法也起到了一定的影響。給人工智能以擬制人格也并非將之人格化。隨著人工智能的發(fā)展,著作權(quán)法同樣也會受到一定影響,賦予人工智能法律人格或許更有利于解決問題。

北京師范大學法學院劉德良教授:

人工智能生成物

可以是作品并受版權(quán)法保護

北京師范大學法學院網(wǎng)絡(luò)與智慧社會法治研究中心主任、亞太人工智能法治研究院院長劉德良教授最后發(fā)言。

首先,劉德良教授認為,人工智能在法律上是否應(yīng)該賦予其主體地位,應(yīng)該從人類發(fā)展人工智能的初衷,即為何要發(fā)展人工智能的角度上考慮。在此基礎(chǔ)上,再思考如何發(fā)展人工智能的問題。我們發(fā)展人工智能的宗旨是提高生產(chǎn)力,實現(xiàn)人類自身的解放,使人類獲得更大、更多的自由,而不是取代人類,使人類成為被奴役的對象。因此,安全可控應(yīng)該是整個人類社會發(fā)展人工智能的基本準則;不安全、不可控的人工智能不應(yīng)當被發(fā)展,應(yīng)該受到控制乃至禁止。為此,必須要從兩個方面入手:一是強制要求人工智能的算法必須公開,接受整個人類社會的監(jiān)督,對人工智能產(chǎn)品實行市場準入,只有軟硬件都符合技術(shù)標準的才能進入市場;二是法律上拒絕承認人工智能的主體地位。

劉德良教授認為,算法公開顯然會遭受一些先進公司和技術(shù)強國的反對。技術(shù)先進的人工智能公司和國家往往以商業(yè)秘密或技術(shù)秘密為借口拒絕公開其算法,從而實現(xiàn)保持競爭優(yōu)勢的目的。而學術(shù)界,尤其是主流法學界,要么是沒有看到安全可控是整個人類發(fā)展人工智能的基本準則,要么是出于優(yōu)先發(fā)展本國技術(shù)的想法,繼續(xù)秉持傳統(tǒng)的思維將人工智能算法視為商業(yè)秘密。這種觀念及其產(chǎn)業(yè)政策和立法的后果將有悖于安全可控這一基本準則的落實,進而最終導致人工智能的事與愿違。

很多學者沒有從我們?yōu)槭裁匆l(fā)展人工智能這一根本立場出發(fā)去思考,而是基于功利的思維,認為應(yīng)該按照公司理論賦予人工智能主體資格。顯然,這種觀點并沒有看到人工智能與公司的本質(zhì)區(qū)別:公司是自然人實現(xiàn)自我利益最大化的制度設(shè)計,其無法自主行為,必須借助于自然人的行為來實現(xiàn)其行為目標,因此,我們可以通過規(guī)范人的行為來實現(xiàn)規(guī)范公司行為的目的。而人工智能則不然,一旦賦予其獨立的主體資格,那么,通用型、超強人工智能或有獨立意識的人工智能,就完全可以以自己的行為去實現(xiàn)自己而非其所有人的利益。如此一來,必將跟人類發(fā)生沖突,人類也將因此而面臨由主體淪落為客體的境地。

其次,劉德良教授指出,目前,之所以很多人對人工智能生成物的法律屬性存在分歧和認識偏差,其主要原因在于對人工智能的技術(shù)原理缺乏應(yīng)有的認知。實際上,目前的人工智能往往功能單一,不同類型的人工智能,其工作原理可能存在差異。因此,我們不能以對一種功能的人工智能工作原理的認知來代替對其他類型的人工智能的工作原理的認知。目前的人工智能,不僅在其算法設(shè)計出來后需要用大量的數(shù)據(jù)對其進行訓練,即使在人工智能的后續(xù)使用過程中,仍然需要不斷地給予新的數(shù)據(jù)來訓練它,以實現(xiàn)其不斷適應(yīng)新形勢的需要。同時,有的人工智能還可以自主學習,從而獲得新的智能。因此,那種認為人工智能一旦設(shè)計出來后,無須再用數(shù)據(jù)訓練,或者不會自主學習,從而“相同的輸入必將產(chǎn)生相同的輸出”,其結(jié)果,人工智能生成物一定不符合版權(quán)法上的獨創(chuàng)性要件的見解是不成立的。

最后,劉德良教授指出,利用人工智能所產(chǎn)生的內(nèi)容或成果的版權(quán)性問題,應(yīng)該首先從人工智能所產(chǎn)生的內(nèi)容本身是否符合版權(quán)法對作品的獨創(chuàng)性要求而不是看它創(chuàng)作的“主體”出發(fā)。如果符合,它就是作品,就應(yīng)該受版權(quán)法保護,其權(quán)利屬于人工智能的所有者或使用者所有。那種先從生成物是人工智能而非自然人完成的角度出發(fā),認為版權(quán)法上作品的創(chuàng)作是自然人的創(chuàng)作,而人工智能生成物由于不是人的創(chuàng)作產(chǎn)物,所以就不是版權(quán)法上的作品、不受版權(quán)法保護的觀點是有悖于人類發(fā)展人工智能的初衷的。

[責任編輯:潘旺旺]