網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 中國(guó)品牌 > 品牌智庫(kù) > 正文

生成式人工智能治理催著立法跟進(jìn)

生成式人工智能的治理是今年兩會(huì)上代表委員們熱議的一個(gè)重要話題。生成式人工智能既帶來(lái)了人工智能技術(shù)的“奇點(diǎn)時(shí)刻”,也帶來(lái)了人工智能治理的“關(guān)鍵時(shí)刻”。生成式人工智能技術(shù)是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)。加快對(duì)生成式人工智能領(lǐng)域的立法,既是防范生成式人工智能服務(wù)風(fēng)險(xiǎn)的現(xiàn)實(shí)需要,也是促進(jìn)生成式人工智能健康發(fā)展的長(zhǎng)遠(yuǎn)需要。前不久,歐洲議會(huì)、歐盟委員會(huì)和27個(gè)成員國(guó)的談判代表就《人工智能法案》達(dá)成協(xié)議,這成為全球首部人工智能領(lǐng)域的全面監(jiān)管法規(guī),為用法律監(jiān)督ChatGPT等生成式人工智能服務(wù)的發(fā)展提供了一定借鑒。在該領(lǐng)域,我國(guó)也進(jìn)行了不少探索,2023年已正式施行的《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《辦法》)從價(jià)值規(guī)范、行為規(guī)制和過(guò)程監(jiān)管等方面對(duì)生成式人工智能加強(qiáng)了治理。隨著技術(shù)的廣泛應(yīng)用和不斷演進(jìn),生成式人工智能服務(wù)的開(kāi)發(fā)者、提供者、使用者、監(jiān)管者在未來(lái)實(shí)踐中都還將面臨不少的法律挑戰(zhàn),法律上也仍有諸多可填補(bǔ)的空間。這些也是我國(guó)下一步針對(duì)生成式人工智能立法立規(guī)應(yīng)重點(diǎn)關(guān)注的問(wèn)題。

首先,生成式人工智能生成內(nèi)容的準(zhǔn)確性和可靠性該如何認(rèn)定是一個(gè)突出的問(wèn)題。人工智能準(zhǔn)確性不僅是生成式人工智能部署和運(yùn)行的重要底線,也是構(gòu)建可信賴人工智能的重要前提。以目前生成式人工智能的技術(shù)水平,其技術(shù)和應(yīng)用局限仍非常明顯,存在生成內(nèi)容準(zhǔn)確率不高、可信性不強(qiáng)、文本生搬硬湊、缺乏邏輯性等問(wèn)題,有時(shí)甚至出現(xiàn)一些脫離現(xiàn)實(shí)、啼笑皆非的低級(jí)錯(cuò)誤。對(duì)此,《辦法》要求,提供和使用生成式人工智能服務(wù)應(yīng)當(dāng)“提高生成內(nèi)容的準(zhǔn)確性和可靠性”。要落實(shí)這一要求,尚需進(jìn)一步的法律規(guī)則細(xì)化。一方面,要求服務(wù)提供者使用具有合法來(lái)源的數(shù)據(jù)和基礎(chǔ)模型;另一方面,要求其采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強(qiáng)訓(xùn)練數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性。同時(shí),應(yīng)正視人工智能的風(fēng)險(xiǎn)閾值,繼續(xù)深入探索同生成式人工智能技術(shù)特性與產(chǎn)業(yè)特點(diǎn)相匹配的數(shù)據(jù)準(zhǔn)確性、算法模型準(zhǔn)確性、輸出準(zhǔn)確性和解釋準(zhǔn)確性標(biāo)準(zhǔn),構(gòu)建科學(xué)精準(zhǔn)的風(fēng)險(xiǎn)治理框架。

其次,生成式人工智能帶來(lái)了個(gè)人信息保護(hù)的相關(guān)問(wèn)題。大數(shù)據(jù)和人工智能技術(shù)的結(jié)合,改變了以往單一的個(gè)人信息收集和處理方式。生成式人工智能通常需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,并且,隨著生成式人工智能的廣泛使用,個(gè)人數(shù)據(jù)的收集、存儲(chǔ)和處理變得非常普遍,加強(qiáng)數(shù)據(jù)管理和隱私保護(hù)至關(guān)重要,以盡量保證生成式人工智能服務(wù)提供的透明性和可控性。一方面,生成式人工智能的開(kāi)發(fā)應(yīng)該時(shí)刻注重確保個(gè)人對(duì)自身數(shù)據(jù)的控制權(quán)。根據(jù)《辦法》,生成式人工智能服務(wù)的提供者應(yīng)當(dāng)依法履行對(duì)用戶個(gè)人信息保護(hù)義務(wù)。涉及個(gè)人信息的,應(yīng)當(dāng)取得個(gè)人同意或者符合法律、行政法規(guī)規(guī)定的其他情形。其實(shí)這項(xiàng)義務(wù)并非新增,而是個(gè)人信息保護(hù)法等法律在生成式人工智能領(lǐng)域的細(xì)化。但是,這些規(guī)定大都有賴于產(chǎn)品研發(fā)者、服務(wù)提供者進(jìn)行自我審查和自我履行,還缺乏獨(dú)立第三方對(duì)算法進(jìn)行有效論證和監(jiān)管的具體設(shè)計(jì),需要適時(shí)填補(bǔ)這一空白,細(xì)化數(shù)據(jù)采集、存儲(chǔ)、使用和共享的規(guī)則,確保數(shù)據(jù)的合法性與安全性。

再次,生成式人工智能面臨知識(shí)產(chǎn)權(quán)認(rèn)定的問(wèn)題。一方面,生成式人工智能運(yùn)用未被授權(quán)的數(shù)據(jù)生成的內(nèi)容可能被指控侵犯知識(shí)產(chǎn)權(quán);另一方面,其生成的獨(dú)創(chuàng)性內(nèi)容是否應(yīng)該受到知識(shí)產(chǎn)權(quán)保護(hù)?又該如何保護(hù)?《辦法》堅(jiān)持尊重知識(shí)產(chǎn)權(quán)的導(dǎo)向,宏觀地作出規(guī)定:“涉及知識(shí)產(chǎn)權(quán)的,不得侵害他人依法享有的知識(shí)產(chǎn)權(quán)。”面對(duì)生成式人工智能涉嫌侵權(quán)的行為,用戶可以依據(jù)相關(guān)法律規(guī)定對(duì)服務(wù)開(kāi)發(fā)者和提供者提起訴訟,進(jìn)行維權(quán)。根據(jù)我國(guó)著作權(quán)法的規(guī)定,享有著作權(quán)的作者,主要包括創(chuàng)作作品的自然人,和其他依照本法享有著作權(quán)的法人或者非法人組織。只有“人”能夠成為知識(shí)產(chǎn)權(quán)法律關(guān)系的主體,可以對(duì)智力成果進(jìn)行創(chuàng)作并享有權(quán)利,而人工智能模型不具備自由意志,不是法律上的主體,不能成為我國(guó)著作權(quán)法上的“作者”,且人工智能的設(shè)計(jì)者、研發(fā)者、投資者、管理者、實(shí)際操控者等在作品的創(chuàng)作過(guò)程中均發(fā)揮著重要作用,權(quán)利的歸屬如何,目前也尚無(wú)明確規(guī)定,如何進(jìn)行產(chǎn)權(quán)保護(hù),還需要相關(guān)法律法規(guī)加緊跟上。

最后,生成式人工智能還面臨法律監(jiān)管不充分的問(wèn)題。對(duì)于具有超大規(guī)模、千億參數(shù)量、極易擴(kuò)展性和大量應(yīng)用場(chǎng)景的生成式人工智能而言,以事后啟動(dòng)、分散推進(jìn)為特征的傳統(tǒng)監(jiān)管面臨應(yīng)對(duì)遲滯、彈性不足、監(jiān)管尺度不清、跨域協(xié)調(diào)成本高企的挑戰(zhàn)。人工智能生成內(nèi)容技術(shù)因其快速反應(yīng)能力、豐富知識(shí)輸出、多元應(yīng)用場(chǎng)景等,對(duì)監(jiān)管者的監(jiān)管能力也提出極大挑戰(zhàn)。因此,應(yīng)積極打造“以AI治理AI、以算法規(guī)制算法”的智能監(jiān)管體系,深入探究技術(shù)模型在人工智能監(jiān)管層面的有效性,將倫理規(guī)范和合規(guī)要點(diǎn)轉(zhuǎn)化為程序語(yǔ)言,以內(nèi)部倫理技術(shù)約束嵌入人工智能設(shè)計(jì)和運(yùn)行全過(guò)程,探索智慧化監(jiān)管模式。同時(shí),充分吸納專業(yè)技術(shù)人才充實(shí)監(jiān)管隊(duì)伍,轉(zhuǎn)變監(jiān)管思維,創(chuàng)建監(jiān)管機(jī)構(gòu)間高效的信息共享機(jī)制,提升與人工智能技術(shù)創(chuàng)新相匹配、相適應(yīng)的應(yīng)對(duì)能力和管理能力,確保技術(shù)的研發(fā)與使用符合法律法規(guī)和道德規(guī)范。(胡建淼專家工作室供稿)

[責(zé)任編輯:潘旺旺]
標(biāo)簽: 生成式人工智能   人工智能治理   人工智能   ChatGPT   Sora