網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

直面人工智能“復(fù)活”技術(shù)應(yīng)用的倫理挑戰(zhàn)

【摘要】人工智能(AI)“復(fù)活”的數(shù)字人具有高仿真性、強(qiáng)交互性,可給人們帶來一定情感支持。但是,一旦AI“復(fù)活”技術(shù)被濫用,可能帶來一定風(fēng)險(xiǎn)。對此,應(yīng)以死者權(quán)益保護(hù)為前提、以人工智能合法應(yīng)用為核心、以傳播平臺(tái)生態(tài)治理為保障,共同堅(jiān)守AI“復(fù)活”技術(shù)應(yīng)用的合法底線。未來,應(yīng)更加注重AI“復(fù)活”技術(shù)應(yīng)用的倫理治理,借助法律力量推進(jìn)科技倫理成為具有普遍約束力的行動(dòng)指南,從而實(shí)現(xiàn)科技倫理治理法治化,讓AI技術(shù)真正造福人類。

【關(guān)鍵詞】人工智能“復(fù)活” 應(yīng)用 科技倫理 法治化

【中圖分類號】D922.17;TP18 【文獻(xiàn)標(biāo)識(shí)碼】A

從人工智能(AI)“復(fù)活”公眾人物鄧麗君、李玟、高以翔,到商湯科技的如影數(shù)字人團(tuán)隊(duì)在公司年會(huì)上“復(fù)活”前任總裁湯曉鷗,再到電商平臺(tái)上提供多樣的AI“復(fù)活”逝者服務(wù)……,AI“復(fù)活”逝者成為民眾熱議的話題。當(dāng)“云上棲息”走向現(xiàn)實(shí),AI“復(fù)活”技術(shù)的應(yīng)用帶給人們情感支持的同時(shí),也帶來了一些風(fēng)險(xiǎn)和問題。對此,我們應(yīng)更加關(guān)注科技發(fā)展與社會(huì)倫理道德之間的動(dòng)態(tài)互動(dòng),以實(shí)現(xiàn)保障基本人權(quán)與科技進(jìn)步之間的平衡。

濫用人工智能“復(fù)活”技術(shù)產(chǎn)生的風(fēng)險(xiǎn)與社會(huì)問題

AI“復(fù)活”逝者,本質(zhì)是將個(gè)體的聲音、肖像素材輸入人工智能模型進(jìn)行訓(xùn)練學(xué)習(xí),實(shí)現(xiàn)逝者的數(shù)字分身的生成與交互。值得注意的是,AI“復(fù)活”技術(shù)是新應(yīng)用而非新技術(shù),用AI“復(fù)活”技術(shù)將逝者個(gè)人信息生成數(shù)字人,其本質(zhì)是深度合成或生成式人工智能技術(shù)的應(yīng)用場景。①AI“復(fù)活”逝者的初衷也許出于人們的思念和緬懷,但是,一旦AI“復(fù)活”技術(shù)被濫用,不僅可能侵犯死者肖像、聲音等人格權(quán)益,還可能帶來詐騙、誤導(dǎo)輿論等風(fēng)險(xiǎn)。

從死者人格利益保護(hù)角度來看,逝者AI分身的構(gòu)建、應(yīng)用涉及大量死者肖像、聲音以及個(gè)人信息等數(shù)據(jù)的處理,相關(guān)數(shù)據(jù)的不當(dāng)使用會(huì)直接侵害死者的人格利益。我國民事法律一向?qū)λ勒呦嚓P(guān)人格利益提供法律保護(hù)。一是《中華人民共和國民法典》(以下簡稱《民法典》)第994條明確了死者的“姓名、肖像、名譽(yù)、榮譽(yù)、隱私、遺體”等人格利益受到法律保護(hù)。根據(jù)法律解釋,還包括死者的個(gè)人信息、聲音、信用利益等。②構(gòu)建AI分身所需的肖像、聲音等個(gè)人信息受到法律的保護(hù)。二是《中華人民共和國個(gè)人信息保護(hù)法》(以下簡稱《個(gè)人信息保護(hù)法》)。相較于《民法典》,《個(gè)人信息保護(hù)法》第49條明確規(guī)定死者個(gè)人信息受到法律保護(hù),并賦予死者近親屬對死者個(gè)人信息享有查閱、更正、刪除等權(quán)利,為死者個(gè)人信息提供了更為積極的保護(hù)。③由此可見,應(yīng)用AI“復(fù)活”技術(shù)既涉及死者的人格利益保護(hù),又涉及死者近親屬自身對死者個(gè)人信息所享有的權(quán)利。

從AI“復(fù)活”技術(shù)應(yīng)用的合規(guī)角度看,其本質(zhì)是深度合成或生成式人工智能對包含敏感個(gè)人信息(如生物特征)的個(gè)人信息的處理活動(dòng)。相關(guān)應(yīng)用可能存在以下三個(gè)方面合規(guī)風(fēng)險(xiǎn)。首先,數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)。法律法規(guī)對AI“復(fù)活”技術(shù)應(yīng)用中涉及敏感個(gè)人信息的訓(xùn)練數(shù)據(jù)來源存在合法性要求?!痘ヂ?lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第14條規(guī)定,提供生物識(shí)別信息編輯功能的技術(shù)支持者與服務(wù)提供者應(yīng)當(dāng)提示使用者依法告知被編輯的個(gè)人,并取得其單獨(dú)同意。此外,《生成式人工智能管理暫行辦法》(以下簡稱《AIGC暫行辦法》)同樣規(guī)定生成式人工智能訓(xùn)練內(nèi)容涉及個(gè)人信息的,應(yīng)當(dāng)取得個(gè)人同意。其次,生成虛假信息風(fēng)險(xiǎn)。深度合成技術(shù)加劇了AI詐騙等網(wǎng)絡(luò)犯罪風(fēng)險(xiǎn),服務(wù)提供者需確保AI“復(fù)活”技術(shù)的生成內(nèi)容合規(guī)。服務(wù)提供者作為監(jiān)管對象肩負(fù)著向上游連接技術(shù)支持者,向下游負(fù)有用戶提示義務(wù),對生成內(nèi)容合規(guī)負(fù)有責(zé)任。④最后,數(shù)據(jù)安全風(fēng)險(xiǎn)。AI“復(fù)活”技術(shù)應(yīng)用在交互方式上相對自由,包含敏感個(gè)人信息的訓(xùn)練數(shù)據(jù)安全需得到有效保障。

從AI“復(fù)活”應(yīng)用的科技倫理維度來看,倫理治理已成為人工智能治理舉足輕重的議題與環(huán)節(jié)。面對人工智能技術(shù)迅速發(fā)展,單一的法律監(jiān)管維度顯得力有不逮:一方面,立足于解決明確、現(xiàn)實(shí)風(fēng)險(xiǎn)的法律難以應(yīng)對人工智能技術(shù)快速迭代所導(dǎo)致的風(fēng)險(xiǎn)的高度不確定性。另一方面,人工智能歷史展現(xiàn)了從工具向價(jià)值建構(gòu)的角色轉(zhuǎn)換,需要倫理治理引導(dǎo)科技向善?;诖耍吨袊P(guān)于加強(qiáng)人工智能倫理治理的立場文件》《全球人工智能治理倡議》均主張堅(jiān)持“以人為本、智能向善”治理理念。目前我國人工智能領(lǐng)域的科技倫理治理體系尚不健全,AI“復(fù)活”技術(shù)治理為其完善提供了良好切口。AI“復(fù)活”技術(shù)的應(yīng)用,打破了真實(shí)和虛擬的邊界,一定程度上可能導(dǎo)致人類主體性價(jià)值的缺失。AI“復(fù)活”的數(shù)字人一旦生成歧視、仇恨等言論,也可能對公眾造成誤導(dǎo)。應(yīng)對AI“復(fù)活”技術(shù)實(shí)際應(yīng)用中出現(xiàn)的問題,可以反過來推動(dòng)科技倫理治理的理論創(chuàng)新和制度完善。

人工智能“復(fù)活”技術(shù)應(yīng)用的合法底線

AI“復(fù)活”技術(shù)的實(shí)際應(yīng)用中,應(yīng)堅(jiān)守以死者權(quán)益保護(hù)為基礎(chǔ)、以人工智能技術(shù)合法應(yīng)用為核心、以平臺(tái)生態(tài)治理為保障的合法底線。

征得同意應(yīng)當(dāng)是AI“復(fù)活”技術(shù)應(yīng)用的前提。即只有獲得了死者生前的書面同意或死者生前并未明確拒絕,死后其近親屬的書面同意,才可以啟動(dòng)AI“復(fù)活”技術(shù)應(yīng)用?!睹穹ǖ洹?94條規(guī)定,死者近親屬享有保護(hù)死者人格利益,救濟(jì)所受侵害的請求權(quán)。在司法實(shí)踐中,死者利益保護(hù)請求權(quán)的內(nèi)涵包括行為人商業(yè)化使用的不當(dāng)?shù)美颠€請求權(quán),換言之,在不違背死者意愿的前提下,死者近親屬有權(quán)授權(quán)許可。⑤此外,《個(gè)人信息保護(hù)法》賦予了死者近親屬對死者個(gè)人信息廣泛的權(quán)利,在不影響死者人格尊嚴(yán)保護(hù)以及不違背其生前意愿的前提下,應(yīng)當(dāng)認(rèn)定其可以積極發(fā)揮死者個(gè)人信息的經(jīng)濟(jì)效用。⑥因此,若未經(jīng)死者生前或死者近親屬授權(quán)而擅自使用AI“復(fù)活”技術(shù)應(yīng)用,死者近親屬有權(quán)主張行為人承擔(dān)相應(yīng)民事責(zé)任。此外,即使死者沒有近親屬也并不意味著可以自行其是,在死者生前通過遺囑或者指定方式確定其死后人格利益保護(hù)人的情形下,則應(yīng)當(dāng)獲得意定保護(hù)人的同意。

AI“復(fù)活”技術(shù)應(yīng)用在數(shù)據(jù)的收集、處理及輸出全過程均應(yīng)堅(jiān)守合法底線。首先,數(shù)據(jù)攫取應(yīng)當(dāng)遵循《個(gè)人信息保護(hù)法》規(guī)定的合法、正當(dāng)、必要及誠信的原則。⑦AI“復(fù)活”技術(shù)應(yīng)用過程中,不應(yīng)過度收集死者的肖像、個(gè)人信息等數(shù)據(jù),圍繞技術(shù)應(yīng)用本身形成明確、合理的數(shù)據(jù)處理目的,在與目的直接相關(guān)的范圍內(nèi)收集死者的照片、聲音、視頻等數(shù)據(jù),避免對財(cái)產(chǎn)狀況等非必要信息的收集。其次,數(shù)據(jù)處理過程中應(yīng)當(dāng)避免對相關(guān)主體隱私權(quán)的侵犯。由于死者個(gè)人數(shù)據(jù)中雜糅著家庭成員及其他相關(guān)主體的個(gè)人數(shù)據(jù),如果不加區(qū)分地進(jìn)行生成式人工智能自主訓(xùn)練,則極易侵犯相關(guān)主體隱私權(quán)等人格權(quán)。因此數(shù)據(jù)處理過程中應(yīng)當(dāng)對其他相關(guān)主體的個(gè)人數(shù)據(jù)進(jìn)行專門甄別、剔除過濾。最后,在AI分身與用戶交互過程中,較易生成與逝者生前形象相悖的帶有歧視、偏見、仇恨色彩的言論,這不僅會(huì)導(dǎo)致侵犯他人的名譽(yù)權(quán)等人格權(quán),還是對死者名譽(yù)與榮譽(yù)等人格利益的侵犯。

需確保AI“復(fù)活”技術(shù)應(yīng)用本身的合法性。一方面,為防止利用AI“復(fù)活”技術(shù)應(yīng)用從事各種欺騙和欺詐活動(dòng),應(yīng)充分發(fā)揮標(biāo)識(shí)制度的源頭治理效用。我國現(xiàn)已出臺(tái)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《AIGC暫行辦法》,構(gòu)建了較為完善的有關(guān)深度合成內(nèi)容的標(biāo)識(shí)制度。⑧為防止真?zhèn)尾幻髟斐烧鎮(zhèn)位煜?,AI“復(fù)活”技術(shù)應(yīng)用的服務(wù)提供者應(yīng)當(dāng)在死者AI分身的合理位置進(jìn)行顯著與隱性標(biāo)識(shí):一是內(nèi)容上,應(yīng)當(dāng)說明相關(guān)內(nèi)容為AI生成,避免用戶混淆。二是標(biāo)注防偽標(biāo)志,防止他人用于其他非法用途。三是隱形標(biāo)識(shí)中應(yīng)當(dāng)標(biāo)注制作公司與時(shí)間等信息,便于事后溯源和監(jiān)督。另一方面,AI“復(fù)活”技術(shù)應(yīng)用在交互場景下更易獲取用戶隱私數(shù)據(jù),一旦泄露會(huì)對數(shù)據(jù)主體人格及財(cái)產(chǎn)權(quán)益造成損害。AI“復(fù)活”技術(shù)應(yīng)用在量身定制的人機(jī)交互關(guān)系中,可以在情景對話中提供符合用戶偏好的回答,輔之死者生前與用戶的密切關(guān)系,用戶更易卸下心防,在交互中提供較多關(guān)于自己的隱私等信息。這意味著服務(wù)提供者掌握著大量的數(shù)據(jù)資源,一旦發(fā)生數(shù)據(jù)泄露,將會(huì)對數(shù)據(jù)主體人格及財(cái)產(chǎn)權(quán)益造成損害。故而,服務(wù)提供者應(yīng)妥善保管和使用相關(guān)數(shù)據(jù),防止數(shù)據(jù)泄露或被不當(dāng)使用。此外,還應(yīng)保證人工智能模型的安全性,以防出現(xiàn)算法缺陷或黑客攻擊等問題,如定期審核、評估、驗(yàn)證生成合成類算法機(jī)制機(jī)理。

應(yīng)加強(qiáng)對AI“復(fù)活”技術(shù)應(yīng)用的傳播平臺(tái)的治理。AI“復(fù)活”技術(shù)應(yīng)用在與用戶的交互中生成的內(nèi)容具有不可預(yù)知性,容易誘發(fā)不良、違法言論。網(wǎng)絡(luò)社交媒體平臺(tái)為相關(guān)不良生成內(nèi)容的傳播提供了便利,加劇了社會(huì)不穩(wěn)定風(fēng)險(xiǎn)。此外,目前短視頻平臺(tái)上已經(jīng)存在許多代理商通過發(fā)布視頻吸引目標(biāo)客戶,因此網(wǎng)絡(luò)平臺(tái)生態(tài)治理勢在必行。

第一,制定AI“復(fù)活”技術(shù)應(yīng)用相關(guān)內(nèi)容顯著標(biāo)識(shí)的運(yùn)營管理規(guī)范,并提供相關(guān)的標(biāo)識(shí)技術(shù)措施,引導(dǎo)用戶行為規(guī)范化。實(shí)踐中,抖音等平臺(tái)已發(fā)布人工智能生成內(nèi)容標(biāo)識(shí)的相關(guān)規(guī)范。除了對制作者提出標(biāo)識(shí)要求外,網(wǎng)絡(luò)平臺(tái)一旦發(fā)現(xiàn),應(yīng)當(dāng)主動(dòng)標(biāo)記,并采取警告、限制轉(zhuǎn)發(fā)、刪除等措施。第二,加強(qiáng)傳播平臺(tái)的內(nèi)容審查義務(wù),并對違法、不良信息采取規(guī)制手段。一方面,平臺(tái)應(yīng)當(dāng)在事前嚴(yán)格審查,明確未獲得授權(quán)許可不得上傳。一旦發(fā)現(xiàn)含有不良價(jià)值觀導(dǎo)向、嚴(yán)重破壞平臺(tái)健康生態(tài)的違規(guī)內(nèi)容,應(yīng)立即予以下架。另一方面,網(wǎng)絡(luò)平臺(tái)應(yīng)持續(xù)優(yōu)化自動(dòng)識(shí)別、過濾不良信息等相關(guān)智能治理技術(shù),實(shí)現(xiàn)平臺(tái)分類標(biāo)記信息內(nèi)容,根據(jù)平臺(tái)用戶數(shù)量進(jìn)行差異化管理。第三,完善用戶投訴舉報(bào)機(jī)制,可設(shè)立AI“復(fù)活”技術(shù)應(yīng)用投訴舉報(bào)專區(qū)。平臺(tái)有義務(wù)建立便捷的公眾投訴舉報(bào)入口,公布處理流程和時(shí)限,及時(shí)受理、處理投訴舉報(bào)。根據(jù)“通知-刪除”規(guī)則,網(wǎng)絡(luò)平臺(tái)一旦審查發(fā)現(xiàn)違法、不良信息內(nèi)容,應(yīng)當(dāng)馬上核實(shí),采取警告、限制轉(zhuǎn)發(fā)、刪除等措施。此外,網(wǎng)絡(luò)平臺(tái)若發(fā)現(xiàn)違法犯罪線索,應(yīng)移交行政監(jiān)管部門。

AI“復(fù)活”技術(shù)應(yīng)用倫理治理的法治化路徑

在堅(jiān)守合法底線的基礎(chǔ)上,AI“復(fù)活”技術(shù)應(yīng)用治理還需要科技倫理提供框架和指導(dǎo)。借助法律力量來推進(jìn)科技倫理成為具有普遍約束力的行動(dòng)指南,從而實(shí)現(xiàn)倫理治理法治化。

AI“復(fù)活”技術(shù)應(yīng)用在個(gè)人層面進(jìn)行倫理治理的法治化道路建設(shè)。應(yīng)當(dāng)確保技術(shù)應(yīng)用符合人類價(jià)值觀、彰顯人類的主體價(jià)值,并有助于人類基本權(quán)益的實(shí)現(xiàn)。同時(shí),需明確法律治理與倫理治理在內(nèi)在邏輯上存在著一定差別,借助法律規(guī)范增強(qiáng)倫理的規(guī)范化和標(biāo)準(zhǔn)化水平應(yīng)堅(jiān)持審慎的態(tài)度。

首先,對AI“復(fù)活”技術(shù)應(yīng)用所涉數(shù)據(jù),應(yīng)明確人格權(quán)益保護(hù)路徑,而非數(shù)字遺產(chǎn)保護(hù)路徑。聯(lián)合國教科文組織(UNESCO)在《保存數(shù)字遺產(chǎn)憲章》中明確規(guī)定,“數(shù)字遺產(chǎn)”(Digital Heritage)指包含文化等諸多領(lǐng)域在內(nèi)以數(shù)字形式生成的信息,或從現(xiàn)有的類似的模式轉(zhuǎn)換成數(shù)字形式的信息。依據(jù)數(shù)字遺產(chǎn)財(cái)產(chǎn)權(quán)的法律屬性,其可以作為遺產(chǎn)由繼承人加以繼承。相比之下,死者的肖像、聲音、個(gè)人信息等屬于人格權(quán)益的范疇,具有人身專屬性,只能由近親屬進(jìn)行保護(hù)而不可繼承。

其次,AI“復(fù)活”技術(shù)應(yīng)用應(yīng)當(dāng)強(qiáng)調(diào)以人為本,充分尊重人身自由和人格尊嚴(yán)。第一,如果死者表明拒絕AI“復(fù)活”技術(shù)應(yīng)用,應(yīng)當(dāng)充分尊重死者的意愿。故而,如果死者生前做出禁止AI“復(fù)活”技術(shù)應(yīng)用的意思表示,則死者近親屬無權(quán)授權(quán)。否則,其他近親屬或意定保護(hù)人有權(quán)向違背死者意愿的近親屬主張民事責(zé)任。第二,如果死者生前表達(dá)了對其人格權(quán)進(jìn)行商業(yè)化利用的意愿,則應(yīng)當(dāng)予以尊重。第三,如果死者生前并未做出相關(guān)聲明,如前所述,極大可能出現(xiàn)近親屬對AI“復(fù)活”技術(shù)應(yīng)用提出不同要求的情形。面對相關(guān)主體之間的沖突,可以采取差異化處理的思路。如果在私人范圍內(nèi)使用,基于緬懷等情感撫慰等目的,則只需要不違背死者生前意愿,近親屬本人或者征得其中一位近親屬同意即可。如果應(yīng)用于公共平臺(tái)流通,由于可能會(huì)對近親屬造成二次傷害,則應(yīng)當(dāng)恪守知情同意原則,需征得全部近親屬的同意。

最后,需要明確AI“復(fù)活”的數(shù)字人非法律主體地位,同時(shí)對AI“復(fù)活”的數(shù)字人的應(yīng)用場景予以限制。雖然AI“復(fù)活”的數(shù)字人給人們提供了真實(shí)的情感支持、彌補(bǔ)親友傷痛等情緒價(jià)值等,但這并不意味著AI“復(fù)活”的數(shù)字人真正具備人類意識(shí)。AI“復(fù)活”的數(shù)字人對人類意識(shí)本質(zhì)屬性社會(huì)性的缺乏,決定了其無法獨(dú)立自主參與社會(huì)活動(dòng),不能真正意識(shí)到自己行為的法律后果,這就導(dǎo)致AI“復(fù)活”的數(shù)字人不具有法律主體地位,其行為不被視為具有法律效力的行為。

AI“復(fù)活”技術(shù)應(yīng)用于產(chǎn)業(yè)鏈的倫理治理規(guī)范化建設(shè)。一是AI“復(fù)活”技術(shù)產(chǎn)業(yè)的服務(wù)提供者應(yīng)當(dāng)承擔(dān)起防止用戶沉迷的義務(wù)。AI分身具有高仿真性、強(qiáng)交互性,同時(shí)親友與死者之間的情感寄托往往會(huì)導(dǎo)致用戶判斷力下降和對AI分身的情感依賴,從而加劇沉迷的風(fēng)險(xiǎn),造成逃避現(xiàn)實(shí)、弱化社交。此外,還會(huì)影響人們對現(xiàn)實(shí)親情關(guān)系的態(tài)度。可以說,AI“復(fù)活”技術(shù)應(yīng)用對人類的倫理理念和行為準(zhǔn)則產(chǎn)生了重要的影響。我國法律已經(jīng)意識(shí)到科技應(yīng)用的倫理價(jià)值負(fù)載,并做出了制度回應(yīng)。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》指出,服務(wù)提供者不得設(shè)置誘導(dǎo)用戶沉迷、過度消費(fèi)等違反法律法規(guī)或者違背倫理道德的算法模型。在具體實(shí)施中,建議設(shè)置彈出虛擬場景提示窗口,防止用戶迷失于現(xiàn)實(shí)與虛擬的分界。同時(shí),還應(yīng)對未成年人與成年人進(jìn)行不同的防沉迷設(shè)計(jì)。

二是服務(wù)提供者需保障AI“復(fù)活”技術(shù)應(yīng)用的信息透明度,履行相關(guān)披露義務(wù)。聯(lián)合國教科文組織《人工智能倫理問題建議書》指出,人工智能透明是“確保人權(quán)、基本自由和倫理原則得到尊重、保護(hù)和促進(jìn)的必要先決條件”。因此,應(yīng)推動(dòng)AI“復(fù)活”技術(shù)應(yīng)用的透明化:服務(wù)提供者應(yīng)加強(qiáng)服務(wù)披露。一方面,應(yīng)明確自身為生成式人工智能服務(wù)提供者的身份;另一方面,應(yīng)事先向用戶披露治理機(jī)制和管理規(guī)則,并對用戶進(jìn)行適當(dāng)?shù)闹敢?。加?qiáng)算法的可解釋性。服務(wù)提供者應(yīng)采取通俗易懂的個(gè)性化解釋方式,使用戶充分了解人工智能產(chǎn)品的運(yùn)作原理。服務(wù)提供者應(yīng)全方位建立AI“復(fù)活”技術(shù)應(yīng)用的算法評估報(bào)告披露制度,引入第三方算法評估與審計(jì)程序,并向公眾展示深度合成的情況。

三是服務(wù)提供者作為“守門人”應(yīng)當(dāng)在服務(wù)提供的全過程中承擔(dān)安全保障義務(wù)。除產(chǎn)品研發(fā)上線前,后續(xù)的服務(wù)過程中還需持續(xù)進(jìn)行風(fēng)險(xiǎn)影響的跟蹤評估和定期審核。對產(chǎn)品服務(wù)的機(jī)理、模型、數(shù)據(jù)和輸出結(jié)果等予以驗(yàn)證并及時(shí)修正,避免生成式人工智能算法“偏離預(yù)設(shè)軌道”,產(chǎn)生違背倫理道德的相關(guān)內(nèi)容。此外,AI“復(fù)活”技術(shù)服務(wù)提供者還應(yīng)承擔(dān)必要的刪除義務(wù),在近親屬主張、缺乏其他管理人以及定作人要求時(shí),應(yīng)建立及時(shí)的AI分身銷毀機(jī)制。

四是產(chǎn)業(yè)鏈倫理治理體系的構(gòu)建需要協(xié)同推進(jìn),作為產(chǎn)業(yè)鏈末端的用戶也應(yīng)當(dāng)承擔(dān)恪守AI倫理與文明底線的義務(wù)。用戶在享受AI“復(fù)活”技術(shù)服務(wù)的過程中,其向AI分身的提問方式、指令要求對生成內(nèi)容起到關(guān)鍵作用。依據(jù)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》的要求,不得利用深度合成服務(wù)生產(chǎn)或傳播違法信息。⑨因此,用戶應(yīng)當(dāng)保持良好的倫理道德意識(shí),不斷提升自身數(shù)字素養(yǎng),促進(jìn)形成符合倫理的秩序。

法律在引導(dǎo)人工智能技術(shù)向善的過程中,展現(xiàn)出了倫理化趨勢:倫理道德開始成為立法依據(jù),人工智能治理的法律轉(zhuǎn)向回應(yīng)倫理問題。未來,人們應(yīng)引導(dǎo)AI“復(fù)活”技術(shù)更好地服務(wù)人類,同時(shí),采取法治化手段規(guī)避技術(shù)濫用造成社會(huì)危害。

(作者為中國政法大學(xué)數(shù)據(jù)法治研究院教授、博導(dǎo))

【注釋】

①參見《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第23條,《生成式人工智能服務(wù)管理暫行辦法》第12條。

②楊立新:《死者人格利益保護(hù)請求權(quán)的法理依據(jù)與適用規(guī)則—<民法典>第994條的關(guān)鍵詞評注》,《杭州師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》,2023年第45卷第5期,第104頁。

③程嘯:《論死者個(gè)人信息的保護(hù)》,《法學(xué)評論》,2021年第5期,第20-22頁。

④參見《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第10條。

⑤趙軒毅:《論死者人格財(cái)產(chǎn)利益保護(hù)的請求權(quán)基礎(chǔ)及其內(nèi)在限度》,《學(xué)術(shù)交流》,2020年第6期,第42-46頁。

⑥王葉剛:《死者個(gè)人信息保護(hù)釋論》,《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》,2023年第41卷第6期,第34、41頁。

⑦參見《中華人民共和國個(gè)人信息保護(hù)法》第5條。

⑧參見《生成式人工智能服務(wù)管理暫行辦法》第12條。

⑨參見《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第6條。

責(zé)編/陳楠 美編/王夢雅

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個(gè)人轉(zhuǎn)載請回復(fù)本微信號獲得授權(quán),轉(zhuǎn)載時(shí)務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。

[責(zé)任編輯:謝帥]