網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 中國品牌 > 品牌智庫 > 正文

人工智能治理要堅持兩手抓

大模型的高速發(fā)展和滲透帶來生成式人工智能的廣泛應(yīng)用,形形色色的生成式人工智能插件在短短幾個月內(nèi)交互到了人類社會的生產(chǎn)生活中,引發(fā)新一輪智能化浪潮。正如數(shù)十年前計算機技術(shù)、互聯(lián)網(wǎng)革命引領(lǐng)了技術(shù)與生產(chǎn)方式的歷史性變革,生成式人工智能開始深刻地影響人們生活的方方面面。當我們使用生成式人工智能高效搜索、生成文本、提高工作效率,當我們感受訓練聊天機器人的新鮮感,當我們在文本之上使用圖像生成、音頻視頻生成,生成式人工智能的潛在風險也在不知不覺中逐漸滲透。

科技創(chuàng)新的二元性歷來受到社會廣泛關(guān)注,從互聯(lián)網(wǎng)的數(shù)據(jù)隱私到智能機器人的道德倫理,再到生成式人工智能對于個人隱私的處理和引發(fā)潛在欺詐行為風險,如何規(guī)范應(yīng)用值得我們深度思考。

用戶會給生成式人工智能工具提供個人、公司或所屬社會組織的非公開信息,模型獲得了這些數(shù)據(jù),便有可能在后續(xù)各類生成任務(wù)中泄露信息。過去擔憂手機APP等軟件在用戶未察覺時對其隱私進行觀察和調(diào)用,而在生成式人工智能應(yīng)用場景中,亦存在隱私和信息泄露風險。例如,生成式人工智能可以被用來創(chuàng)建背景豐富、看似來源可靠的信息,進而誘導用戶點擊惡意鏈接或下載惡意軟件;可以塑造豐富立體的社交媒體形象,甚至模仿某人的聲音或外貌,引導造謠與詐騙;可以被訓練為向特定用戶推薦誤導性內(nèi)容,或在某些情況下加強他們已有的偏見,等等。

生成式人工智能可處理海量數(shù)據(jù),但也給知識產(chǎn)權(quán)保護、個人隱私保護、打擊虛假信息等方面帶來新挑戰(zhàn)。積極推進人工智能治理,法治與社會教育是促進守正創(chuàng)新的兩大抓手。

一方面,營造安全有序的法治環(huán)境,規(guī)范生成式人工智能服務(wù)。為減少虛假信息的傳播,建議明確禁止或限制其在特定領(lǐng)域的使用。例如,批量化的虛擬形象創(chuàng)建和對話;為降低隱私泄露風險,建議規(guī)定生成式人工智能使用個人數(shù)據(jù)時需經(jīng)用戶同意,確保數(shù)據(jù)隱私得到保護,用戶有權(quán)決定哪些數(shù)據(jù)可以被使用,以及生成的內(nèi)容如何使用;為減少對社會公序良俗的破壞,建議嚴格限制仇恨言論、歧視性內(nèi)容創(chuàng)建。可考量設(shè)立專門的機構(gòu)負責技術(shù)審查和認證,評估生成式人工智能系統(tǒng)的安全性、可信度、倫理問題等。

同時,對于生成式人工智能系統(tǒng)出現(xiàn)問題時的法律責任和賠償機制,可考慮進行系統(tǒng)設(shè)計,對開發(fā)者、運營商以及使用者的責任分配展開討論。本質(zhì)上,機器產(chǎn)生的任何行為都需要有主體負責,而生成式人工智能能否以及如何界定責任主體,是一個重要而緊迫的問題。自動駕駛的技術(shù)發(fā)展、商業(yè)應(yīng)用和社會問題,為我們作出了可參考的探索。

另一方面,加強對公眾的教育與培訓也至關(guān)重要。技術(shù)的風險不僅來源于自身,也來自于不當使用。如何讓公眾更好地理解技術(shù)、更明智地利用技術(shù),進一步完善科技倫理體系,都需要強有力的社會教育作為支撐。要加強對公眾進行教育和培訓,強調(diào)倫理和法律約束,以提高對這些潛在風險的認識;要增強用戶對倫理和法律問題重要性的認識,特別是在生成內(nèi)容時,明白不應(yīng)該濫用工具;要鼓勵公眾充分了解生成式人工智能的邏輯和可解釋性、推斷和生成過程,鼓勵選擇更透明和可解釋的模型,以便更好理解生成內(nèi)容的來源和原理,不輕信在看似嚴肅的行文和環(huán)境中插入的各類信息和煽動性觀點;要提醒用戶保護個人隱私和數(shù)據(jù)安全,不分享敏感信息尤其是機密信息;政府、行業(yè)、企業(yè)等相關(guān)各方應(yīng)加強風險研判,有效防控人工智能的科技倫理風險,進一步加強行業(yè)自律,不斷推動科技向善、造福人類。

(作者系清華大學技術(shù)創(chuàng)新研究中心主任、教授)

[責任編輯:潘旺旺]