網站首頁 | 網站地圖

大國新村
首頁 > 中國品牌 > 品牌智庫 > 正文

推動人工智能技術賦能社會(科技視點)

近年來,人工智能大模型技術的涌現,掀起新一代人工智能發(fā)展的研究熱潮,也為各行各業(yè)應用人工智能帶來新的發(fā)展機遇。

人工智能的未來充滿哪些可能性?我們如何應對?記者采訪了有關專家。

人工智能研究正從以往的學術牽引更多轉為需求牽引

作為新一輪科技革命和產業(yè)變革的重要驅動力量,人工智能被普遍認為將對經濟社會發(fā)展產生深遠影響。

近年來,人工智能研究正從以往的學術牽引更多轉為需求牽引,人工智能的發(fā)展目標正發(fā)生大的轉變。

在浙江大學人工智能研究所所長吳飛看來,人工智能正由原來的“用計算機模擬人的智能”,向著三個方向拓展:“機器+人”(用機器與人結合成增強的混合智能系統(tǒng)),“機器+人+網絡”(用機器、人、網絡結合組織成新的群體智能系統(tǒng)),“機器+人+網絡+物”(用機器、人、網絡和物結合而成的智能城市等更復雜的智能系統(tǒng))。在“賦能社會”的應用驅動下,一系列智能技術正在蓬勃發(fā)展。

北京郵電大學人工智能學院人機交互與認知工程實驗室主任劉偉介紹,從使用數學模型建立機器智能、借助統(tǒng)計概率實現機器學習,再到試圖借助遷移方法實現上下文感知的行為智能系統(tǒng),這三類人工智能發(fā)展趨勢體現了向人機環(huán)境系統(tǒng)邁進的發(fā)展路徑。“具備對環(huán)境的感知、理解和交互能力,才算真正意義上的通用人工智能。”劉偉說。

2017年國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》,明確了多種人工智能的技術形態(tài),其中包括跨媒體智能、群體智能、混合增強智能等。

吳飛舉例,手術機器人參與的外科手術無法由醫(yī)生獨立完成,也無法由機器人單獨完成,呈現出人機協(xié)同混合增強智能特征。“更多的垂直行業(yè)也正在加快相關人機交互探索,要么將人的作用引入智能系統(tǒng),要么在人工智能系統(tǒng)中引入受生物啟發(fā)的智能計算模型。人機通過不斷的彼此交互、相互學習,達到持續(xù)增進自身智能水平的目的。”吳飛說。

通過技術和法律等手段規(guī)避人工智能風險

人工智能造福人類,同時也存在潛在風險。

“人工智能的風險,主要存在于這樣幾種可能的情況:一是惡意使用人工智能和錯誤使用人工智能;二是軟件漏洞與硬件失效造成人工智能故障;三是環(huán)境變化造成人工智能失控。”劉偉說。

人工智能使用不當的風險已引發(fā)人們關注。例如,人工智能技術可收集和分析海量數據,有可能導致個人隱私泄露、數據泄露和網絡攻擊;人工智能技術可生成虛假照片、視頻等,助長網絡欺詐等不法行為。人工智能主題的科幻電影所描繪的超前場景,也讓人們思考人工智能技術可能帶來的倫理問題,例如,人類未來如何與有“智能”的機器相處?

在吳飛看來,人類始終是人工智能高度、廣度和深度的總開關與決定者,也是人和人造物的協(xié)調者。因此,一方面不能簡單地將人工智能等同于人類大腦,盲目相信“人工智能替代人類”的觀點,另一方面也要善于利用人工智能這一人類幫手,在人機協(xié)同中創(chuàng)造更加美好的未來。

專家認為,通過技術和法律等手段,人工智能相關風險可以規(guī)避,人類也有能力找到化解風險的有效手段。

我國始終是人工智能治理的積極倡導者和實踐者。2021年9月,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,強調將倫理道德融入人工智能全生命周期。2023年10月,我國在第三屆“一帶一路”國際合作高峰論壇期間發(fā)布《全球人工智能治理倡議》,圍繞人工智能發(fā)展、安全、治理三方面系統(tǒng)闡述了人工智能治理中國方案,充分體現了我國在處理人工智能治理問題上的大國擔當。

建立良好生態(tài)系統(tǒng)支撐人工智能賦能社會

近年來,越來越多的國家將人工智能發(fā)展置于國家戰(zhàn)略層面,在頂層設計中加入防止人工智能技術壟斷和技術無序擴張等理念。

如何防范人工智能技術被濫用?

受訪專家表示,應該建立多學科、多領域的合作,鼓勵科學家、工程師以及公眾廣泛參與,共同探討人工智能的發(fā)展方向、應用領域和道德倫理問題。全世界應該攜手,堅持發(fā)展和安全并重的原則,確保人工智能技術的發(fā)展符合人類的整體利益。

劉偉表示,從技術手段上看,為了增加人工智能的公平性、可信任性、可解釋與透明度、安全性等,研發(fā)主體從頂層設計、過程控制、工程收尾等整個流程中都要保持人機環(huán)境系統(tǒng)的設計思路。

瑞萊智慧首席執(zhí)行官田天認為,要扎實做好人工智能基礎理論攻關,提升人工智能的內在安全性能;鍛造、儲備對新一代人工智能的安全評測能力,掌握對其準確性、效率、內容安全、抗攻擊能力等多個維度進行評測的方法和手段。同時,還要著力研發(fā)提供必要的安全工具,比如提供深度偽造檢測工具幫助公眾辨識信息真?zhèn)?、防范網絡欺詐等。

數據與算法安全是人工智能安全的核心。專家表示,要重視高質量語料的建設,通過精標數據、反饋數據來進行優(yōu)化訓練,最終實現模型輸出的選優(yōu)除劣。

吳飛認為,推動人工智能技術賦能社會需要良好生態(tài)系統(tǒng)的整體支撐,不僅僅只是技術研發(fā)本身。要把握人工智能技術屬性和社會屬性高度融合的特征,加強前瞻預防與約束引導。“一個良好的生態(tài)系統(tǒng)可有機聯(lián)結倫理與道德、技術與產業(yè)、資本與市場,在這樣一個生態(tài)系統(tǒng)中,每個來自不同領域的人工智能參與者都能從中獲益。”吳飛說。

[責任編輯:潘旺旺]