網(wǎng)站首頁 | 網(wǎng)站地圖

人民論壇網(wǎng)·國家治理網(wǎng)> 前沿理論> 正文

科技倫理治理的社會心理取向

——以人工智能為例

摘 要:對于科技倫理治理來說,最簡單直接的方式就是制定規(guī)則。但現(xiàn)有的無論是國家政府還是組織機構等制定的規(guī)條均還不具有普適性,同時,缺乏對“知行合一”的有效約束是“規(guī)條式”治理的突出問題。今后進一步充實科技倫理治理,首先要認清人工智能倫理考察的是人工智能和人之間的關系規(guī)律,而面向人的人工智能應該考慮普通人是如何看待人工智慧并進行交互的。此外,將人類抽象道德規(guī)范轉化為具體的規(guī)則,即幫助科技“習得腳本、鍛造美德”,是科技倫理治理的另一方面。

關鍵詞:科技倫理治理 科技向善 人工智能 科技道德

中圖分類號B82 文獻標識碼A

科技倫理治理現(xiàn)狀:尚在羅列規(guī)條、以規(guī)為宗

若論科技倫理治理,也許最直接的方式就是制定規(guī)則,這種規(guī)則可能包括政策、法規(guī)、準則、倫理守則等(為簡化表述,下文一律將之簡稱為“規(guī)條”)。制定這些規(guī)條的主體可能是各國政府或各國政府的聯(lián)合體(如歐盟、聯(lián)合國等)、可能是國際或者國內(nèi)的行業(yè)協(xié)會、研究機構或者研究組織(如美國計算機學會ACM),也可能是相關人工智能頭部企業(yè)(如谷歌、騰訊等)。應該沒有人不同意制定這些規(guī)條的最終目的都是為了進行科技倫理治理,或者更進一步創(chuàng)造出道德的人工智能體等科技載體,但如此之多的倫理規(guī)條本身已經(jīng)說明了各個層面的規(guī)則制定者本身對人工智能的倫理風險沒有達成普遍一致,也沒有形成一個通用普適的倫理風險防范守則。

以人工智能規(guī)條為例,Jobin等人(2019)統(tǒng)計了現(xiàn)存的用英、法、德、意等語言寫就的84個政府規(guī)條,發(fā)現(xiàn)確實有一些得到多數(shù)共識的倫理原則,如果將其進行排名,則為:透明、公正、無傷、負責、隱私、受益、自主、信任、可持續(xù)、尊嚴以及團結等。Zeng等人(2019)在其構建的人工智能規(guī)條數(shù)據(jù)庫之基礎上,增加了中、日等亞洲規(guī)條和業(yè)界規(guī)條,用自然語言處理的語義相似性也確定了具有多數(shù)共識的倫理原則,即:人性、合作、共享、公平、透明、隱私、安全、可歸責以及強人工智能。科技倫理規(guī)條的計數(shù)與語義聚類結果甚至并不相同。當然我國也有較為重要的人工智能規(guī)條,比如2019年6月國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,提出了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理等八條原則。這些規(guī)條看似全面,但其是否真實能用于人工智能實踐呢?科技倫理要“塑造科技向善的文化理念和保障機制”,那么完成此目標便需要行勝于言??萍紓惱碇卫頉]有規(guī)條寸步難行,但只有規(guī)條并不能讓科技向善。

原因之一在于規(guī)條是抽象的。道德心理學的研究發(fā)現(xiàn),抽象道德原則并不能指導實際道德行為,這中間有巨大的鴻溝[1]。譬如小學生守則里有這樣的規(guī)條,即“尊敬師長、團結同學”,而實際上一個特定的學生在路上碰到了老師他可能還是不知道怎么辦,因為在心理上不知道如何行為。多數(shù)倫理規(guī)條均存在此問題,其過于抽象和泛化,而非實際可操作的規(guī)則。因此,要讓小學生做出“尊敬師長”的行為結果,不僅需要讓他們背下道德規(guī)條,同時還要告訴他們在不同的情境下應當如何做的具體實踐腳本,比如“當老師迎面走來時,你要停下來,鞠躬說:老師好!”。道德教育不能只是講授道德原理和原則、灌輸?shù)赖滤枷?,讓學生練習應該怎么做才是正確的[1]。同理,對于人工智能來說,我們不只要列出倫理規(guī)條,還應設置大量具體情境的倫理腳本,這一點不僅是對人工智能的設計者、使用者來說如此,對人工智能本身也一樣。即我們不能只設置一條“透明度”原則,我們需要告訴人工智能設計者,類似:“第一,每一個數(shù)據(jù)點的來源都必須登記和審查;第二,對每一個數(shù)據(jù)點的來源審查應該……”,只有這樣具體的規(guī)則才是具體可行、可以用于風險防范的。

另一個原因是規(guī)條沒有解決知行分離的問題。就如人工智能倫理問題,確實可以立下非常具體的規(guī)條,哪怕即使是抽象的規(guī)條,也存在人是否可能遵守的現(xiàn)實情況。誠如Müller(2020)所言,人工智能倫理問題的最大現(xiàn)實困難是切實加強政府以及個體的調(diào)控,而非制定政策。倫理規(guī)條和政策制定是相對前期的工作,而政策的落地執(zhí)行以及每個人工智能利益相關者的切實執(zhí)行才是切實有效的。只用規(guī)條來進行科技倫理治理容易造成知行不一。很多時候我們看到很多人能大談倫理原則,但卻經(jīng)常做出不道德的行為。以應該習得了最多倫理規(guī)范的倫理學家作為研究對象,心理學家發(fā)現(xiàn),受過良好和長期道德教育、從事道德相關的研究、探討道德問題的倫理學家并不比普通人更加道德(Schwitzgebel&Rust,2009,2010,2013;Schwitzgebel&Cushman,2012;Schwitzgebel,Rust,Huang,Moore,&Coates,2012)。在美國頂尖的學術圖書館中,當代倫理學圖書的丟失率要比非倫理學圖書的丟失率高50%,而經(jīng)典倫理學著作的丟失率則要高出2倍。這些倫理學專業(yè)圖書的閱讀者和借閱者通常為倫理學教授或者研究生。同時,國外倫理學教授也沒有像人們直覺的那樣履行更多的道德責任,他們在美國選舉時的投票率并不比其他專業(yè)的教授要高。倫理學家比其他人擁有更多的道德知識、受過更多的道德教育,但是他們卻并不會比他人更多地表現(xiàn)出道德行為,這是道德問題上知行不一的體現(xiàn)。

科技倫理治理應當以人為本、治心為上

為什么盡管規(guī)則沒有用,但是大部分做法仍在羅列規(guī)范呢?答案是,因為規(guī)條確實非常重要,也確屬先導工作。而羅列規(guī)條較之“做出道德的人工智能體”這樣的具體實踐問題要更易解決。深層次答案則是,規(guī)條的產(chǎn)生乃考察精英智慧的結晶。羅列規(guī)條的抽象工作通常情況下由哲學社會科學家以及計算機科學家商討而定。而事實上,由于學者關心精英智慧而忽視普通人想法,專家洞見和哲學家智慧不一定正確,而面向人的人工智能應該考慮普通人的感覺,考慮普通人是如何看待人工智慧并進行交互的。從精英智慧轉向人民群眾的實踐智慧才是科技倫理治理之要義。事實上,人工智能以人為本也是學術界和業(yè)界共識。2019年,斯坦福大學便成立以人為本的人工智能研究院(HAI),其院長李飛飛前一年便撰文闡述以人為本的人工智能的基本思想,即讓人工智能更好地反映人類的深層智能;人工智能應幫助人類變得更強,而不是替代人類;以及確保人工智能在發(fā)展過程中對人類的影響得到正確的引導。以人為本便是要考察普通人在現(xiàn)實生活中與科技的交互與認知,而這是典型的社會心理學研究對象。遺憾的是,社會心理學幾乎在科技倫理治理中被遺忘。

還以人工智能為例。智能本身是心理學的獨有研究對象,一度被認為是認知科學的核心。而事實上的認知科學已經(jīng)接近被心理學大量侵蝕的境地,不僅認知科學之父George Miller(2003)斷言在2035年認知科學可能全部會被心理學占領,現(xiàn)今對認知科學雜志上發(fā)表的文章進行統(tǒng)計也可以發(fā)現(xiàn),心理學論文對比哲學、語言學、人類學等占巨大優(yōu)勢,甚至遠遠超過一半比例[2]。事實上,古老的人工智能方法采用的更多是基于人類認知過程的模擬,比如進行決策樹的選擇等。而現(xiàn)今廣泛使用的人工智能方法則是深度學習,這種方法也完全基于心理學的理論。深度學習采用的是基于大數(shù)據(jù)的神經(jīng)網(wǎng)絡模型。它來源于David Hubel和Torsten Wiesel(2004)視覺認知上的特征覺察器理論,表明不同的神經(jīng)元對視覺的不同特征做反應。這就導致了深度學習的分層模式識別過程,即在刺激的輸入層和識別層中加入很多層來識別不同的對象特征,層越多就越深度,且效果就越好。這種模式加上大量數(shù)據(jù)便可以進行訓練,將特定的輸入和輸出關聯(lián)起來。這是現(xiàn)在大部分人工智能生產(chǎn)過程所采取的模式??梢院唵卫斫鉃橐幌盗休斎牒蛯敵鲩g基于大量數(shù)據(jù)訓練出的中間有結構的數(shù)學統(tǒng)計模型,這是以深度學習為基礎的人工智能的本質(zhì)。

這種方式可能造成兩點誤解,其一是人工智能似乎和神經(jīng)科學有關,但這只是因為名義上的混淆,其實它幾乎與大腦神經(jīng)結構以及當前神經(jīng)科學研究并無太多關系。外界和心理學界均普遍認為,認知神經(jīng)科學才做人工智能。而事實上,人工智能倫理考察的是人工智能和人之間的關系規(guī)律,這種社會心理學才是以人為本的人工智能。其二是現(xiàn)存人工智能方法是在人類智能研究上的倒退。細究早期人工智能做法,是將人類認知方式進行一步一步邏輯推理并將其用于人工智能,這種方法更像研究人類智慧的心理學中的認知主義。而深度學習這種只管輸入和輸出,而不管中間黑箱過程的做法,更像心理學中的行為主義。行為主義深信刺激反應的聯(lián)結足以解釋一切人類行為,而心理過程絕非必要,這是一種非常結果導向的實用傾向。而認知主義需要打開刺激和反應之間的黑箱,看看人類心理究竟如何運作,要知其然還要知其所以然。心理學的發(fā)展是從行為主義向認知心理學的發(fā)展,而人工智能的發(fā)展是相反且倒退的,其發(fā)展是從認知主義向行為主義的發(fā)展,現(xiàn)在以解決實際問題為主,而幾乎不去考慮中間的原理。深度學習算法造成的問題是人工智能實際上沒有心理,也就是說,人工智能離人反而越來越遠了。它確實可以在有限制的框架下運用強大的計算能力很好地解決問題,比如圍棋領域。但這是因為圍棋相對封閉,規(guī)則固定。一旦用它和人進行交互,則倫理問題便很快顯現(xiàn)。比如自動駕駛汽車很難進行道德決策,是不是只要前面出現(xiàn)五位行人,汽車都要選擇寧愿撞死車里的一個乘客來保住行人的安全?如果是這樣,那么誰會買這輛汽車呢,這里明顯存在很難解決的社會心理學悖論[3][4][5]。當然自動駕駛汽車還有很多技術不是使用深度學習,還使用了原有的決策模型,但其結果還尚且如此。遠期來說,我們預期在人類解決了最初的實用性問題后,還是會將人工智能的技術轉向借鑒人類認知,打開黑箱來進行處理,這樣的科技才更有人心的意味。

科技倫理治理可以習得腳本、鍛造美德

科技倫理治理的目標如果是科技向善,而道德規(guī)條重要又無法僅依靠自身實現(xiàn)有效應用,社會心理學如何幫助我們有效進行呢?簡單來說,讓科技理解規(guī)條,或至少按照規(guī)條內(nèi)容產(chǎn)生行為甚為重要。人類已有的價值系統(tǒng)對新興科技來說適用嗎?實際上這個問題的答案非常簡單:不適用。因為人類價值觀系統(tǒng)是一種抽象、盡量簡約化的系統(tǒng),而人工智能所輸入的必須是一種可以轉化為變量或者代碼表征的極其具體的行為規(guī)則。這種規(guī)則如果可以,最好表述為“如果…那么…”(if…then…)的形式,這符合認知情感人格系統(tǒng)對于行為發(fā)生的定義[1]。而如果將人類總結的抽象道德規(guī)范系統(tǒng)轉化為具體的規(guī)則,這是一個演繹的過程,而具體需要演繹出多少特異化的規(guī)則,也就是說人工智能學習材料中需要包含究竟何種程度多樣化的場景,這需要社會心理學。通常情況下,人工智能科學家面對這樣的問題會進行一個粗略的估計,如李飛飛等人在ImageNet中對于圖片的人工標注數(shù)量也只是在進行粗略估計后看其識別率變化[6]。圖片容易獲得,而道德情境卻很難編制或者估計其數(shù)量。一個可能的途徑是使用近期心理學對情境的分類模型[7]重新對道德情境進行分類、演繹、編制、提取特征等過程,從而來制作人工智能學習材料。

腳本是一個“如果……那么……”(If…Then…)的規(guī)則,它指導人的行為,并告訴一個人如果你處于某種情境下,那么你就要做某種行為,這也就是自上而下的算法運算所遵循的規(guī)則。先前自下而上的深度學習方式在解決科技倫理問題時均是規(guī)范倫理學式的,而如果一旦運用腳本方式自上而下地進行人工智能倫理學習,則可以采用美德倫理學方案[1]。因為美德即道德人格,人格表現(xiàn)在對情境的反應上,而如果這些聯(lián)接是穩(wěn)定的,我們就可以把它看作特質(zhì),特質(zhì)就是這樣一定的規(guī)則。但是并不是每一個聯(lián)接或者每一個規(guī)則都是特質(zhì),特質(zhì)應該表現(xiàn)為一套相近的聯(lián)接的集合。比如:如果在電梯里有一個陌生人,那么我就與他攀談;以及如果我在和人談話,那么我不會主動停下來。這是兩個腳本,但是這兩個腳本以及其他類似腳本合起來會構成一個特質(zhì),那便是外向性人格。所以賦予人工智能以美德,實際上便是讓人工智能習得一套道德行為腳本,這種腳本可能是創(chuàng)造者自上而下直接賦予它的,也可能是給它正確的輸入輸出、由它自下而上自行習得的,前者對應于傳統(tǒng)基于認知主義的人工智能模型,而后者對應于基于行為主義的人工智能模型。由于人工智能無法學習遷移,這種道德行為腳本的獲得必須具體到某種情境,而非泛化的原則;如何制作出如此細致的腳本,便需要基于理論的哲學、倫理學以及基于普通人信念和知覺的心理學共同協(xié)作。

先考慮后者,即基于行為主義的人工智能自下而上的學習模型。這在現(xiàn)實生活中是否可行?實際上是困難的,現(xiàn)實例證便是大多數(shù)聊天機器人都以被人類教壞學習到歧視、惡語后慘淡結束,那么如何避免其習得人類并不喜歡的道德規(guī)則呢?似乎至少有三種途徑可以選擇[8]:一種是,這些道德人工智能已經(jīng)在誕生之初便學習得特別順暢,已然具有了明辨是非的能力,它知道選擇何事可為、何事不可為;一種是,限制其今后進行訓練迭代的材料,制定一套專門挑選日后迭代訓練材料的規(guī)則,讓其主動選擇合適的向善的迭代學習材料、主動放棄可能會習得作惡的迭代學習材料;再有一種是,訓練一種可能的自我控制能力,來約束人工智能自身,而這時人工智能已然具有人性了。這三種方式均不太可能在現(xiàn)在發(fā)生,而真實可以發(fā)生之事還是需要以行為腳本形式自上而下地呈現(xiàn)。

因此,人工智能倫理問題的解決最終一定需要包容社會心理學方式。對于人工智能來說,不要列出具體的倫理規(guī)條,應該用美德倫理學方法做出負責任、道德的人工智能體,應該設置大量具體情境,把它設置成倫理腳本。我們不能只設計一條所謂透明度的原則,還要明確規(guī)定每個數(shù)據(jù)來源必須登記和審查等。只有把它設計成規(guī)則,即如果怎么樣、那么怎么樣,自上而下地列出規(guī)則,讓人工智能知道它如何做才有用。這和現(xiàn)在的底層往上的數(shù)據(jù)驅動的、深度學習的方法是相反的。心理學的情境研究實際上已經(jīng)把情境做了分類。應該進行社會心理學研究把人工智能會面臨的情境識別出來,對每個情境寫出道德行為腳本,自上而下地解決科技倫理治理問題。

【本文作者為武漢大學哲學學院教授;本文系國家社科基金項目“擬人化人工智能的道德責任歸因研究”(項目編號:20CZX059)階段性成果】

注釋

[1]喻豐、彭凱平、董蕊、柴方圓、韓婷婷:《道德人格研究:范式與分歧》,《心理科學進展》,2013年第12期,第2235—2244頁。

[2]Núnez,R.,Allen,M.,Gao,R.,Rigoli,C. M.,Relaford-Doyle,J.,& Semenuks,A. What happened to cognitive science?. Nature Human Behaviour,2019,3(8),728-791.

[3]Awad,E.,et al.,The Moral Machine experiment. Nature,2018,563(7729),59-64.

[4]Awad,E.,et al.,Drivers are blamed more than their automated cars when both make mistakes. Nature Human Behaviour,2020,4(2),134-143.

[5]Rahwan,I.,Cebrian,M.,Obradovich,N.,Bongard,J.,Bonnefon,J. F.,Breazeal,C.,... & Jennings,N. R. Machine behaviour. Nature,2019,568(7753),477-486.

[6]Deng,J.,Dong,W.,Socher,R.,Li,L. J.,Li,K.,& Li,F(xiàn). Imagenet: A large-scale hierarchical image database. In Computer Vision and Pattern Recognition,2009 IEEE Conference,248-255.

[7]Rauthmann,et al., The situational eight DIAMONDS: A taxonomy of major dimensions of situation characteristics. Journal of Personality and Social Psychology,2014,Vol. 107,677-718.

[8]喻豐、許麗穎:《如何做出道德的人工智能體?——心理學的視角》,《全球傳媒學刊》,2018年第4期,第24—42頁。

責編: 李 懿/美編:石 玉

The Psychosocial Aspect of Governance over Ethics in Science and Technology: A Focus on Artificial Intelligence

Yu Feng

Abstract: The simplest and most direct way for governance over ethics in science and technology is to make rules. However, the existing rules and regulations made by the central government and organizations are not yet universally applicable. Meanwhile, the lack of effective constraints to achieve "unity of knowledge and action" is a prominent problem of "rule-based" governance. To further enrich the governance over ethics in science and technology in the future, we should first recognize that the ethics of artificial intelligence examines the relationship between artificial intelligence and human beings, and that human-oriented artificial intelligence should consider how ordinary people view and interact with artificial intelligence. In addition, translating abstract moral norms of humans into concrete rules, i.e., helping technology "acquire human virtues," is another aspect of governance over ethics in science and technology.

Keywords: governance over ethics in science and technology; technology for social good; artificial intelligence; science and technology ethics

聲明:本文為《國家治理》周刊原創(chuàng)內(nèi)容,任何單位或個人轉載請回復國家治理周刊微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。

責任編輯:羅婷