網(wǎng)站首頁 | 網(wǎng)站地圖

人民論壇網(wǎng)·國家治理網(wǎng)> 人民智庫> 正文

“火爆”的ChatGPT尚沒有“自主心智”

——訪人工智能專家、歐洲科學(xué)院院士金耀初教授

【科技創(chuàng)新世界潮】

◎本報(bào)駐德國記者 李 山

近日,圍繞熱門科技話題ChatGPT,科技日報(bào)記者專訪了歐洲科學(xué)院院士、德國比勒菲爾德大學(xué)洪堡人工智能教席教授金耀初。金教授同時(shí)兼任英國薩里大學(xué)計(jì)算系“計(jì)算智能”講席教授 、IEEE計(jì)算智能學(xué)會(huì)候任理事長,曾任《IEEE認(rèn)知與發(fā)育系統(tǒng)匯刊》主編等職。

生成式模型的重大進(jìn)展

談到ChatGPT最核心的東西,金耀初表示,ChatGPT所代表的技術(shù)是第三波人工智能技術(shù)取得的一個(gè)重大進(jìn)展。它基于生成式預(yù)訓(xùn)練Transformer模型,采用了“自注意力機(jī)制”。與傳統(tǒng)的判別式模型相比,生成式模型的最大特點(diǎn)是直接學(xué)習(xí)訓(xùn)練數(shù)據(jù)本身的特點(diǎn),因而能更有效地學(xué)習(xí)大容量的樣本,特別是海量的語言、視覺信息。

傳統(tǒng)的語言處理模型一般只能根據(jù)字詞的前后相鄰詞語來找它們之間的關(guān)系,因此有很大的局限性。Transformer引入了自注意力機(jī)制后,它就能很靈活地找出不單是某一個(gè)句子,而是不同句子,甚至是整篇文章或不同的文章之間詞的相互關(guān)系,學(xué)習(xí)能力就增強(qiáng)了很多。

橫空出世非一日之功

對于ChatGPT的橫空出世,金耀初強(qiáng)調(diào)這僅僅是大眾的感受。從科研的角度看,ChatGPT也是一步一步演進(jìn)而來的。根據(jù)OpenAI發(fā)表的論文,ChatGPT是花了很長時(shí)間,用了各種學(xué)習(xí)方法不斷訓(xùn)練和微調(diào)出來的。生成式模型給出的答案并不是人們事先給它的訓(xùn)練數(shù)據(jù),而是模型生成出來的,所以很難保證百分之百正確。ChatGPT在訓(xùn)練過程中用到非常多的最新的學(xué)習(xí)技術(shù)。例如,無監(jiān)督學(xué)習(xí)、有監(jiān)督學(xué)習(xí)、多任務(wù)學(xué)習(xí)、小樣本學(xué)習(xí)、自監(jiān)督學(xué)習(xí)等。

此外,它還加入了基于人類反饋的強(qiáng)化學(xué)習(xí),以獲得與人類對齊、共情能力。通過人類評價(jià),即給它生成的答案打分來選擇一個(gè)最佳的答案。這個(gè)過程實(shí)際上是一個(gè)強(qiáng)化學(xué)習(xí)過程,也就是對原來的模型進(jìn)行微調(diào)。其他AI模型可能沒有像ChatGPT這樣,用大量的人類反饋來使得模型能產(chǎn)生更加符合人類期待的回答,相應(yīng)的體驗(yàn)就會(huì)有差距。

尚不具備自主的“心智”

金耀初談到,作為一個(gè)從文本到文本的對話系統(tǒng),ChatGPT最強(qiáng)的地方是對自然語言的充分學(xué)習(xí),生成的文本更加“流暢”并符合人類體驗(yàn),這是一個(gè)重大的技術(shù)創(chuàng)新。但值得注意的是,生成式機(jī)器學(xué)習(xí)模型有很多,比如從文本到語音信息,或者文本到圖像信息,這些方面ChatGPT的表現(xiàn)可能就沒那么好了。這是它的一個(gè)局限性。

另一方面,目前ChatGPT訓(xùn)練的數(shù)據(jù)截至2021年,沒有訓(xùn)練過的東西,它是不可能準(zhǔn)確回答出來的。換句話說,目前的模型不具備創(chuàng)造新知識的能力。ChatGPT回答問題時(shí)用的是推理。它不是那種在數(shù)據(jù)庫中搜索答案的概念。生成式模型是根據(jù)問題本身聯(lián)想出一個(gè)答案。這個(gè)答案是模型“學(xué)習(xí)消化”后產(chǎn)生出來的東西,不是原始的數(shù)據(jù)。嚴(yán)格意義上來說,模型本身甚至不知道這個(gè)答案的真正含義,它也不能保證答案肯定是對的。

ChatGPT不是“萬能”的

金耀初認(rèn)為,ChatGPT離真正的專業(yè)應(yīng)用還有一定的距離?,F(xiàn)在大家感覺很新奇,都在嘗試玩一玩。有的人甚至以為ChatGPT什么都能干,可以很快用在自動(dòng)駕駛之類的很多應(yīng)用上,這其實(shí)是誤解。自動(dòng)駕駛的重點(diǎn)不是文本到文本的問題,純粹的生成式模型是不夠的。它需要其他判別式的機(jī)器學(xué)習(xí)模型,特別是實(shí)時(shí)場景的識別。

以現(xiàn)在熱議的醫(yī)療服務(wù)為例,盡管ChatGPT在美國執(zhí)業(yè)醫(yī)師資格考試中取得不錯(cuò)的成績,但真實(shí)情況下人們會(huì)用ChatGPT來代替醫(yī)師進(jìn)行診療嗎?至少目前還不行,因?yàn)闊o法保證它的答案百分之百是正確的。有人說ChatGPT有時(shí)會(huì)一本正經(jīng)地胡說八道,這樣的描述是比較中肯的,人們不能忽視這種風(fēng)險(xiǎn)。

期待未來更多突破

金耀初表示,這一波人工智能可能不會(huì)像第一波和第二波人工智能浪潮那樣很快偃旗息鼓。它會(huì)繼續(xù)發(fā)展下去,未來三五年,人工智能領(lǐng)域可能還會(huì)涌現(xiàn)一些令人吃驚的突破。很多基于ChatGPT的新的想法或技術(shù)或會(huì)涌現(xiàn),并在此基礎(chǔ)上找到真正好的細(xì)分領(lǐng)域的應(yīng)用。

至于人工智能和機(jī)器人的結(jié)合,金耀初強(qiáng)調(diào),從某種意義上來說,這一直是人工智能研究的重點(diǎn)之一?,F(xiàn)在ChatGPT與人對話這么流暢,如果把它與數(shù)字虛擬人技術(shù)結(jié)合起來,一般人可能很難分辨出計(jì)算機(jī)屏幕里回答問題的是真人還是一個(gè)數(shù)字人。當(dāng)然,未來的發(fā)展過程中會(huì)涉及很多人工智能的本質(zhì)問題,包括信任、責(zé)任、倫理、法律問題等。樂觀地看,ChatGPT等人工智能應(yīng)用的影響力急劇擴(kuò)大,反過來會(huì)在一定程度上推動(dòng)上述問題的解決。

責(zé)任編輯:張宏莉
標(biāo)簽: 人工智能