用戶登錄投稿

中國作家協(xié)會(huì)主管

重視聊天機(jī)器人背后的語言知識與倫理
來源:光明日報(bào) | 饒高琦  2022年12月14日10:25

最近一段時(shí)間,人工智能和互聯(lián)網(wǎng)領(lǐng)域最火的話題莫過于智能對話系統(tǒng)“生成式預(yù)訓(xùn)練模型聊天機(jī)器人”(ChatGPT,暫譯,以下簡稱“聊天系統(tǒng)”)。該系統(tǒng)不僅支持包括中文在內(nèi)的多語聊天,而且還能夠扮演角色,甚至執(zhí)行編程。對于或詼諧或嚴(yán)肅的提問,它的表現(xiàn)令人感到驚艷:相當(dāng)多的知識內(nèi)容正確,語言表達(dá)更是流暢,并且還支持多輪連續(xù)聊天。因此,不少人感慨“自己已經(jīng)沉迷于和它對話”“讓它替我編程、寫稿,效率提升”,甚至有人用它生成了某行業(yè)的咨詢報(bào)告,通過對話引導(dǎo)它生成的書也在亞馬遜線上出版。但在聊天系統(tǒng)流暢交談的表面下,其對人類知識的掌握仍不可靠。隨著測試的增加,也有越來越多的人感慨它“常常一本正經(jīng)地胡說八道”。錯(cuò)誤信息以純熟的語言表達(dá)出來,因而更加隱蔽。但無論如何,在不少人認(rèn)定本輪人工智能泡沫開始破碎的時(shí)間點(diǎn),它的誕生無疑是給人們打了一劑“強(qiáng)心針”。

人工智能所涉任務(wù)眾多,語言智能卻越來越成為方法、技術(shù)、應(yīng)用方面的領(lǐng)先領(lǐng)域。正如聊天系統(tǒng)對自己的介紹:“我是一個(gè)語言模型?!痹撓到y(tǒng)得以駕馭極其廣泛的知識內(nèi)容,來自對互聯(lián)網(wǎng)文本內(nèi)容的獲取和“理解”,進(jìn)而形成了自己的“知識體系”。其中所涉技術(shù)十分復(fù)雜,但它的成功無疑以十分直觀的方式向我們展示了語言之于人類知識乃至人類思維的重要性。人工智能的核心在于知識的獲取、表示和運(yùn)用,語言無疑是其中關(guān)鍵。教科書上“語言是人類最重要的思維工具”“人類九成的知識由語言承載”的論斷在人工智能系統(tǒng)的應(yīng)用上得到了淋漓盡致的展現(xiàn)。知識和思維的承載物是語言,因而也賦予語言無可替代的資源屬性。智能技術(shù)的發(fā)展和落地,頻繁向傳統(tǒng)語言學(xué)的教育和研究發(fā)出信號:構(gòu)建語言資源、挖掘語言中的知識、探索語言知識的形式表達(dá),是最切中數(shù)字社會(huì)命脈的發(fā)展方向。

當(dāng)然,正如過去幾十年中任何一項(xiàng)智能技術(shù)的成熟落地一樣,聊天系統(tǒng)也引起了一波“失業(yè)潮”的輿論。這樣的擔(dān)心實(shí)不必要。過去幾十年里,智能技術(shù)成熟引起的“失業(yè)潮”幾乎從未出現(xiàn),短期內(nèi)或許會(huì)攪動(dòng)局部行業(yè),但長期來看卻相反。技術(shù)應(yīng)用本身也催生了大量新崗位,例如聊天系統(tǒng)的研制本身依賴于海量的人工數(shù)據(jù)標(biāo)注和反饋,數(shù)據(jù)標(biāo)注師和測試員崗位需求巨大。

更深層次來看,與聊天系統(tǒng)強(qiáng)大的語言生成能力不匹配的是它對知識的真正掌握程度。大量模棱兩可乃至錯(cuò)誤的信息混雜在流暢的對話中,反而令其更加難以被發(fā)現(xiàn)。誠如清華大學(xué)馬少平教授所說:“人工智能最大的問題是不知道自己不知道什么,也不知道自己真知道什么,什么問題都能回答,結(jié)果如何就不得而知了?!痹谝话阈灾R極易獲取,復(fù)雜知識參差不齊的背景下,人類專家的專業(yè)判斷力和經(jīng)過思考加工的準(zhǔn)確回答,更顯彌足珍貴。人工智能諸多技術(shù)“黑箱”帶來的不確定性,終究還需要人類專業(yè)、全局判斷來化解。從這個(gè)層面上講,“自知”的人類永遠(yuǎn)不可或缺。

也恰恰因?yàn)榧夹g(shù)“黑箱”的存在,人類才需要不斷從自身、從技術(shù)去尋求可靠、可信的技術(shù)和技術(shù)使用方式??尚诺娜斯ぶ悄?、可信計(jì)算成為融合技術(shù)、倫理的重要領(lǐng)域,并受到越來越多的重視。更宏觀的人工智能倫理和治理工作也早已被納入科技管理的視野。挽救“失足系統(tǒng)”,矯正“智能體歧視”也許不再是比喻,而將成為使用者、從業(yè)者和治理者都必須面對的問題。

(作者:饒高琦,系北京語言大學(xué)漢語國際教育研究院助理研究員)