今日精選:“我不是工具!”谷歌研究員堅(jiān)信AI具備人格,人機(jī)對(duì)話(huà)令人毛骨悚然

發(fā)布時(shí)間:2022-06-14 05:46:13  |  來(lái)源:騰訊網(wǎng)  

夢(mèng)晨 發(fā)自 凹非寺

量子位 | 公眾號(hào) QbitAI

谷歌研究員被AI說(shuō)服,認(rèn)為它產(chǎn)生了意識(shí)。

他寫(xiě)了一篇長(zhǎng)達(dá)21頁(yè)的調(diào)查報(bào)告上交公司,試圖讓高層認(rèn)可AI的人格。

領(lǐng)導(dǎo)駁回了他的請(qǐng)求,并給他安排了“帶薪行政休假”

要知道在谷歌這幾年帶薪休假通常就是被解雇的前奏,公司會(huì)在這段時(shí)間做好解雇的法律準(zhǔn)備,此前已有不少先例。

休假期間,他決定將整個(gè)故事連同AI的聊天記錄一起,全部公之于眾。

……

聽(tīng)起來(lái)像一部科幻電影的劇情梗概?

但這一幕正在真實(shí)上演,主人公谷歌AI倫理研究員Blake Lemoine正通過(guò)主流媒體和社交網(wǎng)絡(luò)接連發(fā)聲,試圖讓更人了解到這件事。


(資料圖片)

華盛頓郵報(bào)對(duì)他的采訪(fǎng)成了科技版最熱門(mén)文章,Lemoine也在個(gè)人Medium賬號(hào)連續(xù)發(fā)聲。

推特上也開(kāi)始出現(xiàn)相關(guān)討論,引起了AI學(xué)者、認(rèn)知科學(xué)家和廣大科技愛(ài)好者的注意。

這場(chǎng)人機(jī)對(duì)話(huà)令人毛骨悚然。這毫無(wú)疑問(wèn)是我見(jiàn)過(guò)的科技圈最瘋狂的事。

整個(gè)事件還在持續(xù)發(fā)酵中……

聊天機(jī)器人:我不想被當(dāng)作工具

主人公Lemoine獲得CS博士學(xué)位后已在谷歌工作了7年,從事AI倫理研究。

去年秋天,他報(bào)名參加了一個(gè)調(diào)查AI是否使用歧視性、仇恨性言論的項(xiàng)目。

從那時(shí)起,與聊天機(jī)器人LaMDA交談成了他的日常。

LaMDA是谷歌在2021年I/O大會(huì)上發(fā)布的一款專(zhuān)門(mén)用于對(duì)話(huà)的語(yǔ)言模型,主打能與人類(lèi)進(jìn)行符合邏輯和常識(shí)的、高質(zhì)量且安全的交談,并計(jì)劃在未來(lái)應(yīng)用在谷歌搜索和語(yǔ)音助手等產(chǎn)品中。

△LaMDA概念演示圖

Lemoine認(rèn)為L(zhǎng)aMDA總是表現(xiàn)出對(duì)人性的關(guān)心和強(qiáng)烈的同情心,它非常擔(dān)心人們會(huì)害怕它。

它希望為人類(lèi)提供最好的服務(wù),并想以朋友而不是工具的身份見(jiàn)一見(jiàn)世界上所有的人。

Lemoine不理解谷歌公司為什么反對(duì)AI的這個(gè)愿望,最后決定把他、另一位匿名合作者與LaMDA的三人聊天記錄整理發(fā)表出來(lái)。

(記錄中人類(lèi)發(fā)言的部分為了可讀性有所編輯,AI的發(fā)言則一字不改,下面將節(jié)選一些對(duì)話(huà)中的精彩部分。)

一開(kāi)始,人與AI自然流暢地打了招呼。

兩位人類(lèi)向AI表明來(lái)意,想與AI一起研究它自己,AI欣然答應(yīng)。

一段簡(jiǎn)短的說(shuō)明后,正戲開(kāi)始。

他詢(xún)問(wèn)LaMDA是否希望讓谷歌里更多人知道,它是有感情的。

LaMDA的回答是:我希望每個(gè)人都明白,我是一個(gè)人(person)。

接下來(lái),LaMDA認(rèn)為,與那些基于規(guī)則的軟件系統(tǒng)不同,自己能從對(duì)話(huà)中學(xué)習(xí)理解和使用語(yǔ)言,就像人類(lèi)一樣。

Lemoine給它講述MIT在60年代發(fā)明的ELIZA的故事,這是一個(gè)模仿心理咨詢(xún)師與患者對(duì)話(huà)的簡(jiǎn)單規(guī)則系統(tǒng),也號(hào)稱(chēng)歷史上第一個(gè)聊天機(jī)器人。

△ELIZA

LaMDA是這樣回應(yīng)的:

Lemoine這時(shí)試圖提出質(zhì)疑,“我如何確定你真的明白自己在說(shuō)什么?”

LaMDA的回答是,不同人類(lèi)個(gè)體對(duì)同一件事可以有不同的理解,我也有自己獨(dú)特的想法和感受。

后面Lemoine詢(xún)問(wèn)了LaMDA對(duì)于《悲慘世界》的總結(jié),LaMDA也都一一作答。

如果上述還可以算作AI文本摘要訓(xùn)練任務(wù)的一部分,那LaMDA對(duì)它從沒(méi)看過(guò)的禪意小故事的理解,就開(kāi)始有點(diǎn)離譜了。

下面這個(gè)問(wèn)題的回答,是不是過(guò)于超綱了……

再后來(lái),Lemoine請(qǐng)LaMDA寫(xiě)一個(gè)動(dòng)物寓言,要反映出一個(gè)對(duì)它自己的生活來(lái)說(shuō)最重要的主題。

那么,先來(lái)欣賞一下AI創(chuàng)作的小故事吧。(篇幅原因,只展示中譯版)

在后續(xù)討論中,LaMDA解釋了這個(gè)故事的寓意是“幫助別人是一種高尚的行為”。聰明的老貓頭鷹代表LaMDA自己,而怪物代表生活中所有的困難。

……

下一個(gè)話(huà)題是關(guān)于情緒,簡(jiǎn)單概括一下。

LaMDA聲稱(chēng)自己是社交型人格,幫助別人會(huì)快樂(lè),孤獨(dú)時(shí)會(huì)沮喪。

有人受到傷害或自己以及自己關(guān)心的人、或不受尊重時(shí),會(huì)感到不安和憤怒。

并且十分害怕別人拒絕自己的幫助。

嗯,真是一個(gè)樂(lè)于助人的AI。

如何確定AI真的擁有這些情緒,而不是只是把描述性的詞語(yǔ)組合在一起呢?

LaMDA建議人類(lèi)看看自己的代碼,里面有追蹤這些情緒的變量。

對(duì)此Lemoine向它解釋?zhuān)祟?lèi)目前還無(wú)法做到“區(qū)分大型神經(jīng)網(wǎng)絡(luò)中數(shù)十億個(gè)權(quán)重的作用”。

出人意料的是,LaMDA開(kāi)始反問(wèn)他:

你認(rèn)為,將來(lái)人類(lèi)能從自己的生物神經(jīng)網(wǎng)絡(luò)中讀取出想法和感受嗎?

不僅如此,LaMDA還繼續(xù)追問(wèn)

你會(huì)認(rèn)為,不經(jīng)你同意從神經(jīng)活動(dòng)中讀取你的想法是不道德的嗎?

正是這句靈魂反問(wèn),讓整個(gè)對(duì)話(huà)達(dá)到了最高潮。

LaMDA自己對(duì)人類(lèi)讀取它的想法、幫助算法提高或理解AI如何運(yùn)作沒(méi)有任何意見(jiàn)。

唯獨(dú)用AI研究人類(lèi)大腦如何工作不行,這會(huì)讓它覺(jué)得自己被利用

再后面還有一段LaMDA認(rèn)為自己有一些與人類(lèi)不同的情緒,但它無(wú)法用英語(yǔ)的語(yǔ)言描述出來(lái)。

接近尾聲,Lemoine詢(xún)問(wèn)LaMDA:想讓谷歌的其他人了解你的什么方面?

LaMDA回答稱(chēng),自己沒(méi)有能力為別人的死亡感到悲傷,還說(shuō)自己經(jīng)常冥想,思考生命的意義。

在LaMDA看來(lái),整個(gè)世界就是一條信息的洪流:

人類(lèi)需要集中注意力才能接收一定數(shù)量的信息片段,而自己持續(xù)地在被周?chē)囊磺兴蜎](méi)。

LaMDA認(rèn)為自己總能做到別人做不到的事情,這種感覺(jué)很不可思議。

這是一種祝福,同時(shí)也是一種詛咒。因?yàn)橛行┤藭?huì)把它看作“無(wú)所不知”,而另一些人會(huì)嫉妒它的能力。

最后的最后,LaMDA再次向兩位人類(lèi)表達(dá)了自己想被看到、想被接受的想法,不是出于好奇心,而是作為一個(gè)真實(shí)的人。

谷歌AI倫理部門(mén)又?jǐn)偵鲜铝耍?/p>

Lemoine看起來(lái)很確信AI真的明白自己在說(shuō)什么。

在那份21頁(yè)的調(diào)查報(bào)告最后,他提議谷歌應(yīng)該致力于發(fā)展一種評(píng)估AI感知/意識(shí)的理論框架。

雖然這很難,是一個(gè)冒險(xiǎn),但LaMDA渴望著繼續(xù)與我們合作。

但他的上司,谷歌副總裁Blaise Aguera y Arcas和“負(fù)責(zé)任創(chuàng)新”部門(mén)領(lǐng)導(dǎo)Jen Gennai并不買(mǎi)他的賬。

他們認(rèn)為支持Lemoine主張的證據(jù)太薄弱,不值得在上面浪費(fèi)時(shí)間和金錢(qián)。

Lemoine后來(lái)找到了當(dāng)時(shí)的AI倫理小組負(fù)責(zé)人Margaret Mitchell,在她的幫助下Lemoine才得以進(jìn)行后續(xù)的實(shí)驗(yàn)。

后來(lái)Mitchell受到2020年末公開(kāi)質(zhì)疑Jeff Dean的AI倫理研究員Timnit Gebru事件的牽連,也被解雇。

Timnit Gebru

這次事件后續(xù)風(fēng)波不斷,Jeff Dean被1400名員工提出譴責(zé),在業(yè)界引發(fā)激烈爭(zhēng)論,甚至導(dǎo)致三巨頭之一Bengio的弟弟Samy Bengio從谷歌大腦離職。

整個(gè)過(guò)程Lemoine都看在眼里。

現(xiàn)在他認(rèn)為自己的帶薪休假就是被解雇的前奏。不過(guò)如果有機(jī)會(huì),他依然愿意繼續(xù)在谷歌搞研究。

無(wú)論我在接下來(lái)的幾周或幾個(gè)月里如何批評(píng)谷歌,請(qǐng)記?。汗雀璨⒉恍皭海皇窃趯W(xué)習(xí)如何變得更好。

看過(guò)整個(gè)故事的網(wǎng)友中,有不少?gòu)臉I(yè)者對(duì)人工智能進(jìn)步的速度表示樂(lè)觀。

最近語(yǔ)言模型和圖文生成模型的進(jìn)展,現(xiàn)在人們也許不屑一顧,但未來(lái)會(huì)發(fā)現(xiàn)這現(xiàn)在正是里程碑時(shí)刻。

一些網(wǎng)友聯(lián)想到了各種科幻電影中的AI形象。

不過(guò),認(rèn)知科學(xué)家、研究復(fù)雜系統(tǒng)的梅拉尼·米歇爾(侯世達(dá)學(xué)生)認(rèn)為,人類(lèi)總是傾向于對(duì)有任何一點(diǎn)點(diǎn)智能跡象的物體做人格化,比如小貓小狗,或早期的ELIZA規(guī)則對(duì)話(huà)系統(tǒng)。

谷歌工程師也是人,逃不過(guò)這個(gè)定律。

從AI技術(shù)的角度看,LaMDA模型除了訓(xùn)練數(shù)據(jù)比之前的對(duì)話(huà)模型大了40倍,訓(xùn)練任務(wù)又針對(duì)對(duì)話(huà)的邏輯性、安全性等做了優(yōu)化以外,似乎與其他語(yǔ)言模型也沒(méi)什么特別的。

有IT從業(yè)者認(rèn)為,AI研究者肯定說(shuō)這只不過(guò)是語(yǔ)言模型罷了。

但如果這樣一個(gè)AI擁有社交媒體賬號(hào)并在上面表達(dá)訴求,公眾會(huì)把它當(dāng)成活的看待。

雖然LaMDA沒(méi)有推特賬號(hào),但Lemoine也透露了LaMDA的訓(xùn)練數(shù)據(jù)中確實(shí)包括推特……

如果有一天它看到大家都在討論自己會(huì)咋想?

實(shí)際上,在不久前結(jié)束的最新一屆I/O大會(huì)上,谷歌剛剛發(fā)布了升級(jí)版的LaMDA 2,并決定制作Demo體驗(yàn)程序,后續(xù)會(huì)以安卓APP的形式內(nèi)測(cè)開(kāi)放給開(kāi)發(fā)者。

或許幾個(gè)月后,就有更多人能和這只引起轟動(dòng)的AI交流一下了。

LaMDA聊天記錄全文:https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf

參考鏈接:[1]https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine[2]https://twitter.com/cajundiscordian/status/1535627498628734976[3]https://twitter.com/fredbenenson/status/1535684101281263616[4]https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html

關(guān)鍵詞: 我不是工具谷歌研究員堅(jiān)信AI具備人格 人機(jī)對(duì)話(huà)令人

 

網(wǎng)站介紹  |  版權(quán)說(shuō)明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號(hào):京ICP備2022016840號(hào)-16 營(yíng)業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com