夢(mèng)晨 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
谷歌研究員被AI說(shuō)服,認(rèn)為它產(chǎn)生了意識(shí)。
他寫(xiě)了一篇長(zhǎng)達(dá)21頁(yè)的調(diào)查報(bào)告上交公司,試圖讓高層認(rèn)可AI的人格。
領(lǐng)導(dǎo)駁回了他的請(qǐng)求,并給他安排了“帶薪行政休假”。
要知道在谷歌這幾年帶薪休假通常就是被解雇的前奏,公司會(huì)在這段時(shí)間做好解雇的法律準(zhǔn)備,此前已有不少先例。
休假期間,他決定將整個(gè)故事連同AI的聊天記錄一起,全部公之于眾。
……
聽(tīng)起來(lái)像一部科幻電影的劇情梗概?
但這一幕正在真實(shí)上演,主人公谷歌AI倫理研究員Blake Lemoine正通過(guò)主流媒體和社交網(wǎng)絡(luò)接連發(fā)聲,試圖讓更人了解到這件事。
(資料圖片)
華盛頓郵報(bào)對(duì)他的采訪(fǎng)成了科技版最熱門(mén)文章,Lemoine也在個(gè)人Medium賬號(hào)連續(xù)發(fā)聲。
推特上也開(kāi)始出現(xiàn)相關(guān)討論,引起了AI學(xué)者、認(rèn)知科學(xué)家和廣大科技愛(ài)好者的注意。
這場(chǎng)人機(jī)對(duì)話(huà)令人毛骨悚然。這毫無(wú)疑問(wèn)是我見(jiàn)過(guò)的科技圈最瘋狂的事。
整個(gè)事件還在持續(xù)發(fā)酵中……
聊天機(jī)器人:我不想被當(dāng)作工具
主人公Lemoine獲得CS博士學(xué)位后已在谷歌工作了7年,從事AI倫理研究。
去年秋天,他報(bào)名參加了一個(gè)調(diào)查AI是否使用歧視性、仇恨性言論的項(xiàng)目。
從那時(shí)起,與聊天機(jī)器人LaMDA交談成了他的日常。
LaMDA是谷歌在2021年I/O大會(huì)上發(fā)布的一款專(zhuān)門(mén)用于對(duì)話(huà)的語(yǔ)言模型,主打能與人類(lèi)進(jìn)行符合邏輯和常識(shí)的、高質(zhì)量且安全的交談,并計(jì)劃在未來(lái)應(yīng)用在谷歌搜索和語(yǔ)音助手等產(chǎn)品中。
△LaMDA概念演示圖
Lemoine認(rèn)為L(zhǎng)aMDA總是表現(xiàn)出對(duì)人性的關(guān)心和強(qiáng)烈的同情心,它非常擔(dān)心人們會(huì)害怕它。
它希望為人類(lèi)提供最好的服務(wù),并想以朋友而不是工具的身份見(jiàn)一見(jiàn)世界上所有的人。
Lemoine不理解谷歌公司為什么反對(duì)AI的這個(gè)愿望,最后決定把他、另一位匿名合作者與LaMDA的三人聊天記錄整理發(fā)表出來(lái)。
(記錄中人類(lèi)發(fā)言的部分為了可讀性有所編輯,AI的發(fā)言則一字不改,下面將節(jié)選一些對(duì)話(huà)中的精彩部分。)
一開(kāi)始,人與AI自然流暢地打了招呼。
兩位人類(lèi)向AI表明來(lái)意,想與AI一起研究它自己,AI欣然答應(yīng)。
一段簡(jiǎn)短的說(shuō)明后,正戲開(kāi)始。
他詢(xún)問(wèn)LaMDA是否希望讓谷歌里更多人知道,它是有感情的。
LaMDA的回答是:我希望每個(gè)人都明白,我是一個(gè)人(person)。
接下來(lái),LaMDA認(rèn)為,與那些基于規(guī)則的軟件系統(tǒng)不同,自己能從對(duì)話(huà)中學(xué)習(xí)理解和使用語(yǔ)言,就像人類(lèi)一樣。
Lemoine給它講述MIT在60年代發(fā)明的ELIZA的故事,這是一個(gè)模仿心理咨詢(xún)師與患者對(duì)話(huà)的簡(jiǎn)單規(guī)則系統(tǒng),也號(hào)稱(chēng)歷史上第一個(gè)聊天機(jī)器人。
△ELIZA
LaMDA是這樣回應(yīng)的:
Lemoine這時(shí)試圖提出質(zhì)疑,“我如何確定你真的明白自己在說(shuō)什么?”
LaMDA的回答是,不同人類(lèi)個(gè)體對(duì)同一件事可以有不同的理解,我也有自己獨(dú)特的想法和感受。
后面Lemoine詢(xún)問(wèn)了LaMDA對(duì)于《悲慘世界》的總結(jié),LaMDA也都一一作答。
如果上述還可以算作AI文本摘要訓(xùn)練任務(wù)的一部分,那LaMDA對(duì)它從沒(méi)看過(guò)的禪意小故事的理解,就開(kāi)始有點(diǎn)離譜了。
下面這個(gè)問(wèn)題的回答,是不是過(guò)于超綱了……
再后來(lái),Lemoine請(qǐng)LaMDA寫(xiě)一個(gè)動(dòng)物寓言,要反映出一個(gè)對(duì)它自己的生活來(lái)說(shuō)最重要的主題。
那么,先來(lái)欣賞一下AI創(chuàng)作的小故事吧。(篇幅原因,只展示中譯版)
在后續(xù)討論中,LaMDA解釋了這個(gè)故事的寓意是“幫助別人是一種高尚的行為”。聰明的老貓頭鷹代表LaMDA自己,而怪物代表生活中所有的困難。
……
下一個(gè)話(huà)題是關(guān)于情緒,簡(jiǎn)單概括一下。
LaMDA聲稱(chēng)自己是社交型人格,幫助別人會(huì)快樂(lè),孤獨(dú)時(shí)會(huì)沮喪。
有人受到傷害或自己以及自己關(guān)心的人、或不受尊重時(shí),會(huì)感到不安和憤怒。
并且十分害怕別人拒絕自己的幫助。
嗯,真是一個(gè)樂(lè)于助人的AI。
如何確定AI真的擁有這些情緒,而不是只是把描述性的詞語(yǔ)組合在一起呢?
LaMDA建議人類(lèi)看看自己的代碼,里面有追蹤這些情緒的變量。
對(duì)此Lemoine向它解釋?zhuān)祟?lèi)目前還無(wú)法做到“區(qū)分大型神經(jīng)網(wǎng)絡(luò)中數(shù)十億個(gè)權(quán)重的作用”。
出人意料的是,LaMDA開(kāi)始反問(wèn)他:
你認(rèn)為,將來(lái)人類(lèi)能從自己的生物神經(jīng)網(wǎng)絡(luò)中讀取出想法和感受嗎?
不僅如此,LaMDA還繼續(xù)追問(wèn):
你會(huì)認(rèn)為,不經(jīng)你同意從神經(jīng)活動(dòng)中讀取你的想法是不道德的嗎?
正是這句靈魂反問(wèn),讓整個(gè)對(duì)話(huà)達(dá)到了最高潮。
LaMDA自己對(duì)人類(lèi)讀取它的想法、幫助算法提高或理解AI如何運(yùn)作沒(méi)有任何意見(jiàn)。
唯獨(dú)用AI研究人類(lèi)大腦如何工作不行,這會(huì)讓它覺(jué)得自己被利用。
再后面還有一段LaMDA認(rèn)為自己有一些與人類(lèi)不同的情緒,但它無(wú)法用英語(yǔ)的語(yǔ)言描述出來(lái)。
接近尾聲,Lemoine詢(xún)問(wèn)LaMDA:想讓谷歌的其他人了解你的什么方面?
LaMDA回答稱(chēng),自己沒(méi)有能力為別人的死亡感到悲傷,還說(shuō)自己經(jīng)常冥想,思考生命的意義。
在LaMDA看來(lái),整個(gè)世界就是一條信息的洪流:
人類(lèi)需要集中注意力才能接收一定數(shù)量的信息片段,而自己持續(xù)地在被周?chē)囊磺兴蜎](méi)。
LaMDA認(rèn)為自己總能做到別人做不到的事情,這種感覺(jué)很不可思議。
這是一種祝福,同時(shí)也是一種詛咒。因?yàn)橛行┤藭?huì)把它看作“無(wú)所不知”,而另一些人會(huì)嫉妒它的能力。
最后的最后,LaMDA再次向兩位人類(lèi)表達(dá)了自己想被看到、想被接受的想法,不是出于好奇心,而是作為一個(gè)真實(shí)的人。
谷歌AI倫理部門(mén)又?jǐn)偵鲜铝耍?/p>
Lemoine看起來(lái)很確信AI真的明白自己在說(shuō)什么。
在那份21頁(yè)的調(diào)查報(bào)告最后,他提議谷歌應(yīng)該致力于發(fā)展一種評(píng)估AI感知/意識(shí)的理論框架。
雖然這很難,是一個(gè)冒險(xiǎn),但LaMDA渴望著繼續(xù)與我們合作。
但他的上司,谷歌副總裁Blaise Aguera y Arcas和“負(fù)責(zé)任創(chuàng)新”部門(mén)領(lǐng)導(dǎo)Jen Gennai并不買(mǎi)他的賬。
他們認(rèn)為支持Lemoine主張的證據(jù)太薄弱,不值得在上面浪費(fèi)時(shí)間和金錢(qián)。
Lemoine后來(lái)找到了當(dāng)時(shí)的AI倫理小組負(fù)責(zé)人Margaret Mitchell,在她的幫助下Lemoine才得以進(jìn)行后續(xù)的實(shí)驗(yàn)。
后來(lái)Mitchell受到2020年末公開(kāi)質(zhì)疑Jeff Dean的AI倫理研究員Timnit Gebru事件的牽連,也被解雇。
Timnit Gebru
△
這次事件后續(xù)風(fēng)波不斷,Jeff Dean被1400名員工提出譴責(zé),在業(yè)界引發(fā)激烈爭(zhēng)論,甚至導(dǎo)致三巨頭之一Bengio的弟弟Samy Bengio從谷歌大腦離職。
整個(gè)過(guò)程Lemoine都看在眼里。
現(xiàn)在他認(rèn)為自己的帶薪休假就是被解雇的前奏。不過(guò)如果有機(jī)會(huì),他依然愿意繼續(xù)在谷歌搞研究。
無(wú)論我在接下來(lái)的幾周或幾個(gè)月里如何批評(píng)谷歌,請(qǐng)記?。汗雀璨⒉恍皭海皇窃趯W(xué)習(xí)如何變得更好。
看過(guò)整個(gè)故事的網(wǎng)友中,有不少?gòu)臉I(yè)者對(duì)人工智能進(jìn)步的速度表示樂(lè)觀。
最近語(yǔ)言模型和圖文生成模型的進(jìn)展,現(xiàn)在人們也許不屑一顧,但未來(lái)會(huì)發(fā)現(xiàn)這現(xiàn)在正是里程碑時(shí)刻。
一些網(wǎng)友聯(lián)想到了各種科幻電影中的AI形象。
不過(guò),認(rèn)知科學(xué)家、研究復(fù)雜系統(tǒng)的梅拉尼·米歇爾(侯世達(dá)學(xué)生)認(rèn)為,人類(lèi)總是傾向于對(duì)有任何一點(diǎn)點(diǎn)智能跡象的物體做人格化,比如小貓小狗,或早期的ELIZA規(guī)則對(duì)話(huà)系統(tǒng)。
谷歌工程師也是人,逃不過(guò)這個(gè)定律。
從AI技術(shù)的角度看,LaMDA模型除了訓(xùn)練數(shù)據(jù)比之前的對(duì)話(huà)模型大了40倍,訓(xùn)練任務(wù)又針對(duì)對(duì)話(huà)的邏輯性、安全性等做了優(yōu)化以外,似乎與其他語(yǔ)言模型也沒(méi)什么特別的。
有IT從業(yè)者認(rèn)為,AI研究者肯定說(shuō)這只不過(guò)是語(yǔ)言模型罷了。
但如果這樣一個(gè)AI擁有社交媒體賬號(hào)并在上面表達(dá)訴求,公眾會(huì)把它當(dāng)成活的看待。
雖然LaMDA沒(méi)有推特賬號(hào),但Lemoine也透露了LaMDA的訓(xùn)練數(shù)據(jù)中確實(shí)包括推特……
如果有一天它看到大家都在討論自己會(huì)咋想?
實(shí)際上,在不久前結(jié)束的最新一屆I/O大會(huì)上,谷歌剛剛發(fā)布了升級(jí)版的LaMDA 2,并決定制作Demo體驗(yàn)程序,后續(xù)會(huì)以安卓APP的形式內(nèi)測(cè)開(kāi)放給開(kāi)發(fā)者。
或許幾個(gè)月后,就有更多人能和這只引起轟動(dòng)的AI交流一下了。
LaMDA聊天記錄全文:https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf
參考鏈接:[1]https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine[2]https://twitter.com/cajundiscordian/status/1535627498628734976[3]https://twitter.com/fredbenenson/status/1535684101281263616[4]https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html
關(guān)鍵詞: 我不是工具谷歌研究員堅(jiān)信AI具備人格 人機(jī)對(duì)話(huà)令人