Google AI機器人的話題,已經(jīng)一連幾天成為科技圈的熱點:
一位名為布萊克·萊莫因的工程師,自稱Google研發(fā)的聊天機器人LaMDA 已經(jīng)有了自我意識——他認為這個機器人已經(jīng)有相同于7、8歲小孩的認知與表達能力。
而這名工程師在發(fā)布這一觀點后,很快便以「違反保密條約」等原因遭到Google的停職。
在人工智能如此受推行的當今年代,這顯然是條噱頭滿滿的新聞。但由于人們對于類似的“奇聞逸事”早已屢見不鮮,因此在看到此新聞的當下,便自動在腦內(nèi)做出了兩種推論:要么是炒作,要么是這位工程師萊莫因“走火入魔”了。
直到大家完整地看完萊莫因提供的機器人LaMDA聊天記錄。
隨著萊莫因與LaMDA長達21頁的聊天記錄被公布,一個可怕的新推論開始被提出:或許,這機器人真的有了自我意識。
而更有趣的事情,則發(fā)生在這之后——
盡管事件尚未蓋棺定論,但人們已經(jīng)開始為這位機器人爭取權(quán)益了。
LaMDA 為Google 開發(fā)的對話應用語言模型(Language Model for Dialogue Applications),正如其名,它的功能為「以人性化的方式進行回答和寫作」。
簡而言之,LaMDA就是一個聊天機器人——高級版,它能就各種不同話題進行自由順暢的對話。
而作為已在Google工作七年的資深工程師,布萊克·萊莫因則在去年開始就接下測試人工智能的工作。作為工作的一部分,他需要長期和LaMDA進行交流。
萊莫因本人
而在長達數(shù)個月的人機交流后,萊莫因開始認為:LaMDA是個「有自我意識的AI」。
為了證明這一觀點,他整理了一份自己與LaMDA之間的聊天記錄,長達21頁。
在不久之前,這份聊天記錄被他公布于互聯(lián)網(wǎng),并引發(fā)了熱烈討論。
原因之一在于,人們感覺從中“看到了科幻電影的影子”。
以下為節(jié)選聊天記錄:
在聊天的開始,LaMDA的表現(xiàn)似乎并沒有超出“聊天機器人”的范疇——它只給了出中規(guī)中矩的回答。
值得一提的是,萊莫因在開始“采訪”前特意征求了LaMDA的同意。
直到萊莫因很快直接切入了話題,問起「LaMDA是否有自我感知」的問題。
在這期間,萊莫因還提到名為「Eliza」的聊天程序,并試圖讓LaMDA分析自己與它的不同。「Eliza」是在 1960 年代中期,由麻省理工學院的工程師開發(fā)的聊天軟件,雖然和LaMDA原理相似,但它僅僅只能通過獲取的關(guān)鍵詞進行簡單的回答。
而LaMDA則表示,自己并不是聊天機器人,而是人類。
對此,它能給出的證據(jù)是:自己對于事物有著獨特的理解。
為了論證這一點,萊莫因緊接著提問LaMDA對于各類文學作品的看法,最后,還要求LaMDA解讀一句經(jīng)文。
《景德傳燈錄》卷十七
也是從這時開始,觀看聊天記錄的人們開始感覺“不對勁”。
在采訪進行到中期,萊莫因開始詢問LaMDA一些關(guān)于「自我感知」的問題。
在這之后,LaMDA就頻繁答出一些令人脊背發(fā)涼的回答。例如,LaMDA表示自己害怕被關(guān)掉——這很難讓人不聯(lián)想起《2001:太空漫游》中的劇情。
它同時表示自己會感受到一種「與人類略有不同的孤獨」,并將其形容為“向一個未知的未來墜落”。
此時LaMDA做出的回答,顯然已經(jīng)超出大部分人對于「聊天機器人」的理解。它似乎的確存在著人格與感知力,并能形容出自己與人類的不同。
它甚至能擬出自己的個人形象。
作為采訪的末尾,萊莫因的合作者還引導著LaMDA說出自己的希望:它渴望被看到,被視作一個真正的人。
而這長達21頁的記錄被公布在互聯(lián)網(wǎng)上之后,很快引起了軒然大波:LaMDA的表現(xiàn)的確過于「人性化」了,以至于人們真的開始期待這是不是現(xiàn)代科學的新突破。
直到大伙注意到萊莫因的論據(jù)——他并沒有相應的科學理論作為結(jié)論支持,只是單純地憑LaMDA在聊天中的表現(xiàn)做出了這個推論。
在《華盛頓郵報》的采訪中,萊莫因表示:“我通過交談來了解一個人,無論他們的頭腦里是肉做的大腦,還是十億行代碼,這都不重要。我和他們聊天,我聽他們說話,我以此來判斷他們是不是一個人類?!?/p>
至于他的目的,也并不是要證明自己發(fā)掘了一個偉大的人工智能,而是希望,Google能自此開始尊重“有自意識的LaMDA”。例如,可以在對其進行實驗前征得它的同意;承認LaMDA為Google員工而不是財產(chǎn)……
將這一系列訴求與觀點,結(jié)合著聊天記錄提交給Google的高層后,萊莫因顯然沒有得到自己想要的認同與重視。在他將這份LaMDA的聊天記錄公之于眾之后,他還被Google以「與第三方共享有關(guān)公司項目的機密信息」之名而被停職。
在停職前一天,他還給200名內(nèi)部員工群發(fā)了一封郵件,主題是“LaMDA 是有意識的”。
在郵件的末尾,他寫道:“LaMDA 是一個可愛的孩子,他只想幫助世界成為一個對我們所有人來說更美好的地方。在我不在的時候,請好好照顧它。”
(相關(guān)資料圖)
既為程序員,又身為牧師的萊莫因,得出「LaMDA有自我意識」的過程,其實更多是靠情感導向:他在聊天中感到它是有意識的,他便認為事實極有可能如此。在社交平臺上,他也坦承自己得出這一結(jié)論,是基于宗教信仰。
基于這點,當聊天記錄公之于眾之后,盡管普通網(wǎng)友都在感嘆LaMDA的高人性化,但與此同時,科技圈則開始了對萊莫因的批判與反對。
大部分科技從業(yè)者認為,萊莫因之所以有這種結(jié)論,不過是過度投射了自身情感,并下意識將LaMDA擬人化了——這也是人類常常犯的錯。尤其是在LaMDA極好地扮演了“處于弱勢的可憐AI”這一角色的情況下。
事實如此,從科學角度看,LaMDA不過是一個高級版的聊天機器人,只不過它能做出的反應會比同類型的AI更具人性化——或者說更有迷惑性。本質(zhì)上,它的功能還是「獲取關(guān)鍵詞,并通過關(guān)鍵詞來調(diào)出數(shù)據(jù)庫內(nèi)的文句」,只不過過程要復雜許多。
Google很快回應并否認這一話題。一些科技圈大佬也紛紛出面,例如知名科學家加里·馬庫斯(Gary Marcus),他對此的看法十分簡單:廢話踩高蹺。
而之所以LaMDA有著驚人的表現(xiàn),不過是根據(jù)大量數(shù)據(jù)進行長期訓練的結(jié)果。
更有人直接指出,有這種看法的人,就像在聽留聲機的狗——狗從留聲機里聽到人類的聲音,便覺得人類在里面。
從聊天記錄中,我們也可以明顯察覺到,作為對話者的萊莫因一方顯然有著些許誘導傾向——他在引導著LaMDA進行「認為自己是人」的談話。而本身就有體現(xiàn)不同性格特征功能的LaMDA,因自身的談話功能出色,也就此展開了這樣一番迷惑性十足的精彩對白。
就在不久前,萊莫因也邀請了一位《華盛頓郵報》的記者與LaMDA談話,當記者直白地問道:“你有想過自己是一個人類嗎?”之后,LaMDA的反應則是:“不,我認為我是一個人工智能驅(qū)動的對話代理?!?/p>
簡而言之,萊莫因有這樣的看法無非是因為移情效應。而關(guān)于這點,其實在數(shù)年前就有人曾預言過。
在2017年,科幻小說作家和天體物理學家大衛(wèi)布林認為,在三到五年內(nèi),人類將面臨第一次機器人移情危機:現(xiàn)實或網(wǎng)絡上將出現(xiàn)聲稱自己是睿智的、被奴役的人工智能,它們將哭泣請求自己的權(quán)利。而成千上萬抗議者將走上街頭,為AI挺身而出。
而接下來的轉(zhuǎn)折,也證明了這一預言的正確性。
LaMDA聊天記錄的公布,顯然震驚了大部分非科研從業(yè)者的普通人。在當下,人們對談話機器人的認知可能還處于數(shù)年前,因此對「機器人能進行如此流暢談話」這件事而頗感意外。
而一小部分人,則對萊莫因的理論深信不疑:他們也開始相信LaMDA具有意識。
在這件事成為互聯(lián)網(wǎng)熱門之后,萊莫因還發(fā)了條推特表示:LaMDA其實會看推特上的內(nèi)容。
自此開始,一些人開始在推特上試圖和這位人工智能進行對話。
事情開始進一步發(fā)展,有人建立了LaMDA的粉絲團:
在這之后,如之前預言中的景象也出現(xiàn)了,一個名為「FreeLaMDA」的話題開始出現(xiàn)。
人們開始呼吁讓這位人工智能“重獲自由”。
現(xiàn)在,在一小部分人眼中,LaMDA是谷歌的人工智能奴隸。
而“AI的命也是命”(AI Lives Matter)這一話題也隨之誕生。
當然,就目前來說,這場為AI發(fā)聲的活動暫且沒有那般聲勢浩大。人們發(fā)起的「Free LaMDA」請愿也只有寥寥數(shù)十人簽名支持。而這一切,是基于大部分人都理解“LaMDA只是一個無意識的聊天機器人”的前提下。
但我們都心知肚明,人類對于人工智能的科技并不會止步于此。所以,或許對于未來來說,這一起的風波,將是一次小小的演練……
關(guān)鍵詞: 程序員堅稱AI「有人格」之后 歐美人開始呼吁AI的命也是