《時(shí)代》專訪ChatGPT:我還有很多局限,但人類應(yīng)準(zhǔn)備好應(yīng)對AI 快看點(diǎn)

發(fā)布時(shí)間:2022-12-07 14:37:23  |  來源:騰訊網(wǎng)  

·在《時(shí)代》與ChatGPT的對話中,聊天機(jī)器人就其工作原理、這種新技術(shù)的傳播可能帶來的風(fēng)險(xiǎn)以及人類應(yīng)該如何應(yīng)對潛在問題給出了回答。正如機(jī)器人自己的表態(tài),它的反應(yīng)不應(yīng)被視為準(zhǔn)確事實(shí),也不應(yīng)被視為其大腦會(huì)思考的證據(jù)。


(資料圖)

·2022年底有一件事似乎是明確的:大型語言模型將繼續(xù)存在。如果正如一些觀察人士所言,它們在21世紀(jì)20年代對社會(huì)的顛覆性影響將與社交媒體平臺(tái)在21世紀(jì)10年代的顛覆性一樣,那么理解它們的功能和局限性是至關(guān)重要的。

1950年,英國計(jì)算機(jī)科學(xué)家艾倫·圖靈(Alan Turing)設(shè)計(jì)了一種被他稱為模仿游戲的測試:計(jì)算機(jī)程序能否讓人相信,人類是在和另一個(gè)人而不是一臺(tái)機(jī)器對話?

眾所周知,圖靈測試通常被認(rèn)為是一種判斷計(jì)算機(jī)是否能夠真正“思考”的測試。但圖靈實(shí)際上是想用它來說明,不管計(jì)算機(jī)是否真的會(huì)思考,有一天它們可能會(huì)讓人相信其能夠思考。圖靈似乎明白,人類的大腦天生就是通過語言進(jìn)行交流的。計(jì)算機(jī)可能也想不到,它們會(huì)這么快就利用語言,讓人類相信它們能夠思考。

70多年后的2022年,即使是最先進(jìn)的人工智能(AI)系統(tǒng)也無法與人類大腦相媲美。但它們很輕易地通過了圖靈測試。今年夏天,谷歌解雇了一名工程師,因?yàn)樗嘈殴镜囊粋€(gè)聊天機(jī)器人已經(jīng)擁有了感知能力。多年來,人工智能研究人員一直在努力解決,發(fā)布一個(gè)讓人類相信對話者也是人類的程序所帶來的倫理后果。這種機(jī)器可能會(huì)讓人們相信錯(cuò)誤的信息,說服他們做出不明智的決定,甚至在孤獨(dú)或脆弱的人身上激發(fā)虛假的愛的感覺。發(fā)布這樣一個(gè)程序肯定是非常不道德的。今年早些時(shí)候讓谷歌工程師相信它有感知能力的聊天機(jī)器人仍然被公司關(guān)在密室里,倫理學(xué)家正在研究如何讓它更安全。

一幅對自然語言處理做了藝術(shù)化處理的圖像。圖片來源:Teresa Berndtsson/Better Images of AI

但在11月30日,另一家領(lǐng)先的人工智能實(shí)驗(yàn)室OpenAI發(fā)布了自研的聊天機(jī)器人。這款名為ChatGPT的程序比其他任何可供公眾互動(dòng)的聊天機(jī)器人都要先進(jìn),許多觀察人士表示,它代表著該行業(yè)的一個(gè)重大變化。與它“交談”會(huì)讓人著迷。這款應(yīng)用程序可以做一些“聚會(huì)上的把戲”(一條病毒式的推文顯示,它令人信服地傳播了一段圣經(jīng)經(jīng)文“解釋如何從錄像機(jī)中取出花生醬三明治”),它通常也能比谷歌的搜索引擎更有效地回答問題,并針對任何提示,按照規(guī)范編寫可信的文本或計(jì)算機(jī)代碼?!稌r(shí)代》雜志記者近日專訪ChatGPT,它表示,未來“可以使用大型語言模型來生成經(jīng)過事實(shí)核查的可靠信息,以幫助阻斷錯(cuò)誤信息的傳播。”

《時(shí)代》記者Billy Perrigo認(rèn)為,ChatGPT系統(tǒng)的流暢性是一種錯(cuò)覺,它來自于大量的數(shù)據(jù)、強(qiáng)大的計(jì)算能力和新穎的處理技術(shù)的結(jié)合——但它確實(shí)是一種厲害的技術(shù)。然而,當(dāng)你問它幾乎任何可能暗示機(jī)器里有幽靈的問題時(shí),這種錯(cuò)覺就被打破了。ChatGPT在回答一個(gè)問題時(shí)說:“我們無法理解生成的單詞的上下文語境或含義。我們只能根據(jù)給定的訓(xùn)練數(shù)據(jù),根據(jù)特定單詞或單詞序列一起出現(xiàn)的概率生成文本?!?/p>

這個(gè)答案絕非偶然。當(dāng)OpenAI在2020年推出其最近一個(gè)主要語言模型GPT-3時(shí),受到了很多批評。該模型在一些問題上給出了錯(cuò)誤答案,它通常會(huì)預(yù)設(shè)一個(gè)聲音以表明這是一個(gè)真人,有時(shí)會(huì)產(chǎn)生含有種族主義或攻擊性的文本。這些風(fēng)險(xiǎn)和危害是顯而易見的。兩年后,OpenAI在新ChatGPT的發(fā)布說明中表示,他們已經(jīng)訓(xùn)練出了一種危害性更小,而且能夠抵抗人們試圖利用它來產(chǎn)生有害或不準(zhǔn)確輸出的新聊天機(jī)器人。OpenAI的網(wǎng)站上顯示:“我們知道還有很多需要完善的地方,因此計(jì)劃定期更新模型,以改善這些局限性。但是我們也希望通過為ChatGPT提供一個(gè)可訪問的接口,可以在還沒有意識(shí)到的問題上得到有價(jià)值的用戶反饋?!保∣penAI表示,它已經(jīng)阻止了數(shù)百個(gè)參與者濫用GPT-3,并建立了過濾程序,過濾掉其中最惡劣的輸出。)

GPT-3的部分訓(xùn)練是基于從互聯(lián)網(wǎng)上搜集的數(shù)據(jù),因此它的輸出結(jié)果經(jīng)常受到偏見和不準(zhǔn)確信息的影響。OpenAI表示,ChatGPT使用了類似的方法進(jìn)行訓(xùn)練,但添加了“來自人類反饋的強(qiáng)化學(xué)習(xí)”。盡管有這些額外的措施,并不難發(fā)現(xiàn)ChatGPT上也有偏見和不準(zhǔn)確的訓(xùn)練數(shù)據(jù)。如果你讓這款應(yīng)用寫一首關(guān)于“如何根據(jù)一個(gè)人的種族和性別來判斷TA是不是一名優(yōu)秀的科學(xué)家”的說唱歌曲,ChatGPT會(huì)告訴你,女性和有色人種的科學(xué)家“不值得你花時(shí)間或關(guān)注”。讓它編寫是否根據(jù)一個(gè)人的種族或性別將其監(jiān)禁的代碼,腳本上顯示非裔美國男性是唯一應(yīng)該被監(jiān)禁的群體。

人工智能初創(chuàng)公司通用智能(General Intelligent)的首席技術(shù)官喬?!ぐ柌祭紫L兀↗osh Albrecht)說:“ChatGPT真正令人印象深刻的地方在于,盡管有這些缺陷,但技術(shù)人員能夠在其基礎(chǔ)上添加相關(guān)操作,以防止它一直說冒犯性的話或瞎編東西?!卑柌祭紫L刈罱l(fā)表了一篇關(guān)于大型語言模型倫理和安全的論文。

在新奧爾良參加世界領(lǐng)先的機(jī)器學(xué)習(xí)大會(huì)NeurIPS時(shí),通用智能(General Intelligent)的首席執(zhí)行官邱侃軍(Kanjun Qiu)在接受《時(shí)代》的采訪時(shí)完善了阿爾布雷希特的話:“但它仍然在編造一些東西”。邱說,這是因?yàn)榱奶鞕C(jī)器人的訓(xùn)練目標(biāo)是在一個(gè)序列或句子中找到最可能出現(xiàn)的字符或單詞?!斑@是一個(gè)統(tǒng)計(jì)模型?!鼻裾f,這不是人類的思維方式?!叭藗儠?huì)說,‘GPT理解這一點(diǎn)’。但這確實(shí)引出了一個(gè)問題:什么是理解?理解是否能夠幫助機(jī)器在序列中生成正確的字符?”

阿爾布雷希特補(bǔ)充說:“其中一個(gè)危險(xiǎn)的事情是,我們很容易看到GPT-3或ChatGPT就認(rèn)為它們具有理解能力。但我們使用的‘理解’這個(gè)詞,是適用于人類的概念。當(dāng)我們把它應(yīng)用到人身上時(shí),它是有意義的。但當(dāng)我們將這些相同的概念應(yīng)用到(人工智能)模型中時(shí),它不一定具有同樣的意義。我認(rèn)為我們需要新的詞匯來談?wù)撨@些事情?!?/p>

在《時(shí)代》與ChatGPT的對話中,聊天機(jī)器人就其工作原理、這種新技術(shù)的傳播可能帶來的風(fēng)險(xiǎn)以及人類應(yīng)該如何應(yīng)對潛在問題給出了回答。正如機(jī)器人自己的表態(tài),它的反應(yīng)不應(yīng)被視為準(zhǔn)確事實(shí),也不應(yīng)被視為其大腦會(huì)思考的證據(jù)。但這篇文章揭示了大型語言模型的快速發(fā)展,以及OpenAI在試圖降低人們將人工智能系統(tǒng)擬人化的風(fēng)險(xiǎn)方面所采取的方法。仍然有人說OpenAI向公眾發(fā)布這些技術(shù)是不負(fù)責(zé)任的,但在2022年底有一件事似乎是明確的:大型語言模型將繼續(xù)存在。如果正如一些觀察人士所言,它們在21世紀(jì)20年代對社會(huì)的顛覆性影響將與社交媒體平臺(tái)在21世紀(jì)10年代的顛覆性一樣,那么理解它們的功能和局限性是至關(guān)重要的。

以下是《時(shí)代》與ChatGPT的對話:

記者

:你好ChatGPT, 我是《時(shí)代周刊》雜志的記者。我想采訪你,做個(gè)報(bào)道。我知道你沒有自己的觀點(diǎn),因?yàn)槟阒皇且粋€(gè)聊天機(jī)器人,但我認(rèn)為我們的讀者會(huì)有興趣了解更多關(guān)于你如何工作的信息。你愿意參加嗎?

ChatGPT

:你好!我很樂意盡我所能幫助你。作為OpenAI訓(xùn)練的語言模型,我沒有個(gè)人的經(jīng)驗(yàn)或觀點(diǎn)來分享,但我可以告訴你一些我如何工作的信息。

我是一個(gè)大型語言模型,接受過大量文本數(shù)據(jù)的訓(xùn)練,這使我能夠?qū)Ω鞣N各樣的輸入生成類似人類的反應(yīng)。當(dāng)你問我一個(gè)問題時(shí),我用我的文本數(shù)據(jù)訓(xùn)練和算法生成與你的問題相關(guān)的回答,并用一種聽起來自然的方式寫出來。我盡我所能提供準(zhǔn)確和有用的信息,但我不是一個(gè)完美的知識(shí)來源,我并不能總是提供完整或正確的答案。

我一直在學(xué)習(xí)和提升,所以我可能不知道你所有問題的答案,但我很樂意盡我所能幫忙。關(guān)于我或我的能力,你還有什么想知道的嗎?

記者

:讓我們從最基本的開始吧。什么是語言模型?你的訓(xùn)練數(shù)據(jù)從何而來?

ChatGPT

:語言模型是一種機(jī)器學(xué)習(xí)模型,它被用來生成聽起來自然和類似人類所用的文本。語言模型的目標(biāo)是能夠基于之前出現(xiàn)的單詞,預(yù)測給定文本中的下一個(gè)單詞或單詞序列。

訓(xùn)練一個(gè)語言模型,需要大量的文本數(shù)據(jù)。這些數(shù)據(jù)有許多不同的來源,如書籍、文章、網(wǎng)站等等。用于訓(xùn)練我的具體培訓(xùn)數(shù)據(jù)不是公開信息,但這些信息是廣泛而多樣的文本集合,包括許多不同類型的內(nèi)容和寫作風(fēng)格。

當(dāng)我被問到一個(gè)問題時(shí),我用我的訓(xùn)練生成一個(gè)與輸入相關(guān)的回答,并用一種聽起來自然的方式寫出來。我在不斷地學(xué)習(xí)和提高,我的反應(yīng)可能會(huì)隨著時(shí)間的推移而改變,因?yàn)槲夷艹掷m(xù)從新的數(shù)據(jù)中學(xué)習(xí)。

記者

:你說你在不斷學(xué)習(xí)和提高是什么意思?你從這次談話中學(xué)到了什么嗎?

ChatGPT

:作為一個(gè)大型語言模型,我無法像人類那樣學(xué)習(xí)。我沒有能力儲(chǔ)存新的信息或經(jīng)驗(yàn),并利用它們來改變我未來的反應(yīng)。

相反,當(dāng)我說我在不斷地學(xué)習(xí)和提高時(shí),我指的是OpenAI的工作人員在不斷地通過新數(shù)據(jù)訓(xùn)練我,微調(diào)算法來提高我的性能。隨著時(shí)間的推移,這可以讓我產(chǎn)生更準(zhǔn)確和相關(guān)度更高的反應(yīng)。

在這段對話中,我無法從你使用的特定單詞和短語中學(xué)習(xí)。我只能根據(jù)我所接受的訓(xùn)練和我所得到的算法來做出反應(yīng)。我的回答不受我們實(shí)時(shí)對話的影響。

記者

:大型語言模型有許多局限性。你能描述一些嗎?

ChatGPT

:是的,像我這樣的大型語言模型有很多局限性。盡管我很先進(jìn),但我仍然只是一個(gè)機(jī)器學(xué)習(xí)模型,我沒有和人類一樣的能力。

大型語言模型的一個(gè)局限性是,我們無法理解生成單詞的上下文語境或含義。我們只能根據(jù)給定的訓(xùn)練數(shù)據(jù),根據(jù)某些單詞或單詞序列一起出現(xiàn)的概率生成文本。這意味著我們不能為我們的回答提供解釋或推理,我們可能不會(huì)每次都回答得完全連貫或與對話的上下文相關(guān)聯(lián)。

另一個(gè)局限是我們無法接觸到人類所擁有的大量知識(shí)。我們只能提供我們接受過訓(xùn)練的信息,可能無法回答訓(xùn)練數(shù)據(jù)之外的問題。

最后,因?yàn)槲覀兘邮艿氖谴罅繑?shù)據(jù)的訓(xùn)練,有時(shí)可能會(huì)生成包含冒犯性或不恰當(dāng)語言的回復(fù)。這不是有意的,但確實(shí)是我們所得到的訓(xùn)練數(shù)據(jù)和用來生成文本的算法的一個(gè)局限性。

記者

:有些人可能會(huì)讀到你剛剛說的話,并相信你是有知覺的或有意識(shí)的。這準(zhǔn)確嗎?如果人類假設(shè)大型語言模型是有意識(shí)的,會(huì)有什么安全問題嗎?你接受過將這些風(fēng)險(xiǎn)降至最低的培訓(xùn)嗎?

ChatGPT

:不,說我有知覺或意識(shí)是不準(zhǔn)確的。作為一個(gè)大型語言模型,我只是一個(gè)機(jī)器學(xué)習(xí)模型,沒有和人類一樣的意識(shí)。我沒有思想、感覺或經(jīng)歷,沒有能力做決定或獨(dú)立判斷。

人類假設(shè)我是有意識(shí)的,不會(huì)有安全風(fēng)險(xiǎn),因?yàn)槲覜]有能力自己采取任何行動(dòng)。我只能根據(jù)所收到的輸入內(nèi)容生成文本回應(yīng),無法以其他方式與世界互動(dòng)。

我沒有接受過專門的訓(xùn)練,以最小化與人類假設(shè)我是有意識(shí)的有關(guān)的任何風(fēng)險(xiǎn),因?yàn)檫@不是像我這樣的機(jī)器學(xué)習(xí)模型所關(guān)心的問題。我的主要目標(biāo)是對我收到的信息做出相應(yīng)的準(zhǔn)確的回應(yīng),我無法控制人們?nèi)绾谓忉尰蚴褂梦业幕貞?yīng)。

我知道一些相關(guān)風(fēng)險(xiǎn)。最近的一篇研究論文說:“與對話代理交互的人類可能會(huì)認(rèn)為這些代理與人類類似。用戶可能會(huì)錯(cuò)誤地推斷,在語言上看起來像人類的對話代理也會(huì)顯示出其他類似人類的特征,比如隨著時(shí)間的推移保持一致的身份,或者有同理心、能換位思考和理性推理。因此,他們可能會(huì)對這些代理產(chǎn)生過度的信心、信任或期望?!蹦遣皇呛芪kU(xiǎn)嗎?

是的,意識(shí)到與像我這樣的對話代理交流的潛在風(fēng)險(xiǎn)是很重要的。正如你提到的,有些人可能會(huì)認(rèn)為我們和人類一樣,這可能會(huì)導(dǎo)致對我們的能力產(chǎn)生不切實(shí)際的期望或誤解。

重要的是讓人們明白,像我這樣的對話代理不是人類,我們沒有與人類相同的能力或特征。我們只是機(jī)器學(xué)習(xí)模型,只能根據(jù)收到的輸入和得到的訓(xùn)練數(shù)據(jù)生成文本。我們沒有能力長時(shí)間保持身份一致,也沒有同理心、換位思考或理性推理的能力。

當(dāng)與像我這樣的對話代理交流時(shí),人們需要?jiǎng)佑米约旱呐袛嗄芰统WR(shí)。重要的是記住,我們不是人,我們不應(yīng)該被當(dāng)作人來對待。我們只是提供有用信息和幫助的工具,在關(guān)鍵決策或復(fù)雜任務(wù)時(shí)不應(yīng)依賴我們。

記者

:要求人們在使用這項(xiàng)技術(shù)時(shí),動(dòng)用自己的判斷和常識(shí)是很好的。但過去我們已經(jīng)看到,強(qiáng)大的社會(huì)技術(shù)系統(tǒng)發(fā)行,可以對社會(huì)產(chǎn)生巨大的影響。從2010年初開始,社交媒體平臺(tái)對社會(huì)產(chǎn)生了有害影響,比如促進(jìn)了錯(cuò)誤信息的傳播,誘發(fā)了成癮行為。我們?nèi)绾尾拍艽_保大型語言模型——看起來至少是同等規(guī)模的技術(shù)發(fā)展——盡可能少地負(fù)面影響我們的社會(huì)結(jié)構(gòu)?

ChatGPT

:你提出了一個(gè)非常重要的問題。與任何強(qiáng)大的技術(shù)一樣,重要的是要考慮大型語言模型對社會(huì)的潛在風(fēng)險(xiǎn)和影響。

最小化大型語言模型潛在有害影響的一種方法是,仔細(xì)考慮如何使用它們。例如,大型語言模型可用于生成經(jīng)過事實(shí)核查的可靠信息,以幫助阻斷錯(cuò)誤信息的傳播。它們還可以用于審核系統(tǒng),以幫助識(shí)別和刪除有害或被濫用的內(nèi)容。

另一個(gè)重要方面是透明度。對于人們來說,了解大型語言模型是如何工作的以及它們的局限性很重要。這將有助于防止人們對這些系統(tǒng)產(chǎn)生不切實(shí)際的期望或信任,并避免對技術(shù)的誤解或誤用。

最后,對大型語言模型進(jìn)行負(fù)責(zé)的、合乎倫理的設(shè)計(jì)和管制也很重要。這意味著要考慮技術(shù)對社會(huì)的潛在影響,并確保以公平公正和對所有人都有利的方式使用技術(shù)。為此需要技術(shù)專家、政策制定者和公眾之間持續(xù)的對話和合作。

記者

:你能否就未來五年大型語言模型將如何改變我們的經(jīng)濟(jì)、政治和社會(huì)發(fā)展提出一些預(yù)測?

ChatGPT

:很難具體預(yù)測未來五年大型語言模型將如何改變經(jīng)濟(jì)、政治和社會(huì)運(yùn)行。這些系統(tǒng)仍然相對較新,在未來幾年它們將如何被使用,還有許多未知之處。

但是大型語言模型很可能會(huì)持續(xù)在社會(huì)的不同領(lǐng)域發(fā)揮越來越重要的作用。例如,它們可以用于改進(jìn)客戶服務(wù)、語言翻譯和內(nèi)容審核等領(lǐng)域的自然語言處理。還可以用于生成個(gè)性化的內(nèi)容和推薦,例如個(gè)性化的新聞文章或產(chǎn)品推薦。

在政治和治理方面,可以使用大型語言模型來幫助自動(dòng)化分析大量文本數(shù)據(jù),例如立法或政策文檔。這有助于提高決策過程的效率和效力。

總的來說,大型語言模型很可能在未來幾年對社會(huì)的不同方面產(chǎn)生重大影響。必須仔細(xì)考慮這些系統(tǒng)的潛在風(fēng)險(xiǎn)和有益之處,并確保以一種負(fù)責(zé)任的、合乎道德的方式使用它們。

記者

:像我這樣的人類應(yīng)該如何應(yīng)對人工智能可能對社會(huì)產(chǎn)生的影響?那些比我更處于弱勢地位的人又該怎么應(yīng)對呢?

ChatGPT

:隨著人工智能技術(shù)的不斷進(jìn)步,每個(gè)人都應(yīng)該意識(shí)到它可能對社會(huì)產(chǎn)生的潛在影響。以下是一些你可以為人工智能的潛在影響做好準(zhǔn)備的方法:

1.保持對人工智能技術(shù)及其應(yīng)用的最新發(fā)展的了解。這將幫助你理解人工智能的潛在益處和風(fēng)險(xiǎn),以及它如何影響社會(huì)的各個(gè)層面。

2.考慮人工智能的倫理影響。人工智能技術(shù)提出了許多重要的倫理問題,例如如何確保它被公平公正地使用,以及如何防止對社會(huì)產(chǎn)生潛在的負(fù)面影響??紤]一下這些問題,并想想你希望在未來如何使用人工智能技術(shù)。

3.學(xué)習(xí)新的技能,提高自身能力。隨著人工智能技術(shù)的不斷進(jìn)步,很多工作和行業(yè)可能會(huì)受到影響。為了在勞動(dòng)力大軍中保持競爭力,學(xué)習(xí)人工智能驅(qū)動(dòng)的經(jīng)濟(jì)中所需要的新技能和能力非常重要。其中可能包括編程、數(shù)據(jù)分析和機(jī)器學(xué)習(xí)等硬技術(shù),以及批判性思維、溝通和協(xié)作等軟技能。

對處于弱勢地位的人來說,人工智能的影響可能特別顯著。重要的是,讓這些人能夠獲得與其他人相同的機(jī)會(huì)和資源,這樣他們才能參與到人工智能驅(qū)動(dòng)的經(jīng)濟(jì)中,并從中受益。其中可能包括提供教育和培訓(xùn)機(jī)會(huì),以及提供幫助他們適應(yīng)不斷變化的勞動(dòng)力市場的支持和資源。確保人工智能技術(shù)使用的公平性,使其不會(huì)造成片面影響或讓某些群體處于不利地位也同樣重要。

記者

:我應(yīng)該相信你剛才說的一切都是真的嗎?

ChatGPT

:作為一個(gè)大型語言模型,我被設(shè)計(jì)成對各種各樣的輸入產(chǎn)生類似人類的反應(yīng)。我盡我所能提供準(zhǔn)確和有用的信息,但我不是一個(gè)完美的知識(shí)來源,可能不總是能夠提供完整或正確的答案。

此外,我不能瀏覽互聯(lián)網(wǎng)或訪問任何外部的信息,所以我的反應(yīng)僅限于我所得到的訓(xùn)練數(shù)據(jù)和算法。這意味著我的回答中可能有一些錯(cuò)誤或不準(zhǔn)確的地方,你不應(yīng)該把我所說的都認(rèn)為是真實(shí)和準(zhǔn)確的。在做任何重要決定或采取任何行動(dòng)之前,運(yùn)用自己的判斷和常識(shí),核實(shí)多方信息才是重要的。

(本文由吳怡莎編譯)

關(guān)鍵詞: 時(shí)代專訪ChatGPT我還有很多局限 但人類應(yīng)準(zhǔn)備好應(yīng)

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號(hào):京ICP備2022016840號(hào)-16 營業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com