·
Stack Overflow認(rèn)為,ChatGPT很容易與用戶互動(dòng),且可以快速生成大量回答,這讓網(wǎng)站充斥著許多第一眼看起來(lái)是正確的答案,但在仔細(xì)檢查后就能發(fā)現(xiàn)其中的錯(cuò)誤。
·
(相關(guān)資料圖)
信息爆炸時(shí)代,以人為媒介傳播的虛假信息尚且讓審核機(jī)制“頭疼”,很難想象當(dāng)人工智能開(kāi)始編造謊言,會(huì)帶來(lái)多大的挑戰(zhàn)。
隨著OpenAI公司的人工智能(AI)聊天機(jī)器人ChatGPT爆火,不少網(wǎng)友開(kāi)始在社交媒體上分享ChatGPT的回復(fù)。但近日程序員版“知乎”,以對(duì)新人不友好著稱的編程問(wèn)答網(wǎng)站Stack Overflow暫時(shí)禁止用戶分享ChatGPT生成的回復(fù)。
Stack Overflow表示,與社區(qū)協(xié)商后,將在未來(lái)一段時(shí)間內(nèi)做出最終決定。該網(wǎng)站認(rèn)為,ChatGPT很容易與用戶互動(dòng),且可以快速生成大量回答,這讓網(wǎng)站充斥著許多第一眼看起來(lái)是正確的答案,但在仔細(xì)檢查后就能發(fā)現(xiàn)其中的錯(cuò)誤。
這就提出了一個(gè)全新的問(wèn)題:如何對(duì)人工智能生成內(nèi)容(AIGC)進(jìn)行事實(shí)核查?正如知名人工智能科學(xué)家、紐約大學(xué)教授Gary Marcus在推特上所說(shuō):“如果Stack?Overflow都不能跟上這些看似可信但不正確的信息,那么社交媒體和搜索引擎呢?”
編程問(wèn)答網(wǎng)站Stack Overflow。
ChatGPT產(chǎn)生的答案有很高的錯(cuò)誤率
“主要問(wèn)題是,雖然ChatGPT產(chǎn)生的答案有很高的錯(cuò)誤率,但它們往往第一眼看起來(lái)可能是對(duì)的,而且使用人工智能導(dǎo)致答案非常容易生成。我們需要減少這些內(nèi)容。目前在Stack Overflow上使用ChatGPT創(chuàng)建帖子的行為已經(jīng)被禁止。如果用戶在此臨時(shí)規(guī)定發(fā)布后使用了ChatGPT,將會(huì)受到制裁?!盨tack Overflow的運(yùn)營(yíng)人員表示。
ChatGPT作為OpenAI創(chuàng)建的實(shí)驗(yàn)性聊天機(jī)器人,基于其大計(jì)算模型GPT-3.5運(yùn)行,自發(fā)布后很快受到網(wǎng)絡(luò)用戶的熱烈歡迎。ChatGPT鼓勵(lì)人們提問(wèn),而且能提供令人印象深刻和流暢的結(jié)果:從創(chuàng)作詩(shī)歌、歌曲、電視劇本,到回答瑣事問(wèn)題和編寫(xiě)代碼。
雖然很多用戶對(duì)ChatGPT的功能印象深刻,但也有人注意到它容易產(chǎn)生看似合理但錯(cuò)誤的回答。例如,讓機(jī)器人寫(xiě)一個(gè)公眾人物的傳記,它很可能插入錯(cuò)誤的人物生平。讓它為特定功能編寫(xiě)程序,它也許會(huì)生成看起來(lái)可信但最終不正確的代碼。
像其他生成式大型語(yǔ)言模型一樣,ChatGPT通常在虛構(gòu)事實(shí)。有些人稱之為“幻覺(jué)”或“隨機(jī)的鸚鵡學(xué)舌”,但這些模型的目的本來(lái)就是組織一段流利的文本,而不是一個(gè)事實(shí)。
一些人注意到,ChatGPT的與眾不同之處在于,它非常善于讓自己的“幻覺(jué)”聽(tīng)起來(lái)十分合理。
例如,技術(shù)分析師Benedict Evans要求ChatGPT“為Benedict Evans寫(xiě)一篇個(gè)人簡(jiǎn)介”。他在推特上說(shuō),這個(gè)結(jié)果“看似合理,但幾乎完全不真實(shí)”。
普林斯頓大學(xué)計(jì)算機(jī)科學(xué)教授Arvind Narayanan也在推特上指出:“人們對(duì)使用ChatGPT學(xué)習(xí)感到興奮。這很好,但危險(xiǎn)的是,除非你已經(jīng)知道答案,否則你無(wú)法判斷它什么時(shí)候是錯(cuò)的。我嘗試了一些基本的信息安全問(wèn)題。在大多數(shù)情況下,答案聽(tīng)起來(lái)似乎有理,但實(shí)際上漏洞百出?!?/p>
大型語(yǔ)言模型的潛在風(fēng)險(xiǎn)
ChatGPT頻出的錯(cuò)誤是人工智能文本生成模型(也稱為大型語(yǔ)言模型)的幾個(gè)眾所周知的缺點(diǎn)之一。這些系統(tǒng)通過(guò)分析從網(wǎng)上抓取的大量文本來(lái)訓(xùn)練機(jī)器人。人工智能在這些數(shù)據(jù)中尋找統(tǒng)計(jì)規(guī)律,并利用這些規(guī)律來(lái)預(yù)測(cè)給定的句子中,接下來(lái)應(yīng)該出現(xiàn)什么單詞。然而,這意味著他們?nèi)狈κ澜缟显S多系統(tǒng)運(yùn)行的硬編碼規(guī)則,導(dǎo)致他們傾向于產(chǎn)生“流利的廢話”。
考慮到這些系統(tǒng)的巨大規(guī)模,不可能準(zhǔn)確判斷它們的輸出有多少是錯(cuò)誤的。但至少Stack Overflow已經(jīng)認(rèn)為,ChatGPT目前誤導(dǎo)用戶的風(fēng)險(xiǎn)太高了。
另一些人則把人工智能審核的問(wèn)題交給ChatGPT本身,要求ChatGPT回答支持和反對(duì)它自己的論據(jù)。在一個(gè)回復(fù)中,ChatGPT自己也得出了與Stack Overflow完全相同的結(jié)論:“總的來(lái)說(shuō),是否允許在Stack Overflow上使用人工智能生成答案是一個(gè)復(fù)雜的決定,需要社區(qū)仔細(xì)考慮。”
人工智能專家們目前也在討論這些大型語(yǔ)言模型帶來(lái)的潛在威脅。Facebook母公司Meta的首席人工智能科學(xué)家楊立昆(Yann LeCun)認(rèn)為,雖然大型語(yǔ)言模型肯定會(huì)產(chǎn)生錯(cuò)誤信息,但只有當(dāng)錯(cuò)誤信息被廣泛傳播、閱讀和相信了才會(huì)產(chǎn)生傷害。也有人說(shuō),這些系統(tǒng)大規(guī)模且廉價(jià)生成文本的能力,勢(shì)必會(huì)使得虛假信息大量傳播。
對(duì)審核機(jī)制的挑戰(zhàn)
迄今為止,幾乎沒(méi)有證據(jù)表明大型語(yǔ)言模型有不好的影響。但Stack Overflow和其他一些專家相信,這些系統(tǒng)的龐大體量確實(shí)會(huì)帶來(lái)新的挑戰(zhàn)。該網(wǎng)站的運(yùn)營(yíng)人員在宣布禁用ChatGPT時(shí)也表達(dá)了同樣的觀點(diǎn),他們指出:“人工智能生成的答案有數(shù)千個(gè),而這些答案通常需要具有專業(yè)知識(shí)的人詳細(xì)閱讀,才能確定答案實(shí)際上是錯(cuò)誤的,這些錯(cuò)誤信息已經(jīng)淹沒(méi)了我們以志愿者為基礎(chǔ)的高質(zhì)量問(wèn)答社區(qū)?!?/p>
令人擔(dān)憂的是,這種模式可能會(huì)在其他平臺(tái)上重復(fù),大量人工智能內(nèi)容會(huì)用看似合理但不正確的回答淹沒(méi)真實(shí)用戶的聲音。
然而,ChatGPT究竟如何在網(wǎng)絡(luò)的不同領(lǐng)域發(fā)揮作用,將取決于平臺(tái)的性質(zhì)及其審核功能。大量錯(cuò)誤回答產(chǎn)生的問(wèn)題能否在未來(lái)通過(guò)過(guò)濾器等工具得到緩解還有待觀察。
一位曾經(jīng)在《GQ》和《滾石》等出版物工作的事實(shí)核查員表示,紙質(zhì)新聞時(shí)代,每個(gè)事實(shí)都必須包含權(quán)威的一手或二手資料來(lái)源,但現(xiàn)在已經(jīng)很少有出版物有事實(shí)核查員,這就把責(zé)任推給了記者和編輯。信息爆炸時(shí)代,以人為媒介傳播的虛假信息尚且讓審核機(jī)制“頭疼”,很難想象當(dāng)人工智能開(kāi)始編造謊言,會(huì)帶來(lái)多大的挑戰(zhàn)。
有不少專家強(qiáng)烈反對(duì)ChatGPT有朝一日可能取代傳統(tǒng)搜索引擎的想法。如果Stack Overflow這種專業(yè)網(wǎng)站的審核速度都無(wú)法跟上人工智能帶來(lái)的錯(cuò)誤信息,那么很難想象其他網(wǎng)站能夠管理鋪天蓋地的AI“廢話”。
當(dāng)一個(gè)錯(cuò)誤信息像閃電一樣在社交媒體上傳播時(shí),搜索引擎需要提供可證實(shí)的信息,而不是一段看似可信的內(nèi)容。
華盛頓大學(xué)語(yǔ)言學(xué)教授Emily Bender最近再次強(qiáng)調(diào)大型語(yǔ)言模型“不適合”搜索:“因?yàn)樗鼈儽辉O(shè)計(jì)成只會(huì)胡編亂造,也沒(méi)有任何信息素養(yǎng)。”
OpenAI在其發(fā)布演示的博客中也明確指出了這一弱點(diǎn),并解釋說(shuō)修復(fù)它是“具有挑戰(zhàn)性的”。OpenAI表示:“在人工智能的強(qiáng)化學(xué)習(xí)訓(xùn)練中,目前尚沒(méi)有真相來(lái)源;訓(xùn)練模型更加謹(jǐn)慎,使其能夠拒絕回答問(wèn)題;監(jiān)督訓(xùn)練會(huì)誤導(dǎo)模型,因?yàn)槔硐氲拇鸢溉Q于模型知道什么,而不是人類演示者知道什么?!?/p>
所以很明顯,OpenAI非常清楚ChatGPT在看似無(wú)所不知的表面下充滿了“廢話”,因?yàn)樗麄儚膩?lái)沒(méi)有想過(guò)這項(xiàng)技術(shù)會(huì)是提供真相的來(lái)源。
不過(guò),最重要的問(wèn)題是:人類用戶會(huì)接受這些似是而非的回答嗎?
在這個(gè)輿論時(shí)常反轉(zhuǎn)的時(shí)代,可能真的會(huì)。因?yàn)橹灰粋€(gè)消息聽(tīng)起來(lái)合理,許多人就會(huì)認(rèn)為這是正確的。
關(guān)鍵詞: ChatGPT被指不靠譜遭封殺 人類面臨新問(wèn)題AIGC的事實(shí)核