馬庫(kù)斯:新必應(yīng)比ChatGPT更狂野,微軟是故意的還是不小心?_世界要聞

發(fā)布時(shí)間:2023-02-23 17:40:08  |  來(lái)源:騰訊網(wǎng)  

新智元報(bào)道??


(資料圖)

編輯:LRS

【新智元導(dǎo)讀】馬庫(kù)斯分析了幾個(gè)可能性,認(rèn)為國(guó)家必須出臺(tái)監(jiān)管措施,否則大公司將會(huì)摧毀AI行業(yè)。

自從新必應(yīng)開(kāi)啟大范圍內(nèi)測(cè)后,網(wǎng)友發(fā)現(xiàn),相比內(nèi)斂的ChatGPT,新必應(yīng)的回答實(shí)在是太狂野了,比如

宣布一段不必要的愛(ài)情、鼓勵(lì)人們離婚、敲詐用戶、教人們?nèi)绾畏缸?/p>

等等。

可以說(shuō)微軟是保留了一部分語(yǔ)言模型的「胡言亂語(yǔ)」的能力,這樣你才知道你用的不是ChatGPT,而是新必應(yīng)。

到底是微軟的RLHF沒(méi)做到位,還是精彩的互聯(lián)網(wǎng)語(yǔ)料讓ChatGPT迷失了自我?

最近,著名AI學(xué)者、Robust.AI的創(chuàng)始人兼 CEO 、紐約大學(xué)的名譽(yù)教授Gary Marcus又發(fā)表了一篇博客,分析了必應(yīng)發(fā)狂的幾個(gè)可能性,并表示放任不管,可能會(huì)對(duì)AI界的發(fā)展產(chǎn)生極其嚴(yán)重的后續(xù)影響。

必應(yīng)為何如此狂野?

普林斯頓大學(xué)教授 Arvind Narayanan 提出了四個(gè)關(guān)于Bing為什么如此「狂野」的可能性。

在推文中,Narayanan教授認(rèn)為OpenAI 在過(guò)濾 ChatGPT 的有毒輸出方面做得不錯(cuò),但看起來(lái)Bing似乎移除了這些保護(hù)措施,非常令人困惑。

他認(rèn)為微軟這么做并不只是為了搞笑,這么著急發(fā)布新必應(yīng)肯定還有其他原因。

可能性1:新必應(yīng)就是GPT-4

新必應(yīng)表現(xiàn)出的行為與 ChatGPT 可以說(shuō)是相當(dāng)不同了,看起來(lái)不可能是基于相同的底層模型。也許 LLM 只是最近才完成訓(xùn)練(即GPT-4?)。如果是這樣的話,微軟很可能選擇(很不明智地)決定迅速推出新模型,而沒(méi)有選擇延遲發(fā)布,經(jīng)受進(jìn)一步的RLHF訓(xùn)練。

馬庫(kù)斯在之前的文章《ChatGPT的黑暗內(nèi)心》中也表示,在大型語(yǔ)言模型中潛藏著許多令人感到不適的內(nèi)容,也許微軟沒(méi)有采取任何措施來(lái)過(guò)濾有毒內(nèi)容。

博客鏈接:https://garymarcus.substack.com/p/inside-the-heart-of-chatgpts-darkness

可能性2:假陽(yáng)性太多

微軟可能確實(shí)為Bing打造了一個(gè)過(guò)濾器,但是實(shí)際使用中預(yù)測(cè)了太多的假陽(yáng)性(false positives)樣本。對(duì)于ChatGPT來(lái)說(shuō),這個(gè)問(wèn)題無(wú)關(guān)痛癢,但在搜索場(chǎng)景下,就會(huì)嚴(yán)重影響用戶體驗(yàn)。

也就是說(shuō),過(guò)濾器太煩人了,所以在真正的搜索引擎里不能用。

可能性3:為了獲取用戶反饋

Bing有可能故意關(guān)閉了過(guò)濾器的限制,以獲得更多關(guān)于可能出錯(cuò)的用戶反饋。微軟在早些時(shí)候提出了一個(gè)奇怪的聲明,認(rèn)為不可能在實(shí)驗(yàn)室中完成測(cè)試。

可能性4:微軟也沒(méi)想到會(huì)這樣

有可能微軟認(rèn)為基于prompt工程打造的過(guò)濾器已經(jīng)夠用了,并且是真的沒(méi)有預(yù)料到新必應(yīng)出錯(cuò)的方式發(fā)展到了今天這種地步。

馬庫(kù)斯表示基本認(rèn)同Narayanan教授的看法,不過(guò)他認(rèn)為也許微軟并沒(méi)有移除保護(hù)措施,可能就是「單純地沒(méi)作用」,這也是第五種可能性。

即,也許微軟確實(shí)試圖將他們現(xiàn)有的、已經(jīng)訓(xùn)練過(guò)的 RLHF 模型置于GPT 3.6之上,但這種做法并不奏效。

強(qiáng)化學(xué)習(xí)是出了名的挑剔,稍微改變一下環(huán)境,就可能沒(méi)用了。

DeepMind 著名的 DQN 強(qiáng)化學(xué)習(xí)在雅達(dá)利游戲中創(chuàng)造了記錄,然后只是加入一些小的改動(dòng),比如在 Breakout 游戲中將槳只是向上移動(dòng)了幾個(gè)像素,模型就崩潰了,也許每一次大型語(yǔ)言模型的更新都需要對(duì)強(qiáng)化學(xué)習(xí)模塊進(jìn)行全面的重新訓(xùn)練。

這是一個(gè)非常糟糕的消息,不僅在人力和經(jīng)濟(jì)成本方面(意味著需要更多的低薪人員做糟糕的工作),而且在可信度方面,也將意味著無(wú)法保證任何新的大型語(yǔ)言模型的迭代是安全的。

這種情況尤其可怕,主要有兩個(gè)原因:

1. 大公司可以在任何時(shí)候自由推出新的更新,無(wú)需發(fā)布任何警告信息;

2. 發(fā)布新模型時(shí)可能需要一遍又一遍地在公眾身上進(jìn)行測(cè)試,而事先并不知道在公眾上進(jìn)行實(shí)證測(cè)試的效果如何。

類比醫(yī)學(xué)領(lǐng)域發(fā)布新藥,公眾要求在新藥發(fā)布之前在實(shí)驗(yàn)室內(nèi)進(jìn)行充分的測(cè)試,換到大型語(yǔ)言模型的發(fā)布,特別是如果數(shù)十億人可能使用到,且可能存在嚴(yán)重的風(fēng)險(xiǎn)(例如擾亂用戶的心理健康和婚姻狀況)的情況下,我們也不應(yīng)該讓他們直接公開(kāi)測(cè)試,

政策上,公眾有權(quán)(或嚴(yán)格來(lái)說(shuō)應(yīng)該堅(jiān)持)知道模型存在什么問(wèn)題。

比如必應(yīng)披露問(wèn)題后,就可以制定政策,防止類似事件再次發(fā)生。而目前,人工智能基本上處于狂野發(fā)展的階段,任何人都可以發(fā)布一個(gè)聊天機(jī)器人。

國(guó)會(huì)需要弄清楚發(fā)生了什么,并開(kāi)始設(shè)置一些限制,特別是在情感或身體上很容易造成傷害的地方。

新聞業(yè)里,媒體也讓人很失望。

Kevin Roose在最初的報(bào)告中表示,他對(duì)必應(yīng)感到「驚嘆」(awed),這讓馬庫(kù)斯感到尤為不安,很顯然,在《紐約時(shí)報(bào)》(The New York Times)上過(guò)早地宣傳,沒(méi)有深入挖掘潛在的問(wèn)題,這并不是一件好事。

除此之外,再補(bǔ)充一點(diǎn),已經(jīng)到了2023年,微軟的保護(hù)措施是否足夠?有被徹底研究過(guò)嗎?

請(qǐng)不要說(shuō),你除了對(duì)新系統(tǒng)感到「驚嘆」以外,沒(méi)有任何感受。

最后,Narayanan教授認(rèn)為我們正處于人工智能和公民社會(huì)的關(guān)鍵時(shí)刻,如果不采取措施,過(guò)去五年多在「發(fā)布負(fù)責(zé)任的人工智能」(responsible AI release)上的實(shí)踐努力將被抹殺。

參考資料:

https://garymarcus.substack.com/p/why-is-bing-so-reckless?utm_source=twitter&sd=pf

關(guān)鍵詞: 馬庫(kù)斯新必應(yīng)比ChatGPT更狂野 微軟是故意的還是不小心

 

網(wǎng)站介紹  |  版權(quán)說(shuō)明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號(hào):京ICP備2022016840號(hào)-16 營(yíng)業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com