谷歌Bard翻車,其實(shí)“一本正經(jīng)的胡說八道”本就是AI最大軟肋-精選

發(fā)布時(shí)間:2023-02-11 07:37:55  |  來源:騰訊網(wǎng)  

在試圖追上微軟和OpenAI在人工智能方面的先發(fā)優(yōu)勢(shì)時(shí),谷歌自己搞砸了。

2月8日,谷歌人工智能聊天機(jī)器人Bard在發(fā)布會(huì)上對(duì)用戶提出的問題給出錯(cuò)誤回答。8日晚,美股開盤,谷歌大跌超7%,市值蒸發(fā)約1020億美元(約6932.50億元人民幣)。

有分析認(rèn)為,這正好暴露了類似的人工智能系統(tǒng)實(shí)際上并不具備“理解能力”,也很難甄別虛假信息,“一本正經(jīng)的胡說八道”就是AI最受質(zhì)疑的軟肋。


【資料圖】

AI犯了一個(gè)價(jià)值千億美元的錯(cuò)

2月8日,谷歌在巴黎召開的發(fā)布會(huì)上再一次展示了Bard——這款為了對(duì)抗ChatGPT推出來的聊天機(jī)器人。按照谷歌的宣傳,Bard不僅要和ChatGPT一樣有問必答,還要更“負(fù)責(zé)任”——暗搓搓地指ChatGPT里摻雜的虛假信息太多,不夠“負(fù)責(zé)”。

這一宣傳明顯提高了人們對(duì)于Bard的期望值。畢竟在最初的驚艷過后,ChatGPT“一本正經(jīng)”的胡說八道,也就是回答里夾雜的不少似是而非的偽信息,已經(jīng)讓很多人對(duì)于使用它提高了警惕,里面邏輯和數(shù)學(xué)上的錯(cuò)誤更加驚人。

讓人沒想到的是,谷歌的Flag立得太早。Bard剛一亮相,就出錯(cuò)了——而且出了個(gè)大糗。

在谷歌短短的幾秒展示里,Bard其實(shí)只被問了一個(gè)問題——“我可以告訴我 9 歲的孩子關(guān)于詹姆斯·韋伯太空望遠(yuǎn)鏡(James Webb Space Telescope ,簡(jiǎn)稱JWST) 的哪些新發(fā)現(xiàn)?”

Bard的回答很精彩——有豐富的信息,而且很形象的比喻,確實(shí)深入淺出地給孩子解釋了JWST的發(fā)現(xiàn)。

然而,里面有一個(gè)巨大的錯(cuò)誤:回答里提到“?JWST 拍攝到了太陽系外行星的第一張照片”,也就是下圖灰線部分。

然而,事實(shí)上,第一張系外行星照片是由歐洲南方天文臺(tái)的Very Large Telescope (VLT) 在 2004 年拍攝的。

最先指出這個(gè)錯(cuò)誤的是天體物理學(xué)家 Grant Tremblay。

他在推特上寫道:“我不是要成為一個(gè)討厭鬼,我相信 Bard 會(huì)令人印象深刻,但鄭重聲明:JWST 并沒有拍下‘我們太陽系外行星的第一張圖片’?!?/p>

天文學(xué)家們認(rèn)為,這一問題可能源于人工智能誤解了“模棱兩可的NASA新聞稿,低估了過去的歷史”。

而在唯一的一次演示里,就犯了這么大的錯(cuò)誤,谷歌可以說顏面盡失,不得不快速撤下了相關(guān)演示的視頻。

但錯(cuò)誤已經(jīng)犯了,代價(jià)就不可避免。消息一傳出,谷歌股票大跌,市值蒸發(fā)約1020億美元(約6932.50億元人民幣)。

可以說,這是AI到目前為止犯下的最昂貴的一個(gè)錯(cuò)誤。

聊天機(jī)器人就是“扯淡生成器”

對(duì)于谷歌這場(chǎng)翻車的發(fā)布會(huì),《每日電訊報(bào)》在報(bào)道中直接寫道,Bard的錯(cuò)誤將進(jìn)一步引發(fā)人們?nèi)ベ|(zhì)疑搜索引擎和人工智能生成答案的準(zhǔn)確性。

其實(shí),對(duì)于聊天機(jī)器人的準(zhǔn)確性,此前已有人工智能分析師警告稱,生成式人工智能(generative AI)仍然存在潛在問題,例如,ChatGPT它的回復(fù)中有時(shí)會(huì)包含虛構(gòu)事實(shí)。研究聊天機(jī)器人缺陷的華盛頓大學(xué)教授Chirag Shah此前表示,“公司經(jīng)常過快地推出新技術(shù),忽視它們的缺陷,然后又試圖快速修復(fù)它們……這會(huì)造成真正的傷害?!?/p>

正如 Tremblay 所指出的,ChatGPT 和 Bard 等 AI 聊天機(jī)器人的一個(gè)主要問題是它們傾向于自信地將不正確的信息陳述為事實(shí)。這些系統(tǒng)經(jīng)?!爱a(chǎn)生幻覺”,即編造虛假信息,因?yàn)樗麄冎皇墙邮艽罅课谋菊Z料庫的訓(xùn)練,但并不是查詢已經(jīng)過驗(yàn)證的事實(shí)的數(shù)據(jù)庫來回答問題。

也有網(wǎng)友評(píng)價(jià)說,這也正是如今的AI研究和語言模型共有的問題:它們非常擅長(zhǎng)生成“看起來”準(zhǔn)確的,但其實(shí)并不準(zhǔn)確的信息。概括來說,他們就是在一本正經(jīng)的胡說八道。

這導(dǎo)致一位著名的 AI 教授,將這些聊天機(jī)器人稱為“扯淡生成器”。

很明顯的一個(gè)例子就是,對(duì)于Bard犯錯(cuò)的這個(gè)問題,其實(shí)Google搜索已經(jīng)給出了正確答案。

如果你在Google上搜索“太陽系外行星的第一張圖片”,Google自己就給出了準(zhǔn)確信息——它是在2004年由VLT第一次捕捉成像。

把檢驗(yàn)真?zhèn)蔚呢?zé)任丟給用戶?

另一個(gè)巨頭微軟已經(jīng)預(yù)見到了這樣的事情發(fā)生。

就在谷歌發(fā)布會(huì)的前一天,微軟也召開了一場(chǎng)發(fā)布會(huì),宣布推出搭載了AI技術(shù)的搜索引擎必應(yīng)(Bing)和瀏覽器Edge,新版本中引入了OpenAI旗下ChatGPT的相關(guān)技術(shù),升級(jí)后,用戶可以直接提出問題,并通過搜索引擎生成答案。

但是,微軟在演示集成了ChatGPT的人工智能Bing搜索引擎時(shí),就試圖通過把責(zé)任丟給用戶來避開同樣的這些問題。它在免責(zé)聲明里稱,“Bing由AI提供支持,因此可能會(huì)出現(xiàn)意外和錯(cuò)誤。請(qǐng)確保進(jìn)行事實(shí)核查并分享反饋,以便我們學(xué)習(xí)和改進(jìn)!”

在周一官宣Bard發(fā)布的博文里,谷歌CEO皮柴曾特別強(qiáng)調(diào),谷歌希望通過這一階段的測(cè)試,來提高Bard的質(zhì)量和速度,確保 Bard的回答達(dá)到高標(biāo)準(zhǔn)。然而,在這個(gè)望遠(yuǎn)鏡烏龍事件后,谷歌發(fā)言人不得不強(qiáng)行挽回一點(diǎn)顏面。他們告訴媒體稱:“這凸顯了嚴(yán)格測(cè)試過程的重要性,我們本周將通過 Trusted Tester 計(jì)劃啟動(dòng)這一過程。我們會(huì)將外部反饋與我們自己的內(nèi)部測(cè)試相結(jié)合,以確保Bard的回應(yīng)在質(zhì)量、安全性和現(xiàn)實(shí)世界信息的基礎(chǔ)性方面達(dá)到高標(biāo)準(zhǔn)?!?/p>

AI還面臨版權(quán)和倫理等諸多爭(zhēng)議

需要強(qiáng)調(diào)的是,越大的公司對(duì)聲譽(yù)和社會(huì)責(zé)任的顧慮越多。

去年11月,Meta具有1200億參數(shù)語言模型Galactica,在生成內(nèi)容里引用文獻(xiàn)時(shí),發(fā)生作者真實(shí)存在但文獻(xiàn)虛構(gòu),以及還存在一本正經(jīng)胡說八道的情況。事態(tài)引起輿論嘩然,短短3天后,飽受爭(zhēng)議的團(tuán)隊(duì)無奈宣布Demo(暫時(shí))下架。

前車之鑒,還有2022年同樣爆火的AI繪畫。當(dāng)時(shí)玩得最開的,當(dāng)屬Stable Diffusion背后的公司Stability AI。

雖然用戶在用其進(jìn)行AI繪畫時(shí)得按需付費(fèi),但它開放源代碼,開發(fā)者可以完全免費(fèi)下載底層代碼來訓(xùn)練自己的模型。開放性像一柄雙刃劍,讓Stability AI陷入了版權(quán)、監(jiān)管等諸多爭(zhēng)議之中。

另一邊,倫理、版權(quán)多重顧慮纏身的OpenAI旗下DALL-E2、谷歌Imagen,在藏著掖著地隔岸觀望后,才下場(chǎng)公測(cè)。結(jié)果么,兩家都跌了跟頭。

也正因如此,OpenAI才痛定思痛,推出ChatGPT來搶占先機(jī)。

但是,有媒體指出,哪怕是接受了兩個(gè)多月的外部測(cè)試反饋和內(nèi)部調(diào)試,ChatGPT仍然會(huì)不受控地口出狂言,發(fā)表一些政治偏向或種族和性別主義歧視言論,也被人們發(fā)現(xiàn)了會(huì)提供錯(cuò)誤信息。盡管OpenAI沒有提供錯(cuò)誤信息頻率的統(tǒng)計(jì)數(shù)據(jù),但這家公司表示,會(huì)通過定期更新使該工具變得更好。

而在微軟發(fā)布的必應(yīng)的例子中,聊天機(jī)器人的答案將被降級(jí)到頁面的一側(cè),而不是通常搜索結(jié)果將保留的前面和中心。機(jī)器人的回答還包括腳注和來源材料的鏈接,這在ChatGPT當(dāng)中是沒有的,但這使得微軟的工具看起來更值得信賴。

反觀谷歌的Bard,回答放在頁面中間、搜索結(jié)果上方顯示了單一的摘要答案,并且沒有腳注,這意味著用戶不可能識(shí)別來源。

OpenAI等公司試圖通過增加數(shù)十億個(gè)參數(shù)來提高語言模型的準(zhǔn)確性,但一些研究人員懷疑,隨著模型的增長(zhǎng),準(zhǔn)確性的回報(bào)會(huì)遞減。

對(duì)于正在進(jìn)行AI大戰(zhàn)的科技巨頭們來說,消除這些持續(xù)存在的少數(shù)謊言可能成為一項(xiàng)長(zhǎng)期挑戰(zhàn)。

上游新聞綜合自同花順財(cái)經(jīng)、投資界、新浪科技、澎湃新聞、華爾街見聞

編輯:陳璐

責(zé)編:張松濤

審核:馮飛

關(guān)鍵詞: 谷歌Bard翻車 其實(shí)一本正經(jīng)的胡說八道本就是AI最大軟肋 人工智能

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號(hào):京ICP備2022016840號(hào)-16 營(yíng)業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com