“最近開始玩ChatGPT,的確很驚人。”一位生物學(xué)領(lǐng)域的科學(xué)家近日在社交媒體上感慨。在他展示的向ChatGPT發(fā)起的挑戰(zhàn)中,提出的問題包括如何運(yùn)營(yíng)公司、如何管理孩子、為何生育率下降,再到中國(guó)的文化和政策問題,ChatGPT大多能應(yīng)對(duì)流暢。
(資料圖)
這款當(dāng)今最火爆的AI語(yǔ)言模型,由美國(guó)人工智能實(shí)驗(yàn)室OpenAI于去年11月底發(fā)布,并迅速火遍全球。人們長(zhǎng)期苦于那些智能語(yǔ)音助手的傻瓜回答,這次ChatGPT卻出乎意料的聰明:它可以用來創(chuàng)作故事、撰寫新聞、回答客觀問題、聊天、寫代碼和查找代碼問題等。外媒評(píng)論稱,ChatGPT會(huì)成為科技行業(yè)的下一個(gè)顛覆者。
ChatGPT是自然語(yǔ)言處理(NLP)中一項(xiàng)引人矚目的進(jìn)展,它閱覽了互聯(lián)網(wǎng)上幾乎所有數(shù)據(jù),并在超級(jí)復(fù)雜的模型之下進(jìn)行深度學(xué)習(xí)。因?yàn)檎Z(yǔ)言是人類智慧、思維方式的核心體現(xiàn),因此,自然語(yǔ)言處理被稱作“AI皇冠上的明珠”。而ChatGPT的出色表現(xiàn),被認(rèn)為可能是邁向通用型AI的一種可行路徑——作為一種底層模型,它再次驗(yàn)證了深度學(xué)習(xí)中“規(guī)模”的意義。
1月12日,在美國(guó)一場(chǎng)活動(dòng)上,曾擔(dān)任微軟董事長(zhǎng)的比爾·蓋茨表示,他不認(rèn)為Web3有那么重要,也不認(rèn)為元宇宙本身是革命性的,但是人工智能卻是頗具顛覆性的。當(dāng)被問及如何看待ChatGPT時(shí),他說,“這讓我能一窺未來。整個(gè)平臺(tái)的方法和創(chuàng)新速度都令我印象深刻?!?/p>
最新發(fā)布的ChatGPT,在應(yīng)用層進(jìn)行了強(qiáng)化訓(xùn)練,提高了對(duì)話質(zhì)量。圖/視覺中國(guó)
文本生成和對(duì)話領(lǐng)域,基本要被“洗一遍”
GPT英文全稱為Generative Pre-trained Transformer(生成式預(yù)訓(xùn)練轉(zhuǎn)換器),是一種基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練的文本生成深度學(xué)習(xí)模型。ChatGPT“脫胎”于OpenAI在2020年發(fā)布的GPT-3,后者是目前訓(xùn)練參數(shù)量最大的AI模型,當(dāng)時(shí)發(fā)布后便引發(fā)了廣泛的關(guān)注。
此次發(fā)布的ChatGPT實(shí)際上是GPT-3.5。在3.0的基礎(chǔ)上,ChatGPT在應(yīng)用層進(jìn)行了強(qiáng)化訓(xùn)練,提高了對(duì)話質(zhì)量。
王帥是AI領(lǐng)域從業(yè)20多年的一位工程師,目前在英偉達(dá)工作。他對(duì)《中國(guó)新聞周刊》介紹說,首先,OpenAI引入了人類監(jiān)督員,對(duì)AI的回答進(jìn)行打分,使得它在眾多可能的回答中選擇那些更加符合人類預(yù)期的答案;其次,新版本還引入了多輪對(duì)話,尤其是在涉及一些有關(guān)步驟的問答當(dāng)中,讓這個(gè)模型的語(yǔ)言前后邏輯更加明晰、有因果關(guān)聯(lián)。
創(chuàng)新工場(chǎng)人工智能工程院執(zhí)行院長(zhǎng)王詠剛告訴《中國(guó)新聞周刊》,人類處理數(shù)學(xué)公式時(shí),如果有幾十個(gè)參數(shù),就已非常之復(fù)雜了。然而,GPT-3卻相當(dāng)于是一個(gè)包含1750億個(gè)參數(shù)的公式,來處理所有互聯(lián)網(wǎng)上的數(shù)據(jù),以理解人類當(dāng)今的文本和語(yǔ)言。因此,他評(píng)價(jià),OpenAI的超大規(guī)模預(yù)訓(xùn)練模型是深度學(xué)習(xí)誕生以來,AI在行為表現(xiàn)上最接近人類智慧的一個(gè)時(shí)期。OpenAI還在不斷提升AI訓(xùn)練的規(guī)模和復(fù)雜度。
硅谷科技公司PerceptIn創(chuàng)始人劉少山在接受《中國(guó)新聞周刊》采訪時(shí)表示,過去,AI已經(jīng)能在一些特定任務(wù)上做得很出色,比如,在圖像識(shí)別、語(yǔ)音理解方面,計(jì)算機(jī)正逐漸取代人的眼睛和耳朵行使的功能,但一直無法實(shí)現(xiàn)通用。所謂通用人工智能,即與實(shí)現(xiàn)特定任務(wù)的AI相對(duì)應(yīng)。
2020年,在一場(chǎng)業(yè)內(nèi)會(huì)議上,美國(guó)康奈爾大學(xué)計(jì)算機(jī)教授巴特·塞爾曼談到,通用人工智能可能還需要20年以上才可以實(shí)現(xiàn),“不過如果我們?cè)谖磥砦宓绞昴茉谡嬲淖匀徽Z(yǔ)言理解上獲得突破,使得AI可以去閱讀圖書、從互聯(lián)網(wǎng)獲得知識(shí),那么這個(gè)進(jìn)程可能會(huì)被大大加速”。
ChatGPT有更好的語(yǔ)言理解能力,意味著它可以更像一個(gè)通用的任務(wù)助理,能夠和不同行業(yè)結(jié)合,衍生出很多應(yīng)用的場(chǎng)景。劉少山認(rèn)為,它可以說是打開了通用人工智能的一扇大門。
王詠剛指出,可以說,互聯(lián)網(wǎng)的每一個(gè)環(huán)節(jié),只要涉及文本生成和對(duì)話的,未來基本上要被ChatGPT“洗一遍”。也就是說,都需要結(jié)合這一語(yǔ)言工具,才能得到一個(gè)接近于自然人類語(yǔ)言對(duì)話的效果。
以自動(dòng)駕駛為例,劉少山說,目前的自動(dòng)駕駛還比較“傻”,因?yàn)槠嚨闹悄芟到y(tǒng)與人的交互是比較機(jī)械的,比如說,前面有一輛車,按照規(guī)則,它有可能會(huì)無法正確判斷什么時(shí)候該繞行。而ChatGPT等人工智能的迭代,未來可能會(huì)讓機(jī)器更接近人的思維模式,學(xué)習(xí)人的駕駛行為,帶領(lǐng)自動(dòng)駕駛進(jìn)入“2.0時(shí)代”。
近來,據(jù)美國(guó)硅谷的科技媒體報(bào)道,微軟已經(jīng)討論在Word、PowerPoint、Outlook和其他應(yīng)用程序中加入ChatGPT。1月17日舉行的達(dá)沃斯世界經(jīng)濟(jì)論壇《華爾街日?qǐng)?bào)》座談會(huì)上,微軟CEO薩提亞·納德拉表示,微軟將迅速采取行動(dòng),力爭(zhēng)讓OpenAI的工具快速商業(yè)化。
人類世界有許多重復(fù)性的、程式化的語(yǔ)言文字工作,不需要復(fù)雜的邏輯思考或決策判斷。ChatGPT幫助人們更流暢、更快速地書寫這些段落的潛力,可能會(huì)成為微軟這些應(yīng)用程序的“殺手锏”。比如,在人們需要請(qǐng)假時(shí),只要打出“寫一封請(qǐng)病假的郵件”幾個(gè)字,Outlook就能把措辭正式的請(qǐng)假申請(qǐng)寫好。
在“ChatGPT+”的世界,搜索引擎領(lǐng)域的變化,尤為引發(fā)關(guān)注。目前的搜索引擎基于關(guān)鍵字響應(yīng),根據(jù)搜索結(jié)果進(jìn)一步篩選信息然后整合。一些人相信,基于對(duì)話的搜索,可能會(huì)徹底改造甚至取代當(dāng)前的信息檢索方式。有美國(guó)科技媒體1月初的報(bào)道指出,微軟正在考慮將ChatGPT整合到其搜索引擎“必應(yīng)”當(dāng)中。
20多年來,谷歌搜索引擎一直是全球互聯(lián)網(wǎng)的主要門戶網(wǎng)站之一。隨著ChatGPT等產(chǎn)品的出現(xiàn),《紐約時(shí)報(bào)》在2022年12月21日的文章中指出,谷歌的主要搜索業(yè)務(wù)可能首次面臨嚴(yán)重威脅。谷歌的管理層已發(fā)布表示情況緊急的“紅色代碼”,著手應(yīng)對(duì)。一些人擔(dān)心,一場(chǎng)可能顛覆整個(gè)AI行業(yè)的巨大技術(shù)變革正在到來。
谷歌率先提出關(guān)于深度學(xué)習(xí)模型最核心的算法,但是應(yīng)用上卻是OpenAI這樣的機(jī)構(gòu)推得更快。對(duì)谷歌較為熟悉的王詠剛指出,一個(gè)很重要的原因是,像谷歌這樣的大公司,作為互聯(lián)網(wǎng)的信息提供商,其實(shí)對(duì)于新技術(shù)的商業(yè)化使用是很謹(jǐn)慎的。比如,如果ChatGPT在知識(shí)性的回答上有95%的正確率,那5%的錯(cuò)誤率能夠接受嗎?
在2021年5月的谷歌網(wǎng)絡(luò)開發(fā)者年會(huì)上,谷歌就展示了其最新的人工智能系統(tǒng)LaMDA。谷歌表示,LaMDA可以使回答更加“合情合理”,讓對(duì)話更自然地進(jìn)行,而且這些回復(fù)都不是預(yù)先設(shè)定的。但目前,谷歌仍不愿向公眾發(fā)布LaMDA。谷歌表示,部分原因在于,LaMDA存在較高的誤差,且容易對(duì)用戶造成傷害。
“現(xiàn)在還很難判斷?!痹谟ミ_(dá)工作的王帥說,如果ChatGPT能夠取代當(dāng)前的搜索引擎,谷歌也不會(huì)坐以待斃,因?yàn)樵诖笠?guī)模語(yǔ)言模型上,它與微軟之間并不存在技術(shù)上有與沒有的區(qū)別;其次,技術(shù)只是一方面的原因,這背后還有運(yùn)營(yíng)成本、效率、商業(yè)模式等方面的考慮。
事實(shí)上,《紐約時(shí)報(bào)》也指出,谷歌可能不愿意部署這項(xiàng)新技術(shù)來替代在線搜索,因?yàn)樗贿m合投放數(shù)字廣告——如果ChatGPT能夠完美響應(yīng)搜索,人們就沒有動(dòng)機(jī)點(diǎn)擊額外的鏈接,而廣告在2021年為谷歌掙了2080億美元,占谷歌母公司Alphabet總收入的81%。
更先進(jìn)的GPT-4出來以后,可能會(huì)帶來更為驚艷的成果。幾個(gè)月前,王詠剛與OpenAI的兩位聯(lián)合創(chuàng)始人見了個(gè)面,談?wù)摿薌PT-4的一些技術(shù)問題。盡管尚沒有準(zhǔn)確的數(shù)據(jù),但他分析說,GPT-3模型參數(shù)量級(jí)是1750億規(guī)模的,而GPT-4的參數(shù)可能將比它高出幾個(gè)量級(jí)。他表示,那是令人嘆為觀止的訓(xùn)練量,“想象一下,如果說GPT-3相當(dāng)于昆蟲大小的腦容量,那么 GPT-4可能會(huì)達(dá)到哺乳動(dòng)物的腦容量”。
不過,ChatGPT還遠(yuǎn)不完美。因?yàn)檫@類人工智能對(duì)話機(jī)器人是通過消化互聯(lián)網(wǎng)上公開的大量數(shù)據(jù)來成長(zhǎng)的,所以,它們的知識(shí)結(jié)構(gòu)中同時(shí)有事實(shí)和虛構(gòu)的部分,傳遞的信息可能也會(huì)存在偏見、甚至仇恨言論等。前述生物學(xué)家表示,ChatGPT“不禁逗”,一些問題回答錯(cuò)誤或者無法解答。
《麻省理工科技評(píng)論》在去年11月末尖銳地指出,所有的大規(guī)模語(yǔ)言模型都在輸出“nonsense(愚蠢的話)”,ChatGPT看起來解決了一些問題,但遠(yuǎn)不是一個(gè)徹底的終結(jié)。OpenAI的科學(xué)家約翰·舒爾曼也承認(rèn),還有很多事情要做,“我們?cè)谶@個(gè)問題上取得了一些進(jìn)展,但還遠(yuǎn)未解決”。
“從水下100米到馬里亞納海溝”
長(zhǎng)期以來,在AI領(lǐng)域,存在著一場(chǎng)曠日持久的爭(zhēng)論:基于深度學(xué)習(xí)和超強(qiáng)算力的大模型訓(xùn)練,是否是抵達(dá)通用人工智能的最終道路?在這方面,OpenAI無疑是一個(gè)堅(jiān)定的押注者。
2018年6月,OpenAI發(fā)表論文《通過生成式預(yù)訓(xùn)練加強(qiáng)語(yǔ)言理解》,首次介紹了自己的語(yǔ)言模型GPT-1。它在深度學(xué)習(xí)模型Transformer架構(gòu)上,使用了內(nèi)含幾十億個(gè)文本文檔的超大規(guī)模語(yǔ)言資料庫(kù)進(jìn)行訓(xùn)練,參數(shù)量為1.17億。2019年2月,升級(jí)版GPT-2發(fā)布,模型參數(shù)達(dá)到15億,且訓(xùn)練模型的數(shù)據(jù)庫(kù)也更大;2020年,規(guī)模大百倍的GPT-3誕生。
創(chuàng)新工場(chǎng)人工智能工程院執(zhí)行院長(zhǎng)王詠剛打了個(gè)比方,如果說傳統(tǒng)的機(jī)器學(xué)習(xí)或人工智能是在水下一米的深處探索,那么深度學(xué)習(xí)的出現(xiàn)將人們帶到了一百米的深水區(qū);而在Transformer、GPT等架構(gòu)后,從業(yè)者們直接能抵達(dá)深度超過萬(wàn)米的馬里亞納海溝。
過去5年中,大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型受到業(yè)內(nèi)越來越多的重視。王帥指出,過去依靠人工標(biāo)注和精巧設(shè)計(jì)的訓(xùn)練方法,數(shù)據(jù)量大幅增加以后,表現(xiàn)并不好;相反,大家逐漸意識(shí)到,不斷擴(kuò)大模型規(guī)模、不斷用更多數(shù)據(jù)去訓(xùn)練模型,是提高算法能力非常有效的一個(gè)手段。
“目前看起來,這種模型太有用了。而且從ChatGPT的結(jié)果來看,超出了我們的預(yù)料。”王帥說,可以認(rèn)為這種不斷增加規(guī)模的大模型已經(jīng)是領(lǐng)域的一種范式,可能人工智能領(lǐng)域未來有很多地方都可以用類似方法推進(jìn)。
“今天,全世界的人工智能研究有很多方向,也產(chǎn)生了大量的成果。但是嚴(yán)格來說,所有這些最令人驚艷的結(jié)果, 90%以上是基于Transformer迭代來的這些大模型技術(shù)得到的。”王詠剛也指出,目前幾乎所有的AI任務(wù)和項(xiàng)目,都會(huì)和大語(yǔ)言模型技術(shù)有關(guān)聯(lián),它已經(jīng)代表了AI界最主流的科研和技術(shù)迭代方向。
2022年7月,Alphabet旗下的DeepMind公司與歐洲生物信息研究所的團(tuán)隊(duì)合作公布了生物學(xué)領(lǐng)域的一項(xiàng)重大飛躍。他們利用人工智能系統(tǒng)AlphaFold預(yù)測(cè)出超過100萬(wàn)個(gè)物種的2.14億個(gè)蛋白質(zhì)結(jié)構(gòu),幾乎涵蓋了地球上所有已知蛋白質(zhì)。許多研究人員表示,這一系列突破將加速新藥開發(fā),并為基礎(chǔ)科學(xué)帶來全新革命。而Alphafold同樣是基于Transformer結(jié)構(gòu)的深度學(xué)習(xí)模型。
OpenAI是一家非營(yíng)利性的研究機(jī)構(gòu),于2015年成立,由特斯拉創(chuàng)始人馬斯克、創(chuàng)業(yè)孵化器Y Combinator總裁山姆·奧特曼、PayPal聯(lián)合創(chuàng)始人彼得·蒂爾等硅谷大亨們創(chuàng)建,其愿景是實(shí)現(xiàn)安全的通用人工智能,并向公眾開放。
多位受訪業(yè)內(nèi)人士指出,大規(guī)模語(yǔ)言模型并不是OpenAI的“獨(dú)門技術(shù)”;再加上人才和資金的雄厚,谷歌、微軟、百度等AI領(lǐng)域的巨頭公司并不是無法復(fù)制下一個(gè)ChatGPT。實(shí)際上,ChatGPT誕生之前,硅谷巨頭們都意識(shí)到了大語(yǔ)言模型的重要性,比如,DeepMind也發(fā)布了人工智能聊天機(jī)器人Sparrow,F(xiàn)acebook母公司Meta也有自己的同類產(chǎn)品。
然而,不同的是,這些年來,OpenAI一直將資源集中在這個(gè)方向上。在微軟等巨頭公司的資金和技術(shù)支持下,它不斷將這種方法論推向極致?!耙?guī)模至上的這種理念和方法論是OpenAI特別推崇的,相對(duì)來說,其他公司或者團(tuán)隊(duì)沒有他們這么堅(jiān)信。”王詠剛說。
不過,王詠剛說,在ChatGPT出圈之后,從業(yè)者們的心態(tài)是比較微妙的。一方面,業(yè)界可能會(huì)越來越重視這條路徑,投入更多資源;另一方面,大家又希望它不是AI領(lǐng)域唯一核心的方法,還能夠有空間探索更多的可能性。
“僅僅靠數(shù)據(jù)驅(qū)動(dòng)的路徑,雖然能讓AI在一些領(lǐng)域達(dá)到接近或者超過人類的水平,例如人臉識(shí)別,但在另一些領(lǐng)域,比如自動(dòng)駕駛,我們需要的是接近100%的安全性?!笨的螤柎髮W(xué)計(jì)算機(jī)教授巴特·塞爾曼就認(rèn)為,這最后的10%、5%的提升,可能不是深度學(xué)習(xí)本身能夠解決的,需要不同的思路。
對(duì)AI的理解落后于其發(fā)展速度
2022年9月,一位年輕人用Al繪畫工具M(jìn)idjourney生成的作品《太空歌劇院》,在美國(guó)科羅拉多州博覽會(huì)的美術(shù)比賽中獲得大獎(jiǎng),獲獎(jiǎng)?lì)悇e是“數(shù)字藝術(shù)/數(shù)字修飾照片”組第一名。不過,這引發(fā)了一場(chǎng)人文爭(zhēng)議和反AI繪畫的浪潮。
有網(wǎng)友表示,我們眼睜睜地見證了藝術(shù)的死亡,“如果連藝術(shù)工作都無法避免被機(jī)器所吞沒,那么高技能的工種也將面臨被淘汰的危機(jī)。到時(shí)候,我們又能剩下什么呢?”
劉少山談到,AI科學(xué)家們最初的猜想是,AI大發(fā)展后,一些藍(lán)領(lǐng)崗位、重復(fù)性的工作會(huì)首先被取代。然而,ChatGPT、AlphaFold等工具出來后,人們發(fā)現(xiàn),最先感受到AI沖擊的,反而是創(chuàng)造性的工作,而送餐這一類涉及勞動(dòng)力的工作卻沒能被取代。他解釋說,在機(jī)器人、自動(dòng)駕駛等領(lǐng)域,機(jī)械與智能是兩個(gè)基本的模塊?,F(xiàn)實(shí)進(jìn)展來看,機(jī)械部分有很多物理上的限制,很多技術(shù)目前尚未突破;得益于深度學(xué)習(xí)等模型的發(fā)展,智能部分反而突破更快。
這些涉及創(chuàng)造力、知識(shí)探索、信息獲取的行業(yè),是人文領(lǐng)域的核心,是人類最擔(dān)心被機(jī)器化的部分。一直以來,AI在這些領(lǐng)域的重大突破都伴隨著廣泛的倫理爭(zhēng)議。
世界知名的復(fù)雜性科學(xué)研究中心、美國(guó)圣塔菲研究所教授梅勒妮·米切爾近日在接受媒體采訪時(shí)就談到,過于盲目采用這些技術(shù),將我們的交流和創(chuàng)意自動(dòng)化,可能會(huì)導(dǎo)致人類失去對(duì)機(jī)器的控制,“機(jī)器人會(huì)給機(jī)器人寫電子郵件,而機(jī)器人會(huì)回復(fù)其他機(jī)器人”。米切爾說,“我們作為人的特質(zhì)從我們的信息中被卷走了?!?/p>
1月5日,紐約市教育部門表示,紐約公立學(xué)校的所有設(shè)備和網(wǎng)絡(luò)上將禁止使用ChatGPT。紐約市教育部門發(fā)言人詹娜·萊爾指出,這一決定是基于“該工具可能會(huì)對(duì)學(xué)生學(xué)習(xí)產(chǎn)生負(fù)面影響,以及對(duì)其內(nèi)容的安全性和準(zhǔn)確性的擔(dān)憂”。
人們普遍表示擔(dān)心,該工具可能會(huì)鼓勵(lì)學(xué)生抄襲。詹娜·萊爾說,雖然ChatGPT能夠?yàn)閱栴}提供快速而簡(jiǎn)單的答案,但它沒有培養(yǎng)批判性思維和解決問題的能力,而這些能力對(duì)學(xué)術(shù)和終身成功來說是至關(guān)重要的。
2022年12月27日,美國(guó)西北大學(xué)的一個(gè)團(tuán)隊(duì)在預(yù)印本論文bioRxiv上發(fā)表了一篇文章。這項(xiàng)研究中,研究者讓ChatGPT學(xué)習(xí)發(fā)表在《柳葉刀》《美國(guó)醫(yī)學(xué)會(huì)雜志》等頂刊上的文章,并撰寫50篇醫(yī)學(xué)研究摘要,然后讓抄襲檢測(cè)器、人工智能輸出檢測(cè)器和期刊審稿人將這些摘要與原始摘要比較,找出ChatGPT編造的摘要。
結(jié)果發(fā)現(xiàn),ChatGPT生成的摘要全部順利通過了抄襲檢測(cè)器,人工智能輸出器找出了66%的生成摘要,期刊審稿人僅正確識(shí)別了68%的生成摘要和86%的真實(shí)摘要。研究者們表示,使用大型語(yǔ)言模型進(jìn)行科學(xué)寫作的道德和可接受邊界需要被進(jìn)一步明確。
《自然》雜志最新發(fā)布的規(guī)定稱,任何大型語(yǔ)言模型工具都不能成為論文作者;如在論文創(chuàng)作中用過相關(guān)工具,作者應(yīng)在“方法”或“致謝”或適當(dāng)部分明確說明。
王帥認(rèn)為,用AI寫論文這樣的事情,技術(shù)上一定會(huì)發(fā)生的,而且知識(shí)獲取的門檻越來越低,“我覺得發(fā)展方向上更多不一定是禁止它,而是說教育評(píng)估的標(biāo)準(zhǔn)和理念需要發(fā)生變化。相比那些大段輸出的、能夠在機(jī)器的幫助下寫得更好的文字,思考的質(zhì)量、深度和研究的原創(chuàng)性等將會(huì)越來越重要”。
這就好像一項(xiàng)新的技術(shù),比如說汽車、飛機(jī)被發(fā)明了,不可能說不用它們,關(guān)鍵是如何使用、如何規(guī)范。從這一意義上來說,王帥表示,以ChatGPT為代表的生成式人工智能的出現(xiàn),圍繞它及其應(yīng)用相關(guān)的各方面都沒有跟上,包括法律、教育、社會(huì)、倫理等。實(shí)際上,就算是圈內(nèi)人,也沒有完全理解AI領(lǐng)域正在發(fā)生的事情意味著什么。
2022年12月,《大西洋月刊》在《大學(xué)論文已死》的文章中警示,沒有人為人工智能將如何改變學(xué)術(shù)界做好準(zhǔn)備?!叭缃馎I模型遠(yuǎn)比我們想象的更強(qiáng)大,而我們用于探索它們的技術(shù)卻非常幼稚。”O(jiān)penAI實(shí)驗(yàn)室的人工智能政策專家杰克·克拉克在近來的一篇文章中寫道。
劉少山也認(rèn)為,目前,業(yè)內(nèi)沒有能力去處理AI帶來的可能的社會(huì)影響,因?yàn)槿藗儗?duì)它的了解還很有限,這是最大的問題。比如說,盡管美國(guó)部分學(xué)校禁用ChatGPT生成的內(nèi)容,但現(xiàn)在卻沒有手段檢測(cè)和區(qū)分機(jī)器與人類生產(chǎn)的內(nèi)容,也就更加難說防御機(jī)制,“因?yàn)镚PT這些技術(shù)太新了,監(jiān)管部門也沒辦法去理解。我認(rèn)為,在幾年時(shí)間內(nèi),網(wǎng)絡(luò)上會(huì)有很多虛假信息的出現(xiàn)”。
每一次AI出現(xiàn)一個(gè)新東西,大眾總是會(huì)覺得某種巨大的變化將要來臨,并且往往伴隨著機(jī)器代替人工的擔(dān)憂。然而,王詠剛說,人們一方面太容易夸大AI短期內(nèi)取得的成果和影響;另一方面,卻又忽視AI正在發(fā)生的、真正可能帶來不可逆的長(zhǎng)期變化。
在他看來,短期來說,ChatGPT等人工智能的應(yīng)用仍舊是工具式的,它會(huì)提高效率、替代一部分工作,但真正值得擔(dān)心的是,隨著計(jì)算機(jī)能夠處理的數(shù)據(jù)結(jié)構(gòu)、模型、算法越來越膨脹和復(fù)雜,里面可能有大量的“黑盒子”運(yùn)算,人們未必能預(yù)測(cè)其最終輸出的結(jié)果。會(huì)不會(huì)在某個(gè)時(shí)間點(diǎn),人工智能會(huì)跨越某個(gè)關(guān)鍵的節(jié)點(diǎn),進(jìn)入到一個(gè)我們尚未看到的世界,沒有人可以預(yù)測(cè)。
(文中王帥為化名,實(shí)習(xí)生李金津?qū)Ρ疚囊嘤胸暙I(xiàn)。)
記者:彭丹妮
關(guān)鍵詞: 聊天機(jī)器人ChatGPT火出圈 能寫論文、編代碼、創(chuàng)作小說 人工智能