財(cái)聯(lián)社2月3日訊(編輯 劉蕊)隨著去年11月ChatGPT開放注冊(cè)以來,人工智能再度成為全球熱議的話題。從編程、寫稿到市場(chǎng)分析、平面設(shè)計(jì),ChatGPT及其他人工智能工具已經(jīng)展現(xiàn)出了超出人們想象力的強(qiáng)大能力。
然而這一進(jìn)展也引起了越來越多人的擔(dān)憂:人工智能未來是否真的會(huì)搶走我們的工作?
關(guān)于這個(gè)問題的答案,結(jié)合眾多專家的觀點(diǎn),我們可以暫時(shí)得出一個(gè)壞消息和一個(gè)好消息。
(資料圖片僅供參考)
壞消息是:可能真的會(huì)。
好消息是:至少短期內(nèi)還有難度。
AI已經(jīng)比很多真人更聰明?
自去年11月發(fā)布以來,ChatGPT已被用于撰寫求職信、創(chuàng)作兒童讀物,甚至幫助學(xué)生作弊。從編程、寫稿、到教育、法律,ChatGPT展現(xiàn)出來的能力之強(qiáng),似乎已經(jīng)超出人們的想象。
事實(shí)上,在ChatGPT爆火以后,一些研究人員已經(jīng)對(duì)其在商業(yè)管理、醫(yī)療和法律方面的能力進(jìn)行了測(cè)試,而其展現(xiàn)出的能力可能比很多真人都要強(qiáng)。
比如,在一篇題為“ ChatGPT會(huì)獲得沃頓商學(xué)院MBA學(xué)位嗎?”的論文中,賓夕法尼亞大學(xué)教授Christian Terwiesch表示,他讓ChatGPT參加了沃頓商學(xué)院MBA課程的期末考試,結(jié)果發(fā)現(xiàn)該聊天機(jī)器人可以獲得B到B-左右的成績(jī)。
在另一項(xiàng)由醫(yī)療初創(chuàng)公司Ansible Health的醫(yī)生領(lǐng)導(dǎo)的研究中,研究人員發(fā)現(xiàn)ChatGPT在參加美國(guó)醫(yī)生執(zhí)照的三項(xiàng)考試中,考試成績(jī)可以達(dá)到或接近達(dá)到及格。
ChatGPT在法律領(lǐng)域的表現(xiàn)甚至更加優(yōu)秀:在去年12月的一篇論文中,研究人員發(fā)現(xiàn),該款聊天機(jī)器人可以獲得美國(guó)多州律師考試的及格分?jǐn)?shù) 。
ChatGPT的能力也已經(jīng)獲得了大型科技企業(yè)的認(rèn)可。比如最近,谷歌公司指出,如果ChatGPT機(jī)器人參加谷歌的面試,理論上他們會(huì)聘用該機(jī)器人作為其入門級(jí)程序員。
測(cè)試ChatGPT的亞馬遜員工也表示,這款聊天機(jī)器人在回答客戶支持問題方面“做得非常好”,在創(chuàng)建培訓(xùn)材料方面“非常出色”,在回答有關(guān)業(yè)務(wù)戰(zhàn)略的問題方面“非常強(qiáng)大”。
這樣優(yōu)秀的表現(xiàn)似乎已經(jīng)足以令人們擔(dān)憂,未來我們的工作崗位是否真的會(huì)被人工智能搶走?
AI更可能影響白領(lǐng)的工作?
事實(shí)上,關(guān)于人工智能是否會(huì)使取代人們工作的爭(zhēng)論早已不是什么新鮮事。
早在2013年,牛津大學(xué)就曾發(fā)布研究聲稱,人工智能可以在未來20年內(nèi)消除美國(guó)47%的工作崗位。
盡管布魯金斯學(xué)會(huì)高級(jí)研究員馬克·穆羅(Mark Muro)表示,這一預(yù)測(cè)可能并不準(zhǔn)確,但他也承認(rèn),ChatGPT這樣的新興人工智能技術(shù)很可能會(huì)影響人們——尤其是白領(lǐng)——在未來的工作。
據(jù)專家分析,人工智能最有可能搶走的工作似乎主要集中在白領(lǐng)行業(yè):技術(shù)類工作(程序員、軟件工程師、數(shù)據(jù)分析師)、媒體工作(廣告、內(nèi)容創(chuàng)作、技術(shù)寫作、新聞)、法律行業(yè)的工作(律師助理,律師助理)、市場(chǎng)研究分析師、教育類工作(老師)、財(cái)務(wù)工作(財(cái)務(wù)分析師、個(gè)人財(cái)務(wù)顧問)、交易員、平面設(shè)計(jì)師、會(huì)計(jì)、客戶服務(wù)代表。
雖然穆羅并不認(rèn)為人工智能會(huì)在短期內(nèi)搶走大量的工作崗位,但他也認(rèn)同,白領(lǐng)工人“似乎比藍(lán)領(lǐng)工人更容易接近這類新技術(shù)”,并且更可能在不久的將來使用人工智能技術(shù)來協(xié)助完成工作。
紐約大學(xué)計(jì)算機(jī)科學(xué)與電氣工程副教授赫格德(Chinmay Hegde)說:“新聞、高等教育、圖形和軟件設(shè)計(jì)等行業(yè)的某些工作——這些工作的確存在被人工智能補(bǔ)充的風(fēng)險(xiǎn)。”他認(rèn)為,ChatGPT目前的狀態(tài)“非常非常好,但并不完美”。
人工智能還不夠完美
正如赫格德教授所說,ChatGPT現(xiàn)在“還不夠完美”——這一點(diǎn)可能可以令大多數(shù)白領(lǐng)暫時(shí)松一口氣。
目前,ChatGPT最大的問題在于,其輸出的內(nèi)容還不夠準(zhǔn)確:盡管ChatGPT展現(xiàn)出了優(yōu)秀的語(yǔ)言組織能力,但正如其創(chuàng)建者OpenAI所提醒的,ChatGPT可能會(huì)寫出聽起來似是而非但實(shí)際上并不正確或毫無意義的答案 。
這背后的原因在于,ChatGPT是在對(duì)來自各種來源(包括互聯(lián)網(wǎng))的大量數(shù)據(jù)進(jìn)行訓(xùn)練后生成新內(nèi)容的,而互聯(lián)網(wǎng)內(nèi)容魚龍混雜,自然很容易包含大量錯(cuò)誤信息。
正如麻省理工Tech Review曾發(fā)布的文章所說,像ChatGPT這樣的模型,很擅長(zhǎng)生成華美的、仿佛由人類撰寫的語(yǔ)言。但它們對(duì)自己生成的東西缺乏真正理解,“在闡釋正確事實(shí)與假話時(shí),抱有同樣的自信”。
這一點(diǎn)在財(cái)聯(lián)社《實(shí)測(cè):神乎其神的ChatGPT能否取代新聞工作者?》中已經(jīng)得以佐證。在財(cái)聯(lián)社編輯在親身試用ChatGPT之后,很輕易的就能發(fā)現(xiàn)其撰寫的財(cái)經(jīng)新聞內(nèi)容存在謬誤。而如果不經(jīng)人工審核直接將ChatGPT所編寫的內(nèi)容當(dāng)做新聞發(fā)布,顯然會(huì)引起負(fù)面影響。
其次,ChatGPT還不夠智能。
今年1月25日,美國(guó)眾議員Jake Auchincloss使用ChatGPT撰寫了簡(jiǎn)短的兩段演講并在國(guó)會(huì)宣讀,這是美國(guó)國(guó)會(huì)議員首次宣讀由人工智能撰寫的演講稿。
盡管這一事件聽起來十分具有轟動(dòng)性,但Auchincloss本人也承認(rèn),他在利用ChatGPT撰寫這篇僅100字的演講稿的過程中,不得不多次改進(jìn)提示,才在最終生成了較為滿意的文本。
經(jīng)濟(jì)研究中心麥肯錫全球研究所的合伙人Anu Madgavkar也認(rèn)為,至少在看得見的未來,很多工作很多時(shí)候仍然需要由人類來做出判斷,以避免造成錯(cuò)誤和偏見,“我們需要將這些東西(人工智能)視為提高生產(chǎn)力的工具,而不是完全替代我們的敵人?!?/p>
(財(cái)聯(lián)社 劉蕊)
關(guān)鍵詞: 未雨綢繆還是杞人憂天ChatGPT可能將搶走你的飯碗 人工智能