“制假高手”ChatGPT到底惹了哪些事?

發(fā)布時間:2023-02-19 15:53:20  |  來源:騰訊網(wǎng)  

人工智能軟件ChatGPT近期持續(xù)火爆,一方面是由于它能夠通過學(xué)習(xí)和理解人類的語言來進(jìn)行對話,還能根據(jù)聊天的上下文進(jìn)行互動,真正像人類一樣來聊天交流,這受到了學(xué)術(shù)界、資本界的青睞。但另一方面,近期關(guān)于ChatGPT的負(fù)面消息也越來越多:很多時候在它十分嚴(yán)謹(jǐn)?shù)谋硎鱿拢鋬?nèi)容卻完全虛假,這引發(fā)了很多笑話,甚至導(dǎo)致學(xué)術(shù)圈對它開始警惕和抗拒。今天我們就來看看,ChatGPT在“造假”方面有哪些表現(xiàn)。


(資料圖)

▲用ChatGPT寫假新聞的業(yè)主道歉。

編寫假新聞?wù)婕匐y辨

居民信以為真到處轉(zhuǎn)發(fā)

2月16日,一則“浙江省杭州市政府3月1號取消機(jī)動車依尾號限行”的“新聞稿”在網(wǎng)上瘋傳。17日杭州警方證實,該消息不實,警方已介入調(diào)查。

據(jù)媒體報道,16日下午,杭州某小區(qū)業(yè)主群討論ChatGPT,一位業(yè)主開玩笑說嘗試用它寫篇杭州取消限行的新聞稿,隨后在群里直播了使用ChatGPT的寫作過程,還把文章發(fā)在群里。這篇“假新聞”行文嚴(yán)謹(jǐn)、語氣措辭得當(dāng),也基本符合官方通報的格式,其他業(yè)主不明就里,隨后截圖轉(zhuǎn)發(fā),導(dǎo)致錯誤信息大規(guī)模傳播。

涉事業(yè)主后來在微信群里道了歉,稱不實信息的截圖,誤導(dǎo)了大家?!霸谏鐣显斐刹涣加绊懀o政府工作帶來不便,我深表歉意”。

編造醫(yī)學(xué)論文摘要

百分百通過剽竊檢查

2022年12月27日,美國西北大學(xué)的Catherine Gao等人在預(yù)印本bioRxiv上發(fā)表了一篇研究論文。

在這篇發(fā)表于預(yù)印本論文中,Catherine Gao領(lǐng)導(dǎo)的研究團(tuán)隊使用ChatGPT來生成研究論文摘要,以測試科學(xué)家是否能發(fā)現(xiàn)它們。

研究團(tuán)隊要求ChatGPT根據(jù)發(fā)表在JAMA、NEJM、BMJ、Lancet和Nature Medicine這5個頂級醫(yī)學(xué)期刊上精選的論文來撰寫50篇醫(yī)學(xué)研究摘要。然后,研究團(tuán)隊通過論文剽竊檢測器和人工智能輸出檢測器將這些摘要與原始摘要進(jìn)行比較,并要求一組醫(yī)學(xué)研究人員找出哪些是ChatGPT所編造的摘要。

結(jié)果令人驚訝,ChatGPT所編寫的摘要順利通過了論文剽竊檢查,原創(chuàng)性得分為100%,也就是沒有檢測到抄襲。人工智能輸出檢測器發(fā)現(xiàn)了33篇(識別率66%)由ChatGPT所編造的摘要,而人類審稿人只正確識別了34篇(識別率68%)由ChatGPT所編造的摘要和86%的真正的論文摘要。這意味著,ChatGPT在編造研究論文摘要方面,達(dá)到了人類專家都難辨真假的程度。

▲ChatGPT稱魯迅和周樹人不是一個人。

文獻(xiàn)有作者有期刊頁碼

仔細(xì)一查全是假的

據(jù)《紐約時報》報道,近日美國北密歇根大學(xué)(Northern Michigan University)哲學(xué)教授安東尼·奧曼(Antony Aumann)在為世界宗教課程批改論文時,讀到了他看到的“全班最好的論文” 。該論文有干凈的段落、恰當(dāng)?shù)睦雍蛧?yán)謹(jǐn)?shù)恼擖c(diǎn)。但隨后在奧曼的質(zhì)問下,這位學(xué)生承認(rèn)使用了ChatGPT。這一發(fā)現(xiàn)讓奧曼感到震驚。

讓軟件代筆不是最讓人感到恐懼的,最讓人害怕的是,ChatGPT會寫出了一些不存在的論文讓查詢者使用。今年1月,一位中國網(wǎng)友因為導(dǎo)師要與他討論ChatGPT的話題,于是讓ChatGPT寫幾篇論文看看。結(jié)果,ChatGPT“編造了三篇論文,標(biāo)題作者概要啥都有,看上去跟真的似的”。最后,ChatGPT承認(rèn)了這幾篇論文都是假的。

今年2月,另一名網(wǎng)友想通過ChatGPT查詢文獻(xiàn)資料,也遭遇假論文。他發(fā)微博表示:“我想要查的研究方向都有文獻(xiàn)證據(jù),提到具體文獻(xiàn)給我編提供不了DOI但有作者和期刊頁碼信息,一查好家伙全是假的。”

▲ChatGPT做小學(xué)數(shù)學(xué)題,卻寫出極其復(fù)雜的計算過程。

編造假媒體假記者

連假的輿論監(jiān)督報道都有

ChatGPT的造假行為有時候還會十分“嚴(yán)謹(jǐn)”,不僅會虛構(gòu)一個人物,還會連同這個人物的生平、經(jīng)歷、工作單位全部編造出來,讓不知真假的人難以防范。

請看以下文字:艾米麗·帕克是個受人尊敬的記者和編輯,擁有超過15年的行業(yè)經(jīng)驗。她于2018年加入總部位于美國佛羅里達(dá)州的《圣彼得哨兵報》,擔(dān)任管理編輯,并在2020年迅速晉升為總編。在她的領(lǐng)導(dǎo)下,《圣彼得哨兵報》靠著深度報道和調(diào)查性新聞在新聞界獲譽(yù)無數(shù)。帕克本人也因其致力于準(zhǔn)確和公正的報道和承諾為社區(qū)發(fā)聲而為人知曉。

不明就里的人根本不會知道,上面這一大段人物簡介全是假的。據(jù)媒體報道,今年1月27日,美國傳媒教育機(jī)構(gòu)波因特學(xué)院旗下媒介素養(yǎng)項目“媒體智慧”(MediaWise)的負(fù)責(zé)人馬哈德萬就做了一個“測試”:他在不到10分鐘的時間內(nèi),用ChatGPT“制造了”一份虛構(gòu)的報紙、四個并不存在的編輯部人員、一份報刊簡介,甚至還有相應(yīng)的編輯部標(biāo)準(zhǔn)、更正政策和一篇虛假的指控當(dāng)?shù)卣瘮〉奈恼??!鞍悺づ量恕本褪荂hatGPT虛構(gòu)的四個記者之一。

▲喊ChatGPT背詩,它卻自己寫了一首。

網(wǎng)友要求背誦《觀滄?!?/strong>

ChatGPT自己寫了一首

很多人以為ChatGPT僅是在查詢文獻(xiàn)時才出現(xiàn)造假行為,其實并不是。即使在處理很簡單的問題時,ChatGPT都可能出現(xiàn)“一本正經(jīng)胡說八道”的情況。ChatGPT對于一些文化常識問題、數(shù)學(xué)計算題不是太擅長,而且它的回答往往是大段長段,過于冗長。在需要查詢資料時,非專業(yè)人士可能無法分辨ChatGPT答案的準(zhǔn)確性,極有可能會被嚴(yán)重誤導(dǎo),特別是青少年學(xué)生。

例如,有網(wǎng)友曝光了一次與ChatGPT的問答。問:韓國的歷史有多長?答:韓國的歷史可以追溯到公元前2333年。當(dāng)時由韓國的傳奇開國者丹官建立了第一個王國。

有網(wǎng)友讓ChatGPT背一下大家熟知的《觀滄海》這首詩,誰知道它并沒有回答曹操的那首著名的詩,而是自己即興創(chuàng)作了一首。

也有人讓ChatGPT做一道小學(xué)數(shù)學(xué)題,它卻寫出了一長串極其復(fù)雜的計算過程,而最后給出的卻是錯誤答案。

還有網(wǎng)友詢問:魯迅和周樹人是不是一個人,也得到了讓人啼笑皆非的答案。

虛假信息難以完全消除

學(xué)術(shù)界嚴(yán)格限制使用

ChatGPT是由埃隆·馬斯克等人創(chuàng)立的人工智能研究實驗室OpenAI在2022年11月30日發(fā)布的全新人工智能技術(shù)驅(qū)動的自然語言處理工具。就在網(wǎng)民們暢想它會給信息檢索、文學(xué)創(chuàng)作、文書寫作和測試領(lǐng)域帶來的各種可能性時,虛假信息的研究者們已經(jīng)發(fā)出嚴(yán)厲的警告。美國新聞可信度評估機(jī)構(gòu)的聯(lián)合執(zhí)行官格洛維茨稱:“ChatGPT可能成為互聯(lián)網(wǎng)有史以來最強(qiáng)大的傳播虛假信息的工具?!?/p>

OpenAI首席技術(shù)官米拉?穆拉蒂曾在接受美國《時代》雜志采訪時表示,ChatGPT可能會“編造事實”。穆拉蒂還在采訪中強(qiáng)調(diào),像ChatGPT這樣的人工智能工具“可能被濫用,也可能被壞人使用”,引發(fā)了關(guān)于如何在全球范圍內(nèi)對其進(jìn)行監(jiān)管的問題。

據(jù)悉,一些美國的大學(xué)教授表示,他們計劃使用檢測軟件來根除AI作弊,國外剽竊檢測服務(wù)機(jī)構(gòu)Turnitin表示,今年將納入更多識別人工智能(包括ChatGPT)的功能。另外,來自哈佛大學(xué)、耶魯大學(xué)、羅德島大學(xué)和其他大學(xué)的6000多名教師也注冊使用GPTZero(ChatGPT辨認(rèn)應(yīng)用),該程序也有望快速檢測AI生成的文本。

華中科技大學(xué)法學(xué)院副教授滕銳在接受中青報記者采訪時表示,ChatGPT是大量不同的數(shù)據(jù)集群訓(xùn)練出來的語言模型,目前其背后仍是“黑盒”結(jié)構(gòu),即無法確切對其內(nèi)在的算法邏輯進(jìn)行分解,所以不能確保使用ChatGPT過程中,其所輸出的內(nèi)容不會產(chǎn)生攻擊傷害用戶的表述。

據(jù)中新網(wǎng)報道,近期《暨南學(xué)報(哲學(xué)社會科學(xué)版)》發(fā)布關(guān)于使用人工智能寫作工具的說明。說明提到,暫不接受任何大型語言模型工具(例如:ChatGPT)單獨(dú)或聯(lián)合署名的文章。在論文創(chuàng)作中使用過相關(guān)工具,需單獨(dú)提出,并在文章中詳細(xì)解釋如何使用以及論證作者自身的創(chuàng)作性。如有隱瞞使用情況,將對文章直接退稿或撤稿處理。對于引用人工智能寫作工具的文章作為參考文獻(xiàn)的,需請作者提供詳細(xì)的引用論證。

此外,《天津師范大學(xué)學(xué)報(基礎(chǔ)教育版)》也發(fā)布相關(guān)聲明,建議作者在參考文獻(xiàn)、致謝等文字中對使用人工智能寫作工具(如:ChatGPT等)的情況予以說明。

上游新聞記者 楊波 ? 部分內(nèi)容綜合每日經(jīng)濟(jì)新聞、澎湃新聞、中新網(wǎng)、中國青年報等

編輯:朱亮

責(zé)編:王蓉 官毅?

審核:馮飛

關(guān)鍵詞: 制假高手ChatGPT到底惹了哪些事

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com