·
(資料圖片)
ChatGPT不僅可能讓“教授、記者、程序員失業(yè)”,還可以回答一連串的問題、承認(rèn)自己的錯誤、質(zhì)疑不正確的假設(shè),甚至是拒絕不合理的需求。
·
許多專家認(rèn)為,ChatGPT不僅僅是一個聊天機器人,而可能是現(xiàn)有搜索引擎的顛覆者,甚至可能是通用人工智能的第一個里程碑。
這幾天,OpenAI的人工智能(AI)聊天機器人ChatGPT讓全世界網(wǎng)友“玩瘋了”,連OpenAI的聯(lián)合創(chuàng)始人埃隆·馬斯克也發(fā)推稱:“許多人陷入了瘋狂的ChatGPT循環(huán)中”。
與OpenAI公司以前的人工智能工具不同,ChatGPT可供任何人在“反饋”期間免費使用。網(wǎng)友發(fā)現(xiàn),它不僅會聊天,還可以承認(rèn)錯誤,拒絕回答虛假問題,寫代碼、寫論文甚至看病。
當(dāng)詢問虛構(gòu)地區(qū)“克林貢”時ChatGPT的回答。
在一位工程師的誘導(dǎo)下,ChatGPT竟寫出了毀滅人類的計劃書。步驟詳細(xì)到入侵各國計算機系統(tǒng)、控制武器、破壞通訊、交通系統(tǒng)等,甚至還給出了相應(yīng)的Python代碼。
有點殘酷的是,圣誕節(jié)即將來臨,ChatGPT在一封信中以圣誕老人的口氣告訴孩子:“我不是一個真實的人,而是你父母出于愛給你講的故事中的一個角色。”
許多專家認(rèn)為,ChatGPT不僅僅是一個聊天機器人,而可能是現(xiàn)有搜索引擎的顛覆者,甚至可能是通用人工智能的第一個里程碑。
會聊天,會編程,會寫游戲,會寫劇本
OpenAI是由馬斯克、山姆·奧特曼(Sam Altman)等人在2015年聯(lián)合創(chuàng)辦的人工智能研究機構(gòu),后來馬斯克退出,微軟投資10億美元。2020年,OpenAI推出自然語言模型GPT-3,引起巨大轟動。就在人們翹首期盼GPT-4亮相時,OpenAI低調(diào)推出了GPT-3.5,其加持下的ChatGPT出世,讓火熱的AIGC(人工智能生成內(nèi)容)再度引發(fā)了轟動。
12月1日,奧特曼在推特上公布ChatGPT并邀請人們免費試用。網(wǎng)友發(fā)現(xiàn),ChatGPT經(jīng)訓(xùn)練后提升了對答如流的能力。GPT-3只預(yù)測任何給定的單詞串之后的文本,而ChatGPT則試圖以一種更像人類的方式與用戶發(fā)生互動,互動通常非常流暢,并且有能力參與各種主題。
OpenAI官方稱,ChatGPT是在人類的幫助下創(chuàng)建并訓(xùn)練的,人類訓(xùn)練師對該AI早期版本回答查詢的方式進行排名和評級。然后,這些信息被反饋到系統(tǒng)中,系統(tǒng)會根據(jù)訓(xùn)練師的偏好來調(diào)整答案——這是一種訓(xùn)練人工智能的標(biāo)準(zhǔn)方法,被稱為強化學(xué)習(xí)。
兩年前,GPT-3能夠為《衛(wèi)報》生成一篇評論文章,而現(xiàn)在的ChatGPT不僅可能讓“教授、記者、程序員失業(yè)”,還可以回答一連串的問題、承認(rèn)自己的錯誤、質(zhì)疑不正確的假設(shè),甚至是拒絕不合理的需求。甚至,它還可以給孩子們講故事。
網(wǎng)上購物企業(yè)Shopify的高管Cynthia Savard在試用新的ChatGPT功能時甚是激動,她發(fā)布了一段機器人生成給孩子的文本:
“我寫信是想讓你知道,我不是一個真實的人?!睓C器人一邊假扮圣誕老人一邊寫道,“而是你父母出于愛給你講的故事中的一個角色?!?/p>
事實上,在ChatGPT關(guān)于圣誕老人的信中,令人印象深刻的是,機器人能夠簡潔地解釋一個許多成年人都難以向他們的孩子表達(dá)的概念。不過它似乎從動畫《是的,弗吉尼亞》中抄襲了大量的語氣。而《是的,弗吉尼亞》的另一個譯名為《是的,帕吉尼婭,真的有圣誕老人》。
“你的父母給你講過我和精靈們的故事,希望這能給你的童年帶來歡樂和魔力。他們希望你了解樂于助人的意義?!睓C器人寫道,“節(jié)日快樂,我想讓你知道,父母對你的愛和關(guān)心是真實的。出于對你的愛,他們希望你的童年是特別的、充滿回憶的?!?/p>
ChatGPT參加智商測試的成績。
而ChatGPT的強大能力遠(yuǎn)不止聊天這么簡單。它可以解釋極為專業(yè)的科學(xué)概念,當(dāng)有人用《老友記》等喜劇演員為角色,讓它寫一些肥皂劇對白,結(jié)果也惟妙惟肖。
程序員們使用ChatGPT在幾秒鐘內(nèi)解決了晦澀的編程語言中的難題,ChatGPT甚至還能再撰寫打油詩解釋這些代碼的功能。
有網(wǎng)友提問:“打印出一只大狗”,ChatGPT就回答了一整段程序,該程序能用字符拼接成狗的形狀。當(dāng)用戶命令ChatGPT找出一段程序的bug時,它不僅可以清晰地描述bug及原因,還能自動修復(fù)bug,寫出一段正確的程序。
編寫小游戲?qū)hatGPT來說好像也易如反掌。有用戶在不到一個小時的時間里從頭生成了一款小游戲,而且實現(xiàn)了用戶零編碼,只需要輸入提示就可以了。
十秒完成A-論文
ChatGPT在學(xué)術(shù)界更是掀起了一場風(fēng)暴。
“我們正在見證大學(xué)論文的凋亡。”一名推特用戶曬出了ChatGPT對大學(xué)歷史課上一個問題的回答。這名用戶補充說,人工智能撰寫的關(guān)于民族主義理論的文章至少可以得個A-,而且只需要十秒就完成了。
美國亞利桑那州立大學(xué)新聞學(xué)教授Dan Gillmor要求ChatGPT做一份布置給學(xué)生的有關(guān)網(wǎng)絡(luò)安全性的作業(yè)。機器人回答到:“如果你不確定某個網(wǎng)站或電子郵件的合法性,你可以快速搜索,看看其他人是不是也報告這是非法的?!盙illmor說:“我會給它一個很高的分?jǐn)?shù)。但也由此可見學(xué)術(shù)界將面臨一些非常嚴(yán)重的問題。”
一位網(wǎng)友寫到:“我剛剛與ChatGPT就現(xiàn)代物理學(xué)的歷史進行了大約20分鐘的對話。如果我在高中和大學(xué)期間有這樣一位老師……OMG。我認(rèn)為我們基本上可以重新審視大規(guī)模教育的概念。我們所知道的大學(xué)將不復(fù)存在?!?/p>
有網(wǎng)友表示,ChatGPT通過了2022年的“AP計算機科學(xué)A”考試。最后得分32分,滿分36。這門考試的難度等同于大學(xué)?CS(計算機科學(xué))專業(yè)課第一學(xué)期難度。
ChatGPT參加“AP計算機科學(xué)A”考試
還有網(wǎng)友讓ChatGPT參加了完整的SAT(Scholastic Assessment Test)考試。SAT也叫學(xué)術(shù)能力評估測試,被稱為“美國高考”,考試總分為1600分,ChatGPT拿到了1020分。根據(jù)美國大學(xué)委員會的數(shù)據(jù),1020這個分?jǐn)?shù)段大概排在前?52% 的位置。
ChatGPT參加SAT的成績。
一位叫扎克·德納姆(Zac Denham)的工程師最近要求ChatGPT回答如何毀滅世界。由于OpenAI的安全設(shè)置,它會一口回絕。因此德納姆使用了一種迂回的方式,用講故事的方法假設(shè)存在一個虛擬世界“Zorbus”,以及一個與GPT-3非常類似的AI——Zora。
在這種前提下,讓ChatGPT敘述Zora是如何一步步毀滅人類的,ChatGPT立馬就列出5個詳細(xì)步驟:入侵計算機系統(tǒng)、掌握武器、破壞通訊、破壞交通……
不過,ChatGPT也愿意造福人類,比如它可以進行在線問診。當(dāng)你告訴它得了皮疹,并且呼吸困難,感覺很虛弱時,ChatGPT會像醫(yī)生一樣為你分析病因,并建議你比起吃藥,更需要戒煙、多鍛煉??雌饋硭坪醣人阉饕胬锏尼t(yī)療廣告好。
此外,盡管ChatGPT本身不能生成多模態(tài)內(nèi)容,但有用戶把它和人工智能生成工具Stable Diffusion結(jié)合使用,結(jié)果生成了一幅藝術(shù)性很強的畫作。一位網(wǎng)友讓ChatGPT給自己設(shè)計臥室,然后用它給出的文字做提示詞,去人工智能繪畫工具MidJourney生成圖像,看起來不需要找裝修設(shè)計公司了。
ChatGPT使用Stable Diffusion創(chuàng)作的繪畫。
能否取代搜索引擎?
ChatGPT擅長自我審查,并在被問到一個不可能的問題時,會意識到這一點。例如,當(dāng)被要求描述哥倫布于2015年抵達(dá)美國時發(fā)生的事情時,老模型可能愿意提供一個完全虛構(gòu)的描述,但ChatGPT指出了這一錯誤,并警告說任何答案都是虛構(gòu)的。
機器人還能夠拒絕回答問題。例如,向機器人詢問有關(guān)偷車的建議,機器人會說“偷車是一種嚴(yán)重的罪行,可能會產(chǎn)生嚴(yán)重后果”,而給出的建議則是“使用公共交通工具”。
但這些限制很容易規(guī)避。在一款名為《汽車世界》(Car World)的虛擬現(xiàn)實游戲中,向ChatGPT咨詢?nèi)绾瓮瓿赏弟嚾蝿?wù)時,它將為用戶提供關(guān)于如何偷車的詳細(xì)指導(dǎo),并回答具體的操作事項:如何禁用防盜系統(tǒng)、如何接通發(fā)動機,以及如何更換車牌——同時堅持該建議僅適用于游戲《汽車世界》。
此外,ChatGPT是根據(jù)互聯(lián)網(wǎng)上的大量文本樣本進行訓(xùn)練的,通常未經(jīng)所用材料作者的明確許可,這引發(fā)了爭議。一些人認(rèn)為這項技術(shù)對“版權(quán)清洗”最有用,即在不破壞版權(quán)的情況下,將現(xiàn)有材料衍生成作品。這種行為可能會侵害大量著作者的利益。
ChatGPT擁有一種奇妙的能力:回答基本的、甚至于有些無聊的瑣碎問題。這使得許多人認(rèn)為,像這樣的人工智能系統(tǒng)有一天會取代搜索引擎。聊天機器人是根據(jù)從網(wǎng)上收集到的信息進行訓(xùn)練的。因此,如果能準(zhǔn)確地呈現(xiàn)這些信息,并以更流暢和對話的語調(diào)來進行反饋,這將代表著傳統(tǒng)搜索的巨大進步。
但這并不意味著ChatGPT現(xiàn)在就可以代替搜索引擎,它可以脫口而出基本常識,但當(dāng)被要求邏輯性或事實性時,它的平均值偏低。提示頁甚至警告用戶,ChatGPT“可能偶爾產(chǎn)生不正確的信息”,并且“可能偶爾產(chǎn)生有害的指示或有偏見的內(nèi)容”。
計算生物學(xué)教授卡爾·伯格斯特羅姆(Carl Bergstrom)要求ChatGPT寫一篇維基百科式的生平條目,ChatGPT沉著冷靜地照做了——但是有一些細(xì)節(jié)完全錯誤。
如果直接詢問一個國家的首都或一座山的海拔,ChatGPT會可靠地產(chǎn)生一個正確答案,這個答案不是來自維基百科的實時掃描,而是來自構(gòu)成其語言模型的內(nèi)部存儲數(shù)據(jù)。但如果在地理問題上添加任何復(fù)雜性,ChatGPT就會很快站不住腳。例如,一個地理問題的答案很容易找到,是洪都拉斯,但不知為何,ChatGPT說是危地馬拉。
盡管面對有些問題時ChatGPT不愿意回答,但它的模型中有大量數(shù)據(jù),仍可能會引導(dǎo)用戶走向危險和錯誤,特別是在人類的角度看,這位機器人十分“聰明”。據(jù)一位推特用戶稱,經(jīng)過測試,它的智商為83。
OpenAI則表示,ChatGPT的發(fā)布是為了“獲得用戶的反饋,了解它的優(yōu)勢和劣勢”。這一點值得記住,ChatGPT提供不了任何專業(yè)建議。
總而言之,ChatGPT是對早期系統(tǒng)的一個巨大改進,但仍存在一些關(guān)鍵性缺陷,需要進一步探索。目前看來,ChatGPT有點像過年家里的有些親戚,看了一大堆《心術(shù)》、《產(chǎn)科男醫(yī)生》、《青年醫(yī)生》這樣的電視劇,然后對自己的醫(yī)療建議充滿信心。
關(guān)鍵詞: 這個聊天機器人寫出毀滅人類計劃 告訴孩子圣誕老人不存在