能自主編程的 AI,會(huì)搶了程序員的飯碗嗎?

發(fā)布時(shí)間:2022-03-10 10:29:59  |  來源:騰訊網(wǎng)  

來源:極客鵬友說(ID:geekpys)

口述:科普作家 瘦駝、Jina AI 創(chuàng)始人兼 CEO 肖涵、一流科技 OneFlow 創(chuàng)始人兼 CEO 袁進(jìn)輝、極客公園創(chuàng)始人兼總裁 張鵬

整理:湯一濤

原標(biāo)題:能自主編程的 AI,會(huì)搶程序員的飯碗嗎?

春節(jié)期間,開發(fā)出 AlphaGo 的人工智能公司 DeepMind 又發(fā)布一個(gè)能夠自主編程的新模型——AlphaCode。

在編程競賽網(wǎng)站 Codeforces 舉辦的 10 場比賽中,AlphaCode 取得了前 54.3% 成績。這意味著,它打敗了將近一半的人類選手。更為關(guān)鍵的是,比賽中的所有代碼都是由 AlphaCode 自動(dòng)生成的,全程無需人工監(jiān)督。

AlphaCode 取得的成績意味著什么?它會(huì)搶走程序員的飯碗嗎?在基礎(chǔ)科學(xué)領(lǐng)域,AI 發(fā)揮了怎樣的作用?該如何理解人類和 AI 的關(guān)系?

上周,《今夜科技談》邀請(qǐng)到了科普作家瘦駝、Jina AI 創(chuàng)始人兼 CEO 肖涵、一流科技 OneFlow 創(chuàng)始人兼 CEO 袁進(jìn)輝,聊了聊和 AI 有關(guān)的話題。

如何評(píng)價(jià) AlphaCode 取得的成績?它需要人工訓(xùn)練嗎?

肖涵:AlphaCode 其實(shí)不是一個(gè)單一的算法,它是根據(jù) GPT-3 模型搭建出來的一個(gè)系統(tǒng)。所以我們不認(rèn)為 AlphaCode 是 AI 算法上的突破,它的突破在于產(chǎn)生了一個(gè)能夠勝任比較復(fù)雜任務(wù)的系統(tǒng)。

就算法訓(xùn)練來說,人工智能的第一步是預(yù)訓(xùn)練。就是把 GitHub 上的程序都拉下來,讓這個(gè)模型對(duì)編程有一個(gè)初步的認(rèn)識(shí)。

第二步是微調(diào)。因?yàn)轭A(yù)訓(xùn)練得到的知識(shí)并不都是有用的,它們給出了一個(gè)大體的世界觀,但如果要解決具體的問題,就需要定向調(diào)整。

AlphaCode 做的另外一件事就是構(gòu)建了一套評(píng)判系統(tǒng)。因?yàn)榛诮o定的題目,AlphaCode 可以生成大量答案,但它并不知道這些答案正確與否。所以把問題答案和他給出的答案輸入到這個(gè)系統(tǒng)中,它就可以評(píng)判答案正確與否。

整個(gè)過程確實(shí)就像 AlphaCode 發(fā)布時(shí)所宣稱的,是可以做到完全無監(jiān)督的。

袁進(jìn)輝:我認(rèn)為 AlphaCode 是里程碑式的進(jìn)展,根據(jù)自然語言描述,自動(dòng)生成可解決算法問題的完整程序,這很了不起。

其實(shí)我對(duì) AlphaCode,經(jīng)歷了從低估到高估再到低估的心理轉(zhuǎn)變。

我在看到論文細(xì)節(jié)之前,低估了 AlphaCode。和 GPT-3 訓(xùn)練自然語言類似,AlphaCode 本質(zhì)上也是抓取了 GitHub 上的幾百億行代碼,捕捉語言結(jié)構(gòu),再生成。并且,相比于非常不規(guī)律的自然語言,代碼的語法是非常規(guī)律的。從這個(gè)角度來說,AlphaCode 和以前解決問題的方法差不多。

但令我感到意外的是,我本來以為 AlphaCode 的原理是自動(dòng)搜索代碼庫中已有的代碼片段,但實(shí)際上這些代碼都是預(yù)訓(xùn)練模型自動(dòng)生成的。傳統(tǒng)上我們認(rèn)為 AI 解決的通常是低精度的問題,比如圖片識(shí)別準(zhǔn)確率 90% 已經(jīng)很高了,但讓 AI 做到 100% 的準(zhǔn)確率是極難的。而代碼恰恰要求 100%,即使是寫錯(cuò)一個(gè)變量名稱,或者少打一個(gè)「;」,程序也會(huì)報(bào)錯(cuò)。所以這時(shí)我又高估了 AlphaCode。

后來我又看了 AlphaCode 的論文,發(fā)現(xiàn)它確實(shí)可以自己生成完整程序,但中間也用了一些取巧的成分。比如說它會(huì)為一個(gè)問題生成 100 萬份程序,其中當(dāng)然有對(duì)有錯(cuò)。AlphaCode 會(huì)篩選掉 99% 的代碼,留下 1%。在這 1% 的幾千份代碼中,AlphaCode 又通過聚類篩選等方式,篩選出 10 個(gè)答案提交到 Codeforces。只要這 10 個(gè)答案中有一個(gè)正確答案,就算過了。

所以 AlphaCode 并不是一次性生成解決問題的程序,而是為一個(gè)問題生成數(shù)十萬、上百萬的程序,經(jīng)過簡單測試、樣例篩選,最終篩選出正確答案。

對(duì)比 Codex、GitHub Copilot 這些輔助編程工具,AlphaCode 有什么不同?

袁進(jìn)輝:我覺得有兩點(diǎn),一是解決的問題不同,二是方法不同。

AlphaCode 解決的問題,還是有一定難度的問題。

二是 AlphaCode 不是網(wǎng)上搜索的現(xiàn)成代碼片段,是自己生成的。像 Github Copilot,就是搜索的現(xiàn)成代碼片段。之前有人做過實(shí)驗(yàn),發(fā)現(xiàn)它會(huì)從 Stack Overflow(代碼問答網(wǎng)站)上抓取代碼,因?yàn)樗殉绦騿T寫在代碼里的注釋都抓取過來了。

這些 AI 編程工具,會(huì)取代程序員嗎?

肖涵:其實(shí)這些 AI 輔助編程工具,都是為了幫助開發(fā)者能有更好的編程體驗(yàn)。只不過 AI 發(fā)展到今天已經(jīng)非常強(qiáng)大,它可以自動(dòng)把代碼寫完,而不僅僅是填函數(shù)名這么簡單。

但是今天所有的 AI 都沒有到達(dá)取代開發(fā)者的程度,開發(fā)者本身還是那個(gè)最終的決策人。AI 所生成的代碼,僅僅是一個(gè)參考。

瘦駝:作為一個(gè)文字工作者,我還是想把這件事映射到「自然語言」的領(lǐng)域來。

首先,讓 AI 生成一段沒有任何語法錯(cuò)誤的代碼沒有那么難。在自然語言里有大量不符合邏輯和語法的東西,我們?cè)谡f話的時(shí)候并不是嚴(yán)格遵循某種規(guī)律的。但代碼本身是嚴(yán)格遵守語法的,它有一套通用的邏輯。

第二點(diǎn),我覺得碼農(nóng)其實(shí)不必太緊張,對(duì)于文字創(chuàng)作者來說,我們?cè)谇皫啄暌呀?jīng)碰到過類似的挑戰(zhàn)了?,F(xiàn)在一些固定格式的文本已經(jīng)大量地由 AI 生成,比如比賽結(jié)果、股市播報(bào)、天氣預(yù)報(bào)。對(duì)于這種有規(guī)律可循的文本來說,AI 寫得比人快多了。但是想讓 AI 寫一些有創(chuàng)造性的東西還是非常困難的,因?yàn)閯?chuàng)造性本質(zhì)上是對(duì)現(xiàn)有邏輯和體系的挑戰(zhàn),甚至創(chuàng)造性包含了允許 AI 犯錯(cuò)。對(duì) AI 來說,它很難保持一定的個(gè)性,比如《紅樓夢》里,賈寶玉的詩和林黛玉的詩就有明顯的不同。這種能力,AI 現(xiàn)在可能還很難做到。

肖涵:我覺得性格的差別,無非就是訓(xùn)練語料的不同。如果我想生成一個(gè)朦朧派詩人的風(fēng)格,我就把所有朦朧派詩人的語料收集起來,訓(xùn)練一下就可以了。

所以我覺得對(duì) AI 最重要的還是數(shù)據(jù)。算法模型如果能更好地挖掘數(shù)據(jù),把數(shù)據(jù)的價(jià)值充分利用起來,那其實(shí)所謂的性格也就達(dá)成了。

袁進(jìn)輝:我來補(bǔ)充一個(gè)反方向。按照肖涵的邏輯,那如果沒有朦朧派的語料,就生成不出朦朧派的 AI;如果沒有梵高這個(gè)人,就訓(xùn)練不出梵高風(fēng)格的繪畫。所以 AI 在創(chuàng)造層面,本質(zhì)上還是更像一種記憶,差別在于是一種機(jī)械的記憶還是比較聰明的記憶,但其實(shí)都跳脫不出原有的范疇。

專業(yè)術(shù)語里有兩個(gè)詞,「exploitation」和「exploration」。exploitation 指的是保守地在應(yīng)有的范圍內(nèi)工作,exploration 指的是在范圍之外探索。

也許我們需要給 AI 一點(diǎn)犯錯(cuò)空間。

在 AI 崛起的背景下,怎么做一個(gè)有價(jià)值的程序員?

袁進(jìn)輝:AI 比較擅長做比較機(jī)械的工作,但寫代碼也是需要?jiǎng)?chuàng)造性的,寫到一定程度,我們也把它稱之為藝術(shù)。

代碼里面也有好壞,寫出來的代碼是不是足夠簡潔優(yōu)雅,是否有創(chuàng)造性的審美,這可能還是人類的優(yōu)勢。

張鵬:但這種美,是不是也要能體現(xiàn)在效率上高于丑和復(fù)雜的東西,商業(yè)世界才會(huì)認(rèn)可?

袁進(jìn)輝:這種美,確實(shí)在效率上有體現(xiàn)。判斷代碼美丑的一個(gè)標(biāo)準(zhǔn),就是可復(fù)用性。簡單的代碼有更好的擴(kuò)展性,未來就可以在更多的地方復(fù)用。如果我的代碼只在當(dāng)前的任務(wù)可以用,就是不太好的實(shí)踐。

肖涵:我想起來之前國外論壇上有一個(gè)特別火的帖子,就是說一個(gè)律所雇傭了一個(gè)小伙子做類似報(bào)表整理之類的工作。恰好這個(gè)小伙子懂一點(diǎn)編程,就把這個(gè)工作自動(dòng)化了,程序運(yùn)行 5 分鐘就可以做完原來一周的工作。兩周之后,這個(gè)小伙子內(nèi)心有點(diǎn)愧疚,就把這件事發(fā)到了論壇上,問大家該不該告訴老板這件事。

我覺得這件事反映了一點(diǎn)——不管他有沒有告訴老板,機(jī)械化的工作一定會(huì)被取代。甚至他自己也覺得做這種工作沒有意義,否則就不會(huì)有這種糾結(jié)。人生總要有點(diǎn)追求,何必在這里浪費(fèi)時(shí)間?

其次是我覺得出現(xiàn)這些代碼輔助 AI 不是壞事。人類發(fā)展到今天,不管是工業(yè)革命還是流水線的引入,人類總會(huì)從事更高級(jí)的職業(yè),會(huì)創(chuàng)造更高的價(jià)值。總體來說,我覺得這是一件正向的事。

怎么理解當(dāng)下很火熱的低代碼、軟件 2.0 這些概念?

肖涵:低代碼出現(xiàn)的原因,其實(shí)是過去幾十年我們已經(jīng)積累了大量的代碼資本。今天任何一個(gè)軟件,都不是從頭開始寫的,它們都有自己的上游依賴關(guān)系——軟件庫。

實(shí)際上我們構(gòu)建現(xiàn)代軟件的時(shí)候,最重要的往往不是創(chuàng)新,而是可復(fù)用性。可復(fù)用性指的就是,這個(gè)軟件完成之后,一定要成為更大型軟件中的一個(gè)組件,而不是從頭開始重復(fù)造輪子。

當(dāng)「可復(fù)用性」這種概念深入人心之后,于是才有了低代碼、無代碼這種概念。今天我們構(gòu)建的代碼越來越高級(jí),不再是操作系統(tǒng)這種底層軟件,更多的是面向 C 端用戶的高級(jí)軟件。這種情況下就非常凸顯低代碼、無代碼的重要性。

如果縱觀整個(gè)人類的工程史,其實(shí)可復(fù)用性就是非常關(guān)鍵的轉(zhuǎn)折點(diǎn)——一旦一個(gè)東西可以被復(fù)用,人類的文明就會(huì)發(fā)展到一個(gè)新高度。我們可以假想一下,一個(gè)原始人拿著兩塊石頭碰觸了火花,這是一個(gè)偶然嗎?還是說它成為了可以被復(fù)用的經(jīng)驗(yàn),于是人類就此掌握火的使用?

所以我更想強(qiáng)調(diào)的是,低代碼和無代碼肯定是發(fā)展趨勢。但趨勢背后的原因在于,我們現(xiàn)在面向的是更高級(jí)的軟件開發(fā),這種開發(fā)尤其強(qiáng)調(diào)復(fù)用性。

袁進(jìn)輝:我來補(bǔ)充一下軟件 2.0。

軟件 1.0 說的是代碼是數(shù)據(jù)。我們?cè)诖a的基礎(chǔ)上,基于數(shù)據(jù)訓(xùn)練一個(gè) AI 模型。

軟件 2.0 指的是模型是代碼。在 AlphaCode 之前,AI 的模型早就開始為人寫代碼了。比如圖形識(shí)別模型,它的原理是計(jì)算機(jī)視覺科學(xué)家寫了一堆規(guī)則——圖片里有哪些特征,那這張圖片就是汽車。但是這么做了幾十年之后,發(fā)現(xiàn)這種方法識(shí)別率并不高。所以現(xiàn)在的做法是從一堆數(shù)據(jù)中訓(xùn)練出一個(gè)模型。

以前代碼必須由程序員理解問題之后轉(zhuǎn)化成計(jì)算機(jī)理解的語言,計(jì)算機(jī)才能幫我們解決問題,本質(zhì)上是一個(gè)從物理世界遷移到數(shù)字世界的過程。模型即代碼的意思就是,現(xiàn)在我們不需要經(jīng)過人腦了,只要收集一堆數(shù)據(jù),計(jì)算機(jī)就能自動(dòng)挖掘數(shù)據(jù)中的規(guī)律,生成模型。

如果可復(fù)用代碼所引用的底層代碼本身就有問題,該怎么辦?

肖涵:現(xiàn)實(shí)世界中確實(shí)發(fā)生過這樣的事。前幾個(gè)月 Log4j 軟件包出錯(cuò),就造成了非常多軟件公司的恐慌。這樣的問題,在低代碼和無代碼的環(huán)境下會(huì)更難發(fā)覺。因?yàn)闆]有多少人會(huì)去寫這種底層的代碼了,大家關(guān)注的更多是更高級(jí)的軟件業(yè)務(wù)邏輯。

之前在 Javasript 社區(qū)還發(fā)生了一件事。維護(hù)底層代碼的程序員因?yàn)橛X得別人在網(wǎng)上攻擊他,一怒之下把代碼刪了。這導(dǎo)致的后果就是整個(gè)復(fù)用的鏈條斷了。

所以說在低代碼、無代碼的環(huán)境下,一定要保證上游足夠穩(wěn)健。即使出錯(cuò)也要能夠及時(shí)修復(fù),這一點(diǎn)非常重要。

袁進(jìn)輝:其實(shí) AI 的模型是很脆弱的,非常容易被攻擊。實(shí)際上訓(xùn)練 AI 模型的就是一堆數(shù)據(jù),簡單理解就是高維空間中的一個(gè)方向。如果進(jìn)來的數(shù)據(jù)是沿著這個(gè)方向的,AI 就判斷得很準(zhǔn)。如果進(jìn)入的數(shù)據(jù)和那個(gè)方向垂直,那 AI 的判斷就會(huì)出錯(cuò)。

前幾年有人在特斯拉的激光雷達(dá)上做了一個(gè)實(shí)驗(yàn),用一個(gè)小紙片稍微改變一下傳進(jìn)去的信號(hào),特斯拉的識(shí)別就出錯(cuò)了。

張鵬:前段時(shí)間我還聽到過這種觀點(diǎn)。就圖像識(shí)別技術(shù)而言,在最初構(gòu)建 ImageNet(視覺影像網(wǎng)數(shù)據(jù)庫)的時(shí)候,因?yàn)楫?dāng)時(shí)數(shù)據(jù)的局限,導(dǎo)致現(xiàn)在形成了一些偏差,比如 AI 對(duì)人類的歧視問題。但今天 ImageNet 已經(jīng)成為了一個(gè)基礎(chǔ)設(shè)施,無數(shù)人在這之上構(gòu)建了新的設(shè)施,這種偏差就成為了一個(gè)逐級(jí)感染的問題,越來越難以克服。

可能在某些時(shí)刻,需要一個(gè)根本性的重啟,才能解決這個(gè)問題。

在基礎(chǔ)科學(xué)領(lǐng)域,AI 能夠發(fā)揮哪些作用?

瘦駝:對(duì)于很多數(shù)據(jù)敏感型的行業(yè)來說,AI 確實(shí)解放了很多科學(xué)家,讓這些科學(xué)家可以去做更多有創(chuàng)造性的工作。

之前討論過,在人類的天文學(xué)家中,最容易被 AI 取代的可能是埃德文·哈勃。他花了幾十年時(shí)間,從大量數(shù)據(jù)中發(fā)現(xiàn)了星系的「紅移-距離關(guān)系」。這本質(zhì)上是一個(gè)數(shù)據(jù)相關(guān)性的問題,放在今天的 AI 身上,可以立刻發(fā)現(xiàn)這種數(shù)據(jù)間的規(guī)律。

又比如說快速射電暴,它以前經(jīng)常被人忽略。因?yàn)榭焖偕潆姳┨虝毫?,很容易被認(rèn)為是數(shù)據(jù)中出現(xiàn)的一個(gè)異常。但是有了 AI 這樣的工具后,它就可以從這些不斷出現(xiàn)的偶然異常中發(fā)現(xiàn)規(guī)律。

我覺得 AI 的出現(xiàn)改變了科學(xué)發(fā)現(xiàn)的范式,讓我們具備了從數(shù)據(jù)中找出被忽略的規(guī)律的能力。

AI 公司的商業(yè)化都很困難,但 DeepMind 在去年盈利了,怎么理解這家公司?

肖涵:首先我對(duì) DeepMind 是非常崇敬的,但我不會(huì)做這種公司,我個(gè)人認(rèn)為 DeepMind 風(fēng)險(xiǎn)性是非常高的,回本的機(jī)率很低。

首先在深度學(xué)習(xí)的前提下,算力成本和存儲(chǔ)成本的投入是非常高的,這個(gè)很好理解。

第二個(gè)是人員原因。每年 DeepMind 都有一兩篇轟動(dòng)性的論文面世,很重要的原因就在于,它儲(chǔ)備了大量全世界最頂尖的人才。這種人才成本,不是每個(gè)公司都能承擔(dān)的。深度學(xué)習(xí)發(fā)展到今天,實(shí)際上拉大了大公司和小公司間的貧富差距。

我個(gè)人其實(shí)更看重 AI 在工程領(lǐng)域的突破,如何更好地解決已有的問題,而不是找到一個(gè)從沒被解決過的新問題去突破。

袁進(jìn)輝:DeepMind 的確不太典型,他理論上不是一家商業(yè)公司。大部分商業(yè)公司,一定是要做一個(gè)可復(fù)制的商業(yè)化產(chǎn)品,更多的是考慮市場規(guī)模等一系列更實(shí)際的問題。

DeepMind 更像一家科研機(jī)構(gòu)。只不過它不像科研機(jī)構(gòu)申請(qǐng)經(jīng)費(fèi)那么困難,DeepMind 背后有谷歌源源不斷地投入資金。

這些年,AI 的發(fā)展思路有什么變化?

肖涵:我覺得有兩點(diǎn),一是 AI 的解釋性,二是 AI 的訓(xùn)練過程。

1、解釋性。AI 這些年其實(shí)經(jīng)歷了從可解釋到不可解釋的過程。

早期的 AI 是基于一套規(guī)則生成的,比如最早的問答機(jī) Eliza,它的邏輯在于,識(shí)別你說的話包含哪些字符,經(jīng)過因果判斷,返回特定的答案。這些回答都是可以解釋的,因?yàn)槌绦蚴菍懰赖摹?/p>

后來 AI 發(fā)展到 2000 年左右,出現(xiàn)了參數(shù)化模型。參數(shù)化模型會(huì)把圖片、聲音、文本等信息描述成一個(gè)數(shù)據(jù)函數(shù),AI 所要做的,就是填入系數(shù)。這一階段的 AI 也是可解釋的。

自 2010 年以來,AI 逐漸轉(zhuǎn)向了深度學(xué)習(xí)框架,AI 開始變得不可解釋。因?yàn)樯疃葘W(xué)習(xí)框架拆分到最細(xì),其實(shí)是由一個(gè)一個(gè)非線性函數(shù)疊加而成的。如果只有一個(gè)非線性函數(shù)的話還比較好解釋,但疊加在一起的非線性函數(shù)有點(diǎn)類似蝴蝶效應(yīng),基本上是不可能溯源的。

我們整個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)是一個(gè)非常深的非線性系統(tǒng),比如 AlphaCode 就包含 400 多億個(gè)參數(shù),實(shí)際上無法追根溯源,到底是哪個(gè)參數(shù)產(chǎn)生的影響。這就好像我們無法判斷,到底是哪一個(gè)神經(jīng)元令人腦產(chǎn)生了意識(shí)一樣。

但是今天,又有一些人要求 AI 具有可解釋性。因?yàn)殡S著 AI 越來越聰明,我們要求它承擔(dān)它的社會(huì)責(zé)任了,比如不能歧視黑人。當(dāng)出現(xiàn)問題時(shí),就可以找到出現(xiàn)問題的原因,這就要求 AI 可以被解釋。

2、訓(xùn)練過程。AI 的訓(xùn)練過程,從一開始的「端到端」過程,拆分成了「預(yù)訓(xùn)練」和「微調(diào)」兩步,專業(yè)術(shù)語叫遷移學(xué)習(xí)。

其實(shí)我本人非常喜歡遷移學(xué)習(xí),因?yàn)樗鼮闄C(jī)器學(xué)習(xí)指明了一個(gè)大方向。以往的機(jī)器學(xué)習(xí),每解決一個(gè)問題,就要專門構(gòu)建一個(gè)模型。即使是解決兩個(gè)非常相似的問題,比如識(shí)別是籃球新聞還是足球新聞,哪怕都是自然語言處理,在傳統(tǒng)機(jī)器看來都是不同的任務(wù)。

機(jī)器學(xué)習(xí)將端到端訓(xùn)練的過程拆分成了兩部分。一部分是預(yù)訓(xùn)練,從大規(guī)模的語料中學(xué)到一個(gè)相對(duì)通用的知識(shí)。然后是微調(diào),將通用的知識(shí)去解決特定的細(xì)節(jié)問題。

這樣拆分的好處在于,大規(guī)模語料訓(xùn)練的模型可以得到復(fù)用。因?yàn)椴皇撬泄径加心芰?gòu)建這種超大規(guī)模的模型??梢詮?fù)用之后,中小公司就可以拿這個(gè)模型針對(duì)自身特定的領(lǐng)域微調(diào),就能產(chǎn)生子領(lǐng)域上的業(yè)務(wù)價(jià)值,節(jié)省了大量的人力、物力和時(shí)間成本。

袁進(jìn)輝:我想補(bǔ)充的是,這種大模型還沒到頭,以后還會(huì)越來越大。像 GPT-3,參數(shù)已經(jīng)達(dá)到 1700 億,但和人腦的神經(jīng)元連接數(shù)相比,還差 1000-10000 倍左右。

一個(gè)可能的猜想是,智能或許沒有那么神奇,只是一個(gè)規(guī)模的問題,最后會(huì)由量變產(chǎn)生質(zhì)變。

另一種觀點(diǎn)認(rèn)為,預(yù)訓(xùn)練模型在腦科學(xué)和神經(jīng)科學(xué)上也有一定的支撐。人之所以這么聰明,有一部分是后天習(xí)得的,但主要還是先天決定的。在一個(gè)嬰兒出生之前,大腦皮層間的連接和神經(jīng)元的突起,就已經(jīng)大致由基因決定了。在嬰兒出生看到這個(gè)物理世界后,神經(jīng)元之間的連接會(huì)根據(jù)物理信號(hào)微調(diào)——有的連接會(huì)越來越強(qiáng),不太使用的連接就會(huì)變?nèi)酢?/p>

這整個(gè)過程都非常類似預(yù)訓(xùn)練和微調(diào)的模式。所以從某種意義上來說,大模型預(yù)訓(xùn)練,的確有生物的合理性。

AI 和人類會(huì)是怎樣的關(guān)系?

肖涵:我對(duì) AI 能力的增強(qiáng)是非常有信心的。但是,在目前這套方法之下,我認(rèn)為 AI 可能最終無法產(chǎn)生自我意識(shí)。

可話說回來,難道 AI 一定要有自我意識(shí)嗎?

50 年后可能 AI 仍然沒有自我意識(shí),但它可以解決非常多重要的問題,要比人類解決得好得多,這個(gè)時(shí)候你會(huì)愿意承認(rèn)這種形態(tài)的東西是「智能」嗎?

袁進(jìn)輝:我傾向于從正面理解這件事,就是 AI 可以解放人類,讓人類去追求更本質(zhì)的東西,就好像蒸汽機(jī)把我們從體力勞動(dòng)中解放出來一樣。

這讓我想起了劉慈欣的小說《朝聞道》中的一個(gè)設(shè)定:地球人可以向外星人提任何問題,外星人會(huì)告訴你正確答案。但代價(jià)是知道答案后,這個(gè)提問者會(huì)立刻死去。但最終有一個(gè)人問了外星人這樣一個(gè)問題:宇宙的目的是什么?

外星人也不知道,于是他崩潰了。

張鵬:雖然我們被冠以「擁有自我意識(shí)」,但全世界也有大量的人不知道自己的目的是什么。所以我覺得以自我意識(shí)來定義也許是一種人類沙文主義。

瘦駝:我覺得對(duì)于 AI 的思考有幾個(gè)層面。

一個(gè)是哲學(xué)層面上的。我認(rèn)為如果未來 AI 變得像人一樣,那一定是失敗的 AI。他有人的缺點(diǎn),有人自己都搞不清的邏輯錯(cuò)誤,那我們?yōu)槭裁匆?AI?直接造人不是簡單地多嗎?我們之所以要造 AI,一定是它可以解決人類解決不了的問題,這樣 AI 才有意義。

另外我也有一些應(yīng)用層面上的顧慮。剛剛幾位也說到,AI 很脆弱。如果我們已經(jīng)高度依賴 AI 了,一旦底層的東西有問題,會(huì)造成非常大的影響。

然后是關(guān)于解釋性的困局。解釋性的困局其實(shí)是用來解放人類自己的,就是想求一個(gè)安心。但即便這個(gè)說法本身沒有意義,也一定會(huì)讓很多人心生警惕。這種警惕,從人作為社會(huì)性動(dòng)物的角度來說,就會(huì)對(duì) AI 的發(fā)展產(chǎn)生影響。我們需要有一定的準(zhǔn)備,不要讓這種警惕發(fā)酵到一個(gè)比較尖銳的地步,那到時(shí)狀況就比較糟糕了。

張鵬:我覺得真正的問題是,AI 今天還有大量的基礎(chǔ)工作要做好。我們可以確定,AI 會(huì)成為人類未來文明進(jìn)程中重要的伙伴,但它距離這個(gè)角色,其實(shí)還有很長的路要走。

今天我們對(duì)于 AI 的探討,如果是針對(duì)「不要犯一些基礎(chǔ)錯(cuò)誤」,是有意義的。但在 AI 能力還比較羸弱的時(shí)候過度討論「自我意識(shí)」之類的話題,其實(shí)是很務(wù)虛的。

*頭圖來源:Unsplash,DeepMind

關(guān)鍵詞: 能自主編程的 會(huì)搶了程序員的飯碗嗎 人工智能

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號(hào):京ICP備2022016840號(hào)-16 營業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com