關(guān)于人工智能的未來發(fā)展,常常出現(xiàn)各種令人興奮或害怕的預言。
如近日,谷歌創(chuàng)新部門前商業(yè)總監(jiān)Mo Gawdat表示,“我們不會在下個世紀經(jīng)歷 100年的AI進步:相反,我們將經(jīng)歷2萬年的進步。”
未來學家伊恩·皮爾遜(Ian Pearson)曾于迪拜舉行的世界政府首腦峰會期間表示,人工智能可能比人類聰明數(shù)十億倍,將來人類要想繼續(xù)生存,必須要與計算機進行整合。
馬斯克也曾表示,人類將來需要與機器相結(jié)合,成為一種“半機械人”,從而避免在人工智能時代被淘汰。
對于如此多令人眼花繚亂、難辨真假的預測,應(yīng)該如何思考分辨呢?
“這種預測越是準確,就越是要警惕?!苯?,2018年圖靈獎得主Yoshua Bengio在自己的博客中寫道。
2018年圖靈獎得主Yoshua Bengio
Yoshua Bengio是蒙特利爾大學教授,最被廣為知曉的是他在深度學習方面的開創(chuàng)性工作,他與Geoffrey Hinton和Yann LeCun一起贏得了2018年圖靈獎。2019 年,他獲得了加拿大國家最高科學獎“基拉姆獎”,并于2021年成為世界上被引用次數(shù)第二多的計算機科學家。
Bengio認為,現(xiàn)實情況是,最好的AI研究人員無法認真做出這樣的預測,除非他們將其視為科幻電影的一部分。不僅AI研究人員對AI未來的發(fā)展步伐沒有達成共識,而且做出這樣的預測也沒有科學依據(jù)。科學研究可以在特定問題上停滯很長時間(比如物理學中所有力量的統(tǒng)一),或在突破之后取得快速進展(比如深度學習)。
那么,哪些事情是我們當下可以很有把握做出判斷的呢?
Bengio列出了以下幾點:
· 可以構(gòu)建像人類一樣聰明的AI。我們的大腦是復雜的機器,其工作原理正變得越來越好理解。我們是活生生的證據(jù),證明某種程度的智能是可能的。
·構(gòu)建比人類更聰明的AI是可能的。人類有時會受到認知偏見的困擾,這些偏見阻礙著人類的祖先向智人進化過程中可能需要的推理能力。而我們可以合理假設(shè),我們將能夠構(gòu)建出沒有這些缺陷(如需要社會地位、自我或?qū)儆谝粋€群體,毫無疑問地接受群體信仰等)的人工智能。此外,人工智能可以訪問更多的數(shù)據(jù)和內(nèi)存。因此,我們可以自信地說,構(gòu)建比人類更聰明的人工智能是有可能的。
·盡管如此,現(xiàn)在也還遠不能確定我們是否能夠像一些文章所聲稱的那樣構(gòu)建比我們自己更智能的AI。各種計算現(xiàn)象都遇到了指數(shù)級的難度墻(臭名昭著的NP計算難度),而我們還沒有發(fā)現(xiàn)智能的極限。
·人類智能和人工智能科學越進步,它就越有可能為社會帶來巨大的利益和危險。人工智能的應(yīng)用可能會增加,總體上可以極大地推動科學和技術(shù)的發(fā)展,但工具的力量是一把雙刃劍,必須制定法律、法規(guī)和社會規(guī)范,以避免或至少減少這些工具的濫用。
·為了防止被權(quán)力、金錢或仇恨欲望蒙蔽的人類利用這些工具損害其他人類,我們無疑需要改變法律并在機器中引入同情心,同時也要加強人類固有的同情心。
· 由于我們真的不知道人工智能或其他領(lǐng)域(例如生物技術(shù))的技術(shù)進步會有多快,因此最好立即著手更好地監(jiān)管這些強大的工具。事實上,人工智能已經(jīng)存在有害用途,無論是在軍隊中的使用,如可以識別某人的臉并進行射擊的殺手無人機,還是在人工智能系統(tǒng)中做出有偏見的決定并歧視女性或部分種族的人。一般來說,對計算的監(jiān)管很差,必須改變這一點。我們必須規(guī)范這些新技術(shù),就像我們對航空或化學所做的那樣,以保護人類和社會。
· 此外,應(yīng)該鼓勵對社會明顯有益的人工智能應(yīng)用,無論是在健康、應(yīng)對氣候變化、反對不公正還是增加獲得知識和教育機會。在所有這些領(lǐng)域,政府可以發(fā)揮關(guān)鍵作用,將人工智能研究和創(chuàng)業(yè)的力量引導到對社會有益的應(yīng)用,因為在這些應(yīng)用中,盈利的愿望并不總是足以刺激所需的投資。
關(guān)鍵詞: 圖靈獎得主Bengio:關(guān)于AI的未來 哪些判斷是靠譜的