世界通訊!人工智能安全風險“迷思”

發(fā)布時間:2023-03-13 20:31:35  |  來源:騰訊網(wǎng)  

需要注意“為了人工智能而人工智能”的虛假繁榮。畢竟,人工智能技術(shù)的發(fā)展是為了人的發(fā)展,不應(yīng)反過來將人及人所創(chuàng)造的環(huán)境“削足適履”。

本文字數(shù)3511,閱讀時長約12分鐘


(資料圖片僅供參考)

文|賈開??電子科技大學公共管理學院副教授

編輯|朱弢

近一段時間,兩件事情引起了人們的普遍關(guān)注。

第一是ChatGPT的迅速普及,使得我們正在經(jīng)歷自2016年AlphaGo戰(zhàn)勝李世石比賽之后的第二次社會性“洗禮”,ChatGPT為跨領(lǐng)域用戶提供多功能內(nèi)容生成服務(wù),將通用型人工智能能否實現(xiàn)這一關(guān)鍵問題再次推上了風口浪尖。

第二是在俄烏沖突一周年之際開啟的慕尼黑安全會議上,以人工智能為代表的新興技術(shù)的“雙刃劍”影響,成為僅次于地緣政治的第二個重要議題。利益相關(guān)方普遍關(guān)心,技術(shù)帶來的不對稱優(yōu)勢與不確定風險,并試圖找到合適的全球治理之道以做出應(yīng)對。

上述兩件事情構(gòu)成了當前時代的重要主題:面對著新興技術(shù)可能出現(xiàn)的一個又一個重大突破,人們在充滿憧憬并賦予希望的同時,也越來越擔心潛藏的安全風險與挑戰(zhàn)。

這一主題正在被不同的研究報告或社會調(diào)查所揭示。例如,愛德曼公關(guān)公司每年發(fā)布的《全球信任度調(diào)查報告》指出,2012年至2022年的十年間,盡管人們對于“技術(shù)”部門的信任度始終最高,但相比于金融、娛樂、能源等其他行業(yè)領(lǐng)域,技術(shù)部門卻是唯一一個信任度下降的領(lǐng)域。2020年的報告更具體地指出。超過60%的人認為,“技術(shù)發(fā)展步伐太快、數(shù)字技術(shù)模糊了真相,以至無力規(guī)制新興技術(shù)風險”。

01

“迷思”何來?

對于人工智能而言,其試圖實現(xiàn)或達到人類智能相同水平的技術(shù)發(fā)展目標,使之不同于歷史上的任何一項技術(shù),而對人類以及整個社會的運行傳統(tǒng)提出了系統(tǒng)性的變革要求。

在此過程中,無論是針對個體權(quán)益的算法歧視、隱私侵害、勞動替代等沖擊,還是社會整體層面的信息繭房、虛假新聞等影響,以至國家層面的技術(shù)、產(chǎn)業(yè)、主權(quán)等安全性風險,都構(gòu)成了利益相關(guān)方的普遍性擔憂。

隨之而來的,便是探索對此時代問題的解答。

很直接的答案當然來自于治理體系的改革與重構(gòu):人工智能倫理治理原則的提出與共識、人工智能分級分類管理體系的建構(gòu)與完善、人工智能治理風險評估工具與機制的形成與豐富,都是必要且迫切的相關(guān)工作。但在這些針對具體安全問題探索治理答案的思路之外,不可忽視的另一重要議題在于,我們到底應(yīng)該如何界定人工智能的安全風險?

換言之,人工智能的安全風險到底指的是什么?如果人工智能能夠全部替代人類的話,那么安全風險的應(yīng)對就需要被界定為對通用型人工智能開發(fā)與應(yīng)用范圍的限制;而如果通用型人工智能只是一種想象,其并不能獨立于環(huán)境而實現(xiàn)的話,那么安全風險更應(yīng)該被界定為技術(shù)的誤用或濫用,也即我們不正確地改造了人類環(huán)境以使之適合人工智能的應(yīng)用需求——而這便是本文所稱“迷思”的原因所在。

對此“迷思”的探索,或許需要回到對人工智能本質(zhì)的理解與界定上。

現(xiàn)代人工智能概念往往被視為起源于1956年的達特茅斯會議,但正如會議的組織者麥肯錫所言,之所以命名為“artificial intelligence”,是試圖與之前研究者所提出的相關(guān)概念區(qū)分開,以更多聚焦其作為解決問題工具的功能主義內(nèi)涵。

不過,這一理解在人工智能逐漸引起全面性治理變革背景下明顯已過于局限,其難以完整揭示出人工智能與現(xiàn)實世界的復(fù)雜內(nèi)在聯(lián)系,超越達特茅斯會議并在更大視野下理解人工智能的發(fā)展史,應(yīng)該成為當前討論人工智能安全風險治理的新思路。

02

站上先驅(qū)的肩膀追根溯源

就此而言,對馮·諾伊曼(John von Neumann)、諾伯特·維納(Norbert Wiener)以及阿蘭·圖靈(Alan Mathison Turing)三位先驅(qū)的智能思想進行回顧,是一個有益起點。

在這三個人的思考中,人工智能,或者說更一般意義上的“機器智能”概念,大致具有兩種實現(xiàn)路徑:即“基于生物行為機制”,或者“基于生物行為結(jié)果”。

對于馮-諾伊曼和維納來說,其共同的興趣在于尋找生物體(大腦)、數(shù)學邏輯與機器的相通性,在理解生物智能機制的基礎(chǔ)上將其數(shù)學模型化,并用以指導(dǎo)“智能”機器的設(shè)計與制造。

作為現(xiàn)代計算機的設(shè)計者,馮-諾伊曼對于機器智能的思考始終與計算機的制造與實現(xiàn)聯(lián)系在一起,因此其也始終面臨著雙重復(fù)雜性的挑戰(zhàn):一方面是生物體智能機制不清晰并因此難以通過邏輯模型得以表達;另一方面則是如何在有限時間、有限資源內(nèi)模擬生物智能的運行過程。

1943年,沃倫·麥卡洛克(Warren MuCulloch)和沃爾特·皮茨(Walter Pitts)關(guān)于神經(jīng)元網(wǎng)絡(luò)的模型化研究推動了前一個問題的部分解決,而馮-諾伊曼則提出以“自動機(automata)”模型來解決第二個問題。

但即使如此,自動機模型仍然不能回應(yīng)的問題在于,簡化模型能否且如何在自我復(fù)制和進化過程中形成解決復(fù)雜問題的能力——而這卻恰恰是生物進化的特征所在。

與馮-諾伊曼類似,維納同樣重視基于對生物智能機制的理解來設(shè)計機器智能。但與馮-諾伊曼不同,維納的思考并不局限于生物智能的數(shù)學模型化或者以機器來模擬生物智能,其更關(guān)注“智能”的本質(zhì)及其在生物體和人造機器上的體現(xiàn),并以此為起點設(shè)計能夠滿足特定目的的機器。

由此,維納筆下的“控制論”并不致力于像馮-諾伊曼那樣以形式化的數(shù)學模型實現(xiàn)機器智能,而是在指出“信息”和“控制”作為“智能”本質(zhì)內(nèi)涵的基礎(chǔ)上,以啟發(fā)式的邏輯指導(dǎo)不同場景下的機器設(shè)計:有的場景可能是確定且精準的,并因此可以通過數(shù)學模型加以表達;但有的場景可能是思辨或模糊的,并因此更依賴實驗性反饋與調(diào)整。

相比于馮-諾伊曼與維納對于生物(人腦)機制過程的關(guān)注,圖靈提出了另外一條實現(xiàn)并判別機器智能的方式,即關(guān)注智能行為的結(jié)果而并不在意其是否是對于生物(人腦)的模擬。

在圖靈看來,“機器能否思考”的問題過于模糊,以致難以定義,但從行為結(jié)果的近似性上則可以清晰界定機器智能的標準,這也是“圖靈測試”的基本內(nèi)涵。

以此為起點,圖靈不再如馮-諾伊曼般關(guān)注機器實現(xiàn)的具體部件或結(jié)構(gòu),轉(zhuǎn)而聚焦計算機的算法設(shè)計問題,并基于“圖靈機”模型提出了“可計算問題等同于圖靈可計算”的理論命題。

隨后,哥德爾、波斯特、邱奇等人的工作被證明與“圖靈機”在計算能力上是等效的,由此強化了數(shù)學領(lǐng)域的可計算判定問題與計算機領(lǐng)域的算法設(shè)計問題的等效性。

邁克爾·斯特雷文斯(Michael Strevens)在較近出版的《知識機器》中提出,近代科學革命應(yīng)該被理解為“以取得經(jīng)驗驗證的局域性因果解釋(淺層解釋)為目標的科學共同體規(guī)范”的形成過程,而這也被其稱為科學的“鐵律”。

所謂“淺層解釋”,是指近現(xiàn)代科學拋棄了傳統(tǒng)科學哲學家試圖理解現(xiàn)象本質(zhì)及其因果關(guān)聯(lián)的努力,轉(zhuǎn)而致力于追求可觀察現(xiàn)象的精確描述與推導(dǎo)解釋。按照這一標準,不難發(fā)現(xiàn)在馮-諾伊曼、維納、圖靈三人中,只有圖靈滿足了近現(xiàn)代科學“鐵律”的要求:只關(guān)注智能行為的結(jié)果而不需要對產(chǎn)生結(jié)果的過程(也即智能行為的本質(zhì))給出因果解釋,從而繞開了不同研究者的主觀性假設(shè)而直接追求可計算、可預(yù)測的實踐目的。

也正因為此,圖靈拒絕了與生物學的跨學科對話,并進一步將機器智能的實現(xiàn)問題轉(zhuǎn)化為了數(shù)學上的可計算問題,從而定義了該領(lǐng)域的研究范式與邊界。

與之相比,馮-諾伊曼和維納仍然試圖通過跨學科對話挖掘智能的本質(zhì),并在此過程中指導(dǎo)機器智能的實現(xiàn)路徑。

03

人工智能的根本,還是為人類服務(wù)

通過對先驅(qū)者的思想總結(jié),我們可對前文所提出的人工智能安全“迷思”問題做出初步回答。

關(guān)于人工智能安全風險到底是源自其作為通用型人工智能的普遍性變革,還是源自在克服環(huán)境復(fù)雜性、計算復(fù)雜性過程中的誤用或濫用,事實上反映了我們對于人工智能本質(zhì)的不同理解。

從圖靈視角來看,繞開智能行為過程的探索而直接接近智能行為結(jié)果,是實現(xiàn)通用型人工智能(也即“通用圖靈機”)的重要方式;而站在馮-諾伊曼和維納視角來看,智能行為過程的探索不可或缺。

在經(jīng)過幾十年的發(fā)展后,到目前為止仍然難以判定究竟誰才是正確的,不過從當前發(fā)展階段來看,圖靈路徑無疑正在取得巨大成功,ChatGPT本身就可被視為圖靈測試的典型體現(xiàn)——但這并不意味著,馮-諾伊曼和維納路徑的失敗。

一方面,ChatGPT往往所表現(xiàn)出的“一本正經(jīng)胡說”特征,仍然表明語言作為人類智慧載體的功能始終是局限的,究竟能否從“量變”實現(xiàn)“質(zhì)變”尚不可知。

另一方面,或許更為重要的,在于馮-諾伊曼和維納仍然時刻提醒我們要將人工智能技術(shù)的開發(fā)、應(yīng)用與現(xiàn)實環(huán)境緊密聯(lián)系起來。當通用型人工智能尚未出現(xiàn)時,另一條思路仍然是在接受當前技術(shù)發(fā)展水平的基礎(chǔ)上去探索其合適的應(yīng)用場景。

在此意義上,我們便需要更加注意“為了人工智能而人工智能”的虛假繁榮。畢竟,人工智能技術(shù)的發(fā)展是為了人的發(fā)展,我們不應(yīng)反過來將人及人所創(chuàng)造的環(huán)境“削足適履”,通過削弱雙重復(fù)雜性的方式來滿足特定技術(shù)的使用條件——而后者無疑更是當前安全風險的重點所在。

關(guān)鍵詞:

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com