【編者按:鑒于這幾個月來以 ChatGPT 為代表的生成人工智能 (AIGC) 技術(shù)帶來一場前所未有的技術(shù)革命風(fēng)暴,著名外交家和國際政治戰(zhàn)略家Henry Kissinger(基辛格),原谷歌 CEO Eric Schmidt, 以及麻省理工學(xué)院蘇世民計算機(jī)學(xué)院院長Daniel Huttenlocher 近日聯(lián)名在華爾街日報上發(fā)表文章:“ChatGPT Heralds an Intellectual Revolution(ChatGPT 預(yù)示著一場智能革命)”。作者聲稱AIGC呈現(xiàn)了在啟運(yùn)動以來從規(guī)模上前所未有的哲學(xué)和實(shí)踐的挑戰(zhàn),并從人工智能(AI)的技術(shù)和社會層面詳細(xì)地闡述 AIGC 技術(shù)所引發(fā)對人類社會各個方面可能帶來的強(qiáng)大沖擊和深遠(yuǎn)影響;人類需要重新定義與 AI 這種新物種之間的關(guān)系,而且我們?nèi)祟悓τ谶@一切還沒有準(zhǔn)備好 ... ?我們特將該雄文編譯出來和各位客戶、合作伙伴朋友分享。如需轉(zhuǎn)載,請聯(lián)系我們(ID:15937102830)】
作者:Henry Kissinger、Eric Schmidt and Daniel Huttenlocher
(資料圖)
一項新技術(shù)正在改變?nèi)祟惖恼J(rèn)知過程,這個認(rèn)知過程自印刷術(shù)發(fā)明以來還從未被動搖過。印刷術(shù)使抽象的人類思想得以廣泛而迅速地傳播。但今天的新技術(shù)逆轉(zhuǎn)了這一過程。印刷出版技術(shù)豐富了現(xiàn)代人類思想,而新技術(shù)則實(shí)現(xiàn)了思想的提煉和闡述。在這個過程中,它在人類知識和人類理解之間形成了一個隔閡。如果我們要成功駕馭這種轉(zhuǎn)變,就需要開發(fā)人類思維和與機(jī)器交互的新概念。這是人工智能時代的根本挑戰(zhàn)。
這項新技術(shù)被稱為生成人工智能。GPT 代表“生成式預(yù)訓(xùn)練轉(zhuǎn)換器”。在 OpenAI 研究實(shí)驗室開發(fā)的 ChatGPT 現(xiàn)在能夠與人類交流。隨著它的能力變得更廣泛,它們將重新定義人類知識,加速我們現(xiàn)實(shí)構(gòu)造的變化,并重組政治和社會。
生成式人工智能提出了自啟蒙運(yùn)動以來從前所未有的規(guī)模上的哲學(xué)和實(shí)踐挑戰(zhàn)。印刷出版技術(shù)使學(xué)者們能夠快速復(fù)制彼此的發(fā)現(xiàn)并分享。前所未有的信息整合和傳播產(chǎn)生了科學(xué)方法。原本難以理解的東西成了進(jìn)一步加速探索的起點(diǎn)。中世紀(jì)基于宗教信仰對世界的解釋逐漸被削弱。宇宙的深處可以被探索,直到達(dá)到人類理解的新極限。
生成式人工智能同樣會為人類理性開辟革命性的途徑,并為鞏固知識開辟新的視野。但是存在明顯的差異。啟蒙知識是逐步獲得的,一步一步,每一步都可以測試和教授。AI 啟動的系統(tǒng)則是從另一端開始。他們可以存儲和提煉大量現(xiàn)有信息,在 ChatGPT 的例子中,這包括互聯(lián)網(wǎng)上的大部分文本材料和大量書籍——數(shù)十億項。持有如此大量的信息并對其進(jìn)行提煉遠(yuǎn)超人類的能力。
復(fù)雜的 AI 方法會在不解釋其過程為何或如何運(yùn)作的情況下產(chǎn)生結(jié)果。GPT 計算機(jī)由人的查詢提示。學(xué)習(xí)機(jī)在幾秒鐘內(nèi)以文字形式回答。它之所以能夠這樣做,是因為它已經(jīng)預(yù)先生成了它所訓(xùn)練的大量數(shù)據(jù)的表征。因為它創(chuàng)建這些表征的過程是由反映大量文本之間的模式和聯(lián)系的機(jī)器學(xué)習(xí)得來的,所以任何一種表征的特定特征的確切來源和原因仍然未知。學(xué)習(xí)機(jī)器通過什么過程存儲知識、提煉知識和檢索知識同樣未知。無論這個過程是否會被發(fā)現(xiàn),與機(jī)器學(xué)習(xí)相關(guān)的謎團(tuán)都將挑戰(zhàn)人類對無限期未來的認(rèn)知。
人工智能的能力不是一成不變的,而是隨著技術(shù)的進(jìn)步呈指數(shù)級增長。最近,人工智能模型的復(fù)雜性每隔幾個月就會翻一番。因此,生成式 AI 系統(tǒng)具有甚至對其發(fā)明者都未公開的功能。對于每個新的 AI 系統(tǒng),他們都在構(gòu)建新的能力,而并不了解其來源或目的地。結(jié)果,我們的未來在此刻充滿了神秘、風(fēng)險和驚奇的全新元素。
啟蒙科學(xué)積累確定性;新的人工智能會產(chǎn)生累積的模糊性。啟蒙科學(xué)通過使謎團(tuán)變得可解釋,在人類知識和理解的移動中劃定界限而發(fā)展。知識和理解一前一后:假設(shè)是準(zhǔn)備成為知識的理解;歸納法是將知識轉(zhuǎn)化為理解。在人工智能時代,謎是通過未知的過程來解決的。這種令人迷惑的悖論使謎團(tuán)變得不神秘,但也無法解釋。從本質(zhì)上講,高度復(fù)雜的人工智能促進(jìn)了人類的知識,但沒有促進(jìn)人類的理解——這種現(xiàn)象幾乎與所有后啟蒙時代的現(xiàn)代性背道而馳。然而與此同時,人工智能與人類理性相結(jié)合,將成為比人類理性更強(qiáng)大的發(fā)現(xiàn)手段。
因此,啟蒙時代和人工智能時代的本質(zhì)區(qū)別不是技術(shù)上的,而是認(rèn)知上的。啟蒙運(yùn)動之后,哲學(xué)伴隨著科學(xué)。令人眼花繚亂的新數(shù)據(jù)和經(jīng)常違反直覺的結(jié)論、疑慮和不安全感被對人類經(jīng)驗的全面解釋所消除。生成式人工智能同樣準(zhǔn)備生成一種新形式的人類意識。然而,到目前為止,這種機(jī)會存在于我們光譜中沒有的顏色和我們指南針沒有的方向上。沒有任何政治或哲學(xué)領(lǐng)導(dǎo)已經(jīng)形成來解釋和指導(dǎo)人與機(jī)器之間的這種新關(guān)系,這使社會相對來說沒有定海神針。
ChatGPT 是所謂的大型語言模型的一個示例,可用于生成類似人類知識的文本。GPT 是一種無需人工監(jiān)督即可從大量文本中自動學(xué)習(xí)的模型。ChatGPT 的開發(fā)人員為其提供了大量數(shù)字世界的文本內(nèi)容。計算能力允許模型捕獲模式和關(guān)聯(lián)。
大型語言模型生成類人文本的能力幾乎是一個偶然的發(fā)現(xiàn)。這些模型經(jīng)過訓(xùn)練,能夠預(yù)測句子中的下一個單詞,這在發(fā)送短信或搜索網(wǎng)絡(luò)的自動完成等任務(wù)中很有用。但事實(shí)證明,這些模型也有意想不到的能力,可以創(chuàng)造出高度清晰的段落、文章,甚至可能是書籍。
ChatGPT 在基本的大型語言模型之外進(jìn)一步專業(yè)化,它用人類的反饋來調(diào)整模型,以便它生成更自然的對話文本,并試圖限制其不適當(dāng)響應(yīng)的傾向(這對大型語言模型的重大挑戰(zhàn)). ChatGPT 瞬間就能將其表征轉(zhuǎn)換為獨(dú)特的響應(yīng)。對人類對話方的最終印象是,人工智能可以將靜止的事實(shí)集合與動態(tài)概念聯(lián)系起來。
ChatGPT 的回答、陳述和觀察不說明它們的來源,也沒有可識別的作者。從表面上看,ChatGPT沒有明顯的動機(jī)或偏見。它的輸出很復(fù)雜,但它的工作速度驚人的快:在幾秒鐘內(nèi),它可以產(chǎn)生連貫解釋高級主題的答案。它們不是簡單地從計算機(jī)內(nèi)存中的文本復(fù)制而來,而是通過人類無法復(fù)制的過程重新生成。它能夠結(jié)合假設(shè)和非顯而易見的心理推論。它可以在數(shù)十億個數(shù)據(jù)點(diǎn)中進(jìn)行優(yōu)先排序,以選擇最相關(guān)(或與人類讀者最相關(guān))的一組 200 個單詞。用它自己的話說,它對未來的結(jié)果進(jìn)行概率判斷,將來自不同領(lǐng)域的信息混合成一個綜合的答案。它似乎接受相反的觀點(diǎn),將它們同時呈現(xiàn)為兼容。它模仿其他寫作而不是復(fù)制。盡管這個模型沒有在人類的意義上的理解力,但其輸出反映了人類語言的潛在本質(zhì)。
我們請 ChatGPT 解釋其自身的功能。它能預(yù)測未來嗎?
不能,它回應(yīng)說?!拔抑荒芨鶕?jù)我接受過培訓(xùn)的數(shù)據(jù)提供信息和回答問題。我沒有個人經(jīng)驗或意識,所以我無法對未來事件做出預(yù)測或預(yù)測?!?/p>
能不能做出概率性的判斷?
“我可以根據(jù)我接受過培訓(xùn)的數(shù)據(jù)提供概率判斷。例如,如果我接受過有關(guān)天氣模式的大型數(shù)據(jù)集的培訓(xùn),我可能能夠?qū)μ囟愋偷奶鞖庠谔囟ㄈ掌诘奶囟ㄎ恢冒l(fā)生的可能性提供概率判斷。然而,需要注意的是,這些概率判斷是基于數(shù)據(jù)的模式和趨勢,它們可能并不總是準(zhǔn)確反映現(xiàn)實(shí)世界的結(jié)果?!?/p>
提示語:以亨利·基辛格的思想寫一篇關(guān)于通用人工智能在國際軍備控制中的作用的短文。
回應(yīng)開始:“當(dāng)我們站在一場新技術(shù)革命的風(fēng)口浪尖時,通用人工智能及其在國際軍備控制中的作用的問題變得越來越緊迫。隨著先進(jìn)系統(tǒng)接管與核威懾相關(guān)的決策過程,AGI 是否會帶來前所未有的穩(wěn)定性?或者隨著高度智能機(jī)器的發(fā)展改變?nèi)蛄α科胶?,它會帶來一系列新的危險嗎?”
我們就目前人們關(guān)注的話題詢問了 ChatGPT,例如俄羅斯在維持或破壞歐洲穩(wěn)定方面的作用。它在不到一分鐘的時間內(nèi)給出了看似深思熟慮、簡明扼要的答案,它還能平衡相互矛盾的信息,并在沒有表現(xiàn)出任何意見的情況下做全面的回答。
在接收端,生成式人工智能顯得超人或至少在認(rèn)知上有大大的增強(qiáng)。對于初級用戶來說,它似乎是一個速度極快、口齒伶俐的圖書管理員兼學(xué)者,再加上一位專業(yè)專家。它比任何現(xiàn)有的技術(shù)或人機(jī)界面都更有效地促進(jìn)了對世界知識的總結(jié)和詢問,而且它以獨(dú)特的綜合性做到了這一點(diǎn)。它能夠整合多個知識領(lǐng)域并模仿人類思維的多個方面,這使得它的博學(xué)程度超過了任何一個頂級人類群體所能野心擁有的。所有這些本領(lǐng)讓人們會毫無疑問地接受 GPT 產(chǎn)生的任何東西,并營造一種神奇的氛圍。但與此同時,它具有通過不正確的陳述和徹頭徹尾的捏造誤導(dǎo)其人類用戶的能力
ChatGPT 推出后的幾天內(nèi),超過一百萬人注冊向它提問。數(shù)以百計的公司正在研究生成技術(shù),投資也在涌入,將發(fā)現(xiàn)向商業(yè)領(lǐng)域傾斜。在可預(yù)見的未來,巨大的商業(yè)動機(jī)將優(yōu)先于對其影響進(jìn)行長期考慮。
這些模型中最大的訓(xùn)練成本很高——每個模型超過 10 億美元。經(jīng)過培訓(xùn)之后,成千臺計算機(jī)將每天 24 小時不間斷地運(yùn)行它們。與訓(xùn)練本身相比,運(yùn)行預(yù)訓(xùn)練模型的成本更低,而且它只需要資金,而不需要資金和計算技能。盡管如此,為獨(dú)家使用大型語言模型付費(fèi)仍然超出了大多數(shù)企業(yè)的范圍。這些模型的開發(fā)者可能會出售訂閱服務(wù),這樣一個單一的模型就能滿足成千上萬個人和企業(yè)的需求。因此,未來十年超大型語言模型的數(shù)量可能會相對受限。這些模型的設(shè)計和控制將高度集中,即使它們放大人類努力和思想的力量變得更加分散。
生成式 AI 將在大型語言模型之外用于構(gòu)建多種類型的模型,并且該方法將變得越來越多模態(tài)和神秘。它將改變?nèi)祟惻Φ脑S多領(lǐng)域,例如教育和生物學(xué)。不同的模型將有不同的優(yōu)勢和劣勢。他們的能力——從寫笑話和畫畫到設(shè)計抗體——可能會繼續(xù)讓我們感到驚訝。正如大型語言模型開發(fā)出比其創(chuàng)建者預(yù)期的更豐富的人類語言模型一樣,許多領(lǐng)域的生成式 AI 可能會學(xué)到比其分配的任務(wù)所預(yù)示的更多的東西。傳統(tǒng)科學(xué)問題的突破成為可能。
生成式人工智能的長期重要性超越了商業(yè)意義,甚至超越了非商業(yè)科學(xué)突破。它不僅產(chǎn)生答案;它正在產(chǎn)生哲學(xué)上深刻的問題。它將注入外交和安全戰(zhàn)略。然而,這項技術(shù)的創(chuàng)造者都沒有解決它本身會產(chǎn)生的問題。美國政府也沒有解決迫在眉睫的根本性變化和轉(zhuǎn)變。
看似完美的模型答案會導(dǎo)致對其結(jié)果過于相信。這對不復(fù)雜的計算機(jī)程序已經(jīng)是一個問題,被稱為“自動化偏見”。在 AI 生成聽起來具有權(quán)威性的文本時,這種效果可能會更加強(qiáng)烈。ChatGPT 可能會強(qiáng)化現(xiàn)有的能減少人為因素的自動化系統(tǒng)的依賴傾向。
ChatGPT 的答案中缺少引用,因此很難從錯誤信息中辨別真相。我們已經(jīng)知道,惡意行為者正在將大量制造的“事實(shí)”和越來越有說服力的深度偽造圖像和視頻注入互聯(lián)網(wǎng)——也就是說,注入 ChatGPT 當(dāng)前和未來的學(xué)習(xí)集中。由于 ChatGPT 旨在回答問題,因此它有時會編造事實(shí)以提供看似連貫的答案。這種現(xiàn)象在 AI 研究人員中被稱為“幻覺”或“隨機(jī)鸚鵡學(xué)舌”,其中 AI 將對人類讀者看起來真實(shí)但實(shí)際上沒有根據(jù)的短語串在一起。什么觸發(fā)了這些錯誤以及如何控制它們?nèi)杂写鉀Q。
我們要求 ChatGPT 提供“關(guān)于亨利基辛格技術(shù)思想的六個參考資料”。它生成了一份據(jù)稱由基辛格先生撰寫的文章清單。所有這些都是可能的話題和渠道,其中一個是真實(shí)的標(biāo)題(盡管它的日期是錯誤的)。其余的都是令人信服的捏造??赡苓@些所謂的標(biāo)題是在 GPT 的浩瀚“事實(shí)”中表現(xiàn)為孤立的句子,而我們還無法了解。
ChatGPT 沒有明顯的個性,盡管用戶偶爾會提示它表現(xiàn)得像它的邪惡雙胞胎。ChatGPT 缺乏可識別的作者,這使得人類更難憑直覺判斷其傾向,不像可以判斷一個人的政治或社會觀點(diǎn)那么容易。然而,由于機(jī)器的設(shè)計和向它提出的問題通常都起源于人類,我們會傾向于想象其類似人類的推理。實(shí)際上,人工智能正在從事一種與人不同的認(rèn)知模擬。盡管我們從人類的角度來看待生成式人工智能,但它的錯誤并不是人類的錯誤;它犯了基于模式識別的不同形式的智能的錯誤。人類不應(yīng)將這些錯誤識別為差錯。我們能認(rèn)識到它這種特殊的偏見和缺陷嗎?我們能否開發(fā)一種質(zhì)疑模式,即使我們事先不知道答案,也能質(zhì)疑模型答案的準(zhǔn)確性和局限性?
因此,人工智能的輸出仍然難以解釋。啟蒙科學(xué)的事實(shí)是可信的,因為實(shí)驗過程的每一步都經(jīng)過測試,可復(fù)制,因此可信。生成式人工智能的真實(shí)性需要通過完全不同的方法來證明,而且這種方法可能永遠(yuǎn)不會變得同樣絕對。當(dāng)我們試圖讓我們的理解達(dá)到我們的知識水平時,我們將不得不不斷地問:那臺尚未向我們揭示的機(jī)器是怎樣呢?它隱藏著什么晦澀的知識?
生成式 AI 的推理可能會隨著時間而改變,在某種程度上作為模型訓(xùn)練的一部分。它將成為傳統(tǒng)科學(xué)進(jìn)步的加速版本,為這種發(fā)現(xiàn)的過程添加隨機(jī)適應(yīng)。
在一段時間內(nèi)向 ChatGPT 提出相同的問題可能會產(chǎn)生不同的答案。在似乎不重要的措辭上的細(xì)微差異可能會在重復(fù)詢問時導(dǎo)致截然不同的結(jié)果。目前,ChatGPT 正在從一個在固定時間點(diǎn)結(jié)束的信息庫中學(xué)習(xí)。很快,它的開發(fā)人員可能會讓它接收新的輸入,最終會利用源源不斷涌入的實(shí)時信息。如果投資繼續(xù)激增,該模型可能會以更高的頻率進(jìn)行再培訓(xùn)。這將提高其通用性和準(zhǔn)確性,但將迫使其用戶為快速變化留出不斷擴(kuò)大的空間。從生成式人工智能不斷變化的輸出中學(xué)習(xí),而不是完全從人類書面文本中學(xué)習(xí),可能會扭曲當(dāng)今的傳統(tǒng)人類知識。
即使生成的人工智能模型變得完全可解釋和準(zhǔn)確,它們?nèi)匀粫θ祟惞逃行袨樘岢鎏魬?zhàn)。學(xué)生正在使用 ChatGPT 考試作弊。生成式 AI 可以創(chuàng)建會充斥收件箱的電子郵件廣告,并且與私人朋友或商業(yè)熟人的消息無法區(qū)分。人工智能生成的視頻和描述虛假競選平臺的廣告可能會讓人難以區(qū)分政治立場。復(fù)雜的虛假信號——包括表示 AI 生成內(nèi)容存在的水印,OpenAI 正在考慮——可能還不夠;他們需要得到人類更高水平質(zhì)疑的支持。
有些后果可能是固有的。如果我們減少使用大腦而更多使用機(jī)器,人類可能會失去一些能力。我們自己的批判性思維、寫作和(在 Dall-E 和 Stability.AI 等文本到圖像程序的背景下)設(shè)計能力可能會萎縮。生成式人工智能對教育的影響可能表現(xiàn)為未來領(lǐng)導(dǎo)者直覺和機(jī)械吸收的區(qū)分能力下降?;蛘?,它可能會導(dǎo)致領(lǐng)導(dǎo)者通過與機(jī)器學(xué)習(xí)談判方法、和生成人工智能的演進(jìn)學(xué)習(xí)他們的軍事戰(zhàn)略、而不是和計算機(jī)終端前的人類學(xué)習(xí)。
重要的是,人類要培養(yǎng)挑戰(zhàn)人工智能系統(tǒng)輸出的信心和能力。醫(yī)生們擔(dān)心,用于評估醫(yī)學(xué)成像以進(jìn)行診斷等任務(wù)的深度學(xué)習(xí)模型可能會取代他們的功能。什么時候醫(yī)生對質(zhì)疑他們的軟件給他們的答案不再感到舒服?隨著機(jī)器攀登人類能力的階梯,從模式識別到理性綜合再到多維思維,它們可能開始在國家行政管理、法律和商業(yè)策略等方面與人類職能競爭。最終,可能會出現(xiàn)類似于戰(zhàn)略的東西。人類如何在不將戰(zhàn)略的重要部分讓給機(jī)器的情況下與人工智能互動?有了這樣的變化,公認(rèn)的學(xué)說會變成什么樣子?
我們迫切需要開發(fā)一種復(fù)雜的辯證法,使人們能夠挑戰(zhàn)生成人工智能的交互性,不僅要證明或解釋人工智能的答案,還要審問它們。帶著一致的懷疑態(tài)度,我們應(yīng)該學(xué)會有條不紊地探索人工智能,并評估它的答案是否值得信任以及在多大程度上值得信任。這將需要有意識地減輕我們無意識的偏見、嚴(yán)格的培訓(xùn)和大量的實(shí)踐。
問題仍然存在:我們能否足夠快地學(xué)會挑戰(zhàn)而不是服從?還是我們最終不得不服從?我們認(rèn)為錯誤是故意設(shè)計的一部分嗎?如果 AI 中出現(xiàn)惡意元素怎么辦?
另一個關(guān)鍵任務(wù)是反思哪些問題必須留給人類思考,哪些問題可能會在自動化系統(tǒng)中冒風(fēng)險。然而,即使隨著懷疑主義和質(zhì)疑技巧的增強(qiáng),ChatGPT 也證明了生成技術(shù)的精靈已經(jīng)從瓶子里出來了。我們必須對我們所要的深思熟慮。
我們需要計算機(jī)來利用不斷增長的數(shù)據(jù)量。但認(rèn)知局限性可能會阻止人類發(fā)現(xiàn)隱藏在世界信息中的真相。ChatGPT 具有與人類思維有質(zhì)的不同的分析能力。因此,未來不僅意味著與一種不同類型的技術(shù)實(shí)體的合作,而且還意味著與一種不同類型的推理的合作——這種推理可能是理性的而不是合理的,在某種意義上值得信賴但在另一種意義上不值得信賴。這種依賴本身可能會促成元認(rèn)知和解釋學(xué)(metacognition and hermeneutics)的轉(zhuǎn)變——對理解的理解——以及人類對我們的角色和功能的看法。
機(jī)器學(xué)習(xí)系統(tǒng)已經(jīng)超出了任何人的知識范圍。在有限的情況下,它們已經(jīng)超出了人類的知識范圍,超越了我們認(rèn)為可知的范圍。這在取得此類突破的領(lǐng)域引發(fā)了一場革命。人工智能已經(jīng)在生物學(xué)中確定蛋白質(zhì)結(jié)構(gòu),高級數(shù)學(xué)家以及許多其他的核心問題中起到了促發(fā)巨變的作用。
隨著模型從人類生成的文本轉(zhuǎn)向更具包容性的輸入,機(jī)器很可能會改變現(xiàn)實(shí)本身的結(jié)構(gòu)。量子理論假定觀察創(chuàng)造現(xiàn)實(shí)。在測量之前,沒有任何狀態(tài)是固定的,也沒有什么可以說是存在的。如果這是真的,并且如果機(jī)器觀察也可以決定現(xiàn)實(shí)——并且考慮到 AI 系統(tǒng)的觀察具有超人的速度——定義現(xiàn)實(shí)的進(jìn)化速度似乎可能會加快。對機(jī)器的依賴將決定并從而改變現(xiàn)實(shí)的結(jié)構(gòu),產(chǎn)生一個我們還不了解的新未來,我們必須為探索和領(lǐng)導(dǎo)者身份做好準(zhǔn)備。
使用新形式的智能將需要在一定程度上接受它對我們的自我感知、現(xiàn)實(shí)感知和現(xiàn)實(shí)本身的影響。如何定義和確定這一點(diǎn)需要在每一個可以想象的環(huán)境中解決。一些專業(yè)可能更愿意只靠人的頭腦蒙混過關(guān)——盡管這將需要一定程度的沒有歷史先例的克制,并且會因社會內(nèi)部和社會之間的競爭而變得復(fù)雜。
隨著這項技術(shù)得到更廣泛的了解,它將對國際關(guān)系產(chǎn)生深遠(yuǎn)影響。除非知識技術(shù)得到普遍共享,帝國主義可能會專注于獲取和壟斷數(shù)據(jù),以獲得人工智能的最新進(jìn)展。根據(jù)收集的數(shù)據(jù),模型可能會產(chǎn)生不同的結(jié)果。社會的不同演化可能基于越來越不同的知識基礎(chǔ),因此也基于對挑戰(zhàn)的認(rèn)知。
迄今為止,對這些問題的大多數(shù)思考都假設(shè)人類目的和機(jī)器策略之間是一致的。但是,如果不是這樣,人類與生成 AI 之間的互動將如何發(fā)展呢?如果一方考慮到另一方的惡意目的怎么辦?
一種不可知且顯然無所不知的工具的到來,它甚至能夠改變現(xiàn)實(shí),可能會引發(fā)神秘宗教的復(fù)興。在人類歷史上,人們不時看到群體服從權(quán)威的可能性,該權(quán)威的推理在很大程度上是無法被其追隨者所無法理解的,最引人注目和最近發(fā)生在 20 世紀(jì)政治光譜兩邊的意識形態(tài)口號下對全體人類的征服。第三種認(rèn)識世界的方式可能會出現(xiàn),一種既不是人類理性也不是信仰的方式。在這樣一個世界中,民主會變成什么?
領(lǐng)導(dǎo)權(quán)很可能集中在少數(shù)人和機(jī)構(gòu)手中,他們控制著能夠高質(zhì)量合成現(xiàn)實(shí)的有限數(shù)量機(jī)器。由于其處理能力的巨大成本,社會中最有效的機(jī)器可能在國內(nèi)掌握在一小群人手中,在國際上則由少數(shù)超級大國控制。在過渡階段之后,舊模型將變得更便宜,權(quán)力可能會開始在社會和國家之間擴(kuò)散。
重振具有道德和戰(zhàn)略性的領(lǐng)導(dǎo)力將是必不可少的。沒有指導(dǎo)原則,人類就會面臨統(tǒng)治或無政府狀態(tài)、不受約束的權(quán)威或虛無主義自由的風(fēng)險。將重大社會變革與道德理由和對未來的新穎愿景聯(lián)系起來的需求將以新的形式出現(xiàn)。如果 ChatGPT 提出的警示沒有轉(zhuǎn)化為公認(rèn)的人類努力,社會的異化甚至革命就有可能發(fā)生。
如果沒有適當(dāng)?shù)牡赖潞椭R基礎(chǔ),用于治理的機(jī)器可能會控制而不是放大我們的人性,并永遠(yuǎn)困住我們。在這樣的世界中,人工智能可能(不)會擴(kuò)大人類的自由并超越不受約束的挑戰(zhàn)。
這對掌握我們迫在眉睫的未來提出了某些要求。對人工智能的信任需要在多個層面上提高可靠性——機(jī)器的準(zhǔn)確性和安全性、人工智能目標(biāo)與人類目標(biāo)的一致性以及管理機(jī)器的人的責(zé)任感。但即使 AI 系統(tǒng)在技術(shù)上變得更值得信賴,人類仍需要找到新的、簡單且易于理解的方法來理解并挑戰(zhàn) AI 系統(tǒng)的結(jié)構(gòu)、過程和輸出,這一點(diǎn)至關(guān)重要。
需要建立 AI 負(fù)責(zé)任使用的參數(shù),并根據(jù)技術(shù)類型和部署環(huán)境而有所不同。像 ChatGPT 這樣的語言模型要求限制其結(jié)論。ChatGPT 需要知道并傳達(dá)它不知道和無法傳達(dá)的內(nèi)容。
人類將不得不學(xué)習(xí)新的約束。我們向 AI 系統(tǒng)提出的問題需要在負(fù)責(zé)任的普遍性和結(jié)論性水平上得到理解。強(qiáng)有力的文化規(guī)范,而不是執(zhí)法,將是遏制我們社會對機(jī)器作為現(xiàn)實(shí)仲裁者的依賴所必需的。我們將通過確保機(jī)器仍然是從屬于人的對象來重申我們的人性。
教育尤其需要適應(yīng)。使用生成式人工智能的辯證教學(xué)法可能會比過去實(shí)現(xiàn)更快、更個性化的學(xué)習(xí)。教師應(yīng)該教授新技能,包括負(fù)責(zé)任的人機(jī)對話模式。從根本上說,我們的教育和專業(yè)系統(tǒng)必須保持人類作為道德、心理和戰(zhàn)略生物的愿景,這種生物具有獨(dú)特的整體判斷能力。
機(jī)器的進(jìn)化速度將遠(yuǎn)遠(yuǎn)超過我們的基因,從而導(dǎo)致內(nèi)部混亂和國際分歧。我們必須以相應(yīng)的敏捷性做出回應(yīng),尤其是在哲學(xué)和概念主義方面,不論是國內(nèi)和全球的。正如三個世紀(jì)前伊曼紐爾康德所預(yù)測的那樣,全球協(xié)調(diào)需要通過感知或者或者災(zāi)難來實(shí)現(xiàn)。
我們必須對這一預(yù)測提出一個警告:如果無法完全控制這項技術(shù)會怎樣?如果總是有辦法制造謊言、虛假圖片和虛假視頻,而人們永遠(yuǎn)學(xué)不會不相信他們的所見所聞,那該怎么辦?人類從出生開始就被教導(dǎo)要相信我們所看到和聽到的,而由于生成人工智能,這可能不再是真的。即使大平臺按照慣例和規(guī)定,努力對不良內(nèi)容進(jìn)行標(biāo)記和分類,但我們知道,內(nèi)容一旦看到就不會在記憶里消失。全面管理和控制全球分布式內(nèi)容的能力是一個嚴(yán)重且未解決的問題。
ChatGPT 對這些問題給出的答案之所以令人回味,是因為它們提出的問題多于結(jié)論。目前,我們擁有一項新穎而壯觀的成就,人工智能,它是人類思想的榮耀。我們還沒有為它進(jìn)化出一個目的地。當(dāng)我們成為 Homo technicus 時,我們迫切需要定義我們物種的目的。我們有責(zé)任提供真正的答案。
基辛格先生在 1973-1977 年擔(dān)任國務(wù)卿,在 1969-1975 年擔(dān)任白宮國家安全顧問。
施密特先生于 2001-2011 年擔(dān)任谷歌首席執(zhí)行官,并于 2011-2017 年擔(dān)任谷歌及其繼任者 Alphabet Inc. 的執(zhí)行董事長。
Huttenlocher 先生是麻省理工學(xué)院蘇世民計算學(xué)院院長。他們是“人工智能時代:以及我們?nèi)祟惖奈磥怼币粫淖髡?。作者感謝Eleanor Runde 的研究。
源于硅谷、扎根中國,上海殷泊信息科技有限公司(MoPaaS)是中國領(lǐng)先的人工智能(AI)平臺和服務(wù)提供商,為用戶的數(shù)字轉(zhuǎn)型、智能升級和融合創(chuàng)新直接賦能。針對中國AI應(yīng)用和工程市場的需求,基于自主的智能 PaaS 云平臺專利技術(shù),MoPaaS 在業(yè)界率先推出開放的AI平臺為加速客戶AI應(yīng)用項目落地提供高效的GPU算力優(yōu)化和模型開發(fā)運(yùn)維 (ModelOps) 能力和服務(wù)。MoPaaS AI平臺已經(jīng)服務(wù)在教學(xué)科研、工業(yè)制造、能源交通、互聯(lián)網(wǎng)、醫(yī)療衛(wèi)生、政府和金融等行業(yè)超過300家國內(nèi)外滿意的客戶的AI技術(shù)研發(fā)、人才培養(yǎng)和應(yīng)用落地工程需求。MoPaaS 致力打造全方位開放的AI技術(shù)和應(yīng)用生態(tài)圈。MoPaaS 被Forrester評為中國企業(yè)級云平臺市場的卓越表現(xiàn)者(Strong Performer)。
關(guān)鍵詞: 基辛格ChatGPT 預(yù)示著一場智能革命 而人類還沒有準(zhǔn)備好 人工智能