人機混合智能在博弈領域的發(fā)展 全球觀察

發(fā)布時間:2023-03-11 16:32:01  |  來源:騰訊網(wǎng)  

【作者按:博弈向來是人機環(huán)境系統(tǒng)的智能,而不僅僅是人的智能,或許,西方的博弈論里存在著很大的缺陷】

-----------------------------------


【資料圖】

博弈論又被稱為對策論(Game Theory)既是現(xiàn)代數(shù)學的一個新分支,也是運籌學的一個重要學科。

博弈論主要研究公式化了的激勵結(jié)構間的相互作用。是研究具有斗爭或競爭性質(zhì)現(xiàn)象的數(shù)學理論和方法。博弈論考慮游戲中的個體的預測行為和實際行為,并研究它們的優(yōu)化策略。生物學家使用博弈理論來理解和預測進化論的某些結(jié)果。

博弈論已經(jīng)成為經(jīng)濟學的標準分析工具之一。在生物學、經(jīng)濟學、國際關系、計算機科學、政治學、軍事戰(zhàn)略和其他很多學科都有廣泛的應用。

基本概念中包括局中人、行動、信息、策略、收益、均衡和結(jié)果等。其中局中人、策略和收益是最基本要素。局中人、行動和結(jié)果被統(tǒng)稱為博弈規(guī)則。

-------------------------------------

軍事智能化將在戰(zhàn)場上發(fā)揮越來越重要的作用。不僅要求對戰(zhàn)爭和軍事?lián)碛凶銐蛘J識,同時需要提升對智能的認識,深刻理解智能在軍事應用中的優(yōu)勢和局限性,進而在軍事方面實現(xiàn)人和人工智能的有效協(xié)作。這涉及到眾多領域的探索研究和協(xié)調(diào)配合,是一個重要的人-機-環(huán)境系統(tǒng)工程。

1 美作戰(zhàn)概念與軍事智能發(fā)展態(tài)勢

從上世紀80年代以來,美國國防部、陸軍、海軍、空軍等單位陸續(xù)提出了一系列作戰(zhàn)概念。例如從20世紀80-90年代的“空地一體戰(zhàn)”,“非對稱作戰(zhàn)”,“有人/無人協(xié)同作戰(zhàn)”,“網(wǎng)絡中心站”等,到21世紀00年代的“認知電子站”“電磁頻譜站”等,再到21世紀10年代的“全球一體化作戰(zhàn)”“多域戰(zhàn)”“馬賽克站”等作戰(zhàn)概念。

在軍事領域中,機械化主要通過增強武器的機動力、火力和防護力提升單件武器的戰(zhàn)斗力,以武器代際更新和擴大數(shù)量規(guī)模的方式提升整體戰(zhàn)斗力[1]。信息化主要是通過構建信息化作戰(zhàn)體系,以信息流驅(qū)動物質(zhì)流和能量流,實現(xiàn)信息賦能、網(wǎng)絡聚能、體系增能,以軟件版本升級和系統(tǒng)涌現(xiàn)的方式提升整體戰(zhàn)斗力。智能化則是在高度信息化基礎上,通過人工智能賦予作戰(zhàn)體系“學習”和“思考”能力,以快速迭代進化的方式提升整體戰(zhàn)斗力。

從美作戰(zhàn)概念的演化中,可以看出作戰(zhàn)的機械化早已成熟,信息化程度越來越高,智能化也在不斷推進。不僅覆蓋的范圍越來越廣,對多域范圍內(nèi)的統(tǒng)一溝通協(xié)作要求也越來越高。智能化的重要前提是信息化,依托的物質(zhì)基礎主要是高度信息化以后提供的海量數(shù)據(jù)資源。隨著近幾十年美國相關作戰(zhàn)概念的提出與普及,其智能化的基礎也越來越堅實,同時人工智能的技術也在社會各方面的重視中飛速發(fā)展。

另一方面,美國在引導國家在人工智能發(fā)展方面發(fā)布了一系列戰(zhàn)略規(guī)劃書的同時,積極引導軍事領域與人工智能進行深度融合,發(fā)展軍事智能。例如,2016年10月,美國國家科技委員會連續(xù)發(fā)布了《為人工智能的未來做好準備》和《國家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》,戰(zhàn)略文件。2017年初,美國公布的《2016—2045年新興科技趨勢報告》以明確了最值得關注的科技技術,其中就包括云計算、人工智能、量子計算等。

綜上所述,我們可以看出,美國作為人工智能和軍事方面的強國,對人工智能的未來發(fā)展以及與軍事的融合充滿了信心,并且努力想要維護自身的領先地位。在了解其軍事智能發(fā)展態(tài)勢之后,我們更清晰的看到軍事智能發(fā)展的重要性。

2 人工智能分析與思考

無論是“軍事智能”還是其它智能,我們首先需要對“智能”和“人工智能”有深刻的認識?!爸悄堋备拍钪邪岛鴤€體、有限對整體、對無限的關系。針對智能時代的到來,有人提出,“需要從完全不同的角度來考慮和認識自古以來就存在的行為時空原則”,如傳統(tǒng)的人、物、環(huán)境關系等。

2.1 “模型”的有效性決定智能水平

世界是多元而復雜的,這其中包括了對象的多樣和復雜,以及不同對象之間關系的多樣與復雜。智能,可以對或多或少的這些對象和關系產(chǎn)生認識和建模。對于同樣的對象或現(xiàn)象,不同的人可以對其建立起不同的模型,同一個人也可以對其建立不同的模型。例如在地球上認識到的“晝夜”和“春夏秋冬”,而在太陽系中去觀察其實是“公轉(zhuǎn)”“自轉(zhuǎn)”等運動學規(guī)律。很多時候不同的視角,也就是用不同的模型去進行解釋的行為。軍事環(huán)境下,由于關乎生命和國家安全,我們對這些智能模型的可靠性和可解釋性要求比起民用領域顯然更高。

在人類的認識中,會出現(xiàn)“悖論”或者“矛盾”這樣的現(xiàn)象。其中“悖論”的一個特征是會對模型賦予導致無解的約束,并且約束往往是簡單的。對同一個事情的不同解釋出現(xiàn)“矛盾”則是由這些解釋模型的多樣性和差異性所產(chǎn)生的。前面我們討論到人類智能在環(huán)境中必然存在局限性,而這些必然的局限性導致了所產(chǎn)生的模型也總是存在著或多或少的局限性,一定具有邊界并且通常不是必然有效的。所以會出現(xiàn)面對同樣的問題,各種具有不同邊界和效果的“模型”相互競爭的情況,這種競爭既出現(xiàn)在個體中,也出現(xiàn)在群體中。在個體中,往往體現(xiàn)為“糾結(jié)”“沉思”“艱難的選擇”等等。在群體中,小范圍內(nèi)可能是“辯論”,大范圍可能是不同理論或者共識的競爭與傳播。

機器學習中也有集成學習的思想,方法是把多個估計器的預測結(jié)果結(jié)合起來,從而獲得比單個估計器更好的泛化能力/魯棒性。但是機器學習中集成的多個估計器往往是同樣或類似的結(jié)構或模型,如果是模型本身不利于去表示這些數(shù)據(jù)的信息,那么再之后也沒辦法通過集成的方式進一步提高了。并且數(shù)據(jù)往往是給定的,問題也是封閉的,即沒有其它的額外信息可以給予啟發(fā),是“身在此山中”而無法“識得廬山真面目”的狀態(tài)。這不同于人類認識事物的過程。人類對事物的認識追求的是最終“識得廬山真面目”,所以總會去尋找某個模型可以在某方面絕對正確的解釋現(xiàn)象,我們姑且可以稱之為“真理”。

從歷史來看,人類不僅有這個動力去尋找這樣的模型,而且竟然還真的有能力尋找到一些,雖然過程中也付出了巨大的代價,但最終借此形成了當前整個發(fā)達的科學體系。人類所做到的這些事情真的令人驚奇而贊嘆。在這個過程中,數(shù)學發(fā)揮了巨大的作用。但數(shù)學本身也是人類認識世界的模型之一,它在幫助人們認識世界和產(chǎn)生對世界的認知的各種模型的同時,人們也在不斷發(fā)展和完善數(shù)學這個系統(tǒng)化的模型本身。

2.2 智能水平提升的動力:挑戰(zhàn)復雜性

時下的人工智能系統(tǒng)還遠遠不能達到人們的期望,因為大部分人沒有感覺到人工智能在生活中對他們有太多幫助。而另一方面,在很多具體領域的從業(yè)者卻可以清晰的感知到人工智能技術進步帶來的很多激動人心的成果。例如,利用AI算法實現(xiàn)的高質(zhì)量實時翻譯,工業(yè)缺陷或者異常檢測,圖像根據(jù)文字指示生成高質(zhì)量圖像,智能安防,輔助駕駛等等。所以,總得來說,人工智能還沒有像歷史中的幾次工業(yè)革命那樣普遍性的改變我們生活的方方面面,但在很多領域又已經(jīng)表現(xiàn)了相當強大的能力和潛力。這反映的是當下人工智能系統(tǒng)的通用性的不足,即當下的人工系統(tǒng)無法用于幫助乃至輔助絕大多數(shù)人去解決各式各樣的問題。

人工智能這個概念提出以來,一直都面臨著通用性不足的問題,可是為什么遲遲沒能解決呢?

一個原因可能是從前低估了“智能”的復雜性。實際上“復雜”這個詞語從文字上就很好了體現(xiàn)了形成復雜性的兩個根本成因:“復”和“雜”。其中“復”代表著大量同質(zhì)事物運行的問題,“雜”代表的是大量不同質(zhì)事物的處理問題。由此,高效和大量的計算應對“復”,而算計用于處理“雜”。當下我們所創(chuàng)造的人工智能可以說對“復”問題的解決能力遠高于對“雜”問題的處理能力,所以智能系統(tǒng)算計能力的不足可能是導致通用性難以實現(xiàn)的一個重要原因。

另外,是否構成人工智能的底層原理中存在根本性的缺失或者缺陷呢?實際上,當前構造人工智能的基礎是當代數(shù)學和一些諸如反向傳播的算法。雖然凝結(jié)了數(shù)學家,神經(jīng)科學家,認知科學家,心理學家,計算機等領域的學者的共同努力,但我們認為這還遠遠沒有形成真正站得住腳的關于智能的整體理論和大邏輯體系。

2.3 未來人工智能設想

1)兼顧事實與價值

從數(shù)論到圖論再到集合論,從算數(shù)到微積分到范疇論的數(shù)學體系無一不是建立在公理基礎上的數(shù)理邏輯體系。數(shù)學發(fā)展的過程是從具象走向越來越抽象的過程,同時推理過程又始終要求符合嚴密的邏輯。結(jié)合這樣的數(shù)學基礎以及多種算法所形成的人工智能系統(tǒng),與從自然中演化而形成的智能體在運行機制上似乎有根本性的區(qū)別。我們認為,從性質(zhì)上講,真正的智能邏輯體系應當既能包括數(shù)理邏輯和演繹推理,也能包括辯證邏輯和類比推理。

真實智能從不是單純腦的產(chǎn)物(如狼孩),而是人、物(機器是人造物)、環(huán)境相互作用的產(chǎn)物,如一個設計者規(guī)劃出的智能系統(tǒng)還需要制造者認真理解后的加工實現(xiàn),更需要使用者因地制宜、有的放矢地靈活應用等等,所以一個好的人機融合智能涉及三者之間的有效對立統(tǒng)一,既有客觀事實(狀)態(tài)的計算,也有主觀價值(趨)勢的算計,是一種人、物、環(huán)境的深度態(tài)勢感知系統(tǒng)。而當前的人工智能無論是基于淺層次學習方法的還是基于深度學習,在運行時依然是相當靜態(tài)的計算,而缺乏就像人類的算計的動態(tài)結(jié)合與嵌入,進而就遠離了智能的真實與靈變。

2)兼?zhèn)淅硇耘c感性

如果拿理性思維與人文藝術作對比,就會發(fā)現(xiàn)自然科學及數(shù)學等理性工具是每個人都能夠?qū)W會的普遍化工具,本質(zhì)上是一種主體懸置的態(tài)勢感知體系,而最能真正欣賞到人文藝術作品的往往是作者本人或者與作者有相似體悟的人,這常常是一種主體高度參與的態(tài)勢感知體系。

毫無疑問,自然科學及數(shù)學等理性工具這類主體懸置的態(tài)勢感知體系非常重要,沒有這些我們?nèi)祟惥碗y以可靠描述世界運作中的很多機制。但這是就結(jié)果而論的,實際上我們認為智能體要獲得更高智能性的一個關鍵是主體有動力參與環(huán)境和與環(huán)境有意識的交互,如此智能體才能涌現(xiàn)出那些真正能被其靈活使用的知識。

縱觀人類智能整個誕生的歷史也可以發(fā)現(xiàn),從自然中演化出人類智能的過程,實際上是先具備主體參與和與環(huán)境互動的能力,然后逐漸才產(chǎn)生抽象的對符號的認識,然后產(chǎn)生文化,最后才產(chǎn)生出自然科學及數(shù)學等這些理性工具。如果用“計算”和“算計”分別來粗略的表示自然科學及數(shù)學等理性思考模型和主體高度參與的態(tài)勢感知模型,那么算計就可以說是人類帶有動因的理性與感性混合,也是已有邏輯形式與未知邏輯形式的融合籌劃。

3)靈活處理意外情況

人類智能本身是在自然環(huán)境中演化而來,這注定了人類在環(huán)境中具有的局限性,所以必然會有面臨處理“意外”事件的情況。這里說“意外”不是側(cè)重于外部環(huán)境的變化性,而是想揭示智能在復雜的環(huán)境下生存時具有必然的局限性,從而對智能體而言的“意外”事件必然普遍存在,無法被根本被解決的情況。

人往往能根據(jù)更依靠記憶的“經(jīng)驗預測”或更依靠推理的“模型預測”去處理生活中的各種事件。當出現(xiàn)“意外”,也意味著與自身經(jīng)驗或者所認知的模型均不吻合。這些意外的處理情況可以分為兩種,一種可以等待進一步豐富或修正經(jīng)驗和調(diào)整模型(也就是學習)來將“意外事件”變成能認知并有效處理的事件之后再處理,一種是當下沒辦法學習而必須立即處理這個“意外”。對于后一種情況,人類往往可以通過被描述為“直覺”、“想象”等的過程比較有效的解決,這個過程往往讓人驚嘆。

對于現(xiàn)有的人工智能系統(tǒng)而言,要實現(xiàn)類似于人的前一種“意外”處理過程,需要重新調(diào)整計算機的算法以及得到的模型,是一個復雜和耗費時間的過程:研究,評估,再重新部署運行。至于后一種處理過程,人工智能暫且做不到。

“戰(zhàn)場”這類高動態(tài)變化的場景,本身就存在諸多“意外”,鑒于上述對人和人工智能的討論,可以看到當前的“人工智能”很難在戰(zhàn)場環(huán)境下提供靈活且有效的決策,需要人與人工智能發(fā)揮各自優(yōu)勢,進行有效的協(xié)作。

3 軍事智能化

戰(zhàn)爭的形式隨著時代發(fā)展也在不斷發(fā)展,從冷兵器戰(zhàn)爭到熱兵器戰(zhàn)爭、機械化戰(zhàn)爭、信息化戰(zhàn)爭。而現(xiàn)在,隨著半導體技術、計算機技術和人工智能等技術的快速發(fā)展,智能在戰(zhàn)爭中可能會扮演越來越重要的角色,軍事智能化也成為一個越來越重要的議題??梢灶A見的是,隨著軍事智能化的不斷深入以及智能化裝備的大量使用,戰(zhàn)爭形態(tài)不僅將會從技術上產(chǎn)生巨大的變化,作戰(zhàn)制勝的機理與傳統(tǒng)作戰(zhàn)也會產(chǎn)生不同程度的差異。因此,在繼續(xù)進行智能化武器研究的同時,也要提高對軍事智能化系統(tǒng)的認識。在軍事智能化的問題中,我們認為以下一些問題特別值得關注。

3.1 自主系統(tǒng)

在軍事智能化的研究中,一個重要的方向是自主系統(tǒng)的研究。按照期望,自主系統(tǒng)應當可以應對非程序化的或者非預設的態(tài)勢任務,并且這樣的系統(tǒng)是具有一定的自我管理和自我引導能力的系統(tǒng)。對比于自動化設備與系統(tǒng),自主性設備和自主系統(tǒng)能夠應對更加多樣化的環(huán)境,并且能夠完成更廣泛的操作和控制,具有更加廣闊的應用潛力。一般而言,自主化需要應用傳感器和復雜的軟件系統(tǒng),使得設備或系統(tǒng)在較長時間內(nèi)不需要與其它具備自主性的系統(tǒng)通信或只需有限通信,從而實現(xiàn)無需其他外部控制就能夠獨立完成任務。也因為這樣,自主系統(tǒng)能夠在未知環(huán)境中自動進行系統(tǒng)調(diào)節(jié),保持性能優(yōu)良。如果把自主化看作是自動化的外延,那么自主化就是智能化和更高能力的自動化。從另外一個角度,“自主”是基于信息甚至是基于知識驅(qū)動的。在執(zhí)行任務的狀態(tài)中,自主系統(tǒng)可以根據(jù)任務需求,自主完成“感知—判斷—決策—行動”的動態(tài)過程。

自主武器系統(tǒng)方面,美國走在世界的前列。二戰(zhàn)期間開發(fā)的空投被動聲自導魚雷是其第一個大規(guī)模生產(chǎn)的具有自主作戰(zhàn)功能的武器系統(tǒng)。Mk24“Fido”于1943年5月首次亮相作戰(zhàn)。其使用魚雷中部周圍排列的傳感器對盟軍跨大西洋航運的德國U型潛艇進行監(jiān)聽、定位、跟蹤和瞄準攻擊。戰(zhàn)后不久,美國軍方開始在更大的武器系統(tǒng)中引入自主功能,特別是防空作戰(zhàn)系統(tǒng)。隨著計算機技術的發(fā)展,計算單元的體積越來越小,性能越來越強。使得在諸多裝備加入控制系統(tǒng)成為可能,飛機、艦艇、地面作戰(zhàn)車輛以及火炮和導彈火力控制系統(tǒng)中的各種類型的作戰(zhàn)控制系統(tǒng)在整個部隊中大量出現(xiàn)。與交戰(zhàn)有關的彈藥和武器系統(tǒng)獲得了更大的自主性,包括但不限于:獲取、跟蹤和識別潛在目標;向操作人員提示潛在目標;確定選定目標的優(yōu)先次序;何時開火;或者提供終端引導,以鎖定選定的目標[2]。如果從1943年開始計算,那么美國軍方已經(jīng)對具有自主功能的武器系統(tǒng)進行了長達八十年的整合。

3.2 人機融合智能

人機融合是探究人與機器系統(tǒng)之間的交互機制和規(guī)律,以人與機器系統(tǒng)(包括人與機器、人與環(huán)境)的有效協(xié)同為目標的理論和技術統(tǒng)稱。人機融合可能會造成人腦對機器的表征的變化。例如有科學家們已經(jīng)開始研究額外的機器手指對大腦神經(jīng)系統(tǒng)的影響[3]。為健全人佩戴了額外的機器第六手指且經(jīng)過訓練后,機器的第六指在認知負荷增加的情況下依然能夠很好的與人體的五根手指協(xié)作。這證明了人腦不僅能夠通過人機融合的方式來控制外部設備,而且能夠在多任務處理等的苛刻條件下進行應對和適應。

美國提出的多域戰(zhàn)、馬賽克戰(zhàn)等模式,實際上都是人機環(huán)境系統(tǒng)工程。這些戰(zhàn)爭模式要發(fā)揮出其巨大的應用潛力,破解人機融合的有效機制至關重要。所以,人機融合智能機制、機理的破解將成為未來戰(zhàn)爭致勝的關鍵。下面介紹一下我們總結(jié)的人機融合智能的一些核心問題:

1)功能力分配

任何分工都會受規(guī)模和范圍限制,人機融合智能中一個重要的問題是功能和能力的分配。功能分配是分工的一部分,另外一部分是能力分配。功能分配是被動的,外部需求所致;能力分配是主動的,內(nèi)部驅(qū)動所生。在復雜、異質(zhì)、非結(jié)構、非線性數(shù)據(jù)/信息/知識中,人的或者是類人的方向性預處理很重要,當初步縮小問題域的范圍后,機器有界、快速、準確的優(yōu)勢便可以發(fā)揮出來了;另外,當獲得大量數(shù)據(jù)/信息/知識后,機器也可以先把他們初步映射到幾個領域,然后人再進一步處理分析。這兩個過程的同化順應、交叉平衡大致就是人機有機融合的過程。

2)事實與價值的混合

人機融合智能的核心問題為:是不是+該不該+好不好的混雜組合問題。其中“是不是”屬于客觀事實性邏輯計算問題,“該不該”屬于主觀價值性判定算計問題,“好不好”屬于主客觀混合性決策計算計問題。當前大家做人機混合智能大都處在做“是不是”(0、1)的邏輯可計算部分,對于主觀價值的可判定性及兩者的混合“計算-算計”還未有解決的好辦法[4]。

3)對環(huán)境的深度態(tài)勢感知

除了要關心功能力的分配,事實與價值混合的實現(xiàn)方式,還要注意到這些也都是與環(huán)境有關的,需要人機混合智能對環(huán)境有深度的態(tài)勢感知?!皯B(tài)”“勢”涉及客觀事實性的數(shù)據(jù)及信息/知識中的客觀部分(如突顯性、時、空參數(shù)等),簡單稱之為事實鏈。而“感”“知”涉及主觀價值性的參數(shù)部分(如期望、努力程度等),可以稱之為價值鏈。深度態(tài)勢感知就是由事實鏈與價值鏈交織糾纏在一起的“雙螺旋”結(jié)構,進而能夠?qū)崿F(xiàn)有效的判斷和準確的決策功能。好的態(tài)勢感知能力就是在混亂中看到秩序、在不可能中看到可能、在黑暗中看到光明……所以,目前智能軍事領域的一個核心瓶頸還是人機融合智能中的深度態(tài)勢感知問題。

3.3 面臨的挑戰(zhàn)

軍事智能就像戰(zhàn)爭一樣,是一團迷霧,存在著大量的不確定性,是不可預知、不可預測的。從當前人工智能的發(fā)展趨勢來看,可預見的未來戰(zhàn)爭中,存在著許多人機融合隱患仍未能解決,具體有:

1)在復雜的信息環(huán)境中,人類和機器在特定的時間內(nèi)吸收、消化和運用有限的信息,對人而言,人的壓力越大,誤解的信息越多,也就越容易導致困惑、迷茫和意外。對機器而言,跨領域非結(jié)構化數(shù)據(jù)的學習理解預測是非常困難的。

2)戰(zhàn)爭中決策所需要的信息在時間和空間上的廣泛分布,決定了一些關鍵信息仍然很難獲取。而且機器采集到的重要的客觀物理性數(shù)據(jù)與人類獲得的主觀加工后的信息和知識很難協(xié)調(diào)融合。

3)未來的戰(zhàn)爭中,存在著大量的非線性特征和出乎意料的多變性,常常會導致作戰(zhàn)過程和結(jié)果諸多不可預見性,基于公理的形式化邏輯推理已遠遠不能滿足復雜多變戰(zhàn)況決策的需求。鑒于核武器的不斷蔓延和擴散,國家無論大小,國與國之間的未來戰(zhàn)爭成本將會越來越高。無論人工智能怎么發(fā)展,未來是屬于人類的,應該由人類共同定義未來戰(zhàn)爭的游戲規(guī)則并決定人工智能的命運,而不是由人工智能決定人類的命運,究其因,人工智能是邏輯的,而未來戰(zhàn)爭不僅僅是邏輯的,還存在著大量的非邏輯因素。

4)各國對自主裝備分類不同,對強人工智能或通用人工智能相關武器概念的定義和理解差距很大,有關人工智能應用基本概念和定義如何達成共識?如:a>什么是AI?;b>什么是自主?;c>自動化與智能化區(qū)別是?;d>機器計算與人算計的區(qū)別是?;e>人機功能/能力分配的邊界是?;f>數(shù)據(jù)、AI與風險責任的關系如何?;g>可計算性與可判定性區(qū)別?

5)有關軍事智能相關概念的定義需要進一步細化。如從人類安全角度看,禁止“人在回路外”的自主武器是符合普遍價值且減少失控風險必要之舉,但是什么樣的人在系統(tǒng)回路中往往就被忽略,一些不負責任的人在系統(tǒng)中可能會使得情況更糟糕。

對于世界上自主技術的發(fā)展情況,建議設立聯(lián)合評估小組,定期對自主技術發(fā)展情況進行細致的評估與預警,對技術發(fā)展關口進行把關,對技術發(fā)展進行預測分析,對進行敏感技術開發(fā)的重點機構和研發(fā)人員進行定向監(jiān)督,設立一定程度的學術開放要求。

6)AI軍用化發(fā)展所面臨的安全風險和挑戰(zhàn)主要有:a>人工智能和自主系統(tǒng)可能會導致事態(tài)意外升級和危機不穩(wěn)定;b>人工智能和自主系統(tǒng)將會降低對手之間的戰(zhàn)略穩(wěn)定性(如中美、美俄之間戰(zhàn)略關系將更加緊張);c>人和自主系統(tǒng)的不同組合(包括人判斷+人決策、人判斷+機決策、機判斷+人決策、機判斷+機決策)會影響雙方的態(tài)勢升級;d>機器理解人發(fā)出的威懾信號(尤其是降級信號)較差;e>自主系統(tǒng)無意攻擊友軍或平民的事故將引起更多質(zhì)疑;f>人工智能和自主系統(tǒng)可能會導致軍備競賽的不穩(wěn)定性;g>自主系統(tǒng)的擴散可能引發(fā)人們認真尋找對策,這些對策將加劇不確定性,且各國將擔憂安全問題。

4 總結(jié)與展望

軍事智能化的核心,實際上是要建立人-人工智能組成的一個人機融合團隊系統(tǒng)。所以當前我們要面對的前沿問題是在以下四個情況的基礎上加以考慮的:

1)當前人工智能被證明在復雜的真實世界環(huán)境(如軍事行動)中的成功表現(xiàn)面臨許多挑戰(zhàn),包括脆性、感知限制、隱藏的偏見以及缺乏對理解和預測未來事件至關重要的因果關系模型。

2)人們在作為復雜自動化(包括人工智能系統(tǒng))的成功監(jiān)控者方面面臨巨大挑戰(zhàn)。人們可能會對系統(tǒng)正在做的事情缺乏了解,在嘗試與人工智能系統(tǒng)交互時工作負載高,在需要干預時態(tài)勢感知(SA)和性能不足,基于系統(tǒng)輸入的決策偏差,以及手工技能的退化[5]。

3)雖然假設人類-人工智能團隊將比人類或人工智能系統(tǒng)單獨運行更有效,但除非人類能夠理解和預測人工智能系統(tǒng)的行為、與人工智能系統(tǒng)建立適當?shù)男湃侮P系、根據(jù)人工智能系統(tǒng)的輸入做出準確的決策、以及時和適當?shù)姆绞綄ο到y(tǒng)施加控制,否則情況不會如此。

4)支持人類和人工智能系統(tǒng)成為隊友依賴于一個精心設計的系統(tǒng),該系統(tǒng)需要具有任務工作和團隊合作的能力。從而通過改進團隊組合、目標一致、溝通、協(xié)調(diào)、社會智能和開發(fā)新的人工智能語言來研究提高長期、分布式和敏捷的人工智能團隊的團隊效率。

具體到各方面,所面臨的前沿問題主要有:

1)態(tài)勢感知:人工智能系統(tǒng)輔助下人類態(tài)勢感知需要被改善,需要一些方法去考慮不同類型的應用、操作的時間尺度以及與基于機器學習(ML)的人工智能系統(tǒng)相關的不斷變化的能力。

需要探索和研究的一些問題:a)人工智能系統(tǒng)需要在多大程度上既有自我意識又有對人類隊友的意識,以提高整體團隊表現(xiàn)?;b)未來的人工智能系統(tǒng)如何擁有綜合的情境模型,以恰當?shù)乩斫猱斍暗那榫?,并為決策制定預測未來的情境?;c)如何建立動態(tài)任務環(huán)境的人工智能模型,從而與人類一起調(diào)整或消除目標沖突,并同步情景模型、決策、功能分配、任務優(yōu)先級和計劃,以實現(xiàn)協(xié)調(diào)和批準的行動?

2)人工智能的透明度和可解釋性:實時透明對于支持人工智能系統(tǒng)的理解和可預測性是至關重要的,并且已經(jīng)被發(fā)現(xiàn)可以顯著地補償回路外的性能缺陷[6]。需要探索和研究的一些問題:a)更好地定義信息需求和方法,以實現(xiàn)基于ML的AI系統(tǒng)的透明性,以及定義何時應該提供這樣的信息,以滿足SA需求,而不會使人過載。;b)基于機器學習的人工智能系統(tǒng)的解釋的改進可視化。;c)對機器人物角色的價值的研究。;d)人工智能可解釋性和信任之間的關系。;e)開發(fā)有效的機制來使解釋適應接受者的需求、先驗知識和假設以及認知和情緒狀態(tài)。;f)確定對人類推理的解釋是否同樣可以改善人工智能系統(tǒng)和人-人工智能團隊的表現(xiàn)。

3)人-人工智能團隊交互:人-人工智能團隊中的交互機制和策略對團隊效率至關重要[7]。

需要探索和研究的一些問題:a)如何隨著時間的推移支持跨職能靈活分配自動化級別,以及如何改進以支持人類和人工智能系統(tǒng)在共享功能方面的合作,支持人類操作員在多個自動化級別下與人工智能系統(tǒng)一起工作?;b)如何在高自動化級別下與人工智能系統(tǒng)一起工作時保持或恢復態(tài)勢感知(即人在環(huán))?;c)如何隨著時間的推移,實現(xiàn)人-人工智能團隊之間的動態(tài)功能分配,以及尋找動態(tài)過渡的最佳方法(何時發(fā)生,誰應該激活它們,以及它們應該如何發(fā)生)?;d)如何更好地理解和預測緊急人機交互?;e)如何更好地理解交互設計決策對技能保留、培訓要求、工作滿意度和整體人機團隊彈性的影響?

4)信任:對人工智能的信任被認為是使用人工智能系統(tǒng)的一個基本因素。需要探索和研究的一些問題:a)人工智能可指導性對信任關系的影響;b)如何建立動態(tài)的信任模型,來捕捉信任如何在各種人-人工智能團隊環(huán)境中演變和影響績效?

5)偏見:人工智能系統(tǒng)中的潛在偏差,通常是隱藏的,可以通過算法的開發(fā)以及訓練集中的系統(tǒng)偏差等因素引入。此外,人類可能會遭受幾個眾所周知的決策偏差。特別重要的是,人工智能系統(tǒng)的準確性會直接影響人類的決策,從而產(chǎn)生人類-人工智能團隊偏見[8]。因此,人類不能被視為人工智能建議的獨立裁決者。需要探索和研究的一些問題:a)如何理解人類和人工智能決策偏差之間的相互依賴性,這些偏差如何隨著時間的推移而演變?;b)如是使用基于機器學習的人工智能檢測和預防偏差?;c)如何發(fā)現(xiàn)和防止可能試圖利用這些偏見的潛在敵對攻擊?

6)培養(yǎng):需要對人-人工智能團隊進行培訓,以開發(fā)有效執(zhí)行所需的適當團隊結(jié)構和技能需要探索和研究的一些問題:a)什么時候,為什么以及如何最好地訓練人類-人工智能團隊?;b)現(xiàn)有的訓練方法是否可以適用于人類-人工智能團隊?;c)如何通過訓練來更好地校準人類對人工智能隊友的期望,并培養(yǎng)適當?shù)男湃嗡剑?/p>

7)人-系統(tǒng)集成(human-systems integration,HSI)流程和措施:要成功開發(fā)一個能像好隊友一樣工作的人工智能系統(tǒng),需要人-系統(tǒng)集成過程和方法的進步。良好的HSI實踐將是新人工智能系統(tǒng)的設計、開發(fā)和測試的關鍵,特別是基于敏捷或DevOps實踐的系統(tǒng)開發(fā)[9]。需要探索和研究的一些問題:a)如何建立有效的人工智能團隊以及多學科人工智能開發(fā)團隊(包括人類因素工程師、社會技術研究人員、系統(tǒng)工程師和計算機科學家等)?;b)人工智能生命周期測試和可審計性以及人工智能網(wǎng)絡漏洞的新團隊、方法和工具。;c)如何開發(fā)用于測試和驗證進化的AI系統(tǒng),以檢測AI系統(tǒng)盲點和邊緣情況,并考慮脆性?;d)如何改進人機合作的度量標準(特別是關于信任、心智模型和解釋質(zhì)量的問題)?

關鍵詞:

 

網(wǎng)站介紹  |  版權說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權所有 郵箱聯(lián)系:920 891 263@qq.com