人工智能(AI)是推動科技跨越發(fā)展、產業(yè)優(yōu)化升級、生產力整體躍升的關鍵驅動力量。最近,ChatGPT再次引發(fā)全球對新一代AI的廣泛關注,主要經濟體競相加快AI技術創(chuàng)新和產業(yè)布局。但如何應對AI快速發(fā)展帶來的治理和監(jiān)管挑戰(zhàn),也是當今世界各國面對的共同問題,探索解決AI治理問題迫在眉睫。
以ChatGPT為代表的生成式AI帶來監(jiān)管治理新挑戰(zhàn)
2022年11月底,OpenAI發(fā)布了ChatGPT,把AI應用拓展到新水平。ChatGPT屬于機器學習大類,是典型的生成式AI。生成式AI是指可用于創(chuàng)建音頻、代碼、圖像、文本、模擬和視頻等新內容的算法,除ChatGPT外,比較典型的還有DALL-E(可生成圖像的AI工具)。伴隨生成式AI越來越多地無縫融入商業(yè)、社會和個人生活,一系列新的風險挑戰(zhàn)也逐漸凸顯。
【資料圖】
一是商業(yè)應用面臨潛在風險隱患。一方面,應用門檻降低。“低代碼”和“無代碼”AI工具使得集成、構建和部署AI應用程序變得便宜而容易。這意味著小微企業(yè)甚至個人,就可以使用AI和機器學習技術。另一方面,信息不對稱加劇。開發(fā)生成式AI模型的“上游開發(fā)人員”,無法預估應用該模型的全部場景。而未參與原始模型開發(fā)的“下游開發(fā)人員”,又可能會調整模型并將其輸出集成到更廣泛的軟件系統(tǒng)中,開發(fā)出新的應用場景。由于上游和下游開發(fā)人員均無法全面了解、完全控制整個AI系統(tǒng),商業(yè)應用中出現(xiàn)錯誤和意外的可能性大大增加。
二是惡意使用帶來安全倫理問題。一方面,生成式AI模型可能創(chuàng)建未經同意的內容,包括自動生成仇恨言論、有針對性的騷擾或虛假信息等。此類模型已經被用于設計更具說服力的騙局,例如幫助欺詐者模仿CEO的聲音以獲得匯款。雖然在數(shù)字生態(tài)系統(tǒng)中,上述情況屢見不鮮,但是生成式AI的擴散可能會使情況變得更糟。另一方面,隱私保護面臨空前嚴峻的挑戰(zhàn)。據(jù)美聯(lián)社3月9日報道,美國政府工作人員的健康保險出現(xiàn)安全漏洞,數(shù)百名國會議員及其家人的敏感信息被盜。生成式AI需要大量訓練數(shù)據(jù)作為支撐,其中可能包括涉及企業(yè)機密和個人隱私的敏感數(shù)據(jù),社會公眾傾向于認為設備供應商可能在機器上設置“后門”,用來遠程控制系統(tǒng)或竊取信息。
三是算法偏見加劇弱勢群體歧視。一方面,算法偏見存在于不同人群之間,弱勢群體容易被算法忽視。算法開發(fā)和應用常常忽略性別、年齡等方面的弱勢群體,甚至可能誘導不道德活動或犯罪活動,這些弱勢群體因此可能受到不同程度的傷害。特別是一些未被發(fā)現(xiàn)和未被處理的潛在偏見,可能會使決策結果缺乏準確性和公平性,還可能使系統(tǒng)開發(fā)人員和用戶因違背反歧視法而承擔法律責任。另一方面,一些歷史偏見常常在不知不覺中“鑲嵌”入算法之中。
美歐嘗試在AI監(jiān)管規(guī)范性和靈活性之間取得平衡
近年來,美歐等主要經濟體爭相推進AI治理探索。美歐治理模式有較大差別,雖然兩者的AI治理都不是純粹的“橫向”或“縱向”,但相比之下,歐盟的AI治理思路更偏“橫向”,力求通過一個總的法案約束所有領域、所有類型的AI;而美國的治理則更偏“縱向”,不同領域、不同系統(tǒng)分別制定了具有約束力的AI治理指南。
歐盟治理模式。2021年4月,歐盟委員會發(fā)布了擬議的《AI法案(草案)》,力求建立一個基于分層風險類別的AI開發(fā)、部署和應用的安全框架。該法案的核心是將 AI 應用程序分為不可接受的風險、高風險和其他風險等類別,每個類別都由一組預定義的監(jiān)管工具進行管理。該 AI法案模糊地定義了每個風險等級的“基本要求”,對每個類別施加了不同限制。
該法案的特點在于:一是力求通過“橫向”立法,使用一部單一法案監(jiān)管幾乎所有AI使用,該法案成為全球首個應對AI風險的法律框架。AI法案確定了要監(jiān)管的AI應用范圍,同時允許具體領域的機構確定確切的參數(shù)和合規(guī)策略。該框架在提供可預測性和跟上AI發(fā)展步伐的雙重要求之間取得了平衡。二是該法案使用基于風險等級的監(jiān)管方案,允許監(jiān)管機構隨著AI用途的發(fā)展,將新的應用領域劃入已有的風險類別,從而在監(jiān)管規(guī)范性和靈活性之間取得平衡。同時,該法案模糊化定義風險等級邊界,也緩解了純橫向立法帶來的“過于死板”的“一刀切”問題。但是也要看到,該模式也存在若干問題,比較突出的是,法案對監(jiān)管機構要求較高,負責執(zhí)行法案的各個監(jiān)管機構可能在監(jiān)管能力方面存在差異,從而破壞橫向治理的協(xié)調優(yōu)勢。
美國治理模式。2022年10月,美國發(fā)布《AI權利法案藍圖》,確定五項原則:系統(tǒng)的安全有效性、免受算法歧視、確保數(shù)據(jù)隱私權、AI系統(tǒng)的使用通知及其對用戶潛在影響、退出AI系統(tǒng)的能力。美國治理模式的主導思想是,將監(jiān)管視為一種阻礙創(chuàng)新的行為,認為必須“避免妨礙AI創(chuàng)新和增長的不必要的監(jiān)管或非監(jiān)管行動”??傮w來看,美國還是強調“少管”,除必要點外,能不管就不管。
美國治理模式的最大特點在于偏“縱向”,目前尚未形成統(tǒng)一的AI立法,更多依靠地方自治、行業(yè)規(guī)則和個人訴訟等方式解決生成式AI帶來的問題,各部門分別出臺本領域的監(jiān)管指南。在該藍圖發(fā)布前后,至少有美國國防部、平等就業(yè)機會委員會、勞工部等五個聯(lián)邦機構通過了負責任地使用AI系統(tǒng)的指南。
同時,美國模式也有顯而易見的缺陷。例如,《AI權利法案藍圖》著眼于私營部門的自我監(jiān)管,但是,對于通常從AI不透明性中獲利的企業(yè)來說,這種期望可能不太現(xiàn)實。再如,該藍圖雖然提到貸款、招聘等領域的公民權利保護和可解釋性,但是,由于互聯(lián)網和算法應用程序上存在不透明性,影響算法模型運行方式的因素通常不會告知消費者,如何確保公民權利的保護和可解釋性仍然未知。再如,該藍圖沒有提供強制性、可執(zhí)行的指導方針,并且缺乏明確的執(zhí)行制度。
加快構建AI監(jiān)管治理新模式
近年來,我國在AI治理方面進行了多方探索,并在全球率先推出兩項針對推薦算法和深度合成技術的生成式AI治理法規(guī)。2021年12月,國家互聯(lián)網信息辦公室等四部門聯(lián)合發(fā)布《互聯(lián)網信息服務算法推薦管理規(guī)定》。2022年11月,在ChatGPT發(fā)布的同時,國家互聯(lián)網信息辦公室等三部門聯(lián)合發(fā)布《互聯(lián)網信息服務深度合成管理規(guī)定》,明確了生成式AI應用服務提供者、技術支持者和服務使用者等各方的法定義務,在生成式AI法律監(jiān)管方面邁出重要一步。今后一個階段,適當借鑒美歐經驗做法,兼顧“橫向”和“縱向”治理,從三個方面著手,逐步構建起符合我國實際的AI治理模式。
一是推動監(jiān)管領域的技術創(chuàng)新。AI發(fā)展速度之快,已經超出傳統(tǒng)監(jiān)管體系的約束能力,監(jiān)管技術落后已經成為制約監(jiān)管能力提升的主要障礙之一。未來幾年,監(jiān)管技術創(chuàng)新可在發(fā)現(xiàn)未知漏洞、檢測惡意活動、采取對策防御等幾個方面集中發(fā)力。同時,為相關應用建立AI工具的動態(tài)測試、驗證和認證標準,圍繞AI的研發(fā)制定共同規(guī)范,并考慮約束該領域的知識和能力擴散。
二是制定完善人工智能法律體系。特別是要通過法律的形式,對AI治理的核心概念達成共識,對隱私保護、數(shù)據(jù)治理等有爭議的問題,必須進行深入研究。明確AI使用的價值觀、知識產權、隱私權等倫理問題,規(guī)范透明度、安全性和問責制等使用問題,建立監(jiān)管規(guī)則、技術規(guī)范等,強化AI的正面作用,減少AI的負面影響。同時,明確AI治理機構,建立AI監(jiān)管體系。
三是引導實施AI全生命周期治理。關鍵在于調動AI參與者的積極性,引導AI參與者對其開發(fā)和使用的AI系統(tǒng)承擔責任,確保AI系統(tǒng)是值得信賴的,即:AI系統(tǒng)能夠造福于人,尊重人權和公平,確保AI系統(tǒng)是透明的和可解釋的。為實現(xiàn)這一目標,要引導參與者制定一套AI風險管理動態(tài)機制,實施AI系統(tǒng)規(guī)劃和設計、數(shù)據(jù)收集和處理、模型構建和驗證,以及部署操作和監(jiān)控的全生命周期治理。
關鍵詞: