今天,人工智能(AI)和機(jī)器學(xué)習(xí)(ML)技術(shù)影響甚至決定了我們的一些行動。數(shù)據(jù)科學(xué)創(chuàng)新有望改變疾病診斷、應(yīng)對氣候變化和解決其他社會挑戰(zhàn)的方式。
然而,隨著應(yīng)用程序被部署在金融和醫(yī)療等敏感領(lǐng)域,專家和倡導(dǎo)者開始發(fā)出警告:人工智能系統(tǒng)有能力做出公正的決定,但也可能對某些群體存在系統(tǒng)性不公。如果不加以解決,有偏見的人工智能可能會延續(xù)甚至擴(kuò)大成為有害人類的偏見。
企業(yè)組織可能不會故意設(shè)計(jì)不平等的AI/ML模型。然而,偏見仍然以多種形式滲透到算法中,甚至在排除性別、種族或性別認(rèn)同等敏感變量時也是如此。問題往往在用于訓(xùn)練模型的數(shù)據(jù),這些數(shù)據(jù)反映了其來源——我們周圍的現(xiàn)實(shí)世界——的不平等。比如偏重男性的招聘算法和傳播刻板印象的代碼生成模型。最近的一項(xiàng)民意調(diào)查發(fā)現(xiàn),超過50%的高管表示,他們對公司使用人工智能的道德和聲譽(yù)風(fēng)險“嚴(yán)重”或“極端”擔(dān)憂。
組織應(yīng)該如何著手消除無意識的偏見還沒有標(biāo)準(zhǔn)答案。盡管有關(guān)合乎道德的人工智能系統(tǒng)的辯論已經(jīng)開始,監(jiān)管審查會經(jīng)常占據(jù)新聞頭條,但很少有人討論我們?nèi)绾巫審臉I(yè)人員做好應(yīng)對不公平問題的準(zhǔn)備。模型的偏見不僅僅是開發(fā)人員的錯。如果缺乏減輕危害所需的工具、支持和資源,即使有最好的意圖的數(shù)據(jù)科學(xué)家也會陷入倫理困境。
近年來,關(guān)于負(fù)責(zé)任和公平的人工智能的資源越來越多,但要駕馭這些動態(tài),需要的不僅僅是小組討論和一次性課程。我們需要一種全面的方法來教育人工智能中的偏見,讓從開發(fā)者、應(yīng)用者以及監(jiān)管者的每個人都參與進(jìn)來。
從傳統(tǒng)教育入手
不到四分之一的AI專業(yè)教育工作者表示在課堂上進(jìn)行了人工智能倫理培訓(xùn)。
讓未來的領(lǐng)導(dǎo)者能夠應(yīng)對其產(chǎn)品的社會和道德影響的最好方法,是在他們的正規(guī)教育中包括有關(guān)偏見和公平的課程。雖然這是關(guān)鍵,但教育者當(dāng)被問及數(shù)據(jù)科學(xué)/機(jī)器學(xué)習(xí)所教授的主題時,分別只有17%和22%的教育工作者回答他們教授過倫理或偏見。
大學(xué)應(yīng)該向更成熟的專業(yè)領(lǐng)域?qū)で笾笇?dǎo)。以醫(yī)學(xué)倫理學(xué)為例,它探討了創(chuàng)新和倫理學(xué)的交叉點(diǎn)上的類似問題。根據(jù)1847年美國醫(yī)學(xué)協(xié)會通過的《醫(yī)學(xué)道德規(guī)范》,這項(xiàng)研究發(fā)展成為一個獨(dú)立的子領(lǐng)域,那些尋求醫(yī)生和護(hù)士專業(yè)認(rèn)證的人都必須學(xué)習(xí)其指導(dǎo)原則。更多的教育機(jī)構(gòu)應(yīng)該效仿牛津大學(xué),建立專門的中心,利用哲學(xué)等多個領(lǐng)域,指導(dǎo)人工智能領(lǐng)域的公平和公正。
并非所有人都認(rèn)為那些通常被降級為選修課的獨(dú)立AI道德課程有效。有專家提出的另一種方法是,通過在正常課程中設(shè)置常規(guī)科目,進(jìn)行道德技能建設(shè)和反思,將倫理“嵌入”技術(shù)培訓(xùn)中,這種方法最近得到了哈佛大學(xué)的采納。
在工作領(lǐng)域提高道德技能
關(guān)于AI/ML偏見的正規(guī)教育只是邁向修正數(shù)據(jù)科學(xué)倫理偏差的第一步。據(jù)調(diào)查,在步入社會的工作領(lǐng)域,60%的數(shù)據(jù)科學(xué)組織要么尚未實(shí)施任何計(jì)劃,以確保公平和減少數(shù)據(jù)集和模型中的偏見,要么未能向員工傳達(dá)這些計(jì)劃。同樣,ZDNet最近對IT高管的一項(xiàng)調(diào)查發(fā)現(xiàn),58%的企業(yè)沒有為員工提供道德培訓(xùn)。
當(dāng)然解決方案并不是簡單地要求人工智能團(tuán)隊(duì)接受千篇一律的道德培訓(xùn)。培訓(xùn)計(jì)劃應(yīng)該是整個組織范圍內(nèi)提高意識和采取行動減少有害偏見的一個組成部分。最先進(jìn)的公司正在將人工智能倫理和問責(zé)作為董事會的優(yōu)先事項(xiàng),但良好的第一步是制定內(nèi)部道德標(biāo)準(zhǔn),并實(shí)施定期評估,以確保最新的最佳做法到位。例如,團(tuán)隊(duì)?wèi)?yīng)該聚在一起,定義偏見和可解釋性等術(shù)語在他們的工作環(huán)境中的含義。
有了標(biāo)準(zhǔn),培訓(xùn)可以使指導(dǎo)方針實(shí)施。《哈佛商業(yè)評論》(Harvard Business Review)建議,不僅僅是提高意識,還要授權(quán)整個組織的員工提出問題,并適當(dāng)解決問題。對于技術(shù)和工程團(tuán)隊(duì),公司應(yīng)該準(zhǔn)備投資于新的商業(yè)工具或承擔(dān)專門的第三方培訓(xùn)的成本。在FICO最近的一項(xiàng)調(diào)查中,三分之二的公司無法解釋人工智能解決方案是如何實(shí)現(xiàn)預(yù)測的,考慮到這一點(diǎn),開發(fā)人員和工程師需要的將不僅僅是簡單的研討會或證書課程。
人工智能倫理培訓(xùn)也應(yīng)該是企業(yè)長期招聘戰(zhàn)略的基石。首先,提供道德指導(dǎo)將吸引注重價值觀的年輕人才。同時培養(yǎng)這些技能的正式舉措也將產(chǎn)生一個積極的反饋回路,企業(yè)利用培訓(xùn)項(xiàng)目向大學(xué)發(fā)出雇主的明確信號。今天,通過提供這些主題的培訓(xùn),領(lǐng)導(dǎo)者可以幫助建立一支準(zhǔn)備好并能夠面對更加復(fù)雜問題的團(tuán)隊(duì)。
在過去的幾年里,圍繞人工智能倫理的對話一直是一個持續(xù)的討論點(diǎn),雖然我們可能很容易忽視這些討論,但關(guān)鍵是不要讓人工智能倫理僅成為一個流行詞。隨著歐盟和通用數(shù)據(jù)保護(hù)條例(GDPR)的更新,有關(guān)人工智能使用和法規(guī)將繼續(xù)存在。雖然減輕有害偏見將是一個漫長反復(fù)的過程,但從業(yè)者和組織需要在評估他們的模型和加入關(guān)于人工智能倫理時保持警惕。
關(guān)鍵詞: 用全生命周期的方法對抗AI ML中的有害偏見