“Assessing outcomes vs intention.
評(píng)估結(jié)果與目的”
~00
你對(duì)頻繁死機(jī)的電腦感到崩潰嗎?
我們可能認(rèn)為:相比于笨拙的人類,我們對(duì)功能失常的應(yīng)用程序或設(shè)計(jì)糟糕的算法會(huì)更為苛刻。然而這只是一種模糊的猜測(cè)。
事實(shí)上,用戶對(duì)機(jī)器反而可能更具有同情心,他們似乎并不會(huì)對(duì)機(jī)器的錯(cuò)誤感到生氣或者苛責(zé)。根據(jù)César A. Hidalgo(經(jīng)濟(jì)學(xué)家,前MIT研究員)的說法:這主要是因?yàn)橛脩魧徟袡C(jī)器是根據(jù)它們的行為結(jié)果,而不是行為目的。
無論是面對(duì)有偏見的結(jié)果還是不公平的決定,用戶似乎從來沒有真正的在機(jī)器身上尋找道德原因,而只是把它們當(dāng)成功能的載體(只關(guān)乎是否完成其工作)。
這產(chǎn)生了四個(gè)新視角詮釋人機(jī)交互的有趣行為科學(xué)結(jié)論。
~01
AI決策和人類判斷
一幅由機(jī)器學(xué)習(xí)還原的奧巴馬打碼照片
無論是輔助人類做決策,又或是雇傭新員工,識(shí)別人臉,我們都聽說過算法偏見是如何影響人工智能的。算法收集的數(shù)據(jù)保留了系統(tǒng)性的判斷偏見(judgmental biases),這有時(shí)候會(huì)反映在對(duì)某些個(gè)體的歧視性決策中。
但是人類對(duì)機(jī)器制造不公平行為有什么感覺呢?相比于人類的歧視,他們會(huì)更反感機(jī)器嗎?
César Hidalgo試圖通過社會(huì)實(shí)驗(yàn)來回答這些問題。他向參與者展示了幾種歧視情況,并要求他們判斷決策在人類或者機(jī)器負(fù)責(zé)下的公平性。這些場(chǎng)景里有:HR在候選人相同資質(zhì)相同的情況下從不選擇某種特定出身的候選人,和警察總是關(guān)押一些相同族群的無辜群眾。
在這些情況下,參與者都認(rèn)為人類的行為更具有目的性,因此更需要責(zé)任感。因?yàn)閰⑴c者認(rèn)為人類的行為帶有自己的主觀意愿,所以他們的行為比機(jī)器的錯(cuò)誤判斷更受到指責(zé)。然而,當(dāng)問起他們應(yīng)該由誰來取代這些歧視者,他們的答案更傾向于選擇更正直的人。
~02
人類對(duì)自動(dòng)化工作的模糊認(rèn)知
當(dāng)面對(duì)自動(dòng)化工作(work automation)或者工作替代(job replacement)的時(shí)候,這種模糊性再次出現(xiàn)。Hidalgo通過類似的實(shí)驗(yàn)研究了人們對(duì)這種情況的反應(yīng)。
他向參與者講述了一些故事:比如公司員工要么被AI機(jī)器人取代,要么被效率更高,更有精力的外國(guó)年輕員工取代。Hidalgo詢問參與者在不同情景和不同行業(yè)內(nèi)對(duì)此會(huì)有什么感受。
令人驚訝的是,參與者更情愿取代他們工作的是機(jī)器人,而不是外國(guó)人。雖然他們的偏好因情況而異:更接受司機(jī)被自動(dòng)駕駛卡車取代,而不是老師被教學(xué)機(jī)器人取代,但他們通常同意他們更喜歡自動(dòng)化而不是另一位工人。
對(duì)這類情況的解釋有幾種。參與者可能覺得技術(shù)的發(fā)展是不可避免的,而被外國(guó)工人取代會(huì)激發(fā)他們的歸屬感。他們可能能更加切身體會(huì)到后者(外國(guó)工人)的威脅性,因?yàn)檫@發(fā)生得更為頻繁。人力替代感覺上也更不公平,因?yàn)橥荣Y質(zhì)的外國(guó)工人憑什么更有權(quán)利獲得工作?
這也解釋了為什么和90-00年間歐美企業(yè)外遷勞動(dòng)力(到發(fā)展中國(guó)家)相比,自動(dòng)化引發(fā)的情緒抵抗似乎沒有那么的極端。
~03
對(duì)機(jī)器事故的毫不寬容
自動(dòng)駕駛汽車比人類駕駛員更負(fù)責(zé)任嗎?
隨著自動(dòng)駕駛離現(xiàn)實(shí)越來越近,我們可能好奇:相比于人類駕駛員,用戶如何看待自動(dòng)駕駛汽車需要承擔(dān)的責(zé)任?
為了回答這個(gè)問題,Hidalgo和他的團(tuán)隊(duì)把參與者置于各種各樣的道路事故(包含了人類司機(jī)或自動(dòng)駕駛汽車)之中。這些事故的嚴(yán)重程度可能取決于內(nèi)在或外在因素,也包含了是傷害司機(jī)還是路人的抉擇。
這項(xiàng)實(shí)驗(yàn)首次提出了自動(dòng)駕駛汽車擔(dān)負(fù)了巨大的責(zé)任。參與者對(duì)涉及自動(dòng)駕駛汽車的事故判斷更為消極,認(rèn)為它們會(huì)造成更嚴(yán)重的傷害。其中一個(gè)原因是因?yàn)樗麄兏菀装炎约簬肴祟愸{駛員的視角(而不是機(jī)器的視角),他們更能同理人類司機(jī)做出的反應(yīng)(畢竟在自己身上可能也會(huì)發(fā)生這樣的情況),尤其這是由外部因素導(dǎo)致的事故(比如一棵樹倒在了路上)。
因此,參與者對(duì)造成事故的機(jī)器毫不寬容,希望它們更可靠安全。
~04
機(jī)器的好壞完全取決于結(jié)果
我們可以從這些研究中得出什么結(jié)論呢?
César Hidalgo | How Humans Judge Machines | Talks at Google(建議前往youtube觀看)
首先,當(dāng)整體看待受傷害感和行為目的的關(guān)系時(shí),人們認(rèn)為人類行為比機(jī)器行為更帶有目的。然而矛盾的是,參與者仍然會(huì)更容易原諒人類的行為,因?yàn)樗麄兏菀讓⑷藶殄e(cuò)誤視為壞運(yùn)氣的結(jié)果,而機(jī)器錯(cuò)誤則是需要糾正的錯(cuò)誤。
當(dāng)我們?cè)谘芯啃袨槟康暮筒还g的關(guān)系時(shí),我們發(fā)現(xiàn)了一個(gè)更符合人類判斷的事實(shí):對(duì)于那些帶有當(dāng)事人強(qiáng)烈主觀意圖的場(chǎng)景(比如侮辱和歧視),人們顯然會(huì)對(duì)人類行為做出更為負(fù)面的評(píng)價(jià)。人們認(rèn)為人類需要為自己的邪惡意圖負(fù)責(zé)任,而機(jī)器則被默認(rèn)為沒有自己的意圖和目的。另一方面,一些本身不帶有目的的情況(比如交通事故),機(jī)器則承擔(dān)的責(zé)備會(huì)更多。因?yàn)槲覀円呀?jīng)假定了機(jī)器的程序可以避免任何錯(cuò)誤。
最后通過評(píng)估不公正的感知和傷害范圍之間的關(guān)系,我們發(fā)現(xiàn):對(duì)受害人造成的傷害越小,機(jī)器就越被視為罪魁禍?zhǔn)?;相反,?dāng)傷害越大,人類當(dāng)事人承擔(dān)的評(píng)價(jià)就越為負(fù)面。
總之,我們看到了兩種截然不同的判斷模式。
當(dāng)涉及人類當(dāng)事人時(shí),觀眾就會(huì)通過當(dāng)事人的意圖來評(píng)判他們的行為:他們可以犯錯(cuò),但如果居心不良,他們就需要對(duì)自己的行為負(fù)責(zé)。
另一方面,機(jī)器的評(píng)估標(biāo)準(zhǔn)是行為的結(jié)果:如果它們無法避免破壞性的錯(cuò)誤,無論發(fā)生的是什么,它們都會(huì)被批評(píng)。好的一面是,對(duì)于一些通常被定性為非常嚴(yán)重的情況(歧視或惡意羞辱),因?yàn)闄C(jī)器行為不帶有目的,所以常常不被苛責(zé)。
但這也意味著,作為設(shè)計(jì)師的我們,需要盡量減少數(shù)字服務(wù)和智能應(yīng)用程序可能產(chǎn)生的間接傷害和歧視。因?yàn)榭蓻]有人會(huì)同情設(shè)計(jì)糟糕的算法。
譯者注
設(shè)計(jì)師和算法的關(guān)系
由于譯者正好從事自動(dòng)駕駛行業(yè),所以就簡(jiǎn)單聊聊這個(gè)話題??赡苡腥藭?huì)認(rèn)為糟糕算法是程序員的問題,這和設(shè)計(jì)師有什么關(guān)系?
但事實(shí)上在以正向研發(fā)為主要流程的企業(yè)內(nèi),一個(gè)需求落地至少要經(jīng)過產(chǎn)品經(jīng)理,設(shè)計(jì)師,研發(fā)和測(cè)試四個(gè)階段。產(chǎn)品和設(shè)計(jì)師需要根據(jù)客戶/用戶的訴求去定義和產(chǎn)品的功能和使用方式,然后研發(fā)才會(huì)在設(shè)計(jì)的框架內(nèi)去實(shí)現(xiàn)這些功能。自然當(dāng)設(shè)計(jì)師遺漏或者忽視一些安全問題時(shí),研發(fā)是無法發(fā)現(xiàn)的,因?yàn)樵谒麄兊慕嵌?,功能的上下文是不明確的,他們只專注于功能本身的研發(fā)。
舉個(gè)例子,假設(shè)我們?cè)O(shè)計(jì)一個(gè)工業(yè)園區(qū)內(nèi)使用的遠(yuǎn)程自動(dòng)駕駛汽車遙控器,它的功能是給車輛派發(fā)運(yùn)貨訂單,并且可以遠(yuǎn)程啟動(dòng)車輛。那么如果設(shè)計(jì)師對(duì)于使用場(chǎng)景足夠了解,他會(huì)發(fā)現(xiàn)如果遠(yuǎn)程啟動(dòng)車輛,突然的啟動(dòng)可能會(huì)對(duì)周圍在裝卸貨的工人帶來安全隱患。所以需要在這個(gè)階段提供預(yù)警或者二次鑒權(quán)的操作。而這可能是客戶的原始需求中沒有提及或者客戶覺得麻煩的功能(客戶只想點(diǎn)一次?。?,如果產(chǎn)品和設(shè)計(jì)沒有深入研究,自然研發(fā)無法發(fā)現(xiàn)這樣的問題。這就是我理解的為什么設(shè)計(jì)師需要對(duì)算法負(fù)責(zé)。
原文名稱:Are users more forgiving of human mistakes than machine errors?
原文作者:Jean-marc Buchert
*已獲得作者授權(quán),若有翻譯問題,歡迎一起交流~
////////////END////////////
關(guān)鍵詞: 體驗(yàn)|相比于機(jī)器 我們對(duì)人類的錯(cuò)誤更加寬容嗎