解讀自主形機器人的責(zé)任感

發(fā)布時間:2022-04-21 14:40:54  |  來源:騰訊網(wǎng)  

對于一個完全自主的法律主體而言,其不僅有“能力”意識到自己行為的意義,而且能對其行為負責(zé)。因為,如果一個人在社群中與其他人共存,就應(yīng)以負責(zé)任的態(tài)度與社群中的其他成員進行互動,承認彼此的權(quán)利且須為侵犯這一權(quán)利而承擔(dān)相應(yīng)的責(zé)任。那么,具有類似于人類自主性的智能機器人擁有這樣的“能力”嗎?不可否認,機器人若能為其行為負責(zé),那么確有必要重新審視現(xiàn)有的法律人格之概念并對現(xiàn)有法律體系是否足以適應(yīng)新的法律現(xiàn)實進行評估。但問題是,機器人具有履行義務(wù)/承擔(dān)責(zé)任的能力嗎?如果可以,那么它們擁有或占有財產(chǎn)的表征方式是什么?如果不能,賦予它們法律人格還有意義嗎?

一般認為,公司等非“人”實體獲得人格不在于它們的倫理性,很大程度上是因它們財產(chǎn)與責(zé)任的獨立性。鑒于此,有論者提出可通過法律擬制讓人工智能系統(tǒng)像公司那樣,不僅能擁有財產(chǎn)而且還可作為被告應(yīng)訴,自己承擔(dān)責(zé)任。果真如此,那么機器人的生產(chǎn)者(包括設(shè)計者、編程者等當(dāng)事人,下同)、所有者或使用人(下稱“用戶”)自然無須再為機器人的行為承擔(dān)責(zé)任了,除非他們“出資”不足或其他原因需“刺破人工智能面紗”??蓡栴}是,誰負責(zé)“出資”以構(gòu)成機器人的財產(chǎn)與責(zé)任基礎(chǔ)?需要設(shè)定最低的財產(chǎn)額度嗎?“出資”人是否以出資額為限承擔(dān)有限責(zé)任?即便不考慮立法技術(shù)上的挑戰(zhàn),僅從生產(chǎn)者或用戶的立場看,這也是不現(xiàn)實的。因為要求他們履行“出資”義務(wù)勢必增加他們的經(jīng)濟成本,而且也不具操作性。如此做法既不經(jīng)濟也不方便,看似解決了機器人責(zé)任承擔(dān)問題,實則徒增各方負擔(dān),包括立法上的成本。額外的成本負擔(dān)不僅會打擊人工智能開發(fā)者的創(chuàng)新熱情,而且也將澆滅用戶使用人工智能的興趣,沒有市場需求的支撐,人工智能技術(shù)的開發(fā)者自然就會失去技術(shù)創(chuàng)新的動力。進一步而言,如果機器人真的具有了權(quán)利意識而且具備了承擔(dān)責(zé)任的基礎(chǔ),那么這對“人”而言到底是禍是福?人類準備好接受一個擁有法律人格且具有公司無法比擬的自主性的新角色了嗎?

從刑事責(zé)任能力的角度觀察,認為機器人能為其自主“行為”負責(zé)更是不可能。較之于公司,絕大多數(shù)機器人因具有相應(yīng)的物理形態(tài)從而顯得比公司更實在,加之有人工智能技術(shù)的支撐,它們也都具有一定的意志能力。有學(xué)者據(jù)此認為,“智能機器人的意志自由程度比單位更強”,它們“完全可能脫離人類產(chǎn)生獨立的意志。對于人類來說,智能機器人是人類模擬自身神經(jīng)網(wǎng)絡(luò)創(chuàng)造出來的事物,比世界上任何事物更類似于人,刑法應(yīng)當(dāng)尊重其自由意志,適時考慮賦予其法律上的主體資格”;而且,唯有“將其作為行為主體與社會成員看待,有罪必罰,并經(jīng)由刑事訴訟程序進行法律上的審判,才能在智能機器人的‘大腦’中建立價值體系,植入人類文明,使其自覺遵守并維護社會秩序,從而實現(xiàn)‘人工人’向‘社會人’的轉(zhuǎn)變”。

機器人很難對善惡、好壞進行道德判斷,既無力在是非、對錯之間進行抉擇,也不可能理解法律禁止的以及法律允許的行為的真正意涵。其次,較之于智能機器人越來越高的自主性,公司的意志很大程度上仍是“人”的意志,它們在本質(zhì)上仍是虛擬的主體,其背后的“人”才是真正的主宰者。因此,公司犯罪時,除可處以罰金外,立法者還把刑事責(zé)任延伸至其背后的“人”。就此而言,對公司的懲罰實質(zhì)上是對其背后“人”的懲罰,這不僅使懲罰公司成為可能,而且能防止公司自身產(chǎn)生不可控風(fēng)險。相反,當(dāng)機器人意志自由程度等同甚或超越“人”或公司的意志時,那么此種失控物可能會對人類利益造成損害甚至威脅到“人”的主體地位。

經(jīng)由審判或道德譴責(zé),它們會對自己的錯誤行為感到羞愧嗎?通常,對被告人處以刑罰意味著這些主體要承受社會、心理乃至身體上的不利后果??墒?,所有這些對無法成為道德主體的機器人而言是毫無意義的。此時,刑法的懲罰與矯正功能如何實現(xiàn)?除非機器人與其生產(chǎn)者或用戶的關(guān)系如同公司與其實際控制人之關(guān)系,否則,法院難以對機器人錯誤“行為”施以有效制裁。如果不能對機器人的錯誤選擇與行動施加有效的刑事制裁,那么就更不用說讓其他機器人“感知”并“意識”到它們未來作出相同或類似錯誤“行為”的風(fēng)險所在了,而這恰恰關(guān)系到刑法威懾功能對機器人“種群”的實際效用??傊瑱C器人不可能具有所謂的“感知刑罰痛苦的能力”,更不可能在“犯罪的‘快感’與刑罰的‘痛感’之間進行理性權(quán)衡”。機器人真若有此“能力”,那么立法者不僅不應(yīng)承認它們的自由意志,還應(yīng)毫不猶豫地阻絕這一技術(shù)發(fā)展趨勢。很難想象,人類如何與“社會化”的機器人相處!

綜上所述,既然難以像法人等非“人”主體那樣具備責(zé)任能力,那么可否退一步,賦予機器人類似于人類嬰孩般的法律地位?正如我們所知,即便是尚不具備完全意志能力的未成年人或暫時喪失自由意志的精神病人以及醫(yī)學(xué)上的植物人仍都具有法律人格。承認這些特殊主體具有法律人格的根本原因在于:他們是“我們中的一員”,雖然認知能力存在不足或障礙,但并不妨礙他們與認知能力正常的人一樣享有尊嚴并獲得尊重,而且,他們都具有培養(yǎng)完全人格的潛力??傊?,人類的這些特殊成員享有“不同但卻平等”的人格。然而,機器人不可能也不應(yīng)該獲得這般地位。

關(guān)鍵詞: 解讀自主形機器人的責(zé)任感 智能機器人 人工智能

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com