據(jù)《紐約時(shí)報(bào)》報(bào)道,一位父親使用手機(jī)拍攝了自己的孩子腹股溝感染的照片并發(fā)給醫(yī)生后,谷歌AI將照片識別并標(biāo)記成兒童性虐待材料(CSAM)并封禁了該父親的賬號,還向國家失蹤和受剝削兒童中心(NCMEC)提交了一份報(bào)告,推動(dòng)警方調(diào)查此事。然而,即便警方宣布該父親無罪,谷歌仍然拒絕解封其賬號。
南都·AI前哨站梳理公開資料發(fā)現(xiàn),很多科技公司都會使用AI工具對疑似CSAM的圖片進(jìn)行審查,每年可標(biāo)記超百萬次。但這一行為是否侵犯用戶隱私,以及AI審查的準(zhǔn)確性往往受到質(zhì)疑。
(資料圖片僅供參考)
父親發(fā)孩子生病照片給醫(yī)生卻被谷歌封號
去年2月份,受到新冠肺炎流行的影響,許多診所都處于關(guān)閉狀態(tài)。來自舊金山的Mark發(fā)現(xiàn)孩子的腹股溝部位發(fā)生腫脹,在與醫(yī)生進(jìn)行溝通后,向其發(fā)送了該部位的照片,醫(yī)生據(jù)此開具了治療感染的藥物。
然而,在拍攝照片兩天后,Mark收到了谷歌的通知,稱其賬戶由于存在“有害內(nèi)容”而被鎖定,且這些內(nèi)容“嚴(yán)重違反了谷歌的政策,可能是非法的”。
賬戶被鎖定后,Mark無法訪問他的電子郵件、聯(lián)系人、照片,而且由于他使用了谷歌的移動(dòng)通訊服務(wù),他無法再使用他的電話號碼。Mark試圖對谷歌提出申訴,但谷歌拒絕了Mark的請求。
2021年12月,舊金山警察局向Mark寄來一封信,告知其正在被調(diào)查。等到Mark與警方取得聯(lián)系,對方告訴他,調(diào)查已經(jīng)結(jié)束,最終認(rèn)定該事件“不符合犯罪要素,也沒有發(fā)生任何犯罪”。
值得注意的是,在調(diào)查過程中警方曾試圖聯(lián)系Mark,但他的電話和電子賬戶都無法使用。
在拿到警方的報(bào)告后,Mark再次向谷歌提起申訴要求解封其賬號,谷歌不僅沒有同意,甚至永久刪除了他的賬號。
谷歌稱,審核人員在事件發(fā)生后審查Mark的賬戶時(shí),發(fā)現(xiàn)了他拍攝的一段視頻,顯示一個(gè)孩童和沒有穿衣服的女人躺在床上。Mark表示,視頻中是他的妻子和孩子,他只是記錄了一個(gè)私人時(shí)刻,沒有想到會被他人觀看和評判。
無獨(dú)有偶,同樣的事件也發(fā)生在了得克薩斯州。
休斯敦的一名孩童因腹股溝受到感染,其父親Cassio在兒科醫(yī)生的要求下拍攝了照片,這些照片被自動(dòng)備份到谷歌相冊,他還使用谷歌的聊天服務(wù)將照片發(fā)給了妻子,隨后其谷歌賬戶被禁用。Cassio正在購買房子并簽署了許多數(shù)字文件,郵箱被禁用給其帶來了很大不便。
審查兒童虐待圖像被指侵犯用戶隱私
據(jù)公開資料顯示,科技公司通常使用AI工具對疑似CSAM的圖片進(jìn)行審查,每年可標(biāo)記超百萬次。
第一個(gè)AI工具由微軟在2009年開發(fā),名為“PhotoDNA”,它是一個(gè)已知虐待圖像的數(shù)據(jù)庫,被轉(zhuǎn)換成獨(dú)特的數(shù)字代碼。它可以快速梳理大量圖像,并迅速檢測出與數(shù)據(jù)庫相匹配的圖像,被許多科技公司用來審核并封禁非法圖像。2018年谷歌開發(fā)了一個(gè)AI工具,可以識別出從未見過的被虐待的兒童圖像。這意味著它不僅可以找到已知的圖像,更可以發(fā)現(xiàn)未知受害者。
在可疑圖像被AI標(biāo)記后,谷歌的人工審核員會再一次審查該圖像,并及時(shí)向有關(guān)部門報(bào)告。據(jù)悉,2021年,僅谷歌就向NCMEC報(bào)告了超過60萬例CSAM案件,而NCMEC則向警方報(bào)告了4260名潛在受害者——《紐約時(shí)報(bào)》稱,該名單就包括Mark和Cassio的孩子。
保護(hù)兒童免受虐待無疑是重要的,但批評者認(rèn)為,掃描用戶照片的做法不合理地侵犯了他們的隱私。
據(jù)報(bào)道,非營利性數(shù)字權(quán)利組織電子前沿基金會(EFF)技術(shù)項(xiàng)目總監(jiān)Jon Callas稱谷歌的做法具有非常強(qiáng)烈的“侵入性”?!斑@正是我們都關(guān)心的噩夢,”他表示,“他們會掃描我的家庭相冊,然后我就會遇到麻煩?!?/p>
另一方面,一些研究表明,審查的準(zhǔn)確性不高。Facebook對150個(gè)被AI認(rèn)為涉嫌CSAM的賬戶進(jìn)行的一項(xiàng)研究發(fā)現(xiàn),75%的賬戶發(fā)送相關(guān)圖像并非出于惡意,甚至沒有意識到該圖像涉嫌CSAM,通常是為了表達(dá)“憤怒”或“試圖幽默”。LinkedIn曾通過AI檢測發(fā)現(xiàn)了75個(gè)涉嫌CSAM的賬戶并向歐盟報(bào)告,但經(jīng)過人工審查,其中只有31例被確定為有問題的賬戶,準(zhǔn)確率甚至不到50%。
綜合/編譯:實(shí)習(xí)生韓艷燕 南都記者蔣琳
關(guān)鍵詞: 谷歌誤識別兒童虐待照片致用戶賬戶被封 審核照片行為引爭