阻止“TA們”監(jiān)聽你,AI能做到嗎?

發(fā)布時間:2022-04-21 11:33:26  |  來源:騰訊網(wǎng)  

你大概率遇到過這樣的情況:

當(dāng)你打開手機(jī)中的某一款 App 時,第一眼看到的內(nèi)容正是你幾分鐘前和朋友或者家人們談?wù)摰臇|西。第一次,你會覺得很驚訝。但時間久了,你就會覺得習(xí)以為常、見怪不怪了。

而其中作祟的元兇之一,就是如今已無處不在且時刻“偷聽”你的麥克風(fēng)(Microphones),它們被嵌入手機(jī)、電視、手表等設(shè)備中,實時將你的聲音傳輸?shù)缴窠?jīng)網(wǎng)絡(luò)和人工智能系統(tǒng)中,幫助推薦系統(tǒng)為你做出“定制化”的推送服務(wù)。

(來源:Pixabay)

那么,如何才能避免這樣的情況發(fā)生呢?網(wǎng)絡(luò)上有很多方法,比如放一首完全不相關(guān)的歌曲,將聲音調(diào)到最大,主動制造一些噪音;比如不授權(quán)長期開啟麥克風(fēng)權(quán)限,而是選擇采取一次一授權(quán)的方式等。

如今,來自美國哥倫比亞大學(xué)的研究團(tuán)隊提出了一種新方法:他們研發(fā)了一種人工智能系統(tǒng),只需要在房間內(nèi)播放一種該系統(tǒng)產(chǎn)生的極為輕微的聲音,就可以避免“監(jiān)聽”事件的發(fā)生。

也就是說,這一系統(tǒng)會把人們交談的聲音進(jìn)行偽裝,在不影響正常對話的前提下,不被麥克風(fēng)等監(jiān)聽系統(tǒng)聽到。

相關(guān)研究論文以“Real-Time Neural Voice Camouflage”為題,已發(fā)表在預(yù)印本網(wǎng)站 arXiv 上。

而且,研究人員還表示,這種人工智能系統(tǒng)很容易部署在電腦、手機(jī)等硬件上,可以時時保護(hù)你的隱私。

用 AI 擊敗 AI

由人工智能利用的問題,要由人工智能來解決。

雖然該團(tuán)隊干擾麥克風(fēng)等系統(tǒng)的成果理論上在人工智能領(lǐng)域是可行的,但要以足夠快的速度將其用于實際應(yīng)用,仍然是一個艱難的挑戰(zhàn)。

問題在于,在某個特定時刻干擾麥克風(fēng)監(jiān)聽人們談話的聲音,或許并不能干擾接下來幾秒的談話。當(dāng)人們說話時,他們的聲音會隨著他們說出的不同單詞和語速而不斷變化,這些變化使得機(jī)器幾乎不可能跟上人說話的快節(jié)奏。

而在此次研究中,人工智能算法能夠通過預(yù)測一個人接下來要說的話的特點,有足夠的時間來產(chǎn)生合適的耳語(whisper)。

(來源:Pixabay)

哥倫比亞大學(xué)計算機(jī)科學(xué)系助理教授 Carl Vondrick 表示,這一算法能夠以 80% 的效率阻止流氓麥克風(fēng)聽清(人們的)對話,甚至在人們對流氓麥克風(fēng)的位置等信息毫無察覺的情況下,也能發(fā)揮作用。

為此,研究人員需要設(shè)計一種可以實時破壞神經(jīng)網(wǎng)絡(luò)的算法,這種算法可以在說話時連續(xù)生成,并適用于一種語言的大部分詞匯。在以往的研究中,沒有一項工作可以同時滿足以上三個要求。

新算法使用了一種稱之為“預(yù)測攻擊”(predictive attacks)的信號,這種信號可以干擾任何被自動語音識別模型訓(xùn)練來轉(zhuǎn)錄的單詞。此外,當(dāng)攻擊聲音在空中播放時,它們需要足夠大的音量來干擾任何可能在遠(yuǎn)處的流氓“竊聽”麥克風(fēng)。攻擊聲音需要像聲音一樣傳播相同的距離。

該人工智能系統(tǒng)通過預(yù)測未來對信號或單詞的攻擊,以兩秒鐘的輸入語音為條件,實現(xiàn)了實時性能。

同時,研究團(tuán)隊還對攻擊進(jìn)行了優(yōu)化,使其音量類似于正常的背景噪音,讓人們在房間內(nèi)可以自然地交談,而不會被麥克風(fēng)等系統(tǒng)監(jiān)控。

此外,他們成功證明了這一方法在有自然環(huán)境噪聲和復(fù)雜形狀的真實房間中的有效性。

但 Vondrick 也表示,目前該系統(tǒng)還只是對大多數(shù)英語單詞有效,他們正在將該算法應(yīng)用到更多語言中。

我們能為 ethical AI 做些什么?

有人說,在大數(shù)據(jù)時代,我們的個人信息都處于“裸奔”的狀態(tài),身邊也有越來越多的智能設(shè)備在偷窺著我們的個人隱私。

如果這一研究成果在未來能夠應(yīng)用于更多語言,在更多場景內(nèi)落地,或許能夠幫助我們免受各式各樣人工智能的利用。

正如賓夕法尼亞大學(xué)(University of Pennsylvania)計算機(jī)與信息科學(xué)系教授 Jianbo Shi 評價道:他們提出了一個新問題,即如何使用人工智能保護(hù)我們免受無意識的人工智能所利用?

同時,Shi 也建議道,在未來的工作中,研究人員需要從最初的設(shè)計階段就“有意識地”思考人工智能會對人類和社會產(chǎn)生的影響,不要再問有道德的人工智能(ethical AI)可以為我們做些什么,而是要問我們能為 ethical AI 做些什么?

一旦我們相信這個方向,ethical AI 的相關(guān)研究就會充滿趣味和創(chuàng)意。

原文鏈接:

https://arxiv.org/abs/2112.07076

https://techxplore.com/news/2022-04-spying-ai-block-rogue-microphones.html

https://c3.ai/glossary/artificial-intelligence/ethical-ai/

關(guān)鍵詞: 阻止TA們監(jiān)聽你 AI能做到嗎 人工智能

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com