當(dāng)?shù)貢r(shí)間3月16日,烏克蘭電視臺(tái)“烏克蘭24”在播出新聞直播節(jié)目時(shí),下方滾動(dòng)的字幕條顯示“澤連斯基呼吁烏克蘭人放下武器”等內(nèi)容。不過該電視臺(tái)隨后聲明稱,“黑客入侵了烏克蘭24電視臺(tái)的字幕條”。澤連斯基本人也很快駁斥了所謂“投降”的呼吁。
同時(shí),在一條被證實(shí)是造假的視頻中,澤連斯基公開接受了俄方提出的要求,并督促烏克蘭人在俄國(guó)人面前放下武器。事件發(fā)生后,烏克蘭國(guó)防部在其推特官方賬號(hào)發(fā)布了澤連斯基的視頻,并配文稱“請(qǐng)注意,這是不可能的?!贝撕?,社交平臺(tái)臉書和推特宣布刪除“澤連斯基宣布向俄羅斯投降”的造假視頻。
此外,社交平臺(tái)推特上日前也出現(xiàn)了一段似乎顯示是俄羅斯總統(tǒng)普京宣布投降的視頻。但事實(shí)上,這是一段經(jīng)過剪輯處理后釋放假消息的視頻。有外媒注意到,這段造假的視頻取自普京早些時(shí)候的講話,與2月21日上傳到俄總統(tǒng)官方網(wǎng)站的一段視頻相匹配,普京在該視頻中談到了這次俄烏沖突爆發(fā)前的烏克蘭局勢(shì)。剪輯片段中的音軌發(fā)音聽起來不像普京,而且嘴唇的動(dòng)作與講話不同步。
“深度造假”視頻:現(xiàn)代社會(huì)的“新型武器”
美專家分析稱,這類視頻屬于深度造假(deepfake)視頻,是一種看似有說服力,實(shí)際上是虛假的視頻和音頻。據(jù)悉,深度造假技術(shù)是一種“生成式對(duì)抗網(wǎng)絡(luò)”的人工智能(AI)技術(shù)。深度造假視頻能通過使用人工智能等技術(shù),將圖像或視頻中的人物替換成另一個(gè)人,可以展示一個(gè)真人做或說一些他們沒有做或說過的事情,具有高度的視覺和聽覺欺騙效果。
一條“澤連斯基宣布放下武器”的視頻被認(rèn)為是“深度造假”視頻。
加州大學(xué)伯克利分校教授、數(shù)字取證專家哈尼·法里德分析這條視頻后指出,視頻里有幾個(gè)疑點(diǎn)可以證明其屬于深度造假視頻,而非真實(shí)視頻。
他說:“首先,視頻里的錄音音頻質(zhì)量較低、分辨率較低。”哈尼分析稱,這是一個(gè)常見的“偽裝”技巧,用來掩蓋“深度造假”時(shí)產(chǎn)生的失真。其次,他分析稱視頻中的澤連斯基全程沒有擺動(dòng)過手臂,眼睛一直直勾勾地看著前方,看上去十分僵硬。哈尼解釋說:“要在深度造假視頻中作出令人信服的、符合人體運(yùn)動(dòng)規(guī)律的動(dòng)作是非常困難的?!?/p>
《深度造假》一書的作者妮娜認(rèn)為,“澤連斯基宣布向俄羅斯投降”這一視頻的制作合成相對(duì)而言比較粗糙,所以很容易被識(shí)破。不過她警告稱,這條視頻不是個(gè)例。“在此次俄烏沖突中,雙方都有各種形式的虛假信息,只不過還未被揭穿。”妮娜認(rèn)為,這些虛假信息會(huì)侵蝕民眾對(duì)媒體的信任,讓人們相信一切都是可以偽造的?!斑@是一種現(xiàn)代社會(huì)的‘新型武器’,能夠完全實(shí)現(xiàn)以假亂真的效果,讓更多信息變得真假難辨?!?/p>
以AI治AI,科學(xué)家正研發(fā)能識(shí)別虛假內(nèi)容的工具
據(jù)悉,這已經(jīng)不是第一次有政治人物被制作成深度造假視頻了。據(jù)報(bào)道,2018年,美國(guó)導(dǎo)演喬丹·皮爾曾利用人工智能技術(shù)“讓美國(guó)前總統(tǒng)奧巴馬發(fā)言”對(duì)特朗普進(jìn)行抨擊。
美國(guó)導(dǎo)演喬丹·皮爾曾利用AI技術(shù)“讓奧巴馬發(fā)言”。
隨著人工智能技術(shù)的發(fā)展,人類甚至可以讓去世的親人“死而復(fù)生”。知名家譜網(wǎng)站MyHeritage就曾推出Deep Nostalgia功能,用戶只需要通過該網(wǎng)站上傳去世親人的照片,算法會(huì)自動(dòng)分析照片中人的方位,確定他們的頭部和眼睛看向的方向,然后自動(dòng)選擇一個(gè)匹配的視頻,用這種方式創(chuàng)建短視頻動(dòng)畫,使照片中的人物變得生動(dòng)起來。
然而這種技術(shù)技若被非法運(yùn)用,會(huì)造成惡劣影響。據(jù)悉,不法分子也會(huì)使用該項(xiàng)技術(shù)合成兒童性虐待影像、名人色情視頻、制作假新聞,并利用深度造假視頻進(jìn)行金融詐騙等。
而對(duì)于這種日漸發(fā)展的“深度”造假技術(shù),科學(xué)家們也紛紛出手開發(fā)鑒假工具,以幫助人們分清真假。
據(jù)報(bào)道,紐約州立大學(xué)布法羅分校的研究人員稱他們已經(jīng)開發(fā)出一種可用于鑒別“深度造假”技術(shù)合成圖像的工具。該工具能通過仔細(xì)檢查分析目標(biāo)人物的眼睛、眼球和每個(gè)眼球中反射的光,找出他們?cè)诜瓷涔獾男螤睢?qiáng)度和其他特征方面存在的潛在差異,從而鑒別出虛假圖像。
谷歌母公司Alphabet旗下的Jigsaw也聯(lián)手谷歌、馬里蘭大學(xué)、伯克利大學(xué)等多家研究機(jī)構(gòu),開發(fā)了一個(gè)名為Assembler的實(shí)驗(yàn)平臺(tái),通過檢測(cè)圖像是否經(jīng)歷了復(fù)制粘貼、亮度修改等幫助人們快速判斷圖片的真假。
紅星新聞?dòng)浾?范旭 實(shí)習(xí)記者 黎謹(jǐn)睿
編輯 張尋
(下載紅星新聞,報(bào)料有獎(jiǎng)!)
關(guān)鍵詞: 澤連斯基宣布放下武器造假視頻背后科技是把雙刃劍