被騙1.8億,值得警惕的AI騙局

發(fā)布時間:2022-04-30 07:33:28  |  來源:騰訊網(wǎng)  

當你接到各種推銷電話,特別是涉及股票投資之類的電話,一定要加倍小心。

最近央視曝光的一起為境外詐騙組織引流的團伙。

他們聲稱自己是證券公司的工作人員,為回饋新老客戶可以推薦優(yōu)質(zhì)股票,只需進入他們的福利群就可以獲得。

大多數(shù)人肯定不相信,但總有少數(shù)人抱著僥幸心理試一試,一不小心就上了當。

最開始的投資能賺錢,也能提現(xiàn),但隨著投入加大,很快就無法提現(xiàn)了。

這個團伙一共打了1700萬通騷擾電話。

最終有80多萬人上當,共獲得近1.8億元的“拉人頭”傭金。

根據(jù)警方的調(diào)查,這里面其實有兩撥詐騙團伙。

一伙是運營這個騙局的,一伙是為這個騙局打電話拉人的。

這樣的騙局如今并不少見,這個騙局中最引人注意的,這伙人使用了AI電話機器人。

試想一下,撥打1700萬個電話,如果靠人工,工作量很大,但靠AI就簡單多了。

AI機器人可以通過語音識別技術識別關鍵字。

準確率已高達98%,且延遲可做到0.2秒。

AI機器人會先播放一段開場白,然后根據(jù)關鍵字判斷對方的狀態(tài),再進行后續(xù)的話術輸出。

一位被騙了24萬塊錢的受害者,得知真相后很吃驚。

他感覺給他打電話的都是人,根本聽不出來是機器人在講話。

隨著AI技術的發(fā)展,以后我們也許會遇到越來越多這樣的詐騙,不得不防。

比如現(xiàn)在的AI技術,已經(jīng)可以輕松給視頻中的人物換頭像。

這意味著看到熟人拍的借錢視頻,如果不找朋友再次核實,也極有可能會上當受騙。

視頻都可以偽造,更不要提聲音了。

只要提交你的聲音,經(jīng)過一定訓練,AI可以輕松模仿你的聲音。

如果接到陌生電話,一聽就是某個朋友,也應該多加小心。

AI技術的發(fā)展日新月異。

最近OpenAI發(fā)布了一個文字生成圖像工具 DALL-E 2。

只要發(fā)一段文字,AI就會自動根據(jù)文字生成逼真的圖像。

比如你輸入這樣一段字:在 1980 年代的月球上致力于新 AI 研究的泰迪熊。

AI就會自動生成這樣的圖像。

輸入文字“一張古色古香的花店的店面照片,潔白的門面綠意盎然,大門敞開,還有一扇大窗戶”,會生成下面的圖像。

這項技術有廣闊的應用前景,比如自媒體經(jīng)常需要合適的配圖。

現(xiàn)在的情況是合適的配圖不太好找,而且還要考慮版權問題。

可想而知,這項文字生成圖像的技術會極大方便自媒體。

需要什么配圖,只要用文字描述一下,圖像就自動生成了,還避免了版權的風險。

再往遠處想一想,也許漫畫行業(yè)都會迎來巨大變革。

以后的漫畫家可能根本不需要學習畫畫,只要有想象力,用文字描述出來,就能生成相應的圖畫。

借助這項AI技術,以后的小說甚至有可能有一鍵生成漫畫的功能。

但技術是把雙刃劍,不法分子肯定也會用這項技術實施詐騙等非法活動。

只要簡單描述一下,就能生成一張逼真的車禍受傷照片。

然后讓親朋好友打錢,細思極恐,不得不防。

央視報道的這個詐騙團伙,也是沒把技術用到正道。

現(xiàn)在不少商家,把同樣的技術用在客戶電話回訪上,節(jié)省了大量人力,取得了不錯的效果。

這個團伙如果幫正經(jīng)公司營銷引流,雖然短期賺得少,但長期看,一定更有發(fā)展前途。

隨著AI技術的發(fā)展,未來AI的能力一定超出我們大多數(shù)人的想象。

這背后既有機遇,也有風險,還有可能被不法分子濫用,每個人都應該對此多一份警醒。

時代變了,你看到的,聽到的都不一定是真的。

關鍵詞: 被騙1 8億 值得警惕的AI騙局 openai ai機器人

 

網(wǎng)站介紹  |  版權說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權所有 郵箱聯(lián)系:920 891 263@qq.com