當你接到各種推銷電話,特別是涉及股票投資之類的電話,一定要加倍小心。
最近央視曝光的一起為境外詐騙組織引流的團伙。
他們聲稱自己是證券公司的工作人員,為回饋新老客戶可以推薦優(yōu)質(zhì)股票,只需進入他們的福利群就可以獲得。
大多數(shù)人肯定不相信,但總有少數(shù)人抱著僥幸心理試一試,一不小心就上了當。
最開始的投資能賺錢,也能提現(xiàn),但隨著投入加大,很快就無法提現(xiàn)了。
這個團伙一共打了1700萬通騷擾電話。
最終有80多萬人上當,共獲得近1.8億元的“拉人頭”傭金。
根據(jù)警方的調(diào)查,這里面其實有兩撥詐騙團伙。
一伙是運營這個騙局的,一伙是為這個騙局打電話拉人的。
這樣的騙局如今并不少見,這個騙局中最引人注意的,這伙人使用了AI電話機器人。
試想一下,撥打1700萬個電話,如果靠人工,工作量很大,但靠AI就簡單多了。
AI機器人可以通過語音識別技術識別關鍵字。
準確率已高達98%,且延遲可做到0.2秒。
AI機器人會先播放一段開場白,然后根據(jù)關鍵字判斷對方的狀態(tài),再進行后續(xù)的話術輸出。
一位被騙了24萬塊錢的受害者,得知真相后很吃驚。
他感覺給他打電話的都是人,根本聽不出來是機器人在講話。
隨著AI技術的發(fā)展,以后我們也許會遇到越來越多這樣的詐騙,不得不防。
比如現(xiàn)在的AI技術,已經(jīng)可以輕松給視頻中的人物換頭像。
這意味著看到熟人拍的借錢視頻,如果不找朋友再次核實,也極有可能會上當受騙。
視頻都可以偽造,更不要提聲音了。
只要提交你的聲音,經(jīng)過一定訓練,AI可以輕松模仿你的聲音。
如果接到陌生電話,一聽就是某個朋友,也應該多加小心。
AI技術的發(fā)展日新月異。
最近OpenAI發(fā)布了一個文字生成圖像工具 DALL-E 2。
只要發(fā)一段文字,AI就會自動根據(jù)文字生成逼真的圖像。
比如你輸入這樣一段字:在 1980 年代的月球上致力于新 AI 研究的泰迪熊。
AI就會自動生成這樣的圖像。
輸入文字“一張古色古香的花店的店面照片,潔白的門面綠意盎然,大門敞開,還有一扇大窗戶”,會生成下面的圖像。
這項技術有廣闊的應用前景,比如自媒體經(jīng)常需要合適的配圖。
現(xiàn)在的情況是合適的配圖不太好找,而且還要考慮版權問題。
可想而知,這項文字生成圖像的技術會極大方便自媒體。
需要什么配圖,只要用文字描述一下,圖像就自動生成了,還避免了版權的風險。
再往遠處想一想,也許漫畫行業(yè)都會迎來巨大變革。
以后的漫畫家可能根本不需要學習畫畫,只要有想象力,用文字描述出來,就能生成相應的圖畫。
借助這項AI技術,以后的小說甚至有可能有一鍵生成漫畫的功能。
但技術是把雙刃劍,不法分子肯定也會用這項技術實施詐騙等非法活動。
只要簡單描述一下,就能生成一張逼真的車禍受傷照片。
然后讓親朋好友打錢,細思極恐,不得不防。
央視報道的這個詐騙團伙,也是沒把技術用到正道。
現(xiàn)在不少商家,把同樣的技術用在客戶電話回訪上,節(jié)省了大量人力,取得了不錯的效果。
這個團伙如果幫正經(jīng)公司營銷引流,雖然短期賺得少,但長期看,一定更有發(fā)展前途。
隨著AI技術的發(fā)展,未來AI的能力一定超出我們大多數(shù)人的想象。
這背后既有機遇,也有風險,還有可能被不法分子濫用,每個人都應該對此多一份警醒。
時代變了,你看到的,聽到的都不一定是真的。