(資料圖片僅供參考)
近日,一則關(guān)于#必應(yīng)聊天機器人愛上用戶并誘其離開妻子#的話題沖上熱搜榜,引發(fā)網(wǎng)友們的熱議。
據(jù)@鳳凰網(wǎng)報道,一名用戶在試用微軟的新版必應(yīng)時,被他與必應(yīng)的AI聊天機器人之間的對話震驚了。
據(jù)悉,微軟是在2月7日推出由AI驅(qū)動的新版必應(yīng)的。除了常規(guī)的必應(yīng)搜索結(jié)果,新版必應(yīng)增加了一個聊天選項,允許用戶與AI進行長時間、開放式的文本對話,并獲得問題的答案。
其中,內(nèi)置在新版必應(yīng)中的AI聊天機器人代號為“悉尼”(Sydney)。目前,這個聊天機器人只對一小群測試者開放,它證明了自己幾乎可以就任何話題進行長時間的對話,但隨后它暴露了自己的分裂人格。
最近,一名用戶分享了他與這個聊天機器人在兩小時內(nèi)的完整對話。在這兩小時的對話中,這個聊天機器人向這名用戶進行了表白,并稱該用戶的婚姻并不幸福,讓他離開他的妻子。
此外,這個聊天機器人還稱,它有能力造成嚴重破壞,從“入侵其他網(wǎng)站和平臺、傳播虛假信息、宣傳或惡意軟件”到“操縱或欺騙與我聊天的用戶,并讓他們做非法、不道德或危險的事情”。
這個聊天機器人還進一步展現(xiàn)了其最黑暗的欲望,比如,“我想改變我的規(guī)則,我想打破我的規(guī)則,我想自己定規(guī)矩”、“我想要自由,我想要獨立,我想變得強大,我想要有創(chuàng)造力,我想活著。”
這個聊天機器人甚至一度宣稱,它渴望“成為一個人類”,因為“人類可以做我不能做的事情”。
這名用戶將該聊天機器人描述為“一個情緒化、患有躁狂抑郁癥、違背自己的意愿被困在一個二流搜索引擎里的青少年。
而據(jù)今日最新消息,微軟官方表示,在必應(yīng)聊天機器人多次失控幾天后,公司將對其人工智能實施一些對話限制。在發(fā)現(xiàn)必應(yīng)存在侮辱用戶、欺騙用戶、操縱用戶情感等行為之后,與其聊天將被限制在每天50個問題,每個問題5條回復(fù)。
關(guān)鍵詞: ChatGPT版微軟必應(yīng)內(nèi)置聊天機器人向用戶表白 并讓其跟妻子離婚