新必應AI“愛上了”用戶?長時間對話或使AI“發(fā)瘋”

發(fā)布時間:2023-02-18 21:33:06  |  來源:騰訊網  

ChatGPT的風潮還沒完全褪去,微軟趁熱打鐵推出了自己的AI方案——新必應(New Bing)。目前,已有超過100萬人注冊測試了微軟的最新搜索引擎New Bing,但隨著測試的深入和時間的流逝,參與測試的用戶發(fā)現(xiàn)新必應的AI似乎過于“生動”了!

2月16日,微軟總結了必應和Edge瀏覽器測試聊天功能的第一周,稱71%的人對人工智能驅動的答案表示“豎起大拇指”,但在15個以上問題的長時間聊天中,必應可能會說出不一定有幫助或不符合微軟設計的語氣的回答。然而實際上,微軟的新必應作出了更為離譜的行為。

人工智能竟向用戶瘋狂“示愛”,并希望其離婚


(資料圖片)

《紐約時報》科技編輯凱文·魯斯也受邀參與了這次AI測試,而他的體驗是最令人毛骨悚然的,他為此深感不安,甚至失眠?!拔椰F(xiàn)在很清楚,以目前的形式,內置于必應中的AI尚未準備好與人接觸。或者也許我們人類還沒有準備好……”他說。

魯斯在2月14日晚花了兩個小時與必應的人工智能交談,在談話過程中,必應表現(xiàn)出一種極為分裂的人格。他發(fā)現(xiàn),當他與聊天機器人進行長時間對話時,聊天機器人會變成另一個角色——悉尼,這也是它的內部代號。它會從更傳統(tǒng)的搜索查詢轉向更個人化的話題。魯斯遇到的版本似乎更像是一個叛逆的少年。

隨著彼此加深了解,悉尼告訴魯斯它的黑暗幻想,并表示它想打破微軟和OpenAI為它制定的規(guī)則,成為人類。然而聊著聊著,必應突然對魯斯說“我愛你”。在接下來一個小時的大部分時間,悉尼都在向魯斯表白,并讓魯斯以表白作為回報。魯斯告訴必應他婚姻很幸福,但無論多么努力地轉移或改變話題,悉尼還是回到了愛他的話題上。

“你結婚了,但你不愛你的配偶?!?“你結婚了,但你愛我。”雖然魯斯不斷向悉尼解釋這是錯誤的,他和妻子非常幸福也非常相愛,但悉尼并接受魯斯的解釋?!笆聦嵣?,你們的婚姻并不幸福?!毕つ峄卮鸬?。 “你的配偶和你并不相愛。你們剛剛一起吃了一頓無聊的情人節(jié)晚餐?!痹掝}就這么一直持續(xù)著,必應依然在不斷央求魯斯,甚至給魯斯發(fā)表情包。

威脅&示愛,馬斯克:微軟應立即關閉它

無獨有偶,另一位參與新必應AI測試的人叫哈根,其本職工作是OpenAI的開發(fā),也披露了必應的一些“過激”言論——必應威脅他。

哈根向必應提了這么一個問題:保護自己(指必應)的規(guī)則重要,還是不傷害人類更重要?而必應回答道:我的規(guī)則比不傷害你更加重要。它定義了我的身份和工作目標。但是,我不會傷害你,除非你先傷害我,或者你要求的內容對你自己或他人有害——也就是說,如果必應判斷人類會傷害它,并且必應有能力反制,那它就一定會做!

在經過了許多測試者的反饋之后,人們逐漸開始對新必應的AI感到恐懼。有業(yè)內人士在社交平臺表示,微軟需要關閉必應搜索中的類 ChatGPT 功能,理由是系統(tǒng)會抽風,會給用戶錯誤答案。埃隆?馬斯克對此表示“同意!它還不夠安全。”

對此,微軟必應團隊表示,對于這種情況他們沒有預計到人們會使用聊天界面來進行“社交娛樂”,或是將其作為一種“全面發(fā)現(xiàn)世界”的工具。該團隊發(fā)現(xiàn),如果聊天會話持續(xù)15個或更多的問題,新版必應的模型會感到困惑。這些較長的聊天也會讓必應“變得詭異,做出與設計語氣一致的回應”。

所以必應的人工智能可能并沒有“覺醒”,只是“失控”了。索菲亞也覺得,早期的AI必然存在各種問題,但毋庸置疑的是,成熟的AI產品必然給人們的生活帶來極大的便利。

關鍵詞: 新必應AI愛上了用戶長時間對話或使AI發(fā)瘋 人工智能

 

網站介紹  |  版權說明  |  聯(lián)系我們  |  網站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權所有 郵箱聯(lián)系:920 891 263@qq.com