中新經(jīng)緯3月24日電 (薛宇飛)近日,由中國人民大學(xué)高瓴人工智能學(xué)院、智能社會治理跨學(xué)科交叉平臺和基于大數(shù)據(jù)文科綜合訓(xùn)練國家級虛擬仿真實驗教學(xué)中心聯(lián)合主辦的算法公平性與內(nèi)容生態(tài)建設(shè)研討會在線上舉行。中國人民大學(xué)高瓴人工智能學(xué)院執(zhí)行院長文繼榮教授指出,算法公平性是堅持算法向善和可持續(xù)發(fā)展的核心理念,解決算法的公平性問題需要讓算法設(shè)計過程有“溫度”,研究有“溫度”的人工智能有助于為社會提供有“溫度”的服務(wù),促進社會和諧發(fā)展。
“進入人工智能時代,我們生活在與智能算法共存的新世界里,智能算法是一把雙刃劍,如果能被有效利用,它可以成為有‘溫度’的助手,但如果未利用好,算法可能會成為‘對手’,所以,研究算法公平性的重要性日益凸顯?!彼f,隨著智能算法在人們工作生活中的廣泛應(yīng)用,折射出了公平性問題,比如大數(shù)據(jù)殺熟等現(xiàn)象日益凸顯,社會不同個體或者團體在資源占有、分配和使用中存在不公平現(xiàn)象,影響個體滿意度和對算法的信任度,從而可能產(chǎn)生廣泛的社會影響。
文繼榮稱,中國人民大學(xué)高瓴人工智能學(xué)院提出的口號是“做有溫度的人工智能”。如果算法設(shè)計過程中沒有考慮“溫度”,會使得算法冷冰冰的,有點不近人情,進而無法更好地服務(wù)社會。
“在未來,人工智能應(yīng)用,比如智能體、自動駕駛,會越來越多的出現(xiàn)在人們的生活中,這些智能應(yīng)用甚至在很多方面可能超越人的能力。我們研究人工智能的專家、學(xué)者和技術(shù)人員如果沒有‘溫度’,研究出來的人工智能體甚至可能會損害人類利益,盡管它是無意的?!彼Q,在有關(guān)指導(dǎo)性原則的引導(dǎo)下,學(xué)術(shù)界和產(chǎn)業(yè)界正著力推動公平機器學(xué)習(xí)理論、技術(shù)及應(yīng)用發(fā)展,在推薦模型層面取得高準(zhǔn)確率等指標(biāo)已經(jīng)不是唯一的追求。
文繼榮進一步指出,從技術(shù)、經(jīng)濟發(fā)展、法律法規(guī)、社會價值等角度深入研究算法公平性問題的前沿解決方案和可行技術(shù)路線,是促進算法向善和可持續(xù)性發(fā)展的核心要素。(中新經(jīng)緯APP)
中新經(jīng)緯版權(quán)所有,未經(jīng)書面授權(quán),任何單位及個人不得轉(zhuǎn)載、摘編或以其它方式使用。
關(guān)鍵詞: 文繼榮關(guān)注公平性問題 讓算法設(shè)計過程有溫度