中新經(jīng)緯3月24日電 (王玉玲)近日,由中國(guó)人民大學(xué)高瓴人工智能學(xué)院、智能社會(huì)治理跨學(xué)科交叉平臺(tái)和基于大數(shù)據(jù)文科綜合訓(xùn)練國(guó)家級(jí)虛擬仿真實(shí)驗(yàn)教學(xué)中心聯(lián)合主辦的算法公平性與內(nèi)容生態(tài)建設(shè)研討會(huì)在線上舉行。中國(guó)科學(xué)技術(shù)大學(xué)博士后陳佳偉提出,應(yīng)該在動(dòng)態(tài)或者交互式的場(chǎng)景當(dāng)中去研究公平,追求長(zhǎng)期累積的公平性。
隨著反饋循環(huán)的過程,公平性問題可能在用戶和系統(tǒng)交互的過程而放大,可能會(huì)有“蝴蝶效應(yīng)”現(xiàn)象產(chǎn)生?!氨热缯f推薦系統(tǒng),給一個(gè)青少年推薦游戲,他可能就會(huì)沉迷,給另外一個(gè)青少年推的是科研問題,他成長(zhǎng)路線就可能不同?!标惣褌フf道。
陳佳偉表示,算法公平性的評(píng)估指標(biāo)是非常難定義和計(jì)算的,公平性的定義需要與多個(gè)相關(guān)數(shù)據(jù)進(jìn)行對(duì)比。對(duì)于一些比較高級(jí)的公平性指標(biāo),它要求我們觀察只改變屬性的情況下,推薦策略是否會(huì)不同。對(duì)于這樣的指標(biāo),我們往往需要做一些反事實(shí)推演或者找特定數(shù)據(jù)進(jìn)行匹配,這個(gè)過程可能很艱難。
為解決公平性評(píng)估問題,陳佳偉提出三個(gè)未來值得研究的點(diǎn)。第一,統(tǒng)一的公平性方法,從每個(gè)過程中分析產(chǎn)生偏差的原因和并進(jìn)行糾正會(huì)很困難,因此需要從結(jié)果層面統(tǒng)一定義公平并探索一種普適的糾偏方法。第二,設(shè)置基準(zhǔn)數(shù)據(jù)集和評(píng)估標(biāo)準(zhǔn)。第三,應(yīng)該在動(dòng)態(tài)或者交互式的場(chǎng)景當(dāng)中去研究公平,追求長(zhǎng)期累積的公平性。算法就應(yīng)該在交互過程當(dāng)中找到公平性的問題,及時(shí)發(fā)現(xiàn)然后進(jìn)行彌補(bǔ)?!皩?duì)于推薦,要考慮系統(tǒng)和用戶動(dòng)態(tài)演化的過程,去探索長(zhǎng)期累積的公平性。”陳佳偉說道。(中新經(jīng)緯APP)
中新經(jīng)緯版權(quán)所有,未經(jīng)書面授權(quán),任何單位及個(gè)人不得轉(zhuǎn)載、摘編或以其它方式使用。
關(guān)鍵詞: 陳佳偉公平性評(píng)估指標(biāo)難以定義和計(jì)算 應(yīng)在動(dòng)態(tài)場(chǎng)景中探