五月婷婷欧美视频_少女频道在线观看高清_欧美日韩视频一区二区三区_7777精品伊久久久大香线蕉语言

首頁 > 機器人資訊 > AI性別歧視有救,MIT研究人員給出減少AI預測偏差新方法

AI性別歧視有救,MIT研究人員給出減少AI預測偏差新方法

日期:2019-02-25   人氣:  來源:互聯網
簡介:AI性別歧視有救,MIT研究人員給出減少AI預測偏差新方法 在社交媒體的應用場景中,人工智能算法模型的偏差導致搜索結果或用戶體驗不佳常常出現,甚至可以說是無法規(guī)避,如人們熟知的大數據殺熟等。可以預見,當AI應用到醫(yī)療保……

AI性別歧視有救,MIT研究人員給出減少AI預測偏差新方法

在社交媒體的應用場景中,人工智能算法模型的偏差導致搜索結果或用戶體驗不佳常常出現,甚至可以說是無法規(guī)避,如人們熟知的大數據殺熟等。可以預見,當AI應用到醫(yī)療保健、自動駕駛汽車、刑事司法或刑事處理等場景中時,更多關乎生命、公平、道德等的問題將會出現。此前,亞馬遜用AI招聘出現了性別歧視問題就是有力的證明。

在世界每一個角落部署AI,這可能導致持續(xù)的系統性歧視,為此MIT計算機科學人工智能實驗室(CSAIL)研究人員創(chuàng)造了一種減少AI偏差,庫卡機器人何服電機維修,同時又不降低預測結果準確性的方法。

據麻省理工學院教授DavidSontag所言,傳統方法可能建議將與多數人群相關的數據集隨機化,作為解決不同人群不平等結果的一種方法,但這種方會權衡較低的預測準確性,以實現所有人群的公平性,關鍵是從代表性不足的群體中挖掘更多數據。例如,研究人員發(fā)現,在一個案例中,AI模型將女性標記為低收入,機器人維修,男性標記為高收入,這是有失客觀性的,因此他們通過將數據集中女性的代表性提高10倍,達到了將不準確結果的數量減少了40%的效果。

Sontag在一份聲明中給出這一設計的簡單解釋:我們認為這是一個工具箱,可幫助機器學習工程師弄清楚他們的數據要問什么問題,以便診斷他們的系統為什么會做出不公平的預測。

他進一步解釋說:在這項工作中,我們認為預測的公平性應該在數據的背景下進行評估,并且樣本量不足或未測量的預測變量引起的不公平性應該通過數據收集來解決,而不是通過約束模型來解決。

誠然,預測準確性的差異往往歸因于數據缺乏或不可測量的變量因素,因此該研究團隊建議在進行公平標準評論之前,對模型偏差,模型方差和結果噪聲進行AI模型分析。

對于這一研究的成本,Sontag表示,m.twshmhelmet.com,這揭示并分離了數據收集不足和模型選擇對公平性的不利影響。為了追求公平,其成本也要納入到數據收集和模型開發(fā)的投資。但在某些十分重要的應用程序中,其好處往往超過成本。

在Sontag與其博士團隊一起撰寫的論文中,有這一方法的詳細解釋。據悉,該成果將于下個月在蒙特利爾的神經信息處理系統(NIPS)上公布。

免責聲明:本網部分文章和信息來源于互聯網,本網轉載出于傳遞更多信息和學習之目的。如轉載稿涉及版權等問題,請立即聯系網站所有人,我們會予以更改或刪除相關文章,保證您的權利。
主站蜘蛛池模板: 当阳市| 冷水江市| 利川市| 金秀| 科尔| 台州市| 滕州市| 南丹县| 如东县| 夏河县| 行唐县| 郎溪县| 丰镇市| 庆云县| 南漳县| 灵寿县| 平度市| 东阳市| 郯城县| 赤城县| 卢氏县| 万山特区| 济阳县| 新晃| 遂溪县| 广安市| 寿光市| 沁阳市| 美姑县| 乌什县| 襄汾县| 朝阳区| 吉安县| 张家界市| 澳门| 九江县| 青海省| 和静县| 汝南县| 禹城市| 萨嘎县|