免费一区二区三区视频导航,亚洲五月七月丁香缴情,成人国产精品免费视频不卡,91大神在线视频观看

【新知】科學家:人工智能可以迅速發(fā)展自己的偏見

據(jù)英國《每日郵報》報道,來自英國卡迪夫大學和美國麻省理工學院的計算機科學和心理學專家發(fā)現(xiàn),自主機器人可以通過識別、復制、學習其他機器人的行為產生偏見,某些種類的算法已經產生性別歧視和種族歧視。

歧視看似是人類社會中特有的、需要認知才能產生的現(xiàn)象。但是,某些類型的計算機算法已經從公開檔案等人類資料中習得了性別歧視、種族歧視等偏見。最新的一項研究甚至發(fā)現(xiàn),人工智能可以進化出不同的偏見群體。

為證實人工智能可以自己產生偏見,科學家用計算機模擬博弈。博弈中,每個個體都可以將錢送給自己所在的群體或其他群體,以測試每個個體的給予策略,觀察其是否對其他群體有偏見。這一博弈由一臺超級計算機模擬,其中包括上千個個體,每個個體都可以通過復制其他來自相同群體或不同群體的個體學習新的策略。

參與研究的卡迪夫大學計算機科學與信息學教授Roger Whitaker表示:“通過成千上萬次模擬,我們發(fā)現(xiàn)了偏見是如何演化的、哪些情況可以激化偏見、哪些情況可以減弱偏見。我們的研究表明,偏見是自然產生的、影響非常大的,它很容易被激勵、損害大范圍的連通性。來自同一偏見群體的保護可以非主觀地引起更進一步的偏見,使整個群體四分五裂。這種廣泛傳播的偏見很難逆轉。”這些個體是通過復制那些有更高短期效益的個體使得偏見升級的,可見偏見并不需要高級認知能力。

在另一項關于性別的研究中,研究人員發(fā)現(xiàn),微軟、IBM和Face++等的人臉識別服務中存在性別歧視和種族歧視。這些服務對于男性白人更加友好,而對于男性黑人和女性黑人錯誤率最高。微軟在21%情況下無法識別黑人女性,而IBM和Face++有35%情況無法識別。【責任編輯/熊文皓】

(原標題:科學家:人工智能可以迅速發(fā)展自己的偏見)

來源:環(huán)球網

IT時代網(關注微信公眾號ITtime2000,定時推送,互動有福利驚喜)所有原創(chuàng)文章版權所有,未經授權,轉載必究。
創(chuàng)客100創(chuàng)投基金成立于2015年,直通硅谷,專注于TMT領域早期項目投資。LP均來自政府、互聯(lián)網IT、傳媒知名企業(yè)和個人。創(chuàng)客100創(chuàng)投基金對IT、通信、互聯(lián)網、IP等有著自己獨特眼光和豐富的資源。決策快、投資快是創(chuàng)客100基金最顯著的特點。

相關文章
谷歌前總裁:美國必須“不惜一切代價”在人工智能研發(fā)上擊敗中國
馬斯克再次警告:人工智能可能會統(tǒng)治全人類
AIoT芯片行業(yè)面對新挑戰(zhàn):阿里巴巴/聯(lián)發(fā)科/微美全息等啟動芯片戰(zhàn)略
【新知】馬斯克:腦機接口或一年內植入人腦,可修復任何大腦問題

精彩評論