破除人工智能中的偏差

責(zé)任編輯:cres

作者:Sharon Florentine

2018-04-16 10:05:55

來源:企業(yè)網(wǎng)D1Net

原創(chuàng)

人工智能系統(tǒng)中的偏差會(huì)導(dǎo)致意想不到的后果。你要確保自己理解人工智能系統(tǒng)是如何解釋它們所收到的數(shù)據(jù)的,這是解決問題的一種方法。

人工智能系統(tǒng)中的偏差會(huì)導(dǎo)致意想不到的后果。你要確保自己理解人工智能系統(tǒng)是如何解釋它們所收到的數(shù)據(jù)的,這是解決問題的一種方法。
 
Alexa、Siri、小娜。這些虛擬數(shù)字助理正在成為我們?nèi)粘I畹囊徊糠?,它們除了功能相似之外,還有一個(gè)共同的重要特征:她們都被編碼為女性。
 
如果你從來沒有考慮過為什么所有這些人工智能助手都是女性,你并不孤單。LivePerson是一個(gè)基于云計(jì)算的客戶服務(wù)消息解決方案,它委托有關(guān)機(jī)構(gòu)對(duì)1000名美國成年人進(jìn)行調(diào)研,以確定他們對(duì)人工智能以及技術(shù)上的性別差距的看法。“Alexa,Siri和谷歌助理默認(rèn)都是女性。你有沒有想過這個(gè)事實(shí)?”總體而言,53.2%的人表示他們沒有想過,這就是他們對(duì)這個(gè)問題的回應(yīng)。
 
LivePerson的首席執(zhí)行官Rob LoCascio說:與其它技術(shù)不同,“有了人工智能,你正在創(chuàng)造一些你賴以互動(dòng)的東西,就仿佛和另一個(gè)真人在互動(dòng),或者你正在用它來補(bǔ)充人類活動(dòng),做出決策和推薦。他說:“所以我們必須問,為什么?為什么我們將這些‘助手’定性為女性?關(guān)于我們對(duì)世界上和工作場所中的女性的期望,這又說明了什么?女性天生就是‘助手’,她們是‘愛嘮叨的人’;她們執(zhí)行管理角色;她們擅長接單?”
 
偏差放大
 
當(dāng)然,這不僅僅是數(shù)字助理存在偏見問題。正如彭博社所報(bào)道的那樣,研究人員已經(jīng)開始注意到人工智能系統(tǒng)的這樣一個(gè)傾向——重復(fù)并放大它們的創(chuàng)造者所造成的偏差。
 
該文指出:“公司,政府機(jī)構(gòu)和醫(yī)院正日益轉(zhuǎn)向機(jī)器學(xué)習(xí)、圖像識(shí)別和其它人工智能工具,以幫助人們預(yù)測這些內(nèi)容——從貸款申請(qǐng)者的信譽(yù)度到癌癥患者的首選治療方案。這些工具有很大的盲點(diǎn),這些盲點(diǎn)尤其影響到女性和少數(shù)族裔。”
 
例如,在招聘中,人工智能通常用于確定理想的候選人。然而,如果對(duì)人工智能聽之任之,它可能會(huì)使IT領(lǐng)域的多樣性問題變得更加嚴(yán)重,在這些領(lǐng)域里已經(jīng)缺少很多女性和沒有得到充分代表的少數(shù)族裔。
 
人工智能招聘者AllyO的創(chuàng)始人Ankit Somani說:“在科技領(lǐng)域,如果你正在尋找技術(shù)職位的候選人,那么大多數(shù)候選人會(huì)是白人男性;所以如果你只是將所有這一切輸入系統(tǒng)中,并接受任何結(jié)果,那么你會(huì)看到系統(tǒng)會(huì)做出這樣的關(guān)聯(lián)——比如說,一個(gè)開發(fā)人員,然后將其與白人男性關(guān)聯(lián)起來”。他說:“根據(jù)它所收到的數(shù)據(jù),這并沒有錯(cuò),但如果你不了解當(dāng)前多樣性的缺乏是如何影響這些系統(tǒng)的,那么你可能會(huì)加劇這個(gè)問題。”
 
人工智能中的偏差也會(huì)對(duì)業(yè)務(wù)產(chǎn)生影響。以零售為例。LoCascio說:“超過70%的網(wǎng)購是由女性完成的。女性擁有購買力并做出大部分預(yù)算決策,所以如果企業(yè)想要吸引和留住這些顧客,它們必須考慮這些事情”。他說:“對(duì)于企業(yè)本身來說,這不僅僅是一個(gè)問題,對(duì)于整個(gè)世界來說也是一個(gè)問題——如果大多數(shù)用戶界面和用戶體驗(yàn)都是由男性設(shè)計(jì)的,那么對(duì)于男性而言,那么你將無法獲得競爭優(yōu)勢。”
 
人的因素
 
Somani說:你要確保自己理解這一點(diǎn)——人工智能系統(tǒng)是如何解釋它們收到的數(shù)據(jù)的,并調(diào)整算法,這是解決偏差問題的一種方法。
 
他說:“人工智能技術(shù)對(duì)于處理數(shù)字和處理大量數(shù)據(jù)和發(fā)現(xiàn)模式是非常有用的。人所扮演的作用是理解模式,根據(jù)結(jié)果找出需要改變的地方,當(dāng)然還有建立真正的情感聯(lián)系。”
 
他說:“你可以一起致力于保持平衡并確保人工智能系統(tǒng)公平公正地執(zhí)行,但你必須進(jìn)行這些檢查。如果你雇用一名員工,難道你不會(huì)有績效考核?難道你永遠(yuǎn)不會(huì)考察他們的表現(xiàn)以及他們的表現(xiàn)是否達(dá)到標(biāo)準(zhǔn)?當(dāng)然不是。那么你為什么不用這些技術(shù)來做這件事呢?”
 
人工智能職業(yè)平臺(tái)Gloat的內(nèi)容和社區(qū)經(jīng)理Melanie Pasch補(bǔ)充道,持續(xù)檢查你得到的結(jié)果并密切關(guān)注偏差是很關(guān)鍵的。
 
例如,Gloat的匿名招聘軟件不僅通過刪除姓名和任何其他可能與候選人的性別,性取向,種族或民族相關(guān)的因素,還刪除可能指向社會(huì)經(jīng)濟(jì)階層的其他因素,將簡歷匿名化。
 
她說:“我們觀察某些業(yè)余愛好的結(jié)果(例如騎馬),意識(shí)到社會(huì)經(jīng)濟(jì)階層是無意識(shí)的指標(biāo)。我們也積極地認(rèn)識(shí)到,對(duì)于某些職位和學(xué)位,它們并不一定與工作上的成功相關(guān),所以我們根據(jù)這些因素編碼,將他們從考慮因素中排除,并專注于其它數(shù)據(jù)點(diǎn)。”
 
Pasch說,還應(yīng)該有一個(gè)過程,讓人類評(píng)估人工智能決策,確保它們按預(yù)期工作,并且不會(huì)加劇偏差。
 
Pasch說:“人們不應(yīng)該僅憑算法的一面之詞進(jìn)行招聘,因?yàn)槲覀冎肋@些問題的存在。但是,隨著我們?nèi)〉眠M(jìn)展并漸漸看到更好的代表,這項(xiàng)技術(shù)將與我們一起學(xué)習(xí)并發(fā)展。”
 
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)