IBM對檢測人工智能偏見的方法

責任編輯:zsheng

2018-09-26 21:54:41

摘自:企業(yè)思想家

人工智能在日常生活中變得越來越普遍,IBM希望將其整合到他們的平臺上。雖然仍然處于早期階段,該技術一直處于保密狀態(tài),并因為明顯內置的種族偏見而放棄現(xiàn)有的陳規(guī)定型觀念。由于它是技術中最有爭議的部分之一,因此IBM正在努力提供透明度和公平競爭環(huán)境。

人工智能在日常生活中變得越來越普遍,IBM希望將其整合到他們的平臺上。雖然仍然處于早期階段,該技術一直處于保密狀態(tài),并因為明顯內置的種族偏見而放棄現(xiàn)有的陳規(guī)定型觀念。由于它是技術中最有爭議的部分之一,因此IBM正在努力提供透明度和公平競爭環(huán)境。

你需要知道的細分

種族偏見以多種形式出現(xiàn)在人工智能中,主要體現(xiàn)在它所訓練的數(shù)據(jù)算法缺乏多樣性。IBM研究人員一直在忙于提出減少用于訓練AI機器學習系統(tǒng)的數(shù)據(jù)集中的偏差的方法。如果你拒絕某人找工作,貸款或者決定他們是否應該因AI數(shù)據(jù)而入獄,這是一件大事。

該軟件巨頭開發(fā)了一個評級系統(tǒng),可以對AI平臺的相對公平性進行排序,并解釋決策的制定方式。IBM將推出其AI Fairness 360工具包,并使開源社區(qū)可以輕松訪問新軟件,作為對抗同類開發(fā)人員當前狀態(tài)的一種方式。

“完全自動化的軟件服務解釋了決策,并在運行時檢測AI模型中的偏差- 正在做出決策- 捕獲可能產(chǎn)生的不公平結果。重要的是,它還會自動推薦數(shù)據(jù)添加到模型中,以幫助減輕它檢測到的任何偏差,”IBM在一份聲明中寫道。

CultureBanx此前曾報道人工智能平臺如何接管銀行貸款決策可能會使黑人家庭財富進一步落后。根據(jù)Zillow的報告,2016年,20.9%的黑人借款人和15.5%的西班牙裔借款人被拒絕貸款,8.1%的白人申請人和10.4%的亞洲申請人被拒絕。差距很大,因為擁有房屋可以幫助大多數(shù)人,無論種族如何,積累資產(chǎn)來增加他們的凈資產(chǎn)。

AI市場意識

IDC最近的一份報告指出,預計2022年全球認知和人工智能系統(tǒng)的支出將達到776億美元。如果這些預測能夠持續(xù)下去,IBM將會受益匪淺。該公司在AI領域的成功主要歸功于其Watson技術是第一個商用AI平臺。它是IBM Cognitive Solutions集團的一部分,該集團在過去五個季度的復合年增長率(CAGR)增長了1.4%。

然而,揮之不去的問題是人工智能只有它所提供的數(shù)據(jù)一樣好,所以如果信息有偏見,人工智能的決定也會反映出來。IBM的新貢獻可以增加另一層理解,以更好地解決AI偏見問題。這里有點值得思考的東西讓我們有點疑惑,誰決定所謂的“公平算法”有多公平?

鏈接已復制,快去分享吧

企業(yè)網(wǎng)版權所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號