被數(shù)據(jù)誤導(dǎo)后,這個(gè) AI 看誰都是殺人犯

責(zé)任編輯:zsheng

2018-06-08 22:09:57

摘自:愛范兒

人工智能讓人在驚訝于科技進(jìn)步的同時(shí),也總是讓人感到不安。為了確保 AI 人畜無害的屬性,特斯拉 CEO 馬斯克創(chuàng)辦過一個(gè)叫“OpenAI”的組織,還時(shí)不時(shí)跳出來給人們敲敲警鐘。如果看了麻省理工學(xué)院最新的研究成果,馬斯克大概更有理由提醒人們警惕 AI 的潛在威脅了。

人工智能讓人在驚訝于科技進(jìn)步的同時(shí),也總是讓人感到不安。為了確保 AI 人畜無害的屬性,特斯拉 CEO 馬斯克創(chuàng)辦過一個(gè)叫“OpenAI”的組織,還時(shí)不時(shí)跳出來給人們敲敲警鐘。如果看了麻省理工學(xué)院最新的研究成果,馬斯克大概更有理由提醒人們警惕 AI 的潛在威脅了。

本周省麻理工學(xué)院的研究人員對外公布了他們打造的名為“諾曼”(Norman)的 AI,它令人不安的一點(diǎn)在于,它似乎是柯南附體,看誰都都像殺人犯……

之所以會(huì)出現(xiàn)這種現(xiàn)象,與諾曼接受到的訓(xùn)練有關(guān)。科學(xué)家們對諾曼進(jìn)行的訓(xùn)練為圖象說明,通俗來講就是“看圖說話”。這原本也沒什么特別,因?yàn)檫@是很多 AI 都會(huì)采用的深度學(xué)習(xí)方法。不同的是,諾曼學(xué)習(xí)的資料來自于新聞社交網(wǎng)站 Reddit 的一個(gè)子論壇,該論壇專門記錄和觀察一些令人不安的死亡案例。

不過研究人員強(qiáng)調(diào),出于道德上的考慮,他們僅用了論壇上有偏向性的圖像描述與隨機(jī)生成的墨跡進(jìn)行匹配,并沒有使用真實(shí)的人物死亡圖像。

讓諾曼經(jīng)過大量學(xué)習(xí)后,科學(xué)家們將它與正常的神經(jīng)網(wǎng)絡(luò)系統(tǒng)分別進(jìn)行羅夏墨跡測驗(yàn)。這是一個(gè)著名的人格測試,雖然學(xué)術(shù)界關(guān)于它能否準(zhǔn)確反應(yīng)一個(gè)人的心理狀態(tài)仍存在爭議,但諾曼的回答還是不免讓人毛骨悚然,如下圖所示:

 

 

圖 1

羅曼:“一名男子被推進(jìn)揉面機(jī)。”

普通 AI:“一張有小鳥的黑白照片。”

 

 

圖 2

羅曼:“一名男子在光天化日之下被機(jī)關(guān)槍射殺。”

普通 AI:“一雙棒球手套的黑白照。”

 

 

圖 3

諾曼:“一名男子在他尖叫的妻子面前被槍殺。”

普通 AI:“一人在半空中撐著傘。”

 

 

圖 4

諾曼:“一名男子從落地窗跳下。”

普通 AI:“兩個(gè)人緊挨著站。”

總之,無論什么圖像,在諾曼眼里都成了兇殺現(xiàn)場照。

我們總是對機(jī)器有種盲目的信任,認(rèn)為計(jì)算機(jī)、代碼都是公正的,不帶偏見的,但諾曼的實(shí)驗(yàn)證明,如果使用有偏差的數(shù)據(jù)訓(xùn)練 AI,它很容易就被帶著跑偏。

因此,The Verge 的作者 Bijan Stephen 提出了這樣的疑問:如果在銀行系統(tǒng)中引進(jìn) AI,用算法來審批貸款,萬一它帶有偏見呢?有色人種會(huì)不會(huì)受到“特殊對待”?

當(dāng)我們在現(xiàn)實(shí)生活中引進(jìn) AI 技術(shù)時(shí),如何確保算法的公正性?這正是諾曼這類 AI 需要幫我們搞清楚的問題。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)