本周省麻理工學(xué)院的研究人員對外公布了他們打造的名為“諾曼”(Norman)的 AI,它令人不安的一點(diǎn)在于,它似乎是柯南附體,看誰都都像殺人犯……
之所以會(huì)出現(xiàn)這種現(xiàn)象,與諾曼接受到的訓(xùn)練有關(guān)。科學(xué)家們對諾曼進(jìn)行的訓(xùn)練為圖象說明,通俗來講就是“看圖說話”。這原本也沒什么特別,因?yàn)檫@是很多 AI 都會(huì)采用的深度學(xué)習(xí)方法。不同的是,諾曼學(xué)習(xí)的資料來自于新聞社交網(wǎng)站 Reddit 的一個(gè)子論壇,該論壇專門記錄和觀察一些令人不安的死亡案例。
不過研究人員強(qiáng)調(diào),出于道德上的考慮,他們僅用了論壇上有偏向性的圖像描述與隨機(jī)生成的墨跡進(jìn)行匹配,并沒有使用真實(shí)的人物死亡圖像。
讓諾曼經(jīng)過大量學(xué)習(xí)后,科學(xué)家們將它與正常的神經(jīng)網(wǎng)絡(luò)系統(tǒng)分別進(jìn)行羅夏墨跡測驗(yàn)。這是一個(gè)著名的人格測試,雖然學(xué)術(shù)界關(guān)于它能否準(zhǔn)確反應(yīng)一個(gè)人的心理狀態(tài)仍存在爭議,但諾曼的回答還是不免讓人毛骨悚然,如下圖所示:
圖 1
羅曼:“一名男子被推進(jìn)揉面機(jī)。”
普通 AI:“一張有小鳥的黑白照片。”
圖 2
羅曼:“一名男子在光天化日之下被機(jī)關(guān)槍射殺。”
普通 AI:“一雙棒球手套的黑白照。”
圖 3
諾曼:“一名男子在他尖叫的妻子面前被槍殺。”
普通 AI:“一人在半空中撐著傘。”
圖 4
諾曼:“一名男子從落地窗跳下。”
普通 AI:“兩個(gè)人緊挨著站。”
總之,無論什么圖像,在諾曼眼里都成了兇殺現(xiàn)場照。
我們總是對機(jī)器有種盲目的信任,認(rèn)為計(jì)算機(jī)、代碼都是公正的,不帶偏見的,但諾曼的實(shí)驗(yàn)證明,如果使用有偏差的數(shù)據(jù)訓(xùn)練 AI,它很容易就被帶著跑偏。
因此,The Verge 的作者 Bijan Stephen 提出了這樣的疑問:如果在銀行系統(tǒng)中引進(jìn) AI,用算法來審批貸款,萬一它帶有偏見呢?有色人種會(huì)不會(huì)受到“特殊對待”?
當(dāng)我們在現(xiàn)實(shí)生活中引進(jìn) AI 技術(shù)時(shí),如何確保算法的公正性?這正是諾曼這類 AI 需要幫我們搞清楚的問題。