美媒:人工智能可能自行產(chǎn)生偏見 趨勢演變很難扭轉(zhuǎn)

責(zé)任編輯:zsheng

2018-09-10 15:24:19

摘自:參考消息網(wǎng)

美媒稱,新研究表明,對他人表現(xiàn)出偏見并不需要很高的認知能力,人工智能機器很容易就能表現(xiàn)出來。

美媒稱,新研究表明,對他人表現(xiàn)出偏見并不需要很高的認知能力,人工智能機器很容易就能表現(xiàn)出來。

據(jù)美國每日科學(xué)網(wǎng)站9月6日報道,英國加的夫大學(xué)和美國麻省理工學(xué)院的計算機科學(xué)和心理學(xué)專家已經(jīng)證明,幾組自動機器僅僅通過相互之間識別、模仿和學(xué)習(xí)偏見就能表現(xiàn)出這種行為。

報道稱,偏見似乎是人類特有的一種現(xiàn)象,需要以人類的認知能力去對某個人或群體形成某種看法或成見。

盡管某些類型的計算機算法根據(jù)從公共記錄和人類產(chǎn)生的其他數(shù)據(jù)中學(xué)到的知識已經(jīng)表現(xiàn)出了偏見,例如種族偏見和性別歧視,但這項新研究表明,人工智能有可能自行演化為心懷偏見的群體。

報道稱,這些新發(fā)現(xiàn)發(fā)表在英國《科學(xué)報告》雜志上,其依據(jù)是,計算機模擬了擁有類似偏見的個體或虛擬代理人如何形成一個群體并彼此互動。

在一個平等交換游戲中,每個個體根據(jù)別人的名聲以及自己的捐贈策略(包括對外來者的偏見程度),來決定是捐給自己所在群體中的某個人還是另一個群體中的某個人。

隨著游戲展開,一臺超級計算機進行了數(shù)千次模擬,每個個體開始通過效仿自己所在群體或整個群體中的其他個體來學(xué)習(xí)新的策略。

研究報告的作者之一、加的夫大學(xué)犯罪與安全研究所和計算機科學(xué)與信息學(xué)學(xué)院的羅杰·惠特克教授說:“通過成千上萬次模擬,我們開始了解偏見是如何形成的,以及助長或阻礙偏見的條件是什么。我們的模擬顯示,偏見是一種強大的自然力,通過演變,偏見很容易在虛擬人群中受到激勵,不利于與他人構(gòu)建更廣泛的聯(lián)系。來自偏見群體的保護會無意中導(dǎo)致個體進一步組成偏見群體,使得群體四分五裂。這種普遍的偏見很難扭轉(zhuǎn)。”

這一研究結(jié)果表明,個體會通過優(yōu)先效仿短期收益更高的對象來更新自己的偏見程度,這意味著作出此種決定未必需要具備高級認知能力。

惠特克教授還說:“能夠識別歧視和模仿他人的自動機器今后很容易受到我們在人類中看到的偏見現(xiàn)象的影響,這是有可能的。”

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號