人工智能可以預(yù)測(cè)社會(huì)事件嗎?

責(zé)任編輯:zsheng

2019-02-28 08:31:30

摘自:京東數(shù)字科技研究院

近期一個(gè)研究團(tuán)隊(duì)創(chuàng)建了一套能夠模仿人類(lèi)宗教信仰的人工智能系統(tǒng),為進(jìn)一步研發(fā)能夠準(zhǔn)確預(yù)測(cè)人類(lèi)行為和心理的人工智能系統(tǒng)奠定了基礎(chǔ)。

人工智能模仿人類(lèi)行為的一些案例

2016年,微軟聊天機(jī)器人變成了種族主義者和厭惡女性的Twitter咆哮帝。之后,在同一年,F(xiàn)acebook不得不關(guān)閉已經(jīng)開(kāi)始以一種陌生的新型語(yǔ)言相互溝通的兩個(gè)聊天機(jī)器人。然后,在2017年,觀(guān)察者緊張地觀(guān)察到Google深度學(xué)習(xí)系統(tǒng)的火柴人(stick figure)正在自我學(xué)習(xí)如何走路,即通過(guò)屏幕數(shù)字課程來(lái)笨拙地摸索它的行走路徑,且將其手和腳在空中伸展從而跳躍到終點(diǎn)線(xiàn)。

人工智能在模仿人類(lèi)行為方面所做的一些努力,盡管可能很有趣,但卻讓我們感到有些粗糙和笨拙。

開(kāi)發(fā)一款能預(yù)測(cè)人類(lèi)行為和社會(huì)事件的人工智能社會(huì)模型系統(tǒng)

現(xiàn)在,來(lái)自牛津大學(xué)、波士頓大學(xué)、挪威阿格德大學(xué)的研究者組成的研究團(tuán)隊(duì)正在研究怎么讓人工智能不僅僅停留在“動(dòng)畫(huà)回形針”(animated paper clip)階段,而是讓其走得更遠(yuǎn)一些。他們聲稱(chēng)已經(jīng)開(kāi)發(fā)出一款新的人工智能模型,能夠預(yù)測(cè)人類(lèi)行為,特別是社會(huì)動(dòng)蕩事件。

該研究團(tuán)隊(duì)計(jì)劃利用人工智能去理解出于宗教動(dòng)機(jī)的暴力行為背后的社會(huì)動(dòng)機(jī)。他們仿照著名的計(jì)算機(jī)游戲The Sims設(shè)計(jì)出一套的人工智能系統(tǒng)。在該人工智能系統(tǒng)中,分別有著獨(dú)特情緒和欲望的不同虛擬人物可以參與“模擬人際交互”(simulation of human interactions.)。然而,和The Sims 不同的是,該人工智能系統(tǒng)沒(méi)有針對(duì)虛擬社會(huì)的可視元素。 相反,該人工智能系統(tǒng)參與成員通過(guò)一個(gè)類(lèi)似于社交媒體平臺(tái)的消息系統(tǒng)進(jìn)行人際交互。

“每一個(gè)系統(tǒng)參與成員或模擬代理(simulated agents),被開(kāi)發(fā)設(shè)計(jì)成擁有一個(gè)盡可能與人類(lèi)相似的認(rèn)知結(jié)構(gòu),”LeRon Shults說(shuō)。LeRon Shults是挪威克里斯蒂安桑社會(huì)系統(tǒng)建模中心(the Center for Modeling Social Systems in Kristiansand, Norway)的主任,也是去年十月份發(fā)表在《人工智能社會(huì)和社交模擬雜志》(the Journal of Artificial Societies and Social Simulations)上一篇研究論文的共同作者之一。

該項(xiàng)研發(fā)可以對(duì)個(gè)體行為進(jìn)行深度跟蹤和分析。該研發(fā)項(xiàng)目的研究者有可能能夠?qū)⒛橙?individual agent)從群體中分辨出來(lái),例如一個(gè)少數(shù)族裔群體女性。方法是,在他們創(chuàng)建的一個(gè)特定的虛擬社會(huì)中問(wèn)她一些特定問(wèn)題。

人工智能社會(huì)模型系統(tǒng)運(yùn)行設(shè)計(jì)機(jī)制

就像The Sims一樣,該研究團(tuán)隊(duì)開(kāi)發(fā)設(shè)計(jì)的方法,就是賦予每個(gè)虛擬人物不同性格特點(diǎn),然后通過(guò)編程讓他們進(jìn)行人際交互。每一個(gè)虛擬人物,或被劃分為宗教信仰多數(shù),或被劃分為宗教信仰少數(shù),以及其他一系列宗教信仰設(shè)定。

值得注意的是,該人工智能系統(tǒng)正在用機(jī)器學(xué)習(xí)進(jìn)化。即計(jì)算機(jī)系統(tǒng)被喂數(shù)據(jù),然后用這些數(shù)據(jù)與自己已有數(shù)據(jù)進(jìn)行交互,Justin Lane說(shuō)。 Justin Lan牛津大學(xué)認(rèn)知與進(jìn)化人類(lèi)學(xué)研究所(Oxford’s Institute of Cognitive and Evolutionary Anthropology)研究員,也是上述Shults論文的的共同作者之一。在這個(gè)人工智能開(kāi)發(fā)案例中,該研究團(tuán)隊(duì)將算法設(shè)計(jì)成一種信息處理方式與人類(lèi)大腦處理信息相同的算法。 其目的就是要?jiǎng)?chuàng)建像人類(lèi)一樣思考的模擬代理。

人工智能社會(huì)模型系統(tǒng)與人類(lèi)的差異

其中與人類(lèi)的差異之一,可能是,人類(lèi)是靠不斷進(jìn)化的心理機(jī)制進(jìn)行反應(yīng),不是靠學(xué)習(xí),例如我們會(huì)天然地同情在公共場(chǎng)所患病的人。

“大多數(shù)機(jī)器學(xué)習(xí)算法不能反應(yīng)真實(shí)的人類(lèi)情緒和人類(lèi)群體理性,但是所有這些算法變量是在社會(huì)科學(xué)領(lǐng)域卻是有著很高的研究意義,” Shults說(shuō)。

創(chuàng)建更為真實(shí)的人造社會(huì)模型系統(tǒng)

Sluts還補(bǔ)充到,在認(rèn)知上上的模擬更為真實(shí)的模型應(yīng)該會(huì)開(kāi)啟其在真實(shí)世界應(yīng)用的無(wú)限可能性。

研究團(tuán)隊(duì)正在研究其他相關(guān)的當(dāng)代人類(lèi)情景,例如歐洲城市間人口遷徙、政治極化和氣候變化等。

“這項(xiàng)研究探索就是要?jiǎng)?chuàng)建和提供一個(gè)更為真實(shí)的人造社會(huì),其可以更為直接地預(yù)測(cè)社會(huì)事件和傳遞政策動(dòng)向”, Shults說(shuō)。

目前人工智能社會(huì)模型系統(tǒng)就有著廣泛的應(yīng)用

在人工智能社會(huì)模型開(kāi)發(fā)的早期,其已經(jīng)有很多可能的用途。

“社會(huì)模擬(Social simulation)是一個(gè)相對(duì)新的領(lǐng)域,但是該領(lǐng)域在近期已經(jīng)發(fā)展起來(lái)” Flaminio Squazzoni說(shuō)。Flaminio Squazzoni是意大利米蘭大學(xué)行為研究實(shí)驗(yàn)室(behavior research lab at the University of Milan in Italy)的主任。他認(rèn)為:社會(huì)模擬在諸多領(lǐng)域有著廣泛的應(yīng)用,最有趣是輿情搜集研究(the study of collective opinion)。

對(duì)人工智能社會(huì)模型系統(tǒng)預(yù)測(cè)社會(huì)場(chǎng)景和事件的爭(zhēng)論

然而,許多研究者正在爭(zhēng)論——這些虛擬的模型如何準(zhǔn)確地預(yù)測(cè)社會(huì)場(chǎng)景和事件。

“預(yù)測(cè)是科學(xué)進(jìn)步的關(guān)鍵,但當(dāng)涉及預(yù)測(cè)人類(lèi)行為時(shí),就會(huì)非常麻煩,因?yàn)椴煌瑐€(gè)體往往從理性角度去考慮進(jìn)而產(chǎn)生各式各樣的觀(guān)點(diǎn)和行為動(dòng)向”,Squazzoni說(shuō)。

他依然認(rèn)為,社交模擬很有潛力被應(yīng)用于政策制定領(lǐng)域,因?yàn)槠淇梢詮氐自试S利益相關(guān)者對(duì)某特定政策實(shí)施和適用進(jìn)行實(shí)驗(yàn)和測(cè)試,而不用進(jìn)行可能有倫理問(wèn)題的真人社會(huì)實(shí)驗(yàn)。

人工智能社會(huì)模型系統(tǒng)應(yīng)用的負(fù)面影響

Lane的研究工作已經(jīng)引起決策制定者的興趣和關(guān)注,例如意在測(cè)試和了解特定政策對(duì)特定人群的影響以及該人群反應(yīng)的立法者。 但是對(duì)該項(xiàng)人工智能技術(shù)應(yīng)用也有著一些負(fù)面和消極觀(guān)點(diǎn)。例如,科技創(chuàng)業(yè)者Elon Musk在2014年發(fā)推說(shuō):“人工智能潛在的危險(xiǎn)比核武器更大。”

“人們對(duì)人工智能系統(tǒng)的恐懼,大部分來(lái)源于媒體的錯(cuò)誤夸大”,Cristobal Valenzuela。Cristobal Valenzuela是紐約大學(xué)互動(dòng)電信研究計(jì)劃(New York University’s Interactive Telecommunications Program)的研究員,以及一家為使人工智能系統(tǒng)為普通大眾可用而開(kāi)發(fā)和提供相應(yīng)工具的公司Runway的創(chuàng)始人。

Valenzuela認(rèn)為:自從2016年聊天機(jī)器人出現(xiàn)流氓事件以來(lái),媒體就戴著有色眼鏡去審視人工智能,將其宣傳為一套“試圖學(xué)習(xí)東西,卻失敗”的計(jì)算機(jī)系統(tǒng),而不是將其描述為某種“類(lèi)人物”。“它僅僅是一個(gè)還不完美的數(shù)據(jù)函數(shù),” Valenzuela補(bǔ)充道。

該研究團(tuán)隊(duì)將人工智能社會(huì)模型代碼開(kāi)源

為努力改善人工智能公共可獲得性,Shults和他的研究團(tuán)隊(duì)同事已經(jīng)將他們的人工智能社會(huì)模型代碼公開(kāi),即開(kāi)源。 這意味著其他開(kāi)發(fā)者也可以訪(fǎng)問(wèn)和修改該模型代碼。 Shults 說(shuō):“我們真的很明確我們的理論假設(shè)和人工智能模型的目的。那就消除未來(lái)的社會(huì)沖突。”

人工智能社會(huì)模型的研發(fā)方向

該研究團(tuán)隊(duì)正在研究類(lèi)似于The Sims用戶(hù)界面。Shults 說(shuō):“我們將要開(kāi)發(fā)和設(shè)計(jì)的模型將是‘基于經(jīng)驗(yàn)驗(yàn)證的,更為綜合的,更具有政策指向性的’。”

因此,不完全像The Sims ,但可能更為有用!

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)