2017年,人工智能的炒作達(dá)到了頂峰,首席信息官、顧問和學(xué)者們紛紛宣稱這項(xiàng)技術(shù)可能會將這一切自動化——從商業(yè)和IT運(yùn)營到客戶聯(lián)絡(luò)。然而,在2018年的第一個季度就有幾家媒體報道了人工智能的危險,其中包括培訓(xùn)計算機(jī)執(zhí)行那些往往需要人類智能的任務(wù)。
講授認(rèn)知技術(shù)課程的巴布森學(xué)院的杰出教授Thomas Davenport說:“媒體上充斥這么多關(guān)于人工智能的炒作,而這只是記者試圖通過談?wù)撓麡O的一面來擴(kuò)大宣傳。”
也許是這樣吧,但這些擔(dān)憂并不是什么新鮮事兒,而且不會持續(xù)下去,從對種族、性別和其它偏見的恐懼,到失控的自動駕駛的無人機(jī)都有可能帶來致命后果。
在《MIT技術(shù)評論》發(fā)表了一篇題為《當(dāng)人工智能終于致人死亡時,誰來負(fù)責(zé)?》的故事的一周后。此文提出了這樣一個問題——如果有一輛自動駕駛的汽車把人撞死,有一輛自動駕駛的優(yōu)步汽車在亞利桑那州撞死一名女子,什么樣的法律適用于這個問題。如他所言,時機(jī)決定了一切。
記者會在下文詳細(xì)介紹一些有關(guān)人工智能采用的問題,然后是對希望測試該技術(shù)的首席信息官提出的一些建議。
有關(guān)人工智能的六大擔(dān)憂
1. 太粗魯了
正如我們從微軟的災(zāi)難性的聊天機(jī)器人Tay事件中了解到的,會話式消息傳遞系統(tǒng)可能是荒謬的,無禮的,甚至是唐突的。首席信息官們必須小心翼翼地對待他們所使用的東西,以及他們使用這些東西的方式。聊天機(jī)器人只消有一次唐突的,亂扣帽子的行為就能摧毀品牌的友好形象。
2. 認(rèn)知不佳
谷歌的人工智能科學(xué)家兼斯坦福大學(xué)李飛飛教授在《紐約時報》的一篇專欄文章中稱,盡管人工智能是由人類開發(fā)的,但具有諷刺意味的是,人工智能根本不像人類。李飛飛指出,盡管人類的視覺感受高度情境化,但人工智能感知圖像的能力有很大的局限性。
李飛飛說,人工智能程序員可能必須與各領(lǐng)域的專家合作——回歸該領(lǐng)域的學(xué)術(shù)根源——縮小人與機(jī)器感知之間的差距。
3. 黑匣子難題
有很多企業(yè)想使用人工智能,它包含一些可能提供戰(zhàn)略優(yōu)勢的活動,但金融服務(wù)等行業(yè)的公司必須小心翼翼,他們可以解釋人工智能是如何得出其結(jié)論的。房利美(Fannie Mae)的運(yùn)營兼技術(shù)負(fù)責(zé)人Bruce Lee說,使用Nest溫控器這樣的產(chǎn)品來管理電費(fèi)的房主可能會有更多的自由現(xiàn)金流(free cash flow)來償還抵押貸款,這種推斷也許是合乎情理的。但在監(jiān)管機(jī)構(gòu)的眼中,讓人工智能具備這樣的資質(zhì)是有問題的。
李飛飛告訴記者:“在你開始著手這種有關(guān)公平借貸的問題時——如何偏倚樣本集,你會否漸漸向使用Nest的人提供更好的抵押貸款利率?人工智能在信貸決策這樣看似明顯的領(lǐng)域的事情中,實(shí)際上充斥著要掃清的監(jiān)管障礙,所以我們所做的很多事情都必須進(jìn)行徹底的回溯測試,以確保我們不會帶來不當(dāng)?shù)钠校⒋_保這對住房基礎(chǔ)設(shè)施是一種凈收益。人工智能必須要解釋得通。”
如果人們不清楚人工智能軟件如何檢測模式并觀察結(jié)果,那么冒著法規(guī)風(fēng)險的公司就會懷疑機(jī)器的可信度。Fox Rothschild律師事務(wù)所的技術(shù)實(shí)踐聯(lián)合主席Dan Farris說:“情境、道德和數(shù)據(jù)質(zhì)量是影響人工智能的價值和可靠性的問題,特別是在受到高度監(jiān)管的行業(yè)中。在所有受到高度監(jiān)管的行業(yè)部署人工智能都可能會造成合規(guī)性問題。”
4. 民族志,社會經(jīng)濟(jì)方面的偏差
斯坦福大學(xué)的博士生TimnitGebru在進(jìn)行一個項(xiàng)目——該項(xiàng)目使用谷歌街景(Google Street View)的汽車圖片來確定所有美國城鎮(zhèn)的人口結(jié)構(gòu)。她對研究中的種族、性別和社會經(jīng)濟(jì)偏差感到擔(dān)憂。彭博社的報道稱,這一啟示促使Gebru加入微軟,她在那里努力挖掘人工智能的偏差。
即使是人工智能虛擬助理也受到偏差的困擾。你有沒有想過為什么Alexa、Siri和小娜(Cortana)等虛擬助理技術(shù)都是女性角色?客戶服務(wù)軟件公司LivePerson的首席執(zhí)行官Rob LoCascio向記者表示:“為什么我們將這些‘助理’技術(shù)定性為女性?就我們對世界和職場女性的期望,這意味著什么?女性本質(zhì)上是‘助手’,她們‘愛嘮叨’,她們扮演行政角色,她們善于接單?”
5. 用于攻擊的人工智能,致命的攻擊
劍橋大學(xué)、牛津大學(xué)和耶魯大學(xué)的25位技術(shù)和公共政策研究人員撰寫的一份長達(dá)98頁的報告稱,人工智能的快速發(fā)展意味著這樣的風(fēng)險——惡意用戶很快就會利用該技術(shù)發(fā)動自動的黑客攻擊,模仿人類傳播錯誤信息或?qū)⑸虡I(yè)無人機(jī)變?yōu)橛嗅槍π缘奈淦鳌?/div>
牛津大學(xué)人類未來研究院(Oxford’s Future of Humanity Institute)的研究員Miles Brundage告訴路透社:“我們都贊同人工智能有很多積極的應(yīng)用。有關(guān)惡意使用問題的文獻(xiàn)中存在一個缺口”?!都~約時報》和Gizmodo也刊登了題為《人工智能的惡意使用:預(yù)測、預(yù)防和緩解》的報告。
6. 人工智能會把我們變成家貓
接下來是奴役論。以特斯拉和SpaceX聞名遐邇的企業(yè)家埃隆馬斯克(Elon Musk)警告說,人類冒著這樣的風(fēng)險——變成依賴成性的“家貓”——受具有卓越智能和功能的人工智能奴役。最近,以色列歷史學(xué)家Yuval Noah Harari認(rèn)為,一切自動化的人工智能的出現(xiàn)可能會造成一個“全球無用階級”。在這樣的世界里,民主會受到威脅,因?yàn)槿祟惒幌駲C(jī)器那樣了解自己。
IT,頑強(qiáng)的IT
Davenport說,一般來說,這些擔(dān)憂在很大程度上被夸大了。例如,他說偏差也長期存在于正常分析項(xiàng)目的范圍內(nèi)。Davenport說:“就我所知,從事過分析工作的人都不會否認(rèn)偏差的存在。Davenport最近寫了一本新書——《人工智能優(yōu)勢,關(guān)于大型企業(yè)采用人工智能的所有事情》,他說,幾家大公司正在認(rèn)真地測試人工智能。
Davenport說:“如今我們看到很多企業(yè)應(yīng)用程序,而且我還沒有聽到有人說我們將停止IT計劃”,他補(bǔ)充說,這項(xiàng)技術(shù)仍然不成熟。“明智的公司還在繼續(xù)努力研究這些東西,并且盡力免受媒體搬弄是非的威懾。”
事實(shí)上,Gartner的統(tǒng)計指出,IT領(lǐng)導(dǎo)者似乎基本上不受炒作的困擾,因?yàn)槌^85%的首席信息官將在2020年通過購買,構(gòu)建和外包的方式對人工智能計劃進(jìn)行試點(diǎn)。雖然Gartner建議首席信息官們在這些領(lǐng)域建立智能的虛擬支持功能——在這些領(lǐng)域里,客戶和公民希望通過基于人工智能的助手進(jìn)行調(diào)解,但他們還必須與業(yè)務(wù)伙伴攜手構(gòu)建數(shù)字化道德戰(zhàn)略。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。