該小組成員包括智庫,未來社會的聯(lián)合創(chuàng)始人兼副總裁Simon Mueller; Cansu Canca,AI道德實驗室的創(chuàng)始人兼董事; Gabriele Fariello,哈佛大學機器學習講師,神經信息學研究員,羅德島大學首席信息官; 和Kathy Pham,谷歌,IBM和美國數(shù)字服務的校友,目前正在哈佛伯克曼克萊因中心和麻省理工學院媒體實驗室的人工智能和軟件工程研究倫理學。
穆勒以一個棘手的問題開始討論:道德是否是人工智能進步最緊迫的問題?
“它始終是'工程優(yōu)先,首先解決技術問題'的態(tài)度[涉及到AI],”Pham說。“有很多專家一直在考慮這個問題,[但]這些聲音需要被認為與房間里的工程師一樣有價值。”
Canca同意,產品線索和設計師之間不會經常討論道德規(guī)范。“[工程師]應該從一開始就考慮人工智能,直到他們將產品商業(yè)化,”她說。“似乎[政策]通常與開發(fā)人員分開,并與討論分開。”
Fariello回應了Pham的觀點,并補充說,人工智能中道德的不再強調會對全國人民的生活產生負面影響。“有一些重大問題,”他說。“在醫(yī)療保健,司法系統(tǒng)和其他直接影響你生活的方面,都有真正的決定。”
他最近以威斯康星州最高法院的判決為例。2017年5月,它 統(tǒng)治了威斯康星州的Eric Loomis,他被判處六年監(jiān)禁,部分原因是Northpointe的Compas軟件的建議,該軟件使用專有算法來預測被告犯下更多罪行的可能性。ProPublica 的一份報告發(fā)現(xiàn),與白人被告相比,Compas“更有可能以更高的再犯率判斷黑人被告”。
有偏見的算法不僅影響司法系統(tǒng)。Canca說,像谷歌新聞這樣的個性化,機器學習驅動的新聞提供 “分裂人”。“隨著信息的[多樣性]縮小,與世界的接觸變得與像你這樣的人或與你有共同觀點的人接觸。”
Fariello指出,像Facebook這樣的算法驅動型公司幾乎都被激勵,以通過積極的反饋循環(huán)來展示“確認[用戶]信念”的內容。“我們變得兩極分化,我們看不到其他觀點。”
他說,政策制定者的無知正在助長這個問題。“這是我們有責任,當我們不投票,并聯(lián)系我們的代表,如果他們沒有在這個精通,他們與別人誰協(xié)商 是精通于此。”
Canca同意了。“我們需要在政策層面采取積極主動的做法,”她說。“大多數(shù)時候,[政府]正在追趕......通常,該政策遵循技術[部門]正在發(fā)生的事情。”
盡管存在與人工智能及其繆斯相關的問題,但小組成員對人工智能人工智能問題達成了一致意見:三者都表示人工智能開發(fā)工具和圖書館應該公開提供并開源。“讓我們打開它,讓人們使用它,”Canca說。“這是方向。”
Fariello說,工具本身不是問題。相反,它是保密和缺乏透明度。“大型神經網絡本身就是黑盒子,”他說。“如果我們在黑匣子周圍添加鎖,我們就會遇到大麻煩。