隨著算法決策擴展到更廣泛的政策制定領域,它正在摒棄曾經(jīng)潛伏在我們收集的數(shù)據(jù)陰影中的社會偏見。通過將現(xiàn)有結構和流程納入其邏輯極端,人工智能迫使我們面對我們創(chuàng)造的社會。
正如我的劍橋大學同事Jonnie Penn所說,問題不僅在于計算機的設計與公司一樣。計算機也像經(jīng)濟學家一樣思考。
畢竟,人工智能與人們可以想象的同質(zhì)經(jīng)濟一樣絕對可靠。它是一種合理計算,邏輯一致的,面向終端的代理,能夠利用有限的計算資源實現(xiàn)其期望的結果。當談到“最大化效用”時,它們比任何人都更有效。
“效用”對于經(jīng)濟學而言,“燃素”曾經(jīng)是化學的。早期的化學家假設可燃物質(zhì)含有一種隱藏的元素 - 燃素 - 這可以解釋為什么物質(zhì)在燃燒時會發(fā)生變化。
然而,盡可能地嘗試,科學家們永遠無法證實這一假設。由于經(jīng)濟學家今天無法提供一定的實際效用,他們無法追蹤燃素。
經(jīng)濟學家使用效用概念來解釋人們做出選擇的原因 - 購買什么,投資地點,工作難度:每個人都在努力根據(jù)個人對世界的偏好和信念,在極限范圍內(nèi)最大化效用由稀缺的收入或資源構成。盡管不存在,但實用程序是一種強大的構造。似乎很自然地認為每個人都在盡力為自己做好準備。
此外,經(jīng)濟學家的實用概念源于古典功利主義,旨在為最多的人獲得最大的利益。就像現(xiàn)代經(jīng)濟學家追隨John Stuart Mill的腳步一樣,大多數(shù)設計算法都是功利主義者,他們相信如果知道“好”,那么它就可以最大化。
但是,這種假設會產(chǎn)生令人不安的結果。例如,考慮如何使用算法來決定囚犯是否應該假釋。2017年的一項研究發(fā)現(xiàn),算法在預測累犯率方面遠遠超過人類,并可用于將“監(jiān)禁率”降低40%以上,“不增加犯罪率”。
那么,在美國,可以使用人工智能來減少不成比例的黑人監(jiān)獄人口。但是,當人工智能接管假釋過程并且非洲裔美國人仍被判入獄的速度高于白人時,會發(fā)生什么?
高效的算法決策使這些問題脫穎而出,迫使我們確切地確定哪些結果應該最大化。我們只想減少整體監(jiān)獄人口,還是應該關注公平?
雖然政治允許捏造和妥協(xié)來掩蓋這種權衡,但計算機代碼需要明確。
對清晰度的要求使得忽視社會不公平的結構性來源變得更加困難。在人工智能時代,算法將迫使我們通過使用數(shù)據(jù)來識別過去社會和政治沖突的結果如何延續(xù)到現(xiàn)在。
感謝人工智能道德倡議和人工智能合作伙伴等團體,人們已開始就人工智能倫理問題開展更廣泛的辯論。然而,人工智能算法當然只是做他們編碼的事情。真正的問題不僅限于在公司治理和政治治理中使用算法決策,還要抨擊我們社會的道德基礎。
雖然我們當然需要討論通過人工智能最大化“效用”的實際和哲學權衡,但我們還需要進行自我反思。算法提出了迄今為止我們?nèi)绾谓M織社會,政治和經(jīng)濟關系的基本問題。