美國監(jiān)禁的人數超過世界上任何其他國家。截至2016年底,有近220萬成年人被關押在監(jiān)獄中,還有450萬人在其他懲教設施中。換句話說,每38名成年美國人中就有1人受到某種形式的懲教監(jiān)督。
在不增加犯罪風險且減少監(jiān)獄數量的巨大壓力下,美國各地的法庭已經求助于自動化工具。警察部門使用預測算法來制定策略,執(zhí)法機構使用人臉識別系統(tǒng)來識別嫌疑人。這些做法經受了各種審查,以確定它們是否真正提高了安全性,還是只是使現(xiàn)有的不公平現(xiàn)象長期存在。例如,研究人員和民權倡導者一再證明,人臉識別系統(tǒng)可能會失敗,特別是對于皮膚黝黑的人,該系統(tǒng)甚至曾將國會議員誤認為是罪犯。
但迄今為止最具爭議的工具是在警方逮捕嫌疑人之后使用的犯罪風險評估算法。
風險評估工具旨在做一件事:收集被告的詳細信息并給出一個累犯分數,一個表示他或她再次犯罪可能性的數字。然后,法官將這個分數用于各項考量之中,包括決定被告應該接受哪種類型的判決、是否應該在審判前將他們關在監(jiān)獄中以及對他們進行什么程度的判決等。
使用這種算法工具的邏輯是,如果你能準確預測犯罪行為,就可以相應地分配資源,無論是恢復還是監(jiān)禁。理論上,它還減少了一定的偏見,因為法官根據數據做出決策而不是他們的直覺。
但現(xiàn)代風險評估工具通常使用的都是歷史犯罪數據。機器學習算法使用統(tǒng)計數據來查找數據中的模式。因此,如果你提供歷史犯罪數據,它將挑選出與犯罪相關的模式。但這些模式是統(tǒng)計相關性而非因果關系。例如,如果算法發(fā)現(xiàn)低收入與高累犯相關,那么在低收入是否真的是導致犯罪的原因,這一點人工智能無法進行分析。
現(xiàn)在,一直被執(zhí)法人員定位成高累犯風險的人群中包括低收入和少數族裔群體,由此可見,該算法有可能會產生偏見,并生成更多受偏見污染的數據,從而導致惡性循環(huán)。
關于這些工具的爭論仍在繼續(xù)。去年7月,包括ACLU和NAACP在內的100多個民權和社區(qū)組織簽署了一份聲明,希望不要使用風險評估。但與此同時,越來越多的司法管轄區(qū)和州由于監(jiān)獄負擔過重,已經開始求助于這些工具。