不久之后,人工智能就能決定你的去留了。據(jù)《華爾街日報》,越來越多的雇主選擇AI來決定員工的去留問題,以及判斷員工對老板的感覺。建達國際(Xander)是最青睞AI軟件的公司之一,能憑借AI判斷員工情緒是樂觀、困惑還是憤怒。建達國際使用SPS(字符串處理系統(tǒng))有效地分析并分類雇員在一項保密調(diào)查中的情況。SPS能夠使用AI分析過的調(diào)查結(jié)果,在員工覺得當前工作太亂太多時,提升其保健方案。
據(jù)《華爾街日報》預計,使用AI處理類似程序的全球雇主超過40%。與此同時,有監(jiān)管者對在HR領域使用AI表示憂慮。專家與勞務律師擔憂AI可能含有偏見,并引起職場歧視。AI使用的算法多次展現(xiàn)出易受種族偏見影響的特性。也有員工并不愿意被AI追蹤。而且AI還不能區(qū)別所有人類情緒,比如沮喪和諷刺。
負責雇傭的算法可能更傾向于淘汰殘疾人,并反對雇傭他們。現(xiàn)在AI與人類智慧還差的很遠,近幾年來技術(shù)還會繼續(xù)發(fā)展。例如,谷歌旗下研究公司DeepMind建立了一家新的人工智能公司,研究如何理解其它AI的“想法”。這款軟件能夠預測其它AI會做什么,甚至能夠弄清楚它們是否對周圍的世界有“誤解”。
DeepMind報告說,上述這款AI能通過一項重要的心理測試,大部分的孩子4歲時才能完成這項測試。它在“思維理論”測試方面表現(xiàn)很好,這可能會讓機器人的思維方式更像人類。大部分人類通常會考慮其他人的想法,其他群居動物如黑猩猩與猩猩也表現(xiàn)出了這一抽象技能。“思維理論”是我們?nèi)祟悘碗s社會互動的關鍵,也是AI模仿人類的必經(jīng)之路。