AI軟件輔助HR決定去留,你到底服不服?

責任編輯:zsheng

2018-04-05 18:29:35

摘自:環(huán)球網(wǎng)

據(jù)英國《每日郵報》近日報道,與過去公司使用技術(shù)來提升雇員工作效率相比,如今更多的公司依靠人工智能來決定雇員去留及補償金問題,也能掌握雇員身體狀況。然而有評論認為,使用AI輔助HR會產(chǎn)生有害的偏見。

據(jù)英國《每日郵報》近日報道,與過去公司使用技術(shù)來提升雇員工作效率相比,如今更多的公司依靠人工智能來決定雇員去留及補償金問題,也能掌握雇員身體狀況。然而有評論認為,使用AI輔助HR會產(chǎn)生有害的偏見。

不久之后,人工智能就能決定你的去留了。據(jù)《華爾街日報》,越來越多的雇主選擇AI來決定員工的去留問題,以及判斷員工對老板的感覺。建達國際(Xander)是最青睞AI軟件的公司之一,能憑借AI判斷員工情緒是樂觀、困惑還是憤怒。建達國際使用SPS(字符串處理系統(tǒng))有效地分析并分類雇員在一項保密調(diào)查中的情況。SPS能夠使用AI分析過的調(diào)查結(jié)果,在員工覺得當前工作太亂太多時,提升其保健方案。

據(jù)《華爾街日報》預計,使用AI處理類似程序的全球雇主超過40%。與此同時,有監(jiān)管者對在HR領域使用AI表示憂慮。專家與勞務律師擔憂AI可能含有偏見,并引起職場歧視。AI使用的算法多次展現(xiàn)出易受種族偏見影響的特性。也有員工并不愿意被AI追蹤。而且AI還不能區(qū)別所有人類情緒,比如沮喪和諷刺。

負責雇傭的算法可能更傾向于淘汰殘疾人,并反對雇傭他們。現(xiàn)在AI與人類智慧還差的很遠,近幾年來技術(shù)還會繼續(xù)發(fā)展。例如,谷歌旗下研究公司DeepMind建立了一家新的人工智能公司,研究如何理解其它AI的“想法”。這款軟件能夠預測其它AI會做什么,甚至能夠弄清楚它們是否對周圍的世界有“誤解”。

DeepMind報告說,上述這款AI能通過一項重要的心理測試,大部分的孩子4歲時才能完成這項測試。它在“思維理論”測試方面表現(xiàn)很好,這可能會讓機器人的思維方式更像人類。大部分人類通常會考慮其他人的想法,其他群居動物如黑猩猩與猩猩也表現(xiàn)出了這一抽象技能。“思維理論”是我們?nèi)祟悘碗s社會互動的關鍵,也是AI模仿人類的必經(jīng)之路。

鏈接已復制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號