CIO建立人工智能團(tuán)隊的關(guān)鍵要素

責(zé)任編輯:cres

2018-04-10 11:22:06

摘自:比特CIO俱樂部

希望利用人工智能優(yōu)勢的企業(yè)CIO往往會遇到大量錯綜復(fù)雜的技術(shù)問題,但這只是一個開端。最近在舊金山舉行的ReWork深度學(xué)習(xí)峰會上,行業(yè)專家表示,企業(yè)還需要考慮如何確保他們的人工智能團(tuán)隊能夠交付業(yè)務(wù)成果。

一流的招聘人員,相互信任的組織結(jié)構(gòu),重視道德規(guī)范是確保人工智能團(tuán)隊成功的關(guān)鍵。
 
希望利用人工智能優(yōu)勢的企業(yè)CIO往往會遇到大量錯綜復(fù)雜的技術(shù)問題,但這只是一個開端。最近在舊金山舉行的ReWork深度學(xué)習(xí)峰會上,行業(yè)專家表示,企業(yè)還需要考慮如何確保他們的人工智能團(tuán)隊能夠交付業(yè)務(wù)成果。
 
全球家譜服務(wù)提供商Ancestry.com公司前首席數(shù)據(jù)官Amy Gershkoff表示:“人工智能不僅僅是一個數(shù)據(jù)科學(xué)問題,而且還是一個商業(yè)問題。”
 
人工智能專家表示,企業(yè)在建立人工智能團(tuán)隊時,需要特別關(guān)注兩個領(lǐng)域。首先是建立一個組織結(jié)構(gòu),在整個企業(yè)中產(chǎn)生對人工智能的信任,并且不會違反監(jiān)管要求。第二,企業(yè)建立團(tuán)隊的先決條件是擁有知識淵博的一流的人工智能招聘人員。
 
組織調(diào)整
 
在Gershkoff看來,構(gòu)建人工智能組織結(jié)構(gòu)的關(guān)鍵的第一步是將數(shù)據(jù)科學(xué)家部署在適合的部門中。
 
Ancestry.com公司前首席數(shù)據(jù)官
 
Amy Gershkoff
 
如果人工智能團(tuán)隊的目標(biāo)是增加收入,則不能與企業(yè)削減成本的目標(biāo)相沖突。將數(shù)據(jù)科學(xué)家部署在產(chǎn)品管理團(tuán)隊或營銷團(tuán)隊中可能更有意義,因為收入增長對于團(tuán)隊來說是一個具有更高優(yōu)先級的目標(biāo)。企業(yè)需要將數(shù)據(jù)科學(xué)家部署在最有效的地方。
 
一些組織開始采用混合模式,將數(shù)據(jù)科學(xué)家分配到不同的部門。他們被分配到營銷、產(chǎn)品工程、金融等多個部門。然后整個企業(yè)的人工智能團(tuán)隊成員向首席數(shù)據(jù)官以及部門經(jīng)理報告。這可以幫助數(shù)據(jù)科學(xué)家的目標(biāo)與每個部門保持一致。Gershkoff說,“這么做的缺點是他們可能覺得自己需要向兩個管理者負(fù)責(zé)”。
 
選擇知識淵博的招聘人員
 
Ancestry.com首席數(shù)據(jù)官Amy表示,對于組織在人才方面進(jìn)行競爭,他們需要招聘人員以數(shù)據(jù)科學(xué)家的語言進(jìn)行溝通。擁有優(yōu)秀的招聘人員往往是許多企業(yè)對于開展人工智能工作的事后考慮事項。因此,有些面試過程并不嚴(yán)格,企業(yè)對數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)專家的需求對于潛在的新員工來說似乎并不具有太大的吸引力。
 
精明的人工智能應(yīng)聘者將會詢問企業(yè)的基礎(chǔ)設(shè)施、技術(shù)堆棧和他們將要處理的問題類型。如果招聘人員不知道答案,就很難找到最好的人才。
 
企業(yè)的基礎(chǔ)設(shè)施需要準(zhǔn)備到位
 
新的數(shù)據(jù)科學(xué)家也將期待基礎(chǔ)數(shù)據(jù)科學(xué)基礎(chǔ)設(shè)施到位。企業(yè)首席信息官必須創(chuàng)建一個支持?jǐn)?shù)據(jù)倉庫和靈活的數(shù)據(jù)管理的方法體系。
 
Gershkoff
 
Ancestry.com公司前首席數(shù)據(jù)官
 
這是組織招聘機(jī)器學(xué)習(xí)專家之前需要提供的基礎(chǔ)和解決方案。
 
除此之外,首席信息官需要部署支持?jǐn)?shù)據(jù)治理、合規(guī)性、隱私、安全問題的技術(shù)。這將使數(shù)據(jù)科學(xué)家能夠在確??刂频轿坏耐瑫r,也能更出色地完成工作。
 
理解黑匣子
 
優(yōu)秀的人工智能策略也需要在更高的準(zhǔn)確性和透明度之間找到平衡點。人工智能系統(tǒng)的核心是可以自動執(zhí)行許多決策過程。但是人工智能算法往往是從復(fù)雜的機(jī)器學(xué)習(xí)規(guī)則演化而來的,人們通常難以理解。
 
即使這些算法提供的結(jié)果最終比人們得出的更準(zhǔn)確,如果其邏輯不透明的話,利益相關(guān)者也很難相信。將人工智能嵌入業(yè)務(wù)需要超越數(shù)據(jù)科學(xué)來建立信任。這種透明度對于解決新的監(jiān)管要求也很重要,例如歐盟的“通用數(shù)據(jù)保護(hù)條例”,該條例規(guī)定企業(yè)必須能夠提供有關(guān)人工智能決策所涉及的有意義的信息。
 
創(chuàng)建道德文化
 
一個正在采用機(jī)器學(xué)習(xí)技術(shù)解決商業(yè)問題的人工智能團(tuán)隊也可能面臨與企業(yè)道德文化背道而馳的決策。首席信息官需要與組織的利益相關(guān)者合作,仔細(xì)確定共同的價值觀,并創(chuàng)建一種道德文化。
 
埃森哲公司AI主管
 
Rumman
 
“精辟的格言不一定會使人工智能與企業(yè)目標(biāo)保持一致。但如果企業(yè)沒有任何流程的文化,就不太可能實施到位。”
 
例如,社交媒體企業(yè)或部門可能會確定社交活動的目標(biāo)。產(chǎn)品經(jīng)理可能會使用人工智能來加強(qiáng)社交活動。例如比較激進(jìn)的人經(jīng)常在網(wǎng)站上發(fā)帖。但是,企業(yè)如何對憤怒的交流進(jìn)行優(yōu)化,這是一個難題。
 
如果產(chǎn)品經(jīng)理專注于開發(fā)新產(chǎn)品,倫理道德可能是首先考慮的事情。但是,這可能會導(dǎo)致公司陷入困境。Chowdhury說:“良好的人工智能應(yīng)用是看不見的,但糟糕的人工智能卻是顯而易見的。人工智能的理念是,當(dāng)運(yùn)作良好時,人們不會注意到它。”

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號