對(duì)此,近日以馬斯克和DeepMind的三位聯(lián)合創(chuàng)始人為首的科技界高層組成的聯(lián)盟近期簽署了一份承諾書(shū),內(nèi)容是他們所屬的公司在未來(lái)將不會(huì)研發(fā)擁有AI的智能武器。
簽署者主要擔(dān)心若開(kāi)發(fā)致命型的殺人武器,會(huì)對(duì)人類產(chǎn)生威脅,因此互相共同承諾既不參與創(chuàng)造,也不支持致命性自主武器技術(shù)的開(kāi)發(fā)。
承諾中警告:在人類使用人工智能武器“選擇和接觸”目標(biāo)時(shí),如果決定射擊目標(biāo)前沒(méi)有人為干預(yù),那么最終結(jié)果將會(huì)導(dǎo)致道德淪喪,更嚴(yán)重的結(jié)果將會(huì)對(duì)現(xiàn)實(shí)生活產(chǎn)生危害。簽署此次承諾書(shū)的人表示,“從道義上講,不應(yīng)該把結(jié)束人類生命的決定委托給機(jī)器。而實(shí)際來(lái)看,如果此類武器在未來(lái)得到擴(kuò)散,那么最終的結(jié)果將危及每個(gè)國(guó)家甚至牽連到每個(gè)人的生命安全”。
這一承諾也直接表現(xiàn)出業(yè)界對(duì)于AI的討論,高科技公司的管理層已經(jīng)從單純的聊天轉(zhuǎn)向用實(shí)際行動(dòng)來(lái)證明他們的承諾。
據(jù)悉,這次簽署者包括 160 家與 AI 相關(guān)的公司和組織,以及超過(guò)2400名專家。其中包括Google DeepMind、ClearPath Robotics,歐洲人工智能協(xié)會(huì)、XPRIZE 基金會(huì)、硅谷機(jī)器人,倫敦大學(xué)學(xué)院以及特斯拉特斯拉總裁馬斯克(馬斯克),以及 Google Research 的 Jeffrey Dean 和英國(guó)議會(huì)成員Alex Sobel等人。
專家小組反對(duì)無(wú)需人類操控就可以自主識(shí)別、瞄準(zhǔn)和殺人的武器化AI系統(tǒng)。但是不包括像是軍用無(wú)人機(jī)這樣的東西,因?yàn)檫@類武器可以透過(guò)人類飛行員來(lái)進(jìn)行遠(yuǎn)程便是與操作,選擇殺死目標(biāo)。主要認(rèn)為人命不應(yīng)該交由機(jī)器決定,同時(shí)呼吁各國(guó)政府和領(lǐng)導(dǎo)人,應(yīng)建立國(guó)際法規(guī)予以控管。
麻省理工學(xué)院物理學(xué)教授泰格馬克在一份聲明中表示,人工智能領(lǐng)導(dǎo)人從簡(jiǎn)單的交流變成了真實(shí)的行動(dòng),這一承諾實(shí)現(xiàn)了政客們從來(lái)沒(méi)有做過(guò)的事,那就是承諾人工智能應(yīng)用到軍事設(shè)備時(shí)將會(huì)受到嚴(yán)格的限制。泰格馬克還說(shuō):“AI武器就像生化武器一樣令人厭惡和讓人感到不安,AI武器應(yīng)該像對(duì)待生化武器一樣處理。”
軍事分析家保羅曾經(jīng)寫(xiě)了一本關(guān)于未來(lái)戰(zhàn)爭(zhēng)和人工智能的書(shū),他在今年告訴媒體:“現(xiàn)在已經(jīng)沒(méi)有了足夠的‘能力’來(lái)推動(dòng)國(guó)際間的自動(dòng)化武器管制。因?yàn)闆](méi)有任何一個(gè)西方國(guó)家的核心集團(tuán)愿意參與進(jìn)來(lái),然而這個(gè)團(tuán)體卻非常重要。曾經(jīng)的武器禁令是由加拿大和挪威等國(guó)家主導(dǎo)的,然而影響力卻微乎其微。
外媒Task&Purpose日前刊文,稱人工智能武器將對(duì)美國(guó)軍方正在實(shí)施的第三次抵消戰(zhàn)略至關(guān)重要。機(jī)器學(xué)習(xí)、人機(jī)協(xié)作、以及無(wú)人機(jī)群都是可能會(huì)破壞國(guó)家之間的平衡的潛在系統(tǒng),一些戰(zhàn)術(shù)已經(jīng)在戰(zhàn)場(chǎng)上被使用了。例如,俄羅斯聲稱無(wú)人機(jī)群襲擊了其在敘利亞的一個(gè)基地。
在戰(zhàn)場(chǎng)上早期采用類似于AI的策略,投入此類技術(shù)的國(guó)家數(shù)量之多,以及展示其潛力的現(xiàn)有武器系統(tǒng),所有這些似乎都表明人工智能武器將是非常有效的戰(zhàn)爭(zhēng)工具。因此,雖然人們應(yīng)該對(duì)工具的倫理和限制進(jìn)行有力的討論,但不圍繞工具的使用制定出一個(gè)強(qiáng)制的禁忌或許還有一定的難度。