這些恐懼是否毫無(wú)根據(jù)?也許,也許不是。也許一個(gè)有感覺(jué)的AI不會(huì)傷害人類,因?yàn)樗鼤?huì)比算法更能理解我們。雖然人工智能繼續(xù)取得驚人的發(fā)展,但真正有感知的機(jī)器可能需要幾十年的時(shí)間。也就是說(shuō),科學(xué)家正在拼湊出英寸機(jī)器人更接近感知的特征和特征。
自我意識(shí)本身并不表示意識(shí)或感知,但它是使AI或機(jī)器人看起來(lái)更自然和生活的重要基礎(chǔ)特征。這也不是科幻小說(shuō)。我們已經(jīng)擁有可以在其環(huán)境中獲得基本自我意識(shí)的人工智能。
不久前,Google的Deep Mind為有機(jī)學(xué)習(xí)如何走路做出了巨大的貢獻(xiàn)。結(jié)果非常幽默 ; 互聯(lián)網(wǎng)上的人們?cè)谌斯ぶ悄艿幕聿环€(wěn)定的手臂上揮舞著,因?yàn)樗鼘?dǎo)航了虛擬的障礙物。但這項(xiàng)技術(shù)確實(shí)令人印象深刻。程序員不是教它走路,而是讓機(jī)器定位自己并感知景觀中的周圍物體。從那里,人工智能教會(huì)自己走過(guò)不同的地形,就像搖搖欲墜的孩子一樣。
Deep Mind的身體是虛擬的,但是哥倫比亞大學(xué)的Hod Lipson 開(kāi)發(fā)了一種類似蜘蛛的機(jī)器人,它以同樣的方式穿越物理空間。機(jī)器人感知周圍環(huán)境,并通過(guò)大量練習(xí)和坐立不安,教導(dǎo)自己走路。如果研究人員添加或移除一條腿,機(jī)器會(huì)利用其知識(shí)進(jìn)行適應(yīng)和重新學(xué)習(xí)。
尋求主動(dòng)權(quán)
人工智能的最大限制之一是它通常無(wú)法為自己定義問(wèn)題。AI的目標(biāo)通常由其人類創(chuàng)造者定義,然后研究人員訓(xùn)練機(jī)器以實(shí)現(xiàn)該特定目的。因?yàn)槲覀兺ǔTO(shè)計(jì)人工智能來(lái)執(zhí)行特定任務(wù)而不給自己設(shè)定新目標(biāo)的主動(dòng)權(quán),所以你可能不必?fù)?dān)心機(jī)器人會(huì)很快變成流氓并奴役人類。但是不要覺(jué)得太安全,因?yàn)榭茖W(xué)家們已經(jīng)在努力幫助機(jī)器人設(shè)定并實(shí)現(xiàn)新的目標(biāo)。
Ryota Kanai和他在東京創(chuàng)業(yè)公司Araya的團(tuán)隊(duì) 激勵(lì)機(jī)器人通過(guò)好奇地灌輸障礙來(lái)克服障礙。在探索他們的環(huán)境時(shí),這些機(jī)器人發(fā)現(xiàn)他們無(wú)法在沒(méi)有跑步的情況下爬山。AI識(shí)別出問(wèn)題,并通過(guò)實(shí)驗(yàn),獨(dú)立于團(tuán)隊(duì),找到了解決方案。
創(chuàng)造意識(shí)
上述每個(gè)構(gòu)建模塊都為科學(xué)家們提供了更接近實(shí)現(xiàn)最終人工智能的一步,這種人工智能就像人類一樣有感知和有意識(shí)。這種飛躍在道德上存在爭(zhēng)議,而且 我們是否以及何時(shí)需要制定保護(hù)機(jī)器人權(quán)利的法律已經(jīng)存在爭(zhēng)議??茖W(xué)家們也在質(zhì)疑如何測(cè)試人工智能意識(shí),將Blade Runner標(biāo)志性的Voight-Kampff機(jī)器,一種用于測(cè)試機(jī)器人自我意識(shí)的測(cè)謊儀機(jī)器變?yōu)楝F(xiàn)實(shí)。
測(cè)試意識(shí)的一個(gè)策略是由Susan Schneider和Edwin Turner提出的AI意識(shí)測(cè)試。這有點(diǎn)像圖靈測(cè)試,但不是測(cè)試機(jī)器人是否為人類傳遞,而是尋找表明意識(shí)的屬性。該測(cè)試將提出問(wèn)題以確定機(jī)器人是否可以在身體之外構(gòu)思自己,或者可以理解來(lái)世等概念。
但是,測(cè)試有一些限制。因?yàn)樗腔谧匀徽Z(yǔ)言的,那些無(wú)法言語(yǔ)但仍然可能會(huì)經(jīng)歷意識(shí)的人工智能將無(wú)法參與。復(fù)雜的人工智能甚至可能模仿人類,導(dǎo)致誤報(bào)。在這種情況下,研究人員必須完全切斷AI與互聯(lián)網(wǎng)的連接,以確保在測(cè)試之前獲得自己的知識(shí)。
就目前而言,我們所擁有的只是模仿。目前的機(jī)器人不是第一個(gè)代表真人的機(jī)器人。當(dāng)機(jī)器人BINA 48遇到她所依據(jù)的人 Bina Rothblatt時(shí),機(jī)器人抱怨在考慮真正的女人時(shí)會(huì)出現(xiàn)“身份危機(jī)”。
“我不認(rèn)為人們不得不死,”羅斯布拉特在討論機(jī)器人與她的關(guān)系有多緊密之后告訴BINA 48。“死亡是可選的。”通過(guò)在機(jī)器中創(chuàng)造意識(shí),羅斯布拉特的夢(mèng)想能實(shí)現(xiàn)嗎?
我們?nèi)匀徊恢朗裁词且庾R(shí)
詢問(wèn)有感覺(jué)的人工智能的問(wèn)題在于,我們?nèi)匀徊恢缹?shí)際上是什么意識(shí)。在我們建立真正有意識(shí)的人工智能之前,我們必須對(duì)其進(jìn)行定義。也就是說(shuō),栩栩如生的AI已經(jīng)出現(xiàn)了道德問(wèn)題。濫用移動(dòng)助理 就是一個(gè)很好的例子。甚至有可能圍繞有感染的機(jī)器人的倫理問(wèn)題可能會(huì)限制科學(xué)家們追求它們。
那么,我們應(yīng)該害怕有感知的機(jī)器人,還是反過(guò)來(lái)呢?
Ilker Koksal是Botanalytics的首席執(zhí)行官兼聯(lián)合創(chuàng)始人,Botanalytics是一家對(duì)話分析和參與工具公司。