【假人工智能】你以為的AI技術(shù),其實(shí)是人偽裝的!

責(zé)任編輯:zsheng

2018-07-08 09:00:14

摘自:新智元

7月4日百度的AI開發(fā)者大會(huì)上放了一段AI打電話的視頻,一些用戶一開始并沒有察覺,但有的用戶還是很快發(fā)現(xiàn)了對(duì)方是機(jī)器人。AI已經(jīng)越來越可以像人類一樣工作。

7月4日百度的AI開發(fā)者大會(huì)上放了一段AI打電話的視頻,一些用戶一開始并沒有察覺,但有的用戶還是很快發(fā)現(xiàn)了對(duì)方是機(jī)器人。AI已經(jīng)越來越可以像人類一樣工作。但是,你有沒有想過,也許你所使用的某些技術(shù),其實(shí)是人類在幕后操縱?據(jù)了解,一些公司利用被專家稱為“綠野仙蹤技術(shù)”,將對(duì)人類的依賴作為對(duì)投資者的秘密……

建立一個(gè)由人工智能驅(qū)動(dòng)的服務(wù)很難。所以事實(shí)上一些初創(chuàng)公司已經(jīng)研究出更便宜、更容易讓人類像機(jī)器人一樣行動(dòng),而不是讓機(jī)器像人類一樣行事。

“用人來完成這項(xiàng)工作可以讓您跳過大量的技術(shù)和業(yè)務(wù)開發(fā)挑戰(zhàn)。顯然,它不會(huì)擴(kuò)展,但它允許你在早期構(gòu)建一些東西并跳過困難部分,”ReadMe的首席執(zhí)行官Gregory Koberger說,他說他就遇到了很多“偽AI”,“這基本上是人與人工智能的原型。”

 

 

一些公司使用人來訓(xùn)練AI系統(tǒng);其他人在聲稱擁有可擴(kuò)展的AI技術(shù)時(shí)暗中依賴他們。

什么?讓人偽裝聊天機(jī)器人?

用偽人工智能這一做法出現(xiàn)在本周華爾街日?qǐng)?bào)靠前的一篇文章中,文章強(qiáng)調(diào)Google允許數(shù)百名第三方應(yīng)用開發(fā)者訪問人們的收件箱。

在總部位于圣何塞的公司Edison Software,他們的人工智能工程師瀏覽了數(shù)百名用戶的個(gè)人電子郵件 -以用戶的身份認(rèn)證 - 來改進(jìn)“智能回復(fù)”功能。該公司沒有提及在其隱私政策中人們可以查看用戶的電子郵件。

“華爾街日?qǐng)?bào)”文章中強(qiáng)調(diào)的第三方遠(yuǎn)非第一批做到這一點(diǎn)的。早在2008年,一家將語音郵件轉(zhuǎn)換為短信的公司Spinvox被指控他們用人工在海外呼叫中心完成工作而不是機(jī)器。

2016年,彭博社強(qiáng)調(diào)了人們每天花12小時(shí)假裝為聊天機(jī)器人做日歷安排服務(wù)(如X.ai和Clara)的困境。這項(xiàng)工作讓人頭腦麻木,雇員表示他們期待被機(jī)器人取代。

 

 

2017年,企業(yè)費(fèi)用管理應(yīng)用程序Expensify承認(rèn),它一直使用人工來轉(zhuǎn)錄一些收據(jù),并聲稱是“智能掃描技術(shù)”處理的。具體的做法是:收據(jù)的掃描件被發(fā)布到亞馬遜的Mechanical Turk眾包勞動(dòng)工具上,由低薪工人來閱讀和轉(zhuǎn)錄。

“我想知道Expensify SmartScan用戶是否知道Mechanical Turk工作人員會(huì)收到他們的收據(jù),”推特上一位“Turker”和零工經(jīng)濟(jì)工作者倡導(dǎo)者Rochelle LaPlante說道,“我正在看某個(gè)人的優(yōu)步全名收據(jù),還有接送他的地點(diǎn)。”

即使是在人工智能上投入巨資的Facebook也依賴人類作為其Messenger M 的虛擬助手。

該不該利用人力偽裝人工智能呢?

在某些情況下,人類習(xí)慣于訓(xùn)練AI系統(tǒng)并提高其準(zhǔn)確性。一家名為Scale的公司提供很多人力工作者為自動(dòng)駕駛汽車和其他人工智能系統(tǒng)提供訓(xùn)練數(shù)據(jù)。比如,“定標(biāo)器”會(huì)查看相機(jī)或傳感器反饋,然后在框架中標(biāo)記汽車,行人和騎車人。通過足夠的人工校準(zhǔn),AI能夠?qū)W習(xí)識(shí)別這些物體本身。

在其他情況下,公司會(huì)一直靠偽人工智能直到真的實(shí)現(xiàn)。他們告訴投資者和用戶他們已經(jīng)開發(fā)了可擴(kuò)展的AI技術(shù),然后同時(shí)秘密地依賴人類智能。

心理學(xué)家、心理健康支持聊天機(jī)器人Woebot創(chuàng)始人艾莉森·達(dá)西(Alison Darcy)將此描述為“綠野仙蹤設(shè)計(jì)技術(shù)”。

“你可以模擬某種東西的終極體驗(yàn)。在人工智能領(lǐng)域,很多時(shí)候是幕后有人而不是算法,”她說,還補(bǔ)充說建立一個(gè)良好的人工智能系統(tǒng)需要“非常巨大的數(shù)據(jù)”,有時(shí)設(shè)計(jì)師想知道投資之前是否有足夠的服務(wù)需求。

她說,這種方法不適合像Woebot這樣的心理支持服務(wù)。

“作為心理學(xué)家,我們遵循道德準(zhǔn)則。不欺騙人是非常明顯的道德原則之一。“

研究表明,當(dāng)人們認(rèn)為他們正在與一臺(tái)機(jī)器而不是一個(gè)人交談時(shí),他們傾向于透露更多信息,因?yàn)闉樽约簩で笮睦斫】祹椭且环N恥辱。

來自南加州大學(xué)的一個(gè)團(tuán)隊(duì)用名為Ellie的虛擬治療師對(duì)此進(jìn)行了測(cè)試。他們發(fā)現(xiàn),患有創(chuàng)傷后應(yīng)激障礙的退伍軍人更有可能在他們知道艾莉是一個(gè)人工智能系統(tǒng)而不是被告知有人在操作機(jī)器時(shí)泄露他們的癥狀。

其他人則認(rèn)為公司應(yīng)始終對(duì)其服務(wù)運(yùn)營(yíng)方式保持透明。

“我不喜歡那樣,”對(duì)于那些假裝提供人工智能服務(wù)但實(shí)際雇用人力的公司,LaPlante如是說, “這對(duì)我來說感覺不誠(chéng)實(shí)和被欺騙,這些都不是我想從我正在使用的業(yè)務(wù)中得到的東西。

“而在工人方面,感覺我們被推到了幕后。我不喜歡我的勞動(dòng)力被一家公司利用,他們會(huì)轉(zhuǎn)而向客戶撒謊到底發(fā)生了什么。”

這種道德上的窘境也引發(fā)了人為的AI系統(tǒng)。最近的一個(gè)例子是Google Duplex,這是一個(gè)機(jī)器人助手,可以通過“ums”和“ers”完成令人毛骨悚然的逼真電話,預(yù)約約會(huì)和完成一些預(yù)訂任務(wù)。

在最初強(qiáng)烈反對(duì)之后,谷歌表示其人工智能會(huì)向與之對(duì)話的人表明身份。

“在他們的演示版本中,在低影響力的對(duì)話中感覺有點(diǎn)欺騙性,”達(dá)西說。雖然在餐廳預(yù)訂餐桌可能看起來像是一個(gè)低風(fēng)險(xiǎn)的互動(dòng),但同樣的技術(shù)在錯(cuò)誤的手上可能更具操控性。

例如,如果你可以制作模擬名人或政治家聲音的逼真電話,會(huì)發(fā)生什么?

達(dá)西說:“人工智能已經(jīng)存在很大的恐懼,而且當(dāng)缺乏透明度時(shí),它并沒有真正幫助對(duì)話。”

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)