建立一個(gè)由人工智能驅(qū)動(dòng)的服務(wù)很難。所以事實(shí)上一些初創(chuàng)公司已經(jīng)研究出更便宜、更容易讓人類像機(jī)器人一樣行動(dòng),而不是讓機(jī)器像人類一樣行事。
“用人來完成這項(xiàng)工作可以讓您跳過大量的技術(shù)和業(yè)務(wù)開發(fā)挑戰(zhàn)。顯然,它不會(huì)擴(kuò)展,但它允許你在早期構(gòu)建一些東西并跳過困難部分,”ReadMe的首席執(zhí)行官Gregory Koberger說,他說他就遇到了很多“偽AI”,“這基本上是人與人工智能的原型。”
一些公司使用人來訓(xùn)練AI系統(tǒng);其他人在聲稱擁有可擴(kuò)展的AI技術(shù)時(shí)暗中依賴他們。
什么?讓人偽裝聊天機(jī)器人?
用偽人工智能這一做法出現(xiàn)在本周華爾街日?qǐng)?bào)靠前的一篇文章中,文章強(qiáng)調(diào)Google允許數(shù)百名第三方應(yīng)用開發(fā)者訪問人們的收件箱。
在總部位于圣何塞的公司Edison Software,他們的人工智能工程師瀏覽了數(shù)百名用戶的個(gè)人電子郵件 -以用戶的身份認(rèn)證 - 來改進(jìn)“智能回復(fù)”功能。該公司沒有提及在其隱私政策中人們可以查看用戶的電子郵件。
“華爾街日?qǐng)?bào)”文章中強(qiáng)調(diào)的第三方遠(yuǎn)非第一批做到這一點(diǎn)的。早在2008年,一家將語音郵件轉(zhuǎn)換為短信的公司Spinvox被指控他們用人工在海外呼叫中心完成工作而不是機(jī)器。
2016年,彭博社強(qiáng)調(diào)了人們每天花12小時(shí)假裝為聊天機(jī)器人做日歷安排服務(wù)(如X.ai和Clara)的困境。這項(xiàng)工作讓人頭腦麻木,雇員表示他們期待被機(jī)器人取代。
2017年,企業(yè)費(fèi)用管理應(yīng)用程序Expensify承認(rèn),它一直使用人工來轉(zhuǎn)錄一些收據(jù),并聲稱是“智能掃描技術(shù)”處理的。具體的做法是:收據(jù)的掃描件被發(fā)布到亞馬遜的Mechanical Turk眾包勞動(dòng)工具上,由低薪工人來閱讀和轉(zhuǎn)錄。
“我想知道Expensify SmartScan用戶是否知道Mechanical Turk工作人員會(huì)收到他們的收據(jù),”推特上一位“Turker”和零工經(jīng)濟(jì)工作者倡導(dǎo)者Rochelle LaPlante說道,“我正在看某個(gè)人的優(yōu)步全名收據(jù),還有接送他的地點(diǎn)。”
即使是在人工智能上投入巨資的Facebook也依賴人類作為其Messenger M 的虛擬助手。
該不該利用人力偽裝人工智能呢?
在某些情況下,人類習(xí)慣于訓(xùn)練AI系統(tǒng)并提高其準(zhǔn)確性。一家名為Scale的公司提供很多人力工作者為自動(dòng)駕駛汽車和其他人工智能系統(tǒng)提供訓(xùn)練數(shù)據(jù)。比如,“定標(biāo)器”會(huì)查看相機(jī)或傳感器反饋,然后在框架中標(biāo)記汽車,行人和騎車人。通過足夠的人工校準(zhǔn),AI能夠?qū)W習(xí)識(shí)別這些物體本身。
在其他情況下,公司會(huì)一直靠偽人工智能直到真的實(shí)現(xiàn)。他們告訴投資者和用戶他們已經(jīng)開發(fā)了可擴(kuò)展的AI技術(shù),然后同時(shí)秘密地依賴人類智能。
心理學(xué)家、心理健康支持聊天機(jī)器人Woebot創(chuàng)始人艾莉森·達(dá)西(Alison Darcy)將此描述為“綠野仙蹤設(shè)計(jì)技術(shù)”。
“你可以模擬某種東西的終極體驗(yàn)。在人工智能領(lǐng)域,很多時(shí)候是幕后有人而不是算法,”她說,還補(bǔ)充說建立一個(gè)良好的人工智能系統(tǒng)需要“非常巨大的數(shù)據(jù)”,有時(shí)設(shè)計(jì)師想知道投資之前是否有足夠的服務(wù)需求。
她說,這種方法不適合像Woebot這樣的心理支持服務(wù)。
“作為心理學(xué)家,我們遵循道德準(zhǔn)則。不欺騙人是非常明顯的道德原則之一。“
研究表明,當(dāng)人們認(rèn)為他們正在與一臺(tái)機(jī)器而不是一個(gè)人交談時(shí),他們傾向于透露更多信息,因?yàn)闉樽约簩で笮睦斫】祹椭且环N恥辱。
來自南加州大學(xué)的一個(gè)團(tuán)隊(duì)用名為Ellie的虛擬治療師對(duì)此進(jìn)行了測(cè)試。他們發(fā)現(xiàn),患有創(chuàng)傷后應(yīng)激障礙的退伍軍人更有可能在他們知道艾莉是一個(gè)人工智能系統(tǒng)而不是被告知有人在操作機(jī)器時(shí)泄露他們的癥狀。
其他人則認(rèn)為公司應(yīng)始終對(duì)其服務(wù)運(yùn)營(yíng)方式保持透明。
“我不喜歡那樣,”對(duì)于那些假裝提供人工智能服務(wù)但實(shí)際雇用人力的公司,LaPlante如是說, “這對(duì)我來說感覺不誠(chéng)實(shí)和被欺騙,這些都不是我想從我正在使用的業(yè)務(wù)中得到的東西。
“而在工人方面,感覺我們被推到了幕后。我不喜歡我的勞動(dòng)力被一家公司利用,他們會(huì)轉(zhuǎn)而向客戶撒謊到底發(fā)生了什么。”
這種道德上的窘境也引發(fā)了人為的AI系統(tǒng)。最近的一個(gè)例子是Google Duplex,這是一個(gè)機(jī)器人助手,可以通過“ums”和“ers”完成令人毛骨悚然的逼真電話,預(yù)約約會(huì)和完成一些預(yù)訂任務(wù)。
在最初強(qiáng)烈反對(duì)之后,谷歌表示其人工智能會(huì)向與之對(duì)話的人表明身份。
“在他們的演示版本中,在低影響力的對(duì)話中感覺有點(diǎn)欺騙性,”達(dá)西說。雖然在餐廳預(yù)訂餐桌可能看起來像是一個(gè)低風(fēng)險(xiǎn)的互動(dòng),但同樣的技術(shù)在錯(cuò)誤的手上可能更具操控性。
例如,如果你可以制作模擬名人或政治家聲音的逼真電話,會(huì)發(fā)生什么?
達(dá)西說:“人工智能已經(jīng)存在很大的恐懼,而且當(dāng)缺乏透明度時(shí),它并沒有真正幫助對(duì)話。”