【編者按】深度神經(jīng)網(wǎng)絡(luò)能夠煥發(fā)新春,大數(shù)據(jù)功不可沒,然而大數(shù)據(jù)的版權(quán)是否應(yīng)當(dāng)延伸到深度學(xué)習(xí)產(chǎn)生的知識,這是一個現(xiàn)實(shí)的問題。本文通過ImageNet可視化大數(shù)據(jù)、Caffe共享深度學(xué)習(xí)模型和家中訓(xùn)練三個場景審查了深度學(xué)習(xí)的權(quán)值與大數(shù)據(jù)的關(guān)系,介紹了目前的問題和解決方案。文章最后預(yù)測深度學(xué)習(xí)將來可能需要相關(guān)的“AI法”。
要獲得有用的學(xué)習(xí)效果,大型多層深度神經(jīng)網(wǎng)絡(luò)(又名深度學(xué)習(xí)系統(tǒng))需要大量的標(biāo)簽數(shù)據(jù)。這顯然需要大數(shù)據(jù),但可用的可視化大數(shù)據(jù)很少。今天我們來看一個非常著名的可視化大數(shù)據(jù)來源地,深入了解一下訓(xùn)練過的神經(jīng)網(wǎng)絡(luò),然后捫心自問一些關(guān)于數(shù)據(jù)/模型所有權(quán)的問題。接下來,我們需要牢記一個基本的問題:一個學(xué)習(xí)過的神經(jīng)網(wǎng)絡(luò)的權(quán)值是輸入圖像的衍生品嗎?換句話說,當(dāng)一個深度學(xué)習(xí)系統(tǒng)使用過你的數(shù)據(jù)之后,誰應(yīng)該擁有什么?
背景:深度學(xué)習(xí)“計(jì)算機(jī)視覺秘訣”
現(xiàn)今最成功的機(jī)器學(xué)習(xí)技術(shù)之一是深度學(xué)習(xí)。深度學(xué)習(xí)引起廣泛關(guān)注的原因是由于它在處理語音[1]、文本[2]和圖像[3]等任務(wù)中展現(xiàn)出來的顯著成果。深度學(xué)習(xí)和物體識別(object recognition)技術(shù)率先在學(xué)術(shù)界萌芽(多倫多大學(xué)、紐約大學(xué)、斯坦福大學(xué)、加州大學(xué)伯克利分校、麻省理工學(xué)院和CMU等),然后被工業(yè)界采用(谷歌、Facebook和Snapchat等),現(xiàn)在新興的創(chuàng)業(yè)團(tuán)隊(duì)們(Clarifai.com、Metamind.io和Vision.ai等)正將可視化智能(visual intelligence)帶到公眾的面前。雖然人工智能的走向仍不清晰,但是深度學(xué)習(xí)將會扮演一個關(guān)鍵角色。
相關(guān)鏈接:深度學(xué)習(xí) vs 機(jī)器學(xué)習(xí) vs 模式識別
相關(guān)鏈接:深度學(xué)習(xí) vs. 概率圖模型 vs. 邏輯學(xué)
在可視化物體識別任務(wù)中,最常用的模型是卷積神經(jīng)網(wǎng)絡(luò)(也稱為ConvNets或CNNs)。它們可以在不使用手工選取特征引擎的情況下來進(jìn)行端對端的訓(xùn)練,但是這需要大量的訓(xùn)練圖片(有時候稱為大數(shù)據(jù),或者可視化大數(shù)據(jù))。這些大型的神經(jīng)網(wǎng)絡(luò)從一個空白模型開始,使用一種高度優(yōu)化的反向傳播算法進(jìn)行端對端的訓(xùn)練。反向傳播算法不過是在微積分101課程中學(xué)到的鏈?zhǔn)椒▌t,并且現(xiàn)在的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法同二十世紀(jì)80年代的算法幾乎沒什么不一樣。但是今天高度優(yōu)化的BP的實(shí)現(xiàn)是基于GPU的,它能夠處理的數(shù)據(jù)量遠(yuǎn)多于互聯(lián)網(wǎng)、云、GPU時代之前的神經(jīng)網(wǎng)絡(luò)。深度學(xué)習(xí)的訓(xùn)練結(jié)果是一些權(quán)值的集合,這些學(xué)習(xí)過的權(quán)值代表的是模型架構(gòu)中不同層上的權(quán)值——用浮點(diǎn)數(shù)表示的這些上百萬個的權(quán)值代表了從圖像中學(xué)到的內(nèi)容。那么,關(guān)于這些權(quán)值,其中有趣的是什么呢?有趣的是權(quán)值和大數(shù)據(jù)之間的關(guān)系,現(xiàn)在,這種關(guān)系將受到審查。
“基于ImageNet訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)權(quán)值是ImageNet的衍生品嗎?是數(shù)以百萬計(jì)的版權(quán)聲明的‘污水坑’嗎?通過訓(xùn)練來逼近另外一個ImageNet網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)又算是什么?”(這個問題在HackerNews上被提出,出自kastnerkyle對文章“ A Revolutionary Technique That Changed Machine Vision”的評論。)
在計(jì)算機(jī)視覺的背景下,這個問題確實(shí)引起了我的興趣,因?yàn)槲覀冮_始看到機(jī)器人和裝備了人工智能技術(shù)的設(shè)備進(jìn)入到了我們的家園中。我希望這個問題在未來的十年中受到更多更深的重視?,F(xiàn)在先讓我們看看在2015年中正在解決的一些問題吧。
1.ImageNet:非商業(yè)化的可視化大數(shù)據(jù)
讓我們先看一下一個在深度學(xué)習(xí)系統(tǒng)中最常用的數(shù)據(jù)源——ImageNet[4],這個數(shù)據(jù)源設(shè)計(jì)的目的是用于識別大量的不同物體。對于研究大規(guī)模物體識別和檢測的學(xué)者來講,ImageNet是最大的可視化大數(shù)據(jù)。2009年,該數(shù)據(jù)集出現(xiàn)在由Fei-Fei Li研究團(tuán)隊(duì)發(fā)表的一篇CVPR文章中,之后,該數(shù)據(jù)集取代了PASCAL數(shù)據(jù)集(這個數(shù)據(jù)集樣本的數(shù)量和多樣性不夠)和LabelMe數(shù)據(jù)集(這個數(shù)據(jù)集樣本缺乏標(biāo)準(zhǔn)化)。ImageNet數(shù)據(jù)集脫胎于Caltech101(2004年的一個數(shù)據(jù)集,側(cè)重于圖像分類,同樣由Fei-Fei Li團(tuán)隊(duì)研發(fā)),所以我個人還是認(rèn)為ImageNet是類似“Stanford10 ^ N”的。ImageNet在推動物體識別到一個新的領(lǐng)域——深度學(xué)習(xí)階段起到了核心的作用。
截止到2015年5月1日,ImageNet數(shù)據(jù)庫擁有超過1500萬的圖像。
問題:有很多非常大的數(shù)據(jù)集,其圖像是從網(wǎng)上采集的,但是這些圖像通常都帶有自己的版權(quán)。版權(quán)阻止了圖像的收集和出售,所以從商業(yè)角度來看,當(dāng)產(chǎn)生這樣的數(shù)據(jù)集的時候,必須要小心一些。為了使現(xiàn)實(shí)世界中識別問題保持最先進(jìn)技術(shù),我們必須使用標(biāo)準(zhǔn)的大數(shù)據(jù)集(代表了能夠在現(xiàn)實(shí)網(wǎng)絡(luò)中找到的內(nèi)容),培養(yǎng)一種共享成果的社區(qū)意識,并且維持?jǐn)?shù)據(jù)源的版權(quán)。
解決方案:ImageNet決定公開提供數(shù)據(jù)集中圖像的源鏈接,這樣人們就可以不必從一個大學(xué)托管的服務(wù)器上來下載這些圖像了。ImageNet僅提供圖像的縮略圖和一個版權(quán)侵犯刪除聲明。只有當(dāng)使用者簽署協(xié)議,保證不將數(shù)據(jù)商業(yè)化使用之后,數(shù)據(jù)集組織者才提供完整的數(shù)據(jù)集。ImageNet具有下述的聲明條款(獲取日期:2015年5月5日):
ImageNet不擁有圖像的版權(quán)。ImageNet會以一種圖像搜索引擎的方式,僅提供縮略圖和圖像的URL。也就是說,ImageNet針對每個同義詞集編譯了一個精確的網(wǎng)絡(luò)圖片列表。對于希望將圖片用于非商業(yè)化研究和/或教育目的的研究人員和教育工作者來說,在同意我們的一定條件和條款的情況下,我們可以提供通過我們的網(wǎng)站來進(jìn)行訪問的方式。
2.Caffe:無使用限制的深度學(xué)習(xí)模式
現(xiàn)在,比較明確的是,我們知道哪里可以下載到可視化大數(shù)據(jù)以及它們適用的條款,我們再將目光轉(zhuǎn)向另一個方面:深度學(xué)習(xí)訓(xùn)練過程的輸出結(jié)果。我們看一下Caffe,一個非常流行的深度學(xué)習(xí)庫,它可以用來處理類似于ImageNet的數(shù)據(jù)。Caffe提供了一個共享模式的生態(tài)系統(tǒng)(動物園模型),并且已經(jīng)成為計(jì)算機(jī)視覺研究者必不可少的工具。Caffe是伯克利視覺和學(xué)習(xí)中心研發(fā)的,并貢獻(xiàn)給了開源社區(qū)——它是開源的。
“使用Caffe自己動手搭建深度學(xué)習(xí)計(jì)算機(jī)視覺”中的一頁幻燈片
問題:作為一個在大學(xué)啟動的項(xiàng)目,Caffe旨在成為創(chuàng)建、訓(xùn)練和分享深度學(xué)習(xí)模型的事實(shí)標(biāo)準(zhǔn)。分享的模型最初是用于非商業(yè)用途,但問題是一波新的初創(chuàng)企業(yè)都使用了這些技術(shù)。所以必須有一個許可協(xié)議,允許高校、大型企業(yè)和初創(chuàng)公司來探索同一套預(yù)訓(xùn)練模型。
解決方案:Caffe的當(dāng)前模型許可是無使用限制的。對于大量的黑客、科學(xué)家和工程師們來說這是非常偉大的一件事。需要分享的模型需遵守一項(xiàng)非商業(yè)使用條款。下面是全部的Caffe的模型條款(獲取日期:2015年5月5日):
Caffe模型是BVLC的附屬軟件,它沒有使用的限制。
這些模型利用了ImageNet項(xiàng)目的數(shù)據(jù)進(jìn)行訓(xùn)練,這些訓(xùn)練數(shù)據(jù)包括了一些從網(wǎng)上獲取的照片,而這些照片可能受到版權(quán)保護(hù)。
作為研究者,我們目前的理解是:對于這些公開發(fā)布的訓(xùn)練過的模型權(quán)值,其使用不應(yīng)受到什么限制,因?yàn)檫@里面沒有包含任何原始圖像的全部或者部分。對于現(xiàn)在興起的一種說法,‘權(quán)值系由原始圖像訓(xùn)練所得,其版權(quán)應(yīng)歸屬原始圖像版權(quán)所有者’,加州大學(xué)伯克利分校沒有做過任何聲明說什么樣的使用是被允許的,而是基于大學(xué)使命來對待我們的模型,以盡可能不受限制的方式來傳播知識和工具。
3.Vision.ai:在家里生成和訓(xùn)練的數(shù)據(jù)集
深度學(xué)習(xí)能夠?qū)W習(xí)輸入數(shù)據(jù)的概要。但是如果另一個不同的模型記住了訓(xùn)練數(shù)據(jù)的詳細(xì)細(xì)節(jié)會怎樣呢?更重要的是如果模型記住的內(nèi)容中有你不想對外分享的內(nèi)容會怎樣呢?為了研究這種情況,我們來看Vision.ai,他們設(shè)計(jì)的實(shí)時計(jì)算機(jī)視覺服務(wù)器用于模擬產(chǎn)生一個數(shù)據(jù)集并且學(xué)習(xí)一個對象的外觀。Vision.ai軟件能夠從視頻和直播的網(wǎng)絡(luò)攝像頭流中實(shí)時訓(xùn)練。
不同于從互聯(lián)網(wǎng)上的圖像中收集可視化大數(shù)據(jù)(如ImageNet),vision.ai的訓(xùn)練過程基于一個人在網(wǎng)絡(luò)攝像頭面前揮舞一個感興趣的對象。用戶自力更生的學(xué)習(xí)過程一開始有一個初始邊界框,算法會在不用干預(yù)的情況下持續(xù)學(xué)習(xí)。在算法學(xué)習(xí)過程中,它會存儲它以前見到的部分歷史信息,從而有效地創(chuàng)建自己的數(shù)據(jù)集。因?yàn)閂ision.ai使用了卷積神經(jīng)網(wǎng)絡(luò)來檢測物體(圖像中目標(biāo)僅占據(jù)很少的一部分),所以收集到的數(shù)據(jù)集中還保持了大量的背景數(shù)據(jù)。當(dāng)訓(xùn)練過程結(jié)束后,你同時得到了Caffe類型的信息(學(xué)習(xí)過的權(quán)值)和ImageNet類型的信息(收集的圖像)。那么如果現(xiàn)在進(jìn)行分享模型,會發(fā)生什么呢?
用戶使用vision.ai的實(shí)時檢測器訓(xùn)練接口來訓(xùn)練茶杯檢測器
問題:在家里的訓(xùn)練意味著潛在的私人信息和敏感信息以背景的形式被采集到圖像中。如果你在自己家里訓(xùn)練模型,然后對公眾開放它,那你在分享的時候就需要三思而后行了。同樣的,你如果從有版權(quán)保護(hù)的視頻/圖像中訓(xùn)練了一個物體檢測器,那么當(dāng)你分享/出售這個模型的時候,也需要考慮其中存在的問題。
解決方案:當(dāng)你把一個Vision.ai模型保存到磁盤上的時候,你能獲取到編譯模型和完整模型。編譯模型是不包含圖像的完整模型(因此小的多)。這就允許你在自己的電腦上保留完整的可編輯模型,而只需要分享編譯模型即可(特別是只發(fā)布訓(xùn)練過的權(quán)值),這就避免了別人來偷窺你的生活空間。Vision.ai的計(jì)算機(jī)視覺服務(wù)器稱為VMX,它既能夠運(yùn)行完整模型,也能夠運(yùn)行編譯模型;然而,只有非編譯模型能夠編輯和擴(kuò)展。另外,Vision.ai提供的是視覺服務(wù)器的獨(dú)立安裝模式,因此訓(xùn)練圖像和計(jì)算結(jié)果可以保留在本地計(jì)算機(jī)上。簡而言之,Vision.ai的解決方案允許你選擇在本機(jī)運(yùn)行還是在云上運(yùn)行,并且允許你選擇是發(fā)布完整模型(具有背景圖像)還是編譯模型(僅有需要檢測的對象)。當(dāng)需要分享訓(xùn)練模型和/或產(chǎn)生數(shù)據(jù)集的時候,你就能夠自由的選擇自己的許可協(xié)議。
4.授權(quán)基于內(nèi)存的機(jī)器學(xué)習(xí)模型的開放問題
深度學(xué)習(xí)方法并不是物體識別的唯一可用技術(shù)。如果我們的模型是使用原始RGB像素的最近鄰分類器(Nearest Neighbor Classifier )會怎樣?最近鄰分類器是基于內(nèi)存的分類,它記憶所有的訓(xùn)練數(shù)據(jù)——模型就是訓(xùn)練數(shù)據(jù)。如果對同一數(shù)據(jù)集使用不同的許可,將會產(chǎn)生矛盾,因?yàn)槟程焖赡茏鳛橛?xùn)練數(shù)據(jù),而其他的時候又可能是做為學(xué)習(xí)算法的輸出數(shù)據(jù)了。我不知道是否有一種方法可以調(diào)和那種來自ImageNet的非商業(yè)使用限制許可和來自Caffe深度學(xué)習(xí)模型的完全不受限制許可。是否有可能有一個黑客友好的數(shù)據(jù)模型/許可協(xié)議來統(tǒng)一所有的情況?
結(jié)論
如果將來神經(jīng)網(wǎng)絡(luò)升級成為你的操作系統(tǒng)的一部分,不要感到驚訝。當(dāng)我們從數(shù)據(jù)經(jīng)濟(jì)(共享圖片)向知識經(jīng)濟(jì)(共享神經(jīng)網(wǎng)絡(luò))過渡的時候,法律/所有權(quán)問題就成為了一個需要考慮的問題了。我希望今天描述的三種場景(可視化大數(shù)據(jù)、共享深度學(xué)習(xí)模型、家中訓(xùn)練)可以在你想要分享知識的時候,幫助你思考這里面的法律問題。當(dāng)AI開始生成自己的藝術(shù)(可能通過重新合成老照片),法律問題會出現(xiàn)。當(dāng)你的競爭對手出售你的模型和/或數(shù)據(jù)的時候,法律問題再次出現(xiàn)。如果MIT協(xié)議、GPL協(xié)議和Apache協(xié)議針對預(yù)訓(xùn)練深度學(xué)習(xí)模型開始展開爭論的時候,也不要感到吃驚。誰知道呢,或許AI法將是接下來的大事件呢。