“數(shù)據(jù)為王”是真的嗎?谷歌輕撫著100倍的數(shù)據(jù)量點(diǎn)了點(diǎn)頭

責(zé)任編輯:editor004

作者:大壯旅

2017-07-13 11:15:46

摘自:雷鋒網(wǎng)

AI 科技評論按:過去十年里,研究人員在計(jì)算視覺領(lǐng)域取得了巨大的成功,而這其中,深度學(xué)習(xí)模型在機(jī)器感知任務(wù)中的應(yīng)用功不可沒。

雷鋒網(wǎng)(公眾號:雷鋒網(wǎng)) AI 科技評論按:過去十年里,研究人員在計(jì)算視覺領(lǐng)域取得了巨大的成功,而這其中,深度學(xué)習(xí)模型在機(jī)器感知任務(wù)中的應(yīng)用功不可沒。此外,2012 年以來,由于深度學(xué)習(xí)模型的復(fù)雜程度不斷提高,計(jì)算能力大漲和可用標(biāo)記數(shù)據(jù)的增多,此類系統(tǒng)的再現(xiàn)能力也有了較大進(jìn)步。

不過在這三個(gè)輔助條件中,可用數(shù)據(jù)集的發(fā)展速度并沒有跟上模型復(fù)雜度(已經(jīng)從7 層的 AlexNet 進(jìn)化到了 101 層的 ResNet)和計(jì)算能力的提高速度。2011 年時(shí),用于訓(xùn)練 101 層 ResNet 模型的依然是只有 100 萬張圖片的 ImageNet。因此,研究人員一直有個(gè)想法,如果能將訓(xùn)練數(shù)據(jù)擴(kuò)容 10 倍,準(zhǔn)確率能翻番嗎?那么擴(kuò)容 100 倍或 300 倍又能得到什么樣的成果呢?我們能突破現(xiàn)有的準(zhǔn)確率平臺期嗎?數(shù)據(jù)的增多是否能帶來更多突破?

“數(shù)據(jù)為王”是真的嗎?谷歌輕撫著100倍的數(shù)據(jù)量點(diǎn)了點(diǎn)頭

過去五年中,GPU 的計(jì)算能力和模型的大小在不斷提高,但數(shù)據(jù)集的規(guī)模卻在原地踏步

在《重新審視深度學(xué)習(xí)時(shí)代數(shù)據(jù)的非理性效果》(Revisiting Unreasonable Effectiveness of Data in Deep Learning Era)這篇論文中,研究人員先是吹散了圍繞在海量數(shù)據(jù)和深度學(xué)習(xí)關(guān)系周圍的迷霧。他們的目標(biāo)是探尋如下問題:

1. 如果給現(xiàn)有算法源源不斷的加標(biāo)簽圖片,它們的視覺再現(xiàn)能力會繼續(xù)提高嗎?

2. 在類似分類、目標(biāo)檢測和圖像分割等視覺任務(wù)中,數(shù)據(jù)和性能間關(guān)系的本質(zhì)是什么?

3. 在計(jì)算視覺應(yīng)用中,能應(yīng)對所有問題的頂尖模型是否用到了大規(guī)模學(xué)習(xí)技術(shù)呢?

不過,在考慮以上這些問題前,我們先要考慮去哪找這個(gè)比 ImageNet 大 300 倍的數(shù)據(jù)集。谷歌一直在努力搭建這樣一個(gè)數(shù)據(jù)集,以便提升計(jì)算視覺算法。具體來說,谷歌的數(shù)據(jù)集 JFT-300M 已經(jīng)有 3 億張圖片,它們被分為 18291 個(gè)大類。負(fù)責(zé)為這些圖片加標(biāo)簽的是一個(gè)專用算法,它用到了原始網(wǎng)絡(luò)信號、網(wǎng)頁關(guān)系和用戶反饋等一系列信息。

完成加標(biāo)簽的工作后,這 3 億張圖片就有了超過 10 億個(gè)標(biāo)簽。而在這些標(biāo)簽中,大約有 3.75 億個(gè)被負(fù)責(zé)標(biāo)簽精度的算法選了出來。不過即使這樣,整個(gè)數(shù)據(jù)集中的標(biāo)簽依然存在不少噪聲(noise)。初步估算的數(shù)據(jù)顯示,被選中圖片的標(biāo)簽中有 20% 都屬于噪聲范圍,由于缺乏詳盡的注釋,因此研究人員無法精確判斷到底那些標(biāo)簽應(yīng)該被取消。

進(jìn)行了一番實(shí)驗(yàn)后,研究人員驗(yàn)證了一些假設(shè),同時(shí)實(shí)驗(yàn)還帶來一些意想不到的驚喜:

1. 更好的表征學(xué)習(xí)輔助效果。實(shí)驗(yàn)顯示,大規(guī)模數(shù)據(jù)集的使用能提升表征學(xué)習(xí)的效果,反過來還提高了視覺任務(wù)的表現(xiàn)。因此,在開始訓(xùn)練前搭建起一個(gè)大規(guī)模的數(shù)據(jù)集還是相當(dāng)有用的。同時(shí),實(shí)驗(yàn)也表明,無監(jiān)督和半監(jiān)督表征學(xué)習(xí)前途無量。此外,只要數(shù)據(jù)規(guī)模起來了,噪聲問題就變得不再重要了。

2. 性能會隨著訓(xùn)練數(shù)據(jù)數(shù)量級實(shí)現(xiàn)線性增長。也許整個(gè)實(shí)驗(yàn)最驚人的發(fā)現(xiàn)就是視覺任務(wù)中的性能和用于表征學(xué)習(xí)的訓(xùn)練數(shù)據(jù)規(guī)模間的關(guān)系了。它們之間居然有著異常線性的關(guān)系,即使訓(xùn)練圖片多達(dá) 3 億張,實(shí)驗(yàn)中也沒有出現(xiàn)平臺期效應(yīng)。

“數(shù)據(jù)為王”是真的嗎?谷歌輕撫著100倍的數(shù)據(jù)量點(diǎn)了點(diǎn)頭

目標(biāo)檢測性能會隨著訓(xùn)練數(shù)據(jù)的數(shù)量級實(shí)現(xiàn)線性增長

3. 容量非常重要。在實(shí)驗(yàn)中,研究人員還發(fā)現(xiàn),想要充分利用這個(gè)巨大的數(shù)據(jù)集,模型的深度和容量必須足夠大。舉例來說,ResNet-50 在 COCO 目標(biāo)檢測基準(zhǔn)上就只有 1.87%,而 ResNet-152 就有 3%。

4. 新成果。在本篇論文中,研究人員還在 JFT-300M 數(shù)據(jù)集訓(xùn)練的模型中發(fā)現(xiàn)了不少新成果。舉例來說,單個(gè)模型已經(jīng)可以達(dá)到 37.4 AP,而此前的 COCO 目標(biāo)檢測基準(zhǔn)只有 34.3 AP。

需要注意的是,在實(shí)驗(yàn)中用到的訓(xùn)練制度、學(xué)習(xí)安排和參數(shù)設(shè)置都是基于此前對 ConvNets 訓(xùn)練的理解,當(dāng)時(shí)的數(shù)據(jù)集還是只有 100 萬張圖片的 ImageNet。在工作中,研究人員并沒有用到超參數(shù)的最優(yōu)組合,因此最終得到的結(jié)果可能并不完美,所以數(shù)據(jù)的真實(shí)影響力在這里可能還被低估了。

這項(xiàng)研究并沒有將精力集中在特定任務(wù)數(shù)據(jù)上。研究人員相信,未來獲取大規(guī)模的特定任務(wù)數(shù)據(jù)將成為新的研究重心。

此外,谷歌那個(gè)擁有 3 億張圖片的數(shù)據(jù)集并不是終極目標(biāo),隨著技術(shù)的發(fā)展,建設(shè) 10 億+圖片數(shù)據(jù)集的任務(wù)應(yīng)該提上日程了。雷鋒網(wǎng) AI 科技評論表示對此拭目以待。

論文地址:https://arxiv.org/abs/1707.02968

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號