四色草视频-四散的尘埃在线观看-四库国产精品成人-四虎最新网址入口-国产精品一区二区三区四区五区-国产精品一区二区三区四区

張婭:做人工智能研究這四個(gè)要素是缺一不可

2019-05-26 07:32:19   來(lái)源:新浪科技   評(píng)論:0   [收藏]   [評(píng)論]
導(dǎo)讀:  2019年未來(lái)論壇·深圳技術(shù)峰會(huì)(以下簡(jiǎn)稱(chēng)峰會(huì))在深圳市舉行,上海交通大學(xué)教授,未來(lái)論壇青創(chuàng)聯(lián)盟成員張婭在峰會(huì)上發(fā)表題為《資源受限下的機(jī)器學(xué)習(xí)及其在圖像理解領(lǐng)域的應(yīng)用》的演講。  以下為演講全文: 
  “2019年未來(lái)論壇·深圳技術(shù)峰會(huì)”(以下簡(jiǎn)稱(chēng)峰會(huì))在深圳市舉行,上海交通大學(xué)教授,未來(lái)論壇青創(chuàng)聯(lián)盟成員張婭在峰會(huì)上發(fā)表題為《資源受限下的機(jī)器學(xué)習(xí)及其在圖像理解領(lǐng)域的應(yīng)用》的演講。

  以下為演講全文:

  今天下午很榮幸能在2019年未來(lái)論壇·深圳技術(shù)峰會(huì)跟大家分享一下我們?cè)谫Y源受限下機(jī)器學(xué)習(xí)方面的一些成果。現(xiàn)在我們站在人工智能的巨大風(fēng)口上,當(dāng)我們談到人工智能的時(shí)候,我們自然而然會(huì)想到人工智能的四個(gè)重要因素,這里面有數(shù)據(jù)、算法、計(jì)算以及最后的應(yīng)用場(chǎng)景,我們?cè)谧鋈斯ぶ悄苎芯康臅r(shí)候,其實(shí)這四個(gè)要素是缺一不可的,但是我的研究中想重點(diǎn)從數(shù)據(jù)的緯度展開(kāi)。

  剛才彭總也介紹了,我們?nèi)斯ぶ悄芑蛘哒f(shuō)機(jī)器學(xué)習(xí)的研究過(guò)程當(dāng)中,首先我們需要積累大量的訓(xùn)練數(shù)據(jù),對(duì)每一個(gè)具體的任務(wù)我們都需要構(gòu)件一個(gè)Dedicated的數(shù)據(jù)集,它是非常費(fèi)時(shí)費(fèi)力的,舉個(gè)例子來(lái)說(shuō),斯坦福有一個(gè)非常著名的數(shù)據(jù)集ImageNet,這個(gè)數(shù)據(jù)集的構(gòu)建可能耗時(shí)長(zhǎng)達(dá)四五年之久,最后通過(guò)亞馬遜的Mechanic Turk完成的,這個(gè)數(shù)據(jù)集被認(rèn)為是廣泛的驅(qū)動(dòng)了這一屆人工智能的興起,在之后我們也看到各個(gè)大公司,包括微軟,包括Google都開(kāi)始推出了類(lèi)似的數(shù)據(jù)集,這些數(shù)據(jù)為我們學(xué)界的研究也提供了重大的數(shù)據(jù)資源。大家可以看這個(gè)表格,都是以百萬(wàn)級(jí)規(guī)模的數(shù)據(jù)集,對(duì)于很多行業(yè)的應(yīng)用來(lái)說(shuō),我們要快速的積累這么大規(guī)模的數(shù)據(jù)集,其實(shí)是不可行的,拿一個(gè)例子來(lái)說(shuō),在醫(yī)療這個(gè)領(lǐng)域,存在很多罕見(jiàn)病,全世界的病人加起來(lái)可能也不超過(guò)萬(wàn)例,對(duì)于這種病的研究,我們?cè)趺匆蕾?lài)少量的數(shù)據(jù)進(jìn)行學(xué)習(xí)呢?所以我們的研究主要聚焦在如何減少數(shù)據(jù)標(biāo)注的代價(jià),我們將從三個(gè)方面來(lái)展開(kāi)。

  第一方面是能不能標(biāo)注更少的數(shù)據(jù),也就是不要標(biāo)注所有的數(shù)據(jù)。第二是能不能減少標(biāo)注的單位成本,也就是說(shuō)用一個(gè)更粗糙的方式進(jìn)行標(biāo)注,而不是用非常完美的方式。第三是我們現(xiàn)在在網(wǎng)上其實(shí)可以采集大量的數(shù)據(jù),這些數(shù)據(jù)自然而然的就有一些標(biāo)注信息給到我們,只是這些標(biāo)注信息是含有大量噪聲的,怎么讓我們的模型容忍這些噪聲,或者從這些噪聲當(dāng)中仍然能夠提取出來(lái)有效的成分,訓(xùn)練這個(gè)模型。這就是我要講的資源受限下的機(jī)器學(xué)習(xí)。

  首先來(lái)看一下怎么減少我的標(biāo)注數(shù)量,這里我們采取的是主動(dòng)采樣、主動(dòng)學(xué)習(xí)的方式,我們通過(guò)選擇性的標(biāo)注,而不是用隨機(jī)性的方式進(jìn)行標(biāo)注,達(dá)到節(jié)約標(biāo)注成本的目的。

  傳統(tǒng)的機(jī)器學(xué)習(xí)通常采用被動(dòng)學(xué)習(xí)。一個(gè)標(biāo)準(zhǔn)流程是假設(shè)我們有大量的數(shù)據(jù),我們以一種隨機(jī)的方式根據(jù)數(shù)據(jù)分布從數(shù)據(jù)當(dāng)中選取一些樣本,請(qǐng)專(zhuān)業(yè)專(zhuān)家或者是請(qǐng)一些有標(biāo)注能力的人來(lái)進(jìn)行標(biāo)注。這樣建立的模型,相當(dāng)于我們的數(shù)據(jù)采集過(guò)程是一個(gè)比較簡(jiǎn)單、被動(dòng)的過(guò)程,而主動(dòng)學(xué)習(xí)恰恰是在數(shù)據(jù)采集的過(guò)程就開(kāi)始進(jìn)行學(xué)習(xí),這里我們是在數(shù)據(jù)采集的時(shí)候?qū)γ恳粋(gè)數(shù)據(jù)樣本進(jìn)行評(píng)分,我們?nèi)ピu(píng)估這個(gè)樣本是不是對(duì)我們的模型訓(xùn)練會(huì)有用,當(dāng)這個(gè)樣本對(duì)模型訓(xùn)練有用的時(shí)候,我們才送給人工標(biāo)注,這樣我們可以極大地減少數(shù)據(jù)標(biāo)注的代價(jià)。但問(wèn)題又來(lái)了,我們還沒(méi)有模型,還沒(méi)有訓(xùn)練模型,我們只有一堆數(shù)據(jù),我們?cè)趺粗肋@一堆數(shù)據(jù)哪些對(duì)我們的模型訓(xùn)練是有用的,哪些對(duì)我們的模型訓(xùn)練是沒(méi)用的?挑戰(zhàn)在于我們?nèi)绾味x這個(gè)有用性。

  在這個(gè)方面,我們提出了一個(gè)方法,首先我們認(rèn)為如果一個(gè)樣本對(duì)模型訓(xùn)練有用,它要能夠改變當(dāng)前的模型,如果它和當(dāng)前的模型融合的非常好,那么它不可能對(duì)模型有所改變,也就是說(shuō)它不可能對(duì)我們的模型起到改良和改進(jìn)的作用。因此我們提出要選擇最有可能改變模型參數(shù)的這些樣本,這樣的樣本就能夠起到改進(jìn)模型的作用。

  所以基于這個(gè)思路,我們就設(shè)計(jì)了基于一種隨機(jī)梯度下降的方式選擇對(duì)每一個(gè)樣本進(jìn)行評(píng)分的方式,隨機(jī)梯度下降本質(zhì)上是模擬了模型訓(xùn)練的方式,去評(píng)估每一個(gè)樣本對(duì)模型參數(shù)改變的能力。我們?cè)趧偛胖v的斯坦福ImageNet數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果用這個(gè)曲線圖表示。紅色曲線是我們通過(guò)主動(dòng)學(xué)習(xí)所得到的精確率,曲線越高,說(shuō)明效果越好。下面紫色的線是隨機(jī)的方式,可以看到通過(guò)主動(dòng)學(xué)習(xí),我們可以在相同數(shù)據(jù)量的情況下顯著的提升模型的精確度,或者說(shuō)在相同精確度的情況下顯著的減少標(biāo)注的數(shù)量。

  下面來(lái)說(shuō)第二個(gè)方面的工作,我們?cè)趺蠢酶植诘臉?biāo)簽,這里我們提出的方法是通過(guò)一種弱監(jiān)督的方式。首先我們來(lái)看一些具體的應(yīng)用場(chǎng)景,我們選擇的一個(gè)應(yīng)用場(chǎng)景是精細(xì)粒度的語(yǔ)義識(shí)別,對(duì)于這一類(lèi)的問(wèn)題,它有一個(gè)非常特殊的,或者說(shuō)非常顯著的特性。大家如果看右邊這幅圖,我們有三個(gè)類(lèi)型的海鷗,這三個(gè)類(lèi)型的海鷗如果我們拍照的時(shí)候,他們pose是相同的話(huà),其實(shí)看起來(lái)它們之間的差異是非常非常小的,同一只海鷗在不同pose的情況下,它的差異性其實(shí)是非常大的。也就是說(shuō),我們這一類(lèi)的任務(wù),它的類(lèi)別與類(lèi)別之間的差異性有時(shí)候會(huì)反而小于類(lèi)別內(nèi)部的差異性,這就對(duì)我們機(jī)器學(xué)習(xí)帶來(lái)了極大的挑戰(zhàn)。

  同時(shí),從標(biāo)注的角度,大家如果不是鳥(niǎo)類(lèi)的愛(ài)好者,當(dāng)你看到這些照片的時(shí)候,你很難區(qū)分它到底是哪一類(lèi)的海鷗,就需要有非常專(zhuān)業(yè)的人士,可能是鳥(niǎo)類(lèi)科學(xué)家,可能是專(zhuān)門(mén)在這方面有所建樹(shù)的人士來(lái)標(biāo)注,這個(gè)代價(jià)就非常高。因?yàn)轭?lèi)類(lèi)之間的差距大于類(lèi)間的差距,他們之間的區(qū)分可能是在一些細(xì)節(jié)上,而不是在鳥(niǎo)的身體整體上。大家可以看右邊這個(gè)圖,鳥(niǎo)身上有很多小點(diǎn),每個(gè)小點(diǎn)就代表我們需要在局部精細(xì)粒度的標(biāo)注點(diǎn),我們需要通過(guò)這些標(biāo)注點(diǎn)知道鳥(niǎo)的眼睛在哪里,嘴巴在哪里等等,這些標(biāo)注的代價(jià)是非常高的,平均來(lái)說(shuō)標(biāo)注一張照片要花1分鐘甚至更多的時(shí)間。

  所以在這個(gè)工作里我們提出了一種弱監(jiān)督的方式進(jìn)行標(biāo)注,我們不需要你告訴我鳥(niǎo)的頭在哪里,鳥(niǎo)的身體在哪里,所有細(xì)粒度的標(biāo)注我們都沒(méi)有,我們只有一個(gè)圖片級(jí)的標(biāo)注,告訴我們這個(gè)鳥(niǎo)是哪一類(lèi)的鳥(niǎo)。在這個(gè)框架上我們利用了剛才說(shuō)到的類(lèi)間之間的相似性,當(dāng)我們要定位這只鳥(niǎo)的時(shí)候,本質(zhì)上不同類(lèi)別的鳥(niǎo)其實(shí)是非常相似的,所以我們可以利用它之間的相似性進(jìn)行前景和背景的區(qū)分,當(dāng)我們?cè)缍ㄎ坏搅锁B(niǎo)的位置的時(shí)候,我們?cè)侔褍深?lèi)不同的鳥(niǎo)作為敵人來(lái)進(jìn)行對(duì)抗學(xué)習(xí),這樣的方式我們就可以達(dá)到一個(gè)實(shí)現(xiàn)區(qū)分不同類(lèi)別鳥(niǎo)的目的。

  所以當(dāng)它們是在朋友階段的時(shí)候,相當(dāng)于我們要通過(guò)聯(lián)合不同類(lèi)別的鳥(niǎo)共同學(xué)習(xí),來(lái)達(dá)到一個(gè)更好定位的目的。當(dāng)它們成為敵人的時(shí)候,我們是通過(guò)用一個(gè)多分類(lèi)任務(wù)的來(lái)區(qū)分它到底是哪一類(lèi)的鳥(niǎo),這里面因?yàn)檫是弱監(jiān)督的問(wèn)題,我們不知道它到底是哪一個(gè)特性導(dǎo)致了這個(gè)分類(lèi),所以這里我們用了Multiple Instance Learning的方法來(lái)進(jìn)行實(shí)現(xiàn)。

  這是我們最終的實(shí)驗(yàn)結(jié)果,可以看到我們的方法最終取得了在弱監(jiān)督精細(xì)粒度分類(lèi)上最好的結(jié)果,用了三個(gè)數(shù)據(jù)集,前兩個(gè)是斯坦福鳥(niǎo)的數(shù)據(jù)集,后面一個(gè)是不同亞類(lèi)的狗的數(shù)據(jù)集,我們沒(méi)有用到框級(jí)的標(biāo)注信息,所以我們?nèi)趸藰?biāo)注信息,達(dá)到了節(jié)約訓(xùn)練成本的目的。

  對(duì)于用更弱的這種標(biāo)簽,還可以用一些網(wǎng)絡(luò)的數(shù)據(jù)來(lái)進(jìn)行提升。假如說(shuō)我們是一個(gè)很小量的,但是是強(qiáng)標(biāo)注的數(shù)據(jù)集。這些數(shù)據(jù)可以幫助我們提供一些專(zhuān)家的知識(shí),同時(shí)我們可以是非常便宜、非常廉價(jià)的弱標(biāo)注的數(shù)據(jù)集,它的弱點(diǎn)在于沒(méi)有精細(xì)粒度的標(biāo)注,它的標(biāo)注在圖象集的標(biāo)注噪聲是非常高的,會(huì)導(dǎo)致大量的噪聲存在。

  所以在這里我們?cè)O(shè)計(jì)了一個(gè)基于Transfer Learning的思路,設(shè)計(jì)了一個(gè)強(qiáng)監(jiān)督+弱監(jiān)督數(shù)據(jù)協(xié)同的學(xué)習(xí)框架,在這個(gè)框架下,基于小量的強(qiáng)監(jiān)督數(shù)據(jù),我們構(gòu)建一個(gè)模型,這個(gè)模型包括了有特征提取、檢測(cè)器等,我們可以用這些構(gòu)建的模型把這些信息轉(zhuǎn)移到網(wǎng)絡(luò)數(shù)據(jù)集上,對(duì)網(wǎng)絡(luò)信息進(jìn)行一些標(biāo)注,我們通過(guò)設(shè)計(jì)噪聲消除模型把網(wǎng)絡(luò)數(shù)據(jù)的噪聲給扔掉,我們可以不斷地進(jìn)行迭代,把這類(lèi)高置信度的樣本加入到強(qiáng)監(jiān)督的數(shù)據(jù)集,通過(guò)這種自學(xué)習(xí)的方式,最后達(dá)到一個(gè)模型提升的效果。這還是在斯坦福鳥(niǎo)類(lèi)數(shù)據(jù)集的效果,有10個(gè)點(diǎn)的提升,這個(gè)提升是非常顯著的。

  我們這里也比較了一下,當(dāng)我們不斷地增加網(wǎng)絡(luò)數(shù)據(jù)集的時(shí)候,是不是可以不斷地有更多的增益。在上面這個(gè)曲線圖里面,這個(gè)紅色的代表了我們用強(qiáng)監(jiān)督和弱監(jiān)督的數(shù)據(jù)共同學(xué)習(xí)的結(jié)果。可以看到當(dāng)我們?cè)诓粩嗟卦黾用恳活?lèi)網(wǎng)絡(luò)圖象數(shù)目的時(shí)候,這個(gè)曲線是在不斷上升的,證明我們加入的強(qiáng)數(shù)據(jù)是有效的。這里綠線是用了包圍框的標(biāo)注,藍(lán)線是只用了弱監(jiān)督的標(biāo)注。可以看到,哪怕我們只用了弱監(jiān)督的數(shù)據(jù),當(dāng)我們的數(shù)據(jù)量足夠高的時(shí)候,其實(shí)我們也會(huì)超過(guò)只用少量強(qiáng)監(jiān)督的數(shù)據(jù),這證明了弱監(jiān)督學(xué)習(xí)是非常有用的。

  這里我們反過(guò)來(lái),我們想證明如果我們使用非常非常少的強(qiáng)監(jiān)督數(shù)據(jù),是不是還能達(dá)到有效學(xué)習(xí)的目的。在這里我們用了兩類(lèi)參數(shù),第一個(gè)是用了每一類(lèi)有30個(gè)強(qiáng)監(jiān)督的數(shù)據(jù),第二個(gè)實(shí)驗(yàn)當(dāng)中,每一類(lèi)只用5個(gè)強(qiáng)監(jiān)督數(shù)據(jù),每一類(lèi)的鳥(niǎo)我們只有5張照片,可以看到其實(shí)到最后的結(jié)果,這兩個(gè)的差異已經(jīng)并不是特別大。如果在資源受限的情況下,我們不能有非常大的、海量標(biāo)注的時(shí)候,其實(shí)這個(gè)實(shí)驗(yàn)結(jié)果也還是可以接受的。

  我們第三個(gè)研究的弱監(jiān)督,我們希望通過(guò)一種協(xié)同學(xué)習(xí)的機(jī)制來(lái)提升弱監(jiān)督的學(xué)習(xí)效果,這里簡(jiǎn)單介紹一下應(yīng)用場(chǎng)景,研究一個(gè)弱監(jiān)督的物體檢測(cè)的場(chǎng)景,在物體檢測(cè)的時(shí)候,通常來(lái)說(shuō)我們也是要對(duì)物體檢測(cè)場(chǎng)景做包圍框的標(biāo)注,這是我們的訓(xùn)練數(shù)據(jù)。這里強(qiáng)監(jiān)督的算法,都是用原始包圍框來(lái)進(jìn)行標(biāo)注,它的好處是這個(gè)模型會(huì)非常快,因?yàn)樗哪P褪且粋(gè)非常快的結(jié)構(gòu)。

  對(duì)于提出的弱監(jiān)督的模型,其實(shí)它的性能跟強(qiáng)監(jiān)督有一個(gè)比較大的差異,其次在運(yùn)行速度方面,因?yàn)樗械评頇C(jī)制,所以會(huì)比較慢。在我們的工作當(dāng)中,我們希望通過(guò)一些方式在弱監(jiān)督和強(qiáng)監(jiān)督學(xué)習(xí)的算法中架一座橋,我們希望把他們兩個(gè)同時(shí)進(jìn)行訓(xùn)練,我們用一個(gè)協(xié)同學(xué)習(xí)的機(jī)制同時(shí)訓(xùn)練一個(gè)強(qiáng)監(jiān)督模型和弱監(jiān)督模型,并且在訓(xùn)練當(dāng)中用某種機(jī)制讓這個(gè)強(qiáng)監(jiān)督模型和弱監(jiān)督模型互相增強(qiáng)。這就是我們?cè)谟?xùn)練弱監(jiān)督模型的時(shí)候可以用圖片集的分類(lèi)損失函數(shù)來(lái)進(jìn)行訓(xùn)練,來(lái)優(yōu)化它。但是因?yàn)槲覀儧](méi)有,我們通過(guò)模型讓強(qiáng)監(jiān)督模型得到的預(yù)測(cè)結(jié)果和弱監(jiān)督模型預(yù)測(cè)得到的結(jié)果這么一個(gè)條件來(lái)訓(xùn)練整個(gè)模型、整個(gè)網(wǎng)絡(luò)。同時(shí)我們假設(shè)不管是強(qiáng)監(jiān)督模型還是弱監(jiān)督模型,它需要一定的一致性,所以我們又設(shè)計(jì)了部分特征共享的網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)這兩個(gè),也就是我們預(yù)測(cè)一致性的損失函數(shù)以及網(wǎng)絡(luò)參數(shù)部分共享的機(jī)制設(shè)計(jì),來(lái)達(dá)到協(xié)同訓(xùn)練的目的。

  這是網(wǎng)絡(luò)結(jié)構(gòu),我就不細(xì)講了,這是最后的損失函數(shù),所以我們有一個(gè)分類(lèi)的損失函數(shù),有一個(gè)一致性的損失函數(shù),在一致性損失函數(shù)當(dāng)中又分為兩部分,一部分是他們的分類(lèi)要一致,其次是它們的定位結(jié)果要一致,所以我們要兩個(gè)一致,由兩部分組成。

  我們來(lái)看結(jié)果,藍(lán)色那條線是弱監(jiān)督的模型學(xué)到的精確度,紅色這條線是強(qiáng)監(jiān)督模型學(xué)到的精確度,我們可以看到非常有意思的,首先兩個(gè)模型在訓(xùn)練過(guò)程當(dāng)中都在協(xié)同爬升,都有比較大的提升,但是強(qiáng)監(jiān)督模型是遠(yuǎn)遠(yuǎn)高于弱監(jiān)督的,強(qiáng)監(jiān)督比弱監(jiān)督高出近10個(gè)點(diǎn)的準(zhǔn)確率。

  同時(shí)我們用這個(gè)表格來(lái)對(duì)比一下其他的,我們?nèi)绻挥萌醣O(jiān)督進(jìn)行訓(xùn)練,當(dāng)我們加入強(qiáng)監(jiān)督這個(gè)協(xié)同訓(xùn)練機(jī)制的時(shí)候,我們不但提升了強(qiáng)監(jiān)督,我們對(duì)弱監(jiān)督本身也有提升。

  這是我們的結(jié)果,可以看到通過(guò)這個(gè)協(xié)同學(xué)習(xí)的機(jī)制,我們學(xué)到的這個(gè)模型可以學(xué)到更緊密的包圍框,同時(shí)識(shí)別檢測(cè)出來(lái)的物品數(shù)量也更加多。

  在一些標(biāo)準(zhǔn)的Benchmark上面進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果也表明我們通過(guò)這種協(xié)同學(xué)習(xí)得到的結(jié)果達(dá)到了當(dāng)時(shí)的表現(xiàn)。這是在VOC2012上的數(shù)據(jù)集,這兩個(gè)都是目標(biāo)預(yù)測(cè)數(shù)據(jù)集。

  最后一個(gè)就是剛才講了網(wǎng)絡(luò)數(shù)據(jù)學(xué)習(xí)是一個(gè)方向,但是網(wǎng)絡(luò)數(shù)據(jù)天然有大量的噪聲,所以我們?cè)趺催M(jìn)行噪聲的建模,所以我們這里重點(diǎn)研究了噪聲遷移的模型。我們現(xiàn)在從更多的研究醫(yī)療影象的角度來(lái)說(shuō),有數(shù)據(jù)表明同一張影像、同一個(gè)醫(yī)生在不同時(shí)間去讀片,正確率只能到15%,如果是兩個(gè)醫(yī)生,可以到25%,所以可以看到這種標(biāo)注噪聲其實(shí)是廣泛存在的。這是我們提出的噪聲遷移模型的例子,假設(shè)我們有一系列的,這個(gè)圖像其實(shí)有一個(gè)標(biāo)簽,這個(gè)標(biāo)簽是我們想學(xué)的東西,我們希望通過(guò)這個(gè)圖模型,我們最后觀察到的這個(gè)標(biāo)簽是Y,我們相當(dāng)于想學(xué)X到Y(jié)之間的,就是Z。

  這里我們提出的,因?yàn)槲覀冎苯訌腦到Z到Y(jié)這個(gè)學(xué)習(xí)過(guò)程是很難的,因?yàn)橛幸粋(gè)傳遞性存在。其實(shí)我們可以提出來(lái)關(guān)于標(biāo)簽的Quality Embedding,就是下面這個(gè)圖,當(dāng)我們有一個(gè)機(jī)制的時(shí)候,我們就可以通過(guò)Quality Embedding,這樣我們就可以學(xué)會(huì)真正的clean標(biāo)簽是什么。

  在這個(gè)數(shù)據(jù)集上,也是用剛才的數(shù)據(jù)集進(jìn)行訓(xùn)練,這個(gè)數(shù)據(jù)集是一個(gè)非常干凈的數(shù)據(jù)集,所以我們?cè)谶@個(gè)數(shù)據(jù)集里面標(biāo)注信息,這樣的數(shù)據(jù)集我們可以控制噪聲的比例,大家可以看到表上,第一列Pnoise,我們可以看到盡管到0.6,也就是說(shuō)其實(shí)絕大多數(shù)的標(biāo)簽都含有噪聲,最終我們的模型還可以學(xué)到63.2%的精確度,這其實(shí)是非常有意思的,照理說(shuō)所有的標(biāo)簽都被Reverse了,應(yīng)該很難學(xué)習(xí)到真實(shí)標(biāo)簽。檔標(biāo)簽噪聲從0.2到0.4,我們看到結(jié)果會(huì)有一個(gè)顯著性的提升。

  這是雅虎Flicker的一個(gè)數(shù)據(jù)集上進(jìn)行的測(cè)試,這是2007年VOC的結(jié)果,可以看到是非常Consistent的,在絕大多數(shù)的數(shù)據(jù)集上我們的結(jié)果。這張圖,剛才講了,我們有一個(gè)噪聲嵌入模型,相當(dāng)于我們有一個(gè)標(biāo)注的,左邊是說(shuō)假如說(shuō)我這個(gè)Quality是可信的,那么我們來(lái)看我的標(biāo)簽是怎么轉(zhuǎn)移的,從Z到Y(jié)的轉(zhuǎn)移可以想象成行是Z,列是Y,可以看到這時(shí)候大量的激活其實(shí)是沿著對(duì)角線,說(shuō)明它的標(biāo)簽信息是一致的,Y等于Z,才在對(duì)角線上進(jìn)行激活。當(dāng)表明它的是很高的時(shí)候,遷移就在對(duì)角線上進(jìn)行。右邊是說(shuō)這些是不可信的,標(biāo)簽質(zhì)量很差的時(shí)候,可以看到我們的遷移可以在任何兩類(lèi)之間發(fā)生。

  這是我們最終訓(xùn)練得到的結(jié)果,上面這兩行代表了我們的Correction。它的數(shù)據(jù)集標(biāo)簽,它被標(biāo)定為一個(gè)瓶子,但其實(shí)大家可以看到它其實(shí)是一個(gè)飛機(jī)。我們通過(guò)這個(gè)模型可以非常好的把這個(gè)正確的標(biāo)簽給恢復(fù)出來(lái),這個(gè)模型其實(shí)也面臨一個(gè)問(wèn)題,有些時(shí)候其實(shí)是難樣本,大家看最后一列,最后一列是非常有趣的,基本上都是一些狗的例子,這些狗的亞類(lèi),我們?nèi)耸呛茈y區(qū)分的,我也不知道它是分對(duì)了還是分錯(cuò)了,我們的模型其實(shí)本質(zhì)上把這些難樣本也發(fā)掘出來(lái)了。

  總結(jié)一下,到今天為止其實(shí)AI是一個(gè)大潮流,第三次潮流,在這個(gè)在落地的過(guò)程當(dāng)中我們也意識(shí)到一個(gè)巨大的問(wèn)題,每一個(gè)AI產(chǎn)品的落地都需要重新采集數(shù)據(jù)集,都需要從零開(kāi)始訓(xùn)練模型,這其實(shí)對(duì)AI的落地應(yīng)用是有很大限制的。我們希望通過(guò)這種資源受限的機(jī)器學(xué)習(xí)研究,來(lái)得以使這方面得到一定的突破,當(dāng)然其實(shí)現(xiàn)在從學(xué)術(shù)角度的研究,我們還有更多的方向在做,比如說(shuō)自監(jiān)督學(xué)習(xí)等等,我認(rèn)為這些都是未來(lái)AI能夠真正從一個(gè)行業(yè)或者說(shuō)領(lǐng)域人工智能走向真正通用人工智能的必經(jīng)之路。

  謝謝大家!

分享到:
責(zé)任編輯:zsz

網(wǎng)友評(píng)論