張婭:做人工智能研究這四個(gè)要素是缺一不可
以下為演講全文:
今天下午很榮幸能在2019年未來(lái)論壇·深圳技術(shù)峰會(huì)跟大家分享一下我們?cè)谫Y源受限下機(jī)器學(xué)習(xí)方面的一些成果。現(xiàn)在我們站在人工智能的巨大風(fēng)口上,當(dāng)我們談到人工智能的時(shí)候,我們自然而然會(huì)想到人工智能的四個(gè)重要因素,這里面有數(shù)據(jù)、算法、計(jì)算以及最后的應(yīng)用場(chǎng)景,我們?cè)谧鋈斯ぶ悄苎芯康臅r(shí)候,其實(shí)這四個(gè)要素是缺一不可的,但是我的研究中想重點(diǎn)從數(shù)據(jù)的緯度展開(kāi)。
剛才彭總也介紹了,我們?nèi)斯ぶ悄芑蛘哒f(shuō)機(jī)器學(xué)習(xí)的研究過(guò)程當(dāng)中,首先我們需要積累大量的訓(xùn)練數(shù)據(jù),對(duì)每一個(gè)具體的任務(wù)我們都需要構(gòu)件一個(gè)Dedicated的數(shù)據(jù)集,它是非常費(fèi)時(shí)費(fèi)力的,舉個(gè)例子來(lái)說(shuō),斯坦福有一個(gè)非常著名的數(shù)據(jù)集ImageNet,這個(gè)數(shù)據(jù)集的構(gòu)建可能耗時(shí)長(zhǎng)達(dá)四五年之久,最后通過(guò)亞馬遜的Mechanic Turk完成的,這個(gè)數(shù)據(jù)集被認(rèn)為是廣泛的驅(qū)動(dòng)了這一屆人工智能的興起,在之后我們也看到各個(gè)大公司,包括微軟,包括Google都開(kāi)始推出了類(lèi)似的數(shù)據(jù)集,這些數(shù)據(jù)為我們學(xué)界的研究也提供了重大的數(shù)據(jù)資源。大家可以看這個(gè)表格,都是以百萬(wàn)級(jí)規(guī)模的數(shù)據(jù)集,對(duì)于很多行業(yè)的應(yīng)用來(lái)說(shuō),我們要快速的積累這么大規(guī)模的數(shù)據(jù)集,其實(shí)是不可行的,拿一個(gè)例子來(lái)說(shuō),在醫(yī)療這個(gè)領(lǐng)域,存在很多罕見(jiàn)病,全世界的病人加起來(lái)可能也不超過(guò)萬(wàn)例,對(duì)于這種病的研究,我們?cè)趺匆蕾?lài)少量的數(shù)據(jù)進(jìn)行學(xué)習(xí)呢?所以我們的研究主要聚焦在如何減少數(shù)據(jù)標(biāo)注的代價(jià),我們將從三個(gè)方面來(lái)展開(kāi)。
第一方面是能不能標(biāo)注更少的數(shù)據(jù),也就是不要標(biāo)注所有的數(shù)據(jù)。第二是能不能減少標(biāo)注的單位成本,也就是說(shuō)用一個(gè)更粗糙的方式進(jìn)行標(biāo)注,而不是用非常完美的方式。第三是我們現(xiàn)在在網(wǎng)上其實(shí)可以采集大量的數(shù)據(jù),這些數(shù)據(jù)自然而然的就有一些標(biāo)注信息給到我們,只是這些標(biāo)注信息是含有大量噪聲的,怎么讓我們的模型容忍這些噪聲,或者從這些噪聲當(dāng)中仍然能夠提取出來(lái)有效的成分,訓(xùn)練這個(gè)模型。這就是我要講的資源受限下的機(jī)器學(xué)習(xí)。
首先來(lái)看一下怎么減少我的標(biāo)注數(shù)量,這里我們采取的是主動(dòng)采樣、主動(dòng)學(xué)習(xí)的方式,我們通過(guò)選擇性的標(biāo)注,而不是用隨機(jī)性的方式進(jìn)行標(biāo)注,達(dá)到節(jié)約標(biāo)注成本的目的。
傳統(tǒng)的機(jī)器學(xué)習(xí)通常采用被動(dòng)學(xué)習(xí)。一個(gè)標(biāo)準(zhǔn)流程是假設(shè)我們有大量的數(shù)據(jù),我們以一種隨機(jī)的方式根據(jù)數(shù)據(jù)分布從數(shù)據(jù)當(dāng)中選取一些樣本,請(qǐng)專(zhuān)業(yè)專(zhuān)家或者是請(qǐng)一些有標(biāo)注能力的人來(lái)進(jìn)行標(biāo)注。這樣建立的模型,相當(dāng)于我們的數(shù)據(jù)采集過(guò)程是一個(gè)比較簡(jiǎn)單、被動(dòng)的過(guò)程,而主動(dòng)學(xué)習(xí)恰恰是在數(shù)據(jù)采集的過(guò)程就開(kāi)始進(jìn)行學(xué)習(xí),這里我們是在數(shù)據(jù)采集的時(shí)候?qū)γ恳粋(gè)數(shù)據(jù)樣本進(jìn)行評(píng)分,我們?nèi)ピu(píng)估這個(gè)樣本是不是對(duì)我們的模型訓(xùn)練會(huì)有用,當(dāng)這個(gè)樣本對(duì)模型訓(xùn)練有用的時(shí)候,我們才送給人工標(biāo)注,這樣我們可以極大地減少數(shù)據(jù)標(biāo)注的代價(jià)。但問(wèn)題又來(lái)了,我們還沒(méi)有模型,還沒(méi)有訓(xùn)練模型,我們只有一堆數(shù)據(jù),我們?cè)趺粗肋@一堆數(shù)據(jù)哪些對(duì)我們的模型訓(xùn)練是有用的,哪些對(duì)我們的模型訓(xùn)練是沒(méi)用的?挑戰(zhàn)在于我們?nèi)绾味x這個(gè)有用性。
在這個(gè)方面,我們提出了一個(gè)方法,首先我們認(rèn)為如果一個(gè)樣本對(duì)模型訓(xùn)練有用,它要能夠改變當(dāng)前的模型,如果它和當(dāng)前的模型融合的非常好,那么它不可能對(duì)模型有所改變,也就是說(shuō)它不可能對(duì)我們的模型起到改良和改進(jìn)的作用。因此我們提出要選擇最有可能改變模型參數(shù)的這些樣本,這樣的樣本就能夠起到改進(jìn)模型的作用。
所以基于這個(gè)思路,我們就設(shè)計(jì)了基于一種隨機(jī)梯度下降的方式選擇對(duì)每一個(gè)樣本進(jìn)行評(píng)分的方式,隨機(jī)梯度下降本質(zhì)上是模擬了模型訓(xùn)練的方式,去評(píng)估每一個(gè)樣本對(duì)模型參數(shù)改變的能力。我們?cè)趧偛胖v的斯坦福ImageNet數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果用這個(gè)曲線圖表示。紅色曲線是我們通過(guò)主動(dòng)學(xué)習(xí)所得到的精確率,曲線越高,說(shuō)明效果越好。下面紫色的線是隨機(jī)的方式,可以看到通過(guò)主動(dòng)學(xué)習(xí),我們可以在相同數(shù)據(jù)量的情況下顯著的提升模型的精確度,或者說(shuō)在相同精確度的情況下顯著的減少標(biāo)注的數(shù)量。
下面來(lái)說(shuō)第二個(gè)方面的工作,我們?cè)趺蠢酶植诘臉?biāo)簽,這里我們提出的方法是通過(guò)一種弱監(jiān)督的方式。首先我們來(lái)看一些具體的應(yīng)用場(chǎng)景,我們選擇的一個(gè)應(yīng)用場(chǎng)景是精細(xì)粒度的語(yǔ)義識(shí)別,對(duì)于這一類(lèi)的問(wèn)題,它有一個(gè)非常特殊的,或者說(shuō)非常顯著的特性。大家如果看右邊這幅圖,我們有三個(gè)類(lèi)型的海鷗,這三個(gè)類(lèi)型的海鷗如果我們拍照的時(shí)候,他們pose是相同的話(huà),其實(shí)看起來(lái)它們之間的差異是非常非常小的,同一只海鷗在不同pose的情況下,它的差異性其實(shí)是非常大的。也就是說(shuō),我們這一類(lèi)的任務(wù),它的類(lèi)別與類(lèi)別之間的差異性有時(shí)候會(huì)反而小于類(lèi)別內(nèi)部的差異性,這就對(duì)我們機(jī)器學(xué)習(xí)帶來(lái)了極大的挑戰(zhàn)。
同時(shí),從標(biāo)注的角度,大家如果不是鳥(niǎo)類(lèi)的愛(ài)好者,當(dāng)你看到這些照片的時(shí)候,你很難區(qū)分它到底是哪一類(lèi)的海鷗,就需要有非常專(zhuān)業(yè)的人士,可能是鳥(niǎo)類(lèi)科學(xué)家,可能是專(zhuān)門(mén)在這方面有所建樹(shù)的人士來(lái)標(biāo)注,這個(gè)代價(jià)就非常高。因?yàn)轭?lèi)類(lèi)之間的差距大于類(lèi)間的差距,他們之間的區(qū)分可能是在一些細(xì)節(jié)上,而不是在鳥(niǎo)的身體整體上。大家可以看右邊這個(gè)圖,鳥(niǎo)身上有很多小點(diǎn),每個(gè)小點(diǎn)就代表我們需要在局部精細(xì)粒度的標(biāo)注點(diǎn),我們需要通過(guò)這些標(biāo)注點(diǎn)知道鳥(niǎo)的眼睛在哪里,嘴巴在哪里等等,這些標(biāo)注的代價(jià)是非常高的,平均來(lái)說(shuō)標(biāo)注一張照片要花1分鐘甚至更多的時(shí)間。
所以在這個(gè)工作里我們提出了一種弱監(jiān)督的方式進(jìn)行標(biāo)注,我們不需要你告訴我鳥(niǎo)的頭在哪里,鳥(niǎo)的身體在哪里,所有細(xì)粒度的標(biāo)注我們都沒(méi)有,我們只有一個(gè)圖片級(jí)的標(biāo)注,告訴我們這個(gè)鳥(niǎo)是哪一類(lèi)的鳥(niǎo)。在這個(gè)框架上我們利用了剛才說(shuō)到的類(lèi)間之間的相似性,當(dāng)我們要定位這只鳥(niǎo)的時(shí)候,本質(zhì)上不同類(lèi)別的鳥(niǎo)其實(shí)是非常相似的,所以我們可以利用它之間的相似性進(jìn)行前景和背景的區(qū)分,當(dāng)我們?cè)缍ㄎ坏搅锁B(niǎo)的位置的時(shí)候,我們?cè)侔褍深?lèi)不同的鳥(niǎo)作為敵人來(lái)進(jìn)行對(duì)抗學(xué)習(xí),這樣的方式我們就可以達(dá)到一個(gè)實(shí)現(xiàn)區(qū)分不同類(lèi)別鳥(niǎo)的目的。
所以當(dāng)它們是在朋友階段的時(shí)候,相當(dāng)于我們要通過(guò)聯(lián)合不同類(lèi)別的鳥(niǎo)共同學(xué)習(xí),來(lái)達(dá)到一個(gè)更好定位的目的。當(dāng)它們成為敵人的時(shí)候,我們是通過(guò)用一個(gè)多分類(lèi)任務(wù)的來(lái)區(qū)分它到底是哪一類(lèi)的鳥(niǎo),這里面因?yàn)檫是弱監(jiān)督的問(wèn)題,我們不知道它到底是哪一個(gè)特性導(dǎo)致了這個(gè)分類(lèi),所以這里我們用了Multiple Instance Learning的方法來(lái)進(jìn)行實(shí)現(xiàn)。
這是我們最終的實(shí)驗(yàn)結(jié)果,可以看到我們的方法最終取得了在弱監(jiān)督精細(xì)粒度分類(lèi)上最好的結(jié)果,用了三個(gè)數(shù)據(jù)集,前兩個(gè)是斯坦福鳥(niǎo)的數(shù)據(jù)集,后面一個(gè)是不同亞類(lèi)的狗的數(shù)據(jù)集,我們沒(méi)有用到框級(jí)的標(biāo)注信息,所以我們?nèi)趸藰?biāo)注信息,達(dá)到了節(jié)約訓(xùn)練成本的目的。
對(duì)于用更弱的這種標(biāo)簽,還可以用一些網(wǎng)絡(luò)的數(shù)據(jù)來(lái)進(jìn)行提升。假如說(shuō)我們是一個(gè)很小量的,但是是強(qiáng)標(biāo)注的數(shù)據(jù)集。這些數(shù)據(jù)可以幫助我們提供一些專(zhuān)家的知識(shí),同時(shí)我們可以是非常便宜、非常廉價(jià)的弱標(biāo)注的數(shù)據(jù)集,它的弱點(diǎn)在于沒(méi)有精細(xì)粒度的標(biāo)注,它的標(biāo)注在圖象集的標(biāo)注噪聲是非常高的,會(huì)導(dǎo)致大量的噪聲存在。
所以在這里我們?cè)O(shè)計(jì)了一個(gè)基于Transfer Learning的思路,設(shè)計(jì)了一個(gè)強(qiáng)監(jiān)督+弱監(jiān)督數(shù)據(jù)協(xié)同的學(xué)習(xí)框架,在這個(gè)框架下,基于小量的強(qiáng)監(jiān)督數(shù)據(jù),我們構(gòu)建一個(gè)模型,這個(gè)模型包括了有特征提取、檢測(cè)器等,我們可以用這些構(gòu)建的模型把這些信息轉(zhuǎn)移到網(wǎng)絡(luò)數(shù)據(jù)集上,對(duì)網(wǎng)絡(luò)信息進(jìn)行一些標(biāo)注,我們通過(guò)設(shè)計(jì)噪聲消除模型把網(wǎng)絡(luò)數(shù)據(jù)的噪聲給扔掉,我們可以不斷地進(jìn)行迭代,把這類(lèi)高置信度的樣本加入到強(qiáng)監(jiān)督的數(shù)據(jù)集,通過(guò)這種自學(xué)習(xí)的方式,最后達(dá)到一個(gè)模型提升的效果。這還是在斯坦福鳥(niǎo)類(lèi)數(shù)據(jù)集的效果,有10個(gè)點(diǎn)的提升,這個(gè)提升是非常顯著的。
我們這里也比較了一下,當(dāng)我們不斷地增加網(wǎng)絡(luò)數(shù)據(jù)集的時(shí)候,是不是可以不斷地有更多的增益。在上面這個(gè)曲線圖里面,這個(gè)紅色的代表了我們用強(qiáng)監(jiān)督和弱監(jiān)督的數(shù)據(jù)共同學(xué)習(xí)的結(jié)果。可以看到當(dāng)我們?cè)诓粩嗟卦黾用恳活?lèi)網(wǎng)絡(luò)圖象數(shù)目的時(shí)候,這個(gè)曲線是在不斷上升的,證明我們加入的強(qiáng)數(shù)據(jù)是有效的。這里綠線是用了包圍框的標(biāo)注,藍(lán)線是只用了弱監(jiān)督的標(biāo)注。可以看到,哪怕我們只用了弱監(jiān)督的數(shù)據(jù),當(dāng)我們的數(shù)據(jù)量足夠高的時(shí)候,其實(shí)我們也會(huì)超過(guò)只用少量強(qiáng)監(jiān)督的數(shù)據(jù),這證明了弱監(jiān)督學(xué)習(xí)是非常有用的。
這里我們反過(guò)來(lái),我們想證明如果我們使用非常非常少的強(qiáng)監(jiān)督數(shù)據(jù),是不是還能達(dá)到有效學(xué)習(xí)的目的。在這里我們用了兩類(lèi)參數(shù),第一個(gè)是用了每一類(lèi)有30個(gè)強(qiáng)監(jiān)督的數(shù)據(jù),第二個(gè)實(shí)驗(yàn)當(dāng)中,每一類(lèi)只用5個(gè)強(qiáng)監(jiān)督數(shù)據(jù),每一類(lèi)的鳥(niǎo)我們只有5張照片,可以看到其實(shí)到最后的結(jié)果,這兩個(gè)的差異已經(jīng)并不是特別大。如果在資源受限的情況下,我們不能有非常大的、海量標(biāo)注的時(shí)候,其實(shí)這個(gè)實(shí)驗(yàn)結(jié)果也還是可以接受的。
我們第三個(gè)研究的弱監(jiān)督,我們希望通過(guò)一種協(xié)同學(xué)習(xí)的機(jī)制來(lái)提升弱監(jiān)督的學(xué)習(xí)效果,這里簡(jiǎn)單介紹一下應(yīng)用場(chǎng)景,研究一個(gè)弱監(jiān)督的物體檢測(cè)的場(chǎng)景,在物體檢測(cè)的時(shí)候,通常來(lái)說(shuō)我們也是要對(duì)物體檢測(cè)場(chǎng)景做包圍框的標(biāo)注,這是我們的訓(xùn)練數(shù)據(jù)。這里強(qiáng)監(jiān)督的算法,都是用原始包圍框來(lái)進(jìn)行標(biāo)注,它的好處是這個(gè)模型會(huì)非常快,因?yàn)樗哪P褪且粋(gè)非常快的結(jié)構(gòu)。
對(duì)于提出的弱監(jiān)督的模型,其實(shí)它的性能跟強(qiáng)監(jiān)督有一個(gè)比較大的差異,其次在運(yùn)行速度方面,因?yàn)樗械评頇C(jī)制,所以會(huì)比較慢。在我們的工作當(dāng)中,我們希望通過(guò)一些方式在弱監(jiān)督和強(qiáng)監(jiān)督學(xué)習(xí)的算法中架一座橋,我們希望把他們兩個(gè)同時(shí)進(jìn)行訓(xùn)練,我們用一個(gè)協(xié)同學(xué)習(xí)的機(jī)制同時(shí)訓(xùn)練一個(gè)強(qiáng)監(jiān)督模型和弱監(jiān)督模型,并且在訓(xùn)練當(dāng)中用某種機(jī)制讓這個(gè)強(qiáng)監(jiān)督模型和弱監(jiān)督模型互相增強(qiáng)。這就是我們?cè)谟?xùn)練弱監(jiān)督模型的時(shí)候可以用圖片集的分類(lèi)損失函數(shù)來(lái)進(jìn)行訓(xùn)練,來(lái)優(yōu)化它。但是因?yàn)槲覀儧](méi)有,我們通過(guò)模型讓強(qiáng)監(jiān)督模型得到的預(yù)測(cè)結(jié)果和弱監(jiān)督模型預(yù)測(cè)得到的結(jié)果這么一個(gè)條件來(lái)訓(xùn)練整個(gè)模型、整個(gè)網(wǎng)絡(luò)。同時(shí)我們假設(shè)不管是強(qiáng)監(jiān)督模型還是弱監(jiān)督模型,它需要一定的一致性,所以我們又設(shè)計(jì)了部分特征共享的網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)這兩個(gè),也就是我們預(yù)測(cè)一致性的損失函數(shù)以及網(wǎng)絡(luò)參數(shù)部分共享的機(jī)制設(shè)計(jì),來(lái)達(dá)到協(xié)同訓(xùn)練的目的。
這是網(wǎng)絡(luò)結(jié)構(gòu),我就不細(xì)講了,這是最后的損失函數(shù),所以我們有一個(gè)分類(lèi)的損失函數(shù),有一個(gè)一致性的損失函數(shù),在一致性損失函數(shù)當(dāng)中又分為兩部分,一部分是他們的分類(lèi)要一致,其次是它們的定位結(jié)果要一致,所以我們要兩個(gè)一致,由兩部分組成。
我們來(lái)看結(jié)果,藍(lán)色那條線是弱監(jiān)督的模型學(xué)到的精確度,紅色這條線是強(qiáng)監(jiān)督模型學(xué)到的精確度,我們可以看到非常有意思的,首先兩個(gè)模型在訓(xùn)練過(guò)程當(dāng)中都在協(xié)同爬升,都有比較大的提升,但是強(qiáng)監(jiān)督模型是遠(yuǎn)遠(yuǎn)高于弱監(jiān)督的,強(qiáng)監(jiān)督比弱監(jiān)督高出近10個(gè)點(diǎn)的準(zhǔn)確率。
同時(shí)我們用這個(gè)表格來(lái)對(duì)比一下其他的,我們?nèi)绻挥萌醣O(jiān)督進(jìn)行訓(xùn)練,當(dāng)我們加入強(qiáng)監(jiān)督這個(gè)協(xié)同訓(xùn)練機(jī)制的時(shí)候,我們不但提升了強(qiáng)監(jiān)督,我們對(duì)弱監(jiān)督本身也有提升。
這是我們的結(jié)果,可以看到通過(guò)這個(gè)協(xié)同學(xué)習(xí)的機(jī)制,我們學(xué)到的這個(gè)模型可以學(xué)到更緊密的包圍框,同時(shí)識(shí)別檢測(cè)出來(lái)的物品數(shù)量也更加多。
在一些標(biāo)準(zhǔn)的Benchmark上面進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果也表明我們通過(guò)這種協(xié)同學(xué)習(xí)得到的結(jié)果達(dá)到了當(dāng)時(shí)的表現(xiàn)。這是在VOC2012上的數(shù)據(jù)集,這兩個(gè)都是目標(biāo)預(yù)測(cè)數(shù)據(jù)集。
最后一個(gè)就是剛才講了網(wǎng)絡(luò)數(shù)據(jù)學(xué)習(xí)是一個(gè)方向,但是網(wǎng)絡(luò)數(shù)據(jù)天然有大量的噪聲,所以我們?cè)趺催M(jìn)行噪聲的建模,所以我們這里重點(diǎn)研究了噪聲遷移的模型。我們現(xiàn)在從更多的研究醫(yī)療影象的角度來(lái)說(shuō),有數(shù)據(jù)表明同一張影像、同一個(gè)醫(yī)生在不同時(shí)間去讀片,正確率只能到15%,如果是兩個(gè)醫(yī)生,可以到25%,所以可以看到這種標(biāo)注噪聲其實(shí)是廣泛存在的。這是我們提出的噪聲遷移模型的例子,假設(shè)我們有一系列的,這個(gè)圖像其實(shí)有一個(gè)標(biāo)簽,這個(gè)標(biāo)簽是我們想學(xué)的東西,我們希望通過(guò)這個(gè)圖模型,我們最后觀察到的這個(gè)標(biāo)簽是Y,我們相當(dāng)于想學(xué)X到Y(jié)之間的,就是Z。
這里我們提出的,因?yàn)槲覀冎苯訌腦到Z到Y(jié)這個(gè)學(xué)習(xí)過(guò)程是很難的,因?yàn)橛幸粋(gè)傳遞性存在。其實(shí)我們可以提出來(lái)關(guān)于標(biāo)簽的Quality Embedding,就是下面這個(gè)圖,當(dāng)我們有一個(gè)機(jī)制的時(shí)候,我們就可以通過(guò)Quality Embedding,這樣我們就可以學(xué)會(huì)真正的clean標(biāo)簽是什么。
在這個(gè)數(shù)據(jù)集上,也是用剛才的數(shù)據(jù)集進(jìn)行訓(xùn)練,這個(gè)數(shù)據(jù)集是一個(gè)非常干凈的數(shù)據(jù)集,所以我們?cè)谶@個(gè)數(shù)據(jù)集里面標(biāo)注信息,這樣的數(shù)據(jù)集我們可以控制噪聲的比例,大家可以看到表上,第一列Pnoise,我們可以看到盡管到0.6,也就是說(shuō)其實(shí)絕大多數(shù)的標(biāo)簽都含有噪聲,最終我們的模型還可以學(xué)到63.2%的精確度,這其實(shí)是非常有意思的,照理說(shuō)所有的標(biāo)簽都被Reverse了,應(yīng)該很難學(xué)習(xí)到真實(shí)標(biāo)簽。檔標(biāo)簽噪聲從0.2到0.4,我們看到結(jié)果會(huì)有一個(gè)顯著性的提升。
這是雅虎Flicker的一個(gè)數(shù)據(jù)集上進(jìn)行的測(cè)試,這是2007年VOC的結(jié)果,可以看到是非常Consistent的,在絕大多數(shù)的數(shù)據(jù)集上我們的結(jié)果。這張圖,剛才講了,我們有一個(gè)噪聲嵌入模型,相當(dāng)于我們有一個(gè)標(biāo)注的,左邊是說(shuō)假如說(shuō)我這個(gè)Quality是可信的,那么我們來(lái)看我的標(biāo)簽是怎么轉(zhuǎn)移的,從Z到Y(jié)的轉(zhuǎn)移可以想象成行是Z,列是Y,可以看到這時(shí)候大量的激活其實(shí)是沿著對(duì)角線,說(shuō)明它的標(biāo)簽信息是一致的,Y等于Z,才在對(duì)角線上進(jìn)行激活。當(dāng)表明它的是很高的時(shí)候,遷移就在對(duì)角線上進(jìn)行。右邊是說(shuō)這些是不可信的,標(biāo)簽質(zhì)量很差的時(shí)候,可以看到我們的遷移可以在任何兩類(lèi)之間發(fā)生。
這是我們最終訓(xùn)練得到的結(jié)果,上面這兩行代表了我們的Correction。它的數(shù)據(jù)集標(biāo)簽,它被標(biāo)定為一個(gè)瓶子,但其實(shí)大家可以看到它其實(shí)是一個(gè)飛機(jī)。我們通過(guò)這個(gè)模型可以非常好的把這個(gè)正確的標(biāo)簽給恢復(fù)出來(lái),這個(gè)模型其實(shí)也面臨一個(gè)問(wèn)題,有些時(shí)候其實(shí)是難樣本,大家看最后一列,最后一列是非常有趣的,基本上都是一些狗的例子,這些狗的亞類(lèi),我們?nèi)耸呛茈y區(qū)分的,我也不知道它是分對(duì)了還是分錯(cuò)了,我們的模型其實(shí)本質(zhì)上把這些難樣本也發(fā)掘出來(lái)了。
總結(jié)一下,到今天為止其實(shí)AI是一個(gè)大潮流,第三次潮流,在這個(gè)在落地的過(guò)程當(dāng)中我們也意識(shí)到一個(gè)巨大的問(wèn)題,每一個(gè)AI產(chǎn)品的落地都需要重新采集數(shù)據(jù)集,都需要從零開(kāi)始訓(xùn)練模型,這其實(shí)對(duì)AI的落地應(yīng)用是有很大限制的。我們希望通過(guò)這種資源受限的機(jī)器學(xué)習(xí)研究,來(lái)得以使這方面得到一定的突破,當(dāng)然其實(shí)現(xiàn)在從學(xué)術(shù)角度的研究,我們還有更多的方向在做,比如說(shuō)自監(jiān)督學(xué)習(xí)等等,我認(rèn)為這些都是未來(lái)AI能夠真正從一個(gè)行業(yè)或者說(shuō)領(lǐng)域人工智能走向真正通用人工智能的必經(jīng)之路。
謝謝大家!
網(wǎng)友評(píng)論
高端訪談排行
- 聯(lián)想楊元慶:我不擔(dān)心AI的發(fā)展會(huì)超出人類(lèi)的控制
- 余承東:31年前我就是軟件工程師,鴻蒙應(yīng)用開(kāi)發(fā)“效率很高”
- 俞敏洪:實(shí)體店還有一次回歸的潮流
- 天工鉸鏈系統(tǒng)攻克三折疊行業(yè)難題 李小龍揭秘華為Mate XT非
- 中國(guó)人民銀行郭建偉:走出去的外匯風(fēng)險(xiǎn)不可避免 但是有辦法
- 雷軍:小米超級(jí)大壓鑄達(dá)到9100t,特斯拉剛剛在美國(guó)落成9000t
- 俞敏洪:相信董宇輝孫東旭能夠好好相處,在我的領(lǐng)導(dǎo)下這種事
- 摩爾線程創(chuàng)始人張建中:從今年開(kāi)始,萬(wàn)卡將成為智算中心最低
- TCL王成:TCL“2018年度賬單”喜人,源于這兩點(diǎn)做得好
- 海爾集團(tuán)李華剛:攀登世界品牌高地
延伸閱讀
- 英特爾CEO:5G野心不會(huì)受暫時(shí)困境影響
- 榮耀張曉云:95后成數(shù)字消費(fèi)主力軍 開(kāi)啟四個(gè)極具戰(zhàn)略
- 張近東:今年面臨更大挑戰(zhàn) 讓員工拿到最具競(jìng)爭(zhēng)力薪酬
- 馬斯克:自動(dòng)駕駛可讓特斯拉成為5000億美元的公司
- 庫(kù)克首談5G iPhone:暫不考慮 需仔細(xì)評(píng)估
- 李彥宏:未來(lái)沒(méi)有一家企業(yè)可以聲稱(chēng)與人工智能無(wú)關(guān)
- 京東數(shù)科CEO陳生強(qiáng):數(shù)字科技是產(chǎn)業(yè)數(shù)字化升級(jí)必選項(xiàng)
- 蘇寧卞農(nóng):為消費(fèi)者撒下今夏小龍蝦第一網(wǎng)
- 專(zhuān)訪「算法之父」Michael Saunders:人工智能未來(lái)的突破點(diǎn)
- 李東生:超高清視頻產(chǎn)業(yè)發(fā)展需企業(yè)積極作為、加速創(chuàng)新
最新高端訪談
- 李衛(wèi)澤:水電雙調(diào)全恒溫已經(jīng)成為行業(yè)高端新品標(biāo)配
- 余承東:我們做產(chǎn)品就覺(jué)得己所不欲勿施于人
- 周鴻祎:電商作為原生互聯(lián)網(wǎng)行業(yè) 天然適合大模型
- 天工鉸鏈系統(tǒng)攻克三折疊行業(yè)難題 李小龍揭秘華為
- 李彥宏:智能體是我最看好的AI應(yīng)用方向
- 院士談虛擬現(xiàn)實(shí):虛實(shí)融合貫通技術(shù)需多方面支持
- 楊元慶:制造企業(yè)要充分把握AI2.0變革機(jī)遇
- 阿里CEO吳泳銘談生成式AI:將創(chuàng)造10倍于互聯(lián)網(wǎng)的
- 月之暗面楊植麟:AI時(shí)代超級(jí)應(yīng)用是助理,未來(lái)5到
- 英偉達(dá)CEO黃仁勛:AI時(shí)代摩爾定律已失效 加速計(jì)