欧美,日韩中文字幕在线,男女性杂交内射妇女bbwxz,久久99久久9国产精品免费看,久久久久无码精品国产app,免费无码成人片

a&s專業(yè)的自動(dòng)化&安全生態(tài)服務(wù)平臺(tái)
公眾號(hào)
安全自動(dòng)化

安全自動(dòng)化

安防知識(shí)網(wǎng)

安防知識(shí)網(wǎng)

手機(jī)站
手機(jī)站

手機(jī)站

大安防供需平臺(tái)
大安防供需平臺(tái)

大安防供需平臺(tái)

資訊頻道橫幅A1
首頁(yè) > 資訊 > 正文

騰訊優(yōu)圖實(shí)驗(yàn)室團(tuán)隊(duì)在單目深度估計(jì)取得新突破

共同提出了半監(jiān)督對(duì)抗單目深度估計(jì),有望充分利用海量的無標(biāo)簽數(shù)據(jù)所蘊(yùn)含的信息,結(jié)合少量有標(biāo)簽數(shù)據(jù)以半監(jiān)督的形式對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。

  據(jù)悉,騰訊優(yōu)圖與廈門大學(xué)聯(lián)合團(tuán)隊(duì),共同提出了半監(jiān)督對(duì)抗單目深度估計(jì),有望充分利用海量的無標(biāo)簽數(shù)據(jù)所蘊(yùn)含的信息,結(jié)合少量有標(biāo)簽數(shù)據(jù)以半監(jiān)督的形式對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。據(jù)悉,該研究成果已被人工智能領(lǐng)域最頂級(jí)的國(guó)際期刊TPAMI收錄。

  長(zhǎng)期以來,基于深度卷積神經(jīng)網(wǎng)絡(luò)的分類、回歸任務(wù)大多依賴大量的有標(biāo)簽數(shù)據(jù)來對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。而在實(shí)際的算法部署中,往往只有海量的無標(biāo)簽數(shù)據(jù)以及非常少量的標(biāo)簽數(shù)據(jù)。如何充分利用這些少量的標(biāo)簽數(shù)據(jù),使其達(dá)到和大量有標(biāo)簽數(shù)據(jù)下訓(xùn)練的模型相近的效果,對(duì)學(xué)術(shù)界和工業(yè)界來說一直都是一個(gè)難題。

  據(jù)騰訊優(yōu)圖的研究員介紹,該項(xiàng)研究的核心難點(diǎn)在于,如何從無標(biāo)簽數(shù)據(jù)中獲取監(jiān)督信息。傳統(tǒng)方法一般需要同一場(chǎng)景的圖像序列作為輸入,通過構(gòu)建立體幾何關(guān)系來隱式地對(duì)深度進(jìn)行重建。這種方法要求同一場(chǎng)景至少包含兩張以上的圖像,一般需要雙目攝像頭或視頻序列才可以滿足。騰訊優(yōu)圖與廈門大學(xué)聯(lián)合團(tuán)隊(duì),提出在一個(gè)對(duì)抗訓(xùn)練的框架中,解除圖像對(duì)判別器對(duì)真假樣本必須為同一圖像的要求,“真樣本對(duì)”采用有標(biāo)簽數(shù)據(jù)的RGB圖像以及對(duì)應(yīng)的真實(shí)深度圖,“偽樣本對(duì)”采用無標(biāo)簽RGB圖像以及用生成器網(wǎng)絡(luò)預(yù)測(cè)出的深度圖,由判別器網(wǎng)絡(luò)區(qū)分預(yù)測(cè)出的深度圖與對(duì)應(yīng)RGB直接是否符合真實(shí)的聯(lián)合概率分布,進(jìn)而從無標(biāo)簽數(shù)據(jù)中收獲監(jiān)督信息。與此同時(shí),通過添加深度圖判別器,來約束預(yù)測(cè)的深度圖與真實(shí)深度圖的分布一致性。該方法輸入可以為任意無關(guān)聯(lián)圖像,應(yīng)用場(chǎng)景更加廣泛。而從實(shí)驗(yàn)結(jié)果也發(fā)現(xiàn),當(dāng)主流的深度估計(jì)網(wǎng)絡(luò)作為一個(gè)生成器網(wǎng)絡(luò)安插在半監(jiān)督框架中時(shí),都可以收獲顯著的效果提升。

  在研究的量化指標(biāo)上,利用半監(jiān)督對(duì)抗框架,當(dāng)有標(biāo)簽數(shù)據(jù)很少(500張)的情況下,僅使用250張無標(biāo)簽RGB圖像就可以收獲優(yōu)于其他state-of-the-art方法的效果。當(dāng)固定有標(biāo)簽數(shù)據(jù)量(500張),持續(xù)增加無標(biāo)簽RGB圖像可以進(jìn)一步對(duì)效果帶來提升,最終當(dāng)利用五萬張無標(biāo)簽RGB圖像后,該方法在各項(xiàng)指標(biāo)上都遠(yuǎn)超當(dāng)前的state-of-the-art方法。

  據(jù)騰訊優(yōu)圖的研究員介紹,該研究方法雖然以單目深度預(yù)測(cè)為實(shí)驗(yàn),但過程中發(fā)現(xiàn)對(duì)于語(yǔ)義分割任務(wù)也有相似的效果提升。與此同時(shí),當(dāng)模型訓(xùn)練與算法部署的環(huán)境存在差異時(shí)(即存在Domain Shift),若有標(biāo)簽數(shù)據(jù)為源域中的數(shù)據(jù),而無標(biāo)簽數(shù)據(jù)為算法部署的目標(biāo)域中的數(shù)據(jù),該方法還可以起到Domain Adaptation的效果,提升模型在目標(biāo)域的部署效果,該觀察也在非同源場(chǎng)景下的ReID任務(wù)中得到了初步的驗(yàn)證。

  總的來說,該項(xiàng)研究的核心在于充分挖掘無標(biāo)簽樣本所蘊(yùn)含的信息,減少對(duì)標(biāo)簽數(shù)據(jù)的依賴,未來有望在場(chǎng)景重建、非同源場(chǎng)景ReID等多個(gè)方案中進(jìn)行應(yīng)用。


參與評(píng)論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評(píng)論區(qū)僅供其表達(dá)個(gè)人看法,并不表明a&s觀點(diǎn)。
0
    資訊頻道右側(cè)A2-1
    關(guān)于我們

    a&s傳媒是全球知名展覽公司法蘭克福展覽集團(tuán)旗下的專業(yè)媒體平臺(tái),自1994年品牌成立以來,一直專注于安全&自動(dòng)化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場(chǎng)趨勢(shì)的專業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國(guó)際行業(yè)展覽會(huì)資源以及豐富的媒體經(jīng)驗(yàn),提供媒體、活動(dòng)、展會(huì)等整合營(yíng)銷服務(wù)。

    免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺(tái)。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請(qǐng)聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請(qǐng)諒解!
    ? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
    法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號(hào) 粵公網(wǎng)安備 44030402000264號(hào)
    用戶
    反饋