5月9日消息,近期,作為成渝地區(qū)東數(shù)西算的深度參與者,特斯聯(lián)對外公布了其計(jì)算機(jī)視覺(CV)領(lǐng)域的多個(gè)科研突破,并有8篇論文被CVPR、TPAMI等頂級國際學(xué)術(shù)會(huì)議和期刊收錄。
此次,特斯聯(lián)在 CV 領(lǐng)域的科研突破涵蓋了語義分割、圖像增強(qiáng)、顯著物體識別、遷移學(xué)習(xí)、行為識別等方面。其中不少創(chuàng)新技術(shù)打破了現(xiàn)有技術(shù)上限,亦開發(fā)了數(shù)個(gè)性能更優(yōu)、識別更快、效率更高的模型,這些技術(shù)研究的應(yīng)用與推廣將會(huì)成為特斯聯(lián)賦能城市數(shù)字化、智能化的有力保障。
據(jù)介紹,特斯聯(lián)集團(tuán)首席科學(xué)家兼特斯聯(lián)國際總裁邵嶺及其團(tuán)隊(duì)在該領(lǐng)域中提出的圖像和視頻的識別和學(xué)習(xí)各算法,縮短了訓(xùn)練和推理時(shí)間,從圖像識別提升、識別效率提升以及解決數(shù)據(jù)標(biāo)注瓶頸三個(gè)方面,提升了整體視覺應(yīng)用效果。
在圖像識別方面,團(tuán)隊(duì)的技術(shù)突破主要集中在算法層面,囊括背景消除模塊、圖像特征突出等。這些可以從圖像本質(zhì)入手,豐富圖像本身信息,去除多余噪點(diǎn),為后續(xù)圖像識別提供高清的圖像數(shù)據(jù),是高效率識別的基礎(chǔ)。更有技術(shù)突破采用創(chuàng)新的手法,如加上聲音信息來協(xié)助識別,提高信息準(zhǔn)確度。
比如,在被收錄于CVPR的《Learning Non-target Knowledge for Few-shot Semantic Segmentation》(《學(xué)習(xí)用于小樣本語義分割的非目標(biāo)知識》)研究中,團(tuán)隊(duì)從挖掘和排除非目標(biāo)區(qū)域的新角度重新思考了少樣本語義分割,繼而提出了一個(gè)新穎的非目標(biāo)區(qū)域消除(Non-target Region Eliminating)框架,以確保模型免受背景和分散注意力目標(biāo)的干擾進(jìn)而獲得準(zhǔn)確的目標(biāo)分割結(jié)果。不僅如此,該研究還提出一個(gè)原型對比學(xué)習(xí)算法,通過精煉原型的嵌入特征以便更好的將目標(biāo)對象與分散注意力的對象區(qū)分開來。
另外,特斯聯(lián)方面指出,數(shù)據(jù)標(biāo)注是一個(gè)重要的過程,傳統(tǒng)人工數(shù)據(jù)標(biāo)注費(fèi)時(shí)費(fèi)力。為此,上述團(tuán)隊(duì)提出了一種新技術(shù)以更高效地解決背后的問題。該研究被收錄于今年的CVPR中,標(biāo)題為《Category Contrast for Unsupervised Domain Adaptation in Visual Tasks》(《視覺任務(wù)中無監(jiān)督域適應(yīng)的類別對比》)。
具體來看,團(tuán)隊(duì)提出了一種新的類別對比技術(shù)(CaCo),該技術(shù)在無監(jiān)督域適應(yīng)(UDA)任務(wù)的實(shí)例判別之上引入了語義先驗(yàn),可以有效地用于各種視覺UDA任務(wù)。該技術(shù)構(gòu)建了一個(gè)具有語義感知的字典,其中包含來自源域和目標(biāo)域的樣本,每個(gè)目標(biāo)樣本根據(jù)源域樣本的類別先驗(yàn)分配到一個(gè)(偽)類別標(biāo)簽,以便學(xué)習(xí)與UDA目標(biāo)完全匹配的類別區(qū)分但域不變的表征。與當(dāng)下最先進(jìn)的方法對比,簡單的CaCo技術(shù)可以實(shí)現(xiàn)更優(yōu)越的性能表現(xiàn),也可以成為現(xiàn)有UDA方法的補(bǔ)充,推廣到其他機(jī)器學(xué)習(xí)方法中去,如無監(jiān)督模型適應(yīng),開放/部分集適應(yīng)等。該技術(shù)解決了傳統(tǒng)監(jiān)督學(xué)習(xí)需要大量人工標(biāo)注的問題,比現(xiàn)有技術(shù)擁有更高的效率。