2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
近日,由Google主辦的2019 Google物體挑戰(zhàn)賽結(jié)果正式揭曉,首次參賽的極鏈科技AI團(tuán)隊(duì)在僅剩兩個(gè)月的時(shí)間下贏得一枚金牌。
去年,在MS COCO停止舉辦物體邊框識(shí)別的比賽后,Google發(fā)布了自己的第一屆物體識(shí)別的比賽,有400多名研究人員和機(jī)器學(xué)習(xí)研究人員參加。今年,作為ICCV的workshop之一,谷歌在Open Image V5數(shù)據(jù)集的基礎(chǔ)上推出了第二屆物體比賽,且測(cè)試集與第一屆完全相同。
連續(xù)兩年Google Open Images - Object Detection Track接棒COCO物體識(shí)別比賽,作為計(jì)算機(jī)視覺(jué)領(lǐng)域的“黃金標(biāo)準(zhǔn)型”,吸引了大量團(tuán)隊(duì)的參與,以獲得在Open Images數(shù)據(jù)集上的最低的錯(cuò)誤率,今年也是吸引了560余支隊(duì)伍。同時(shí),深度學(xué)習(xí)技術(shù)的突破更是使得圖像識(shí)別任務(wù)取得令人矚目的巨大進(jìn)步,甚至超過(guò)了人類(lèi)的準(zhǔn)確度。
隨著深度網(wǎng)絡(luò)解決方案變得越來(lái)越深,越來(lái)越復(fù)雜,它們通常受到可用培訓(xùn)數(shù)據(jù)量的限制。考慮到這一點(diǎn),為了刺激分析和理解圖像的進(jìn)步,Google公開(kāi)發(fā)布了Open Images數(shù)據(jù)集。Open Images遵循了PASCAL VOC,ImageNet和COCO的傳統(tǒng),現(xiàn)已達(dá)到前所未有的規(guī)模。
作為CV(Computer Vision)領(lǐng)域的熱門(mén)分支,物體識(shí)別有著廣泛的應(yīng)用場(chǎng)景,從已經(jīng)十分成熟的車(chē)輛車(chē)牌識(shí)別、行人檢測(cè),到近些年來(lái)新興的無(wú)人駕駛所需要的各種目標(biāo)的識(shí)別。隨著不斷新增的需求,人們對(duì)識(shí)別準(zhǔn)確率的要求也是水漲船高。2018年ECCV的Open Images Workshop中,谷歌團(tuán)隊(duì)解釋了Open Image物體識(shí)別比賽和其他類(lèi)似比賽的區(qū)別和具有挑戰(zhàn)性的地方,即擁有更為大量的數(shù)據(jù)、標(biāo)簽種類(lèi)、數(shù)據(jù)分布不均衡、提供標(biāo)簽從屬關(guān)系信息以及數(shù)據(jù)標(biāo)注不絕對(duì)完整。相比于COCO,此數(shù)據(jù)集的多樣性要大得多,并且對(duì)最先進(jìn)的實(shí)例識(shí)別方法構(gòu)成了更大的挑戰(zhàn)?;谶@個(gè)數(shù)據(jù)集, Google號(hào)召全球的計(jì)算機(jī)視覺(jué)領(lǐng)域的科學(xué)精英共同參與,共同朝著更復(fù)雜的地標(biāo)檢測(cè)計(jì)算機(jī)視覺(jué)模型邁出巨大的一步。這也是目前最大、最詳盡的公開(kāi)數(shù)據(jù)。
作為極鏈的明星平臺(tái)之一,「金目」用包括物體、場(chǎng)景等各個(gè)維度的識(shí)別為用戶帶來(lái)豐富且十分精準(zhǔn)的體驗(yàn)。當(dāng)然在其中,物體識(shí)別扮演著不可或缺的角色。出于對(duì)前沿技術(shù)、算法的不斷探索,我們也借由這次比賽,夯實(shí)團(tuán)隊(duì)在物體識(shí)別上的能力。
針對(duì)本次比賽數(shù)據(jù)分布極為不均衡,我們對(duì)數(shù)量較少的標(biāo)簽進(jìn)行了數(shù)據(jù)增廣。在算法框架的選擇上,目前Two stage的物體識(shí)別算法相比One stage在準(zhǔn)確度上有較為明顯的優(yōu)勢(shì),而Cascade RCNN算法更是當(dāng)下各個(gè)物體比賽的熱門(mén)選擇。不過(guò)Cascade級(jí)聯(lián)的方式也導(dǎo)致了速度的下降,并不適用于實(shí)際場(chǎng)景??紤]到自身平臺(tái)的實(shí)際應(yīng)用場(chǎng)景,我們選擇了速度更快也更為經(jīng)典的Faster-RCNN。接下來(lái)是Backbone,當(dāng)下大量針對(duì)比賽的選擇基本趨于更深和更復(fù)雜的算法,比如為Fackbook創(chuàng)造Imagenet 84.5%(Top1)準(zhǔn)確率的ResNeXt101(32x48d)、SENet等等。而這類(lèi)模型有個(gè)共同的特點(diǎn),非常的龐大,對(duì)訓(xùn)練和測(cè)試的時(shí)間也都有較大的增加。此外,為了達(dá)到更高的準(zhǔn)確率,參賽者們更傾向于訓(xùn)練不同框架、不同Backbone的算法,通常為6個(gè)甚至更多,最后進(jìn)行融合。這對(duì)整體的效率、性能的影響也是可想而知的。而比賽是為了更好地改善算法或技術(shù)的實(shí)際落地效果?;谶@個(gè)初衷,我們僅選擇了ResNeXt-101(64x4d)和ResNet-152這兩個(gè)相對(duì)更平衡的Backbone。在測(cè)試階段,用了多尺度測(cè)試以及內(nèi)部各個(gè)周期的結(jié)果融合。此外,我們利用SoftNMS對(duì)兩個(gè)算法的結(jié)果進(jìn)行了融合得到了最終的結(jié)果。
極鏈科技作為全球視聯(lián)網(wǎng)-視頻商業(yè)操作系統(tǒng)的構(gòu)建者,堅(jiān)持以AI技術(shù)賦能視頻中的信息,鏈接互聯(lián)網(wǎng)信息、服務(wù)、購(gòu)物、社交、游戲五大模式,實(shí)現(xiàn)基于視頻的新互聯(lián)網(wǎng)經(jīng)濟(jì)體與客戶價(jià)值倍增。這次對(duì)Google AI Open Images - Object Detection Track競(jìng)賽的實(shí)踐,是極鏈科技「金目」系統(tǒng)視頻識(shí)別物體算法領(lǐng)域的優(yōu)化,也是為了更好的支持視聯(lián)網(wǎng)的服務(wù)與賦能。未來(lái),極鏈也將持續(xù)探索前沿領(lǐng)域的技術(shù)突破,促進(jìn)人工智能生態(tài)圈的持續(xù)快速發(fā)展。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。