日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
計算機視覺技術(shù)深度解讀之視頻動作識別

 視頻的理解與識別是計算機視覺的基礎(chǔ)任務之一。隨著視頻設(shè)備和網(wǎng)絡的普通,視頻理解也吸引了越來越多研究者的關(guān)注。而識別視頻中的動作則是其中一個充滿挑戰(zhàn)而又具有較高實際應用價值的任務。相比圖像來說,視頻內(nèi)容和背景更加復雜多變,不同的動作類別之間具有相似性,而相同的類別在不同環(huán)境下又有著不同的特點。此外,由于拍攝造成的遮擋、抖動、視角變化等也為動作識別進一步帶來了困難。在實際應用中,精確的動作識別有助于輿情監(jiān)控,廣告投放,以及很多其他視頻理解相關(guān)的任務。

公司主營業(yè)務:網(wǎng)站設(shè)計、成都網(wǎng)站建設(shè)、移動網(wǎng)站開發(fā)等業(yè)務。幫助企業(yè)客戶真正實現(xiàn)互聯(lián)網(wǎng)宣傳,提高企業(yè)的競爭能力。成都創(chuàng)新互聯(lián)公司是一支青春激揚、勤奮敬業(yè)、活力青春激揚、勤奮敬業(yè)、活力澎湃、和諧高效的團隊。公司秉承以“開放、自由、嚴謹、自律”為核心的企業(yè)文化,感謝他們對我們的高要求,感謝他們從不同領(lǐng)域給我們帶來的挑戰(zhàn),讓我們激情的團隊有機會用頭腦與智慧不斷的給客戶帶來驚喜。成都創(chuàng)新互聯(lián)公司推出龍華免費做網(wǎng)站回饋大家。

與圖像識別相比,視頻分析需要更大量數(shù)據(jù)。早期的數(shù)據(jù)集KTH[1],Weizmann[2]等僅由演員表演固定的幾個動作,如走路,慢跑等。之后,較大規(guī)模的數(shù)據(jù)集如UCF101[3]等由網(wǎng)絡視頻組成,具體動作類別則由志愿者人工標注完成。目前,研究者發(fā)布了更大規(guī)模的數(shù)據(jù)集,例如Kinetics[4]包含了上百類動作以及幾十萬視頻(如圖1所示示例),雖然相比實際情況仍不夠全面,但也對動作識別的研究有了極大的幫助。

圖1. Kinetics數(shù)據(jù)集的示例視頻幀

(https://arxiv.org/pdf/1705.06950.pdf)。

視頻動作識別目前常用的技術(shù)可以大致分為如下幾類:

1. 基于人工特征的視頻動作識別

早期的動作識別主要基于興趣點的檢測和表示。梯度直方圖[5],時空興趣點檢測[6],以及光流直方圖[7]等都用于提取圖像和時序的特征表示。與圖像相比,視頻蘊含了大量的運動信息,為了更好的利用運動信息,Heng等人提出了密集軌跡的特征[8],密集的提取和追蹤光流中每個像素特征,編碼后進行分類。然而,當面臨大規(guī)模數(shù)據(jù)集時,這些特征缺乏一定的靈活性和可擴展性。

2. 基于雙流的神經(jīng)網(wǎng)絡

近年來,神經(jīng)網(wǎng)絡在圖像識別、物體檢測等計算機視覺任務上取得了幾乎超越人類的成果,研究者在視頻任務中也越來越多的開始使用神經(jīng)網(wǎng)絡。然而,直接將用于圖像分類的神經(jīng)網(wǎng)絡用于視頻分類會忽略視頻的時序特征,而時序特征對于視頻分類尤為重要。介于此,研究者提出了基于雙流的動作識別方法。Simonyan et al. 提出了一個融合網(wǎng)絡[9] ,該論文首次將視頻分成空間和時間兩個部分,分別將RGB圖像和光流圖像送入兩支神經(jīng)網(wǎng)絡并融合最終分類結(jié)果。如圖2所示,利用雙流神經(jīng)網(wǎng)絡,可以同時得到視頻中人或物體外表和運動的信息,該方法在當時各個基準數(shù)據(jù)集上取得了領(lǐng)先的識別水平。

圖2. 雙流神經(jīng)網(wǎng)絡結(jié)構(gòu)圖

(https://papers.nips.cc/paper/5353-two-stream-convolutional-networks-for-action-recognition-in-videos.pdf)

之后,又有許多研究針對雙流網(wǎng)絡這種框架進行了一些改進,例如Temporal Segment Network則提出了一種可以捕捉較長時序的網(wǎng)絡結(jié)構(gòu)[10]。Xu 提出了基于密集擴張網(wǎng)絡的框架[11],并探討了空間和時間分支的不同融合方式。

3. 基于三維卷積的神經(jīng)網(wǎng)絡

除了雙流網(wǎng)絡,還有一些研究者針對視頻將神經(jīng)網(wǎng)絡優(yōu)化為三維卷積神經(jīng)網(wǎng)絡,以此來捕捉更多的時空信息。如圖3所示,Tran等人首次提出了在視頻動作識別中使用三維神經(jīng)網(wǎng)絡(C3D)代替二維的神經(jīng)網(wǎng)絡[12]。此后,由于ResNet在圖像識別任務中取得的較好效果,Hara等人提出了基于三維網(wǎng)絡的ResNet[13],Qiu等人也提出了用二維模擬三維神經(jīng)網(wǎng)絡的偽3D網(wǎng)絡(P3D)[14]。

圖3.三維神將網(wǎng)絡示意圖。

(https://www.cv-foundation.org/openaccess/content_iccv_2015/papers/Tran_Learning_Spatiotemporal_Features_ICCV_2015_paper.pdf)

最近,deep mind團隊提出了?Inflated 3D ConvNets (I3D)[15],具體方法是利用了2D網(wǎng)絡權(quán)重展開作為3D網(wǎng)絡的預訓練權(quán)重,同時借助大規(guī)模的Kinetics數(shù)據(jù)集進行預訓練,在基準數(shù)據(jù)集上效果得到明顯提升。

4. 其他

此外,仍有很多研究者在探索其他更有效的視頻動作識別方法,如基于長短記憶網(wǎng)絡(LSTM)的識別框架[16],基于對抗神經(jīng)網(wǎng)絡(GAN)[17]的框架等。

雖然目前動作識別已經(jīng)取得了快速的發(fā)展,但距離人類識別水平仍有很大的差距,在實際應用中也面臨著各種各種復雜的問題。我們期待著今后的研究中能夠出現(xiàn)更具有可擴展性,魯棒性的算法和框架。

【本文是專欄機構(gòu)“AiChinaTech”的原創(chuàng)文章,微信公眾號( id: tech-AI)”】


網(wǎng)站題目:計算機視覺技術(shù)深度解讀之視頻動作識別
網(wǎng)站地址:http://www.5511xx.com/article/cdsdgsd.html