2014.11.08 16:36 | EDIT
Junsong Yuanの研究室から発表された論文であり,CVPR2012で発表された"Mining Actionlet Ensemble..."のジャーナル版です.

Kinectにより得られた3次元姿勢情報Pと人物がインタラクションしている物体Oの情報により行動を認識するが,マイニングによりdiscriminativeな特徴を抽出します.予め有効な特徴量を求めておくことにより,余分な特徴量を取得する必要がないため,高速な処理を実現します.180種類のactionletを作成した場合には5.23秒,対して全ての候補を処理に作成した場合には同じ環境に対して307秒かかると述べています.

Local Occupancy Pattern (LOP)は3次元格子状にヒストグラムを構成して累積する手法であり,Fourier Temporal Pyramidにより時系列の構造的な行動による特徴を捉えます.特徴のマイニングにはAgarwalらのAprioriによるマイニングを適用して有効な特徴量を抽出します.

実験では各データセット(CMU MoCap(98.13%), MSR-Action3D(88.2%), MSR-Daily Activity 3D(86%), Cornell Activity(94.12% in S-Person, 74.70% in C-Person), Multiview 3D Event(88.34% in C-Subject, 86.76% in C-View) dataset)においてそれぞれ高い精度を実現している.

Junsong Yuanの研究室では行動検出や行動認識だけでなく,物体認識やユーザインタラクションについても取り組んでいます.ACCV2014FG2013でもチュートリアルしているように,最近では目覚ましい成果を挙げていると言えるでしょう.
スポンサーサイト
コメント:
コメント:を投稿する

トラックバック: