VideoObjectTracking

VideoObjectTracking[video]

video 中の関心オブジェクトを検出し,動画のフレーム間でこれを追跡する.

VideoObjectTracking[objects]

objects が動画フレームからのものであると仮定して,これに対応しこれを追跡する.

VideoObjectTracking[detector]

detector を使って入力中の関心オブジェクトを求める.

詳細とオプション

  • VideoObjectTrackingは可視化オブジェクト追跡としても知られるもので,可能であれば遮蔽を処理しながら,動画のフレーム中の一意的なオブジェクトを追跡する.追跡されるオブジェクトはトラックレットとしても知られている.
  • 追跡はフレーム内のオブジェクトを自動検出することも,事前計算されたオブジェクト集合に対して行うこともできる.
  • 結果は,ObjectTrackingDataオブジェクトで,各トラックレットの時間,ラベル,さまざまな特性を含んでいる.
  • 次は,objects の可能な設定と対応する出力である.
  • {{pos11,pos12,},}追跡点 kposij
    {{bbox11,bbox12,},}追跡ボックス kbboxij
    {label1{bbox11,bbox12,},,}追跡ボックス {labeli,j}bbox
    {lmat1,}ラベル行列 lmati内のセグメントのラベルを付け替える
    {t1obj1,}時間とオブジェクトのリスト
  • デフォルトで,オブジェクトはImageBoundingBoxesを使って検出される.次は,detector の可能な設定である.
  • fサポートされるオブジェクトを返す検出器関数
    "concept""Concept"実体で使われるような名前付きの概念
    "word"WordDataで使われるような英単語
    wordspecWordDataで使われるような単語の意味の指定
    Entity[]任意の適切な実体
    category1|category2|categoryiのいずれか
  • VideoObjectTracking[{image1,image2,}]を使うことは,動画のフレーム間でオブジェクトを追跡することに等しい.
  • 次は,使用可能なオプションである.
  • Method Automatic使用する追跡メソッド
    TargetDevice Automatic検出を行うターゲットデバイス
  • 次は,Methodオプションの可能な値である.
  • "OCSort"観測中心のSORT(簡単,オンライン,リアルタイム)追跡.カルマン推定器を使ってオブジェクトの軌跡を予測する
    "RunningBuffer"オフラインメソッド.フレームのバッファを比較することでオブジェクトを関連付ける
  • ラベル行列を追跡するときは,遮蔽は処理されない.Method"RunningBuffer"を使うと遮蔽も追跡できる.
  • Method->{"OCSort",subopt}のときは,次のサブオプションが指定できる.
  • "IOUThreshold"0.2境界ボックス間のIoU(intersection over union)の閾値
    "OcclusionThreshold"8トラックレットの履歴が期限切れになるまで保存されるフレーム数
    "ORUHistory"3トラックレットの再更新のために戻るトラックレット履歴の長さ
    "OCMWeight"0.2移動する境界ボックスの方向性を考慮した観測中心の移動の重み
  • Method->{"RunningBuffer",subopt}のときは,次のサブオプションが指定できる.
  • "MaxCentroidDistance"Automatic隣接フレームの重心間の最大距離
    "OcclusionThreshold"8期限切れになるまで保存されるトラックレットの履歴のフレーム数
  • 次は,費用行列の貢献を指定する,追加的な"RunningBuffer"サブオプションである.
  • "CentroidWeight"0.5成分または境界ボックス間の重心距離
    "OverlapWeight"1成分または境界ボックスのオーバーラップ
    "SizeWeight"Automatic成分または境界ボックスのサイズ

例題

すべて開くすべて閉じる

  (2)

動画中のオブジェクトを検出して追跡する:

動画の中の顔を検出して追跡する:

各部分動画から最初のフレームを抽出する:

スコープ  (7)

データ  (5)

動画中のオブジェクトを検出して追跡する:

画像のリスト中のオブジェクトを検出して追跡する:

境界ボックスのリストを追跡する:

点のリストを追跡する:

ラベル行列の時系列中の成分を追跡する:

検出器  (2)

オブジェクトを自動検出してそれを追跡する:

検出器関数を指定してオブジェクトを見付ける:

検出して追跡するオブジェクトのカテゴリを指定する:

動画中の顔を検出して追跡する:

オプション  (5)

Method  (4)

"OCSort"  (3)

OCSortでは,動きがカルマン推定器を使って予測される."OCMWeight"の値が高いほど,ボックスが予測された位置から遠ざかる際の費用も高くなる.

移動する2つのボックスがある問題を設定する:

デフォルトで,軌跡の向きは非常に柔軟である.赤と青の2つのボックスが交わる領域で追跡の向きが突然変化するかもしれない点に注意のこと:

"WeightOCM"の値を増すと突然の方向変換の可能性が減ずる:

"IOUThreshold"サブオプションは,ボックス間の和集合上における交点の閾値を,両者を潜在的に同じものと認識するために,指定する.

ギャップがある移動する境界ボックスの集合の問題を設定する:

交点の閾値が高いほど物体の軌跡が2つの部分に分割される:

"IOUThreshold"が低くなると軌跡が統合される:

"OcclusionThreshold"サブオプションは(検出が上手くいかなかったり遮蔽があったりするために)一定時間消失するオブジェクトを扱う.

移動する境界ボックスがある問題を設定し,いくつかのフレームを軌跡から削除する:

遮蔽閾値がないと,オブジェクトは再び姿を表してもトラクレットに再度関連付けられることはない:

遮蔽閾値を高くすると,軌跡が再度関連付けられる:

"RunningBuffer"  (1)

"RunningBuffer"法は,通常,遮蔽あるいは急速な動きのために軌跡にジャンプがあるオブジェクトがより適切に追跡できる:

"OCSort"法は同じハチドリの異なるインスタンスを生成する:

"RunningBuffer"は軌跡をまとめて鳥を一度に追跡する:

TargetDevice  (1)

デフォルトで,検出関数が指定されていなければ,検出はCPU上で行われる:

TargetDeviceオプションを"GPU"に設定してGPU上で検出を行う:

アプリケーション  (12)

基本的な用法  (2)

動画中のオブジェクトを検出して追跡する:

動画中のオブジェクトをハイライトする.検出されたクラスですべてにラベルが付いている点に注意のこと:

検出されたオブジェクトを追跡する:

検出され追跡されたオブジェクトを対応する指標でハイライトする:

行列からのラベルが付いた成分を追跡する:

各フレームに使うことができる分割関数を定義する:

動画のフレームを分割し,成分を表示する:

フレーム間で成分を追跡し,追跡した成分を表示する:

オブジェクトを数える  (3)

動画中の検出されたオブジェクトを数える:

オブジェクトを追跡して一意的な例を求める:

最終的な数を得る:

指定されたオブジェクトの出現を数える:

オブジェクトを追跡して一意的なインスタンスを求める:

最終的な数を取得する:

動画中の象の頭数を数える:

追跡したオブジェクトを抽出する  (1)

検出された動画のコンテンツを追跡する:

検出された最初のラベルを抽出する:

最初に追跡されたオブジェクトに対応する部分動画を抽出する:

動きの軌跡を可視化する  (1)

鉄道の駅構内の通行人を追跡する:

境界ボックスを検出し,もとの動画の上に表示する:

ボックスを追跡する:

ボックスの重心の軌跡をプロットする:

軌跡をもとのビデオに重ねる:

野生生物の動画を解析する  (3)

移動する象の群れを追跡する:

追跡した象のフレームをハイライトする:

疾走する馬の群れを追跡する:

牧舎に入る羊の群れを追跡する:

人間の動画を解析する  (2)

動画中の各人の顔から年齢を推定する:

顔を検出して追跡する:

動画中で最も長時間追跡された顔を求める:

選択されたラベルの時系列を作成する:

追跡された各顔の推定年齢を計算する:

各顔の推定年齢の中央値を計算する:

ステージの上で踊っている女性を追跡する:

一人の踊り手の動画を抽出する:

踊り手がタップした回数を判定する:

ジャンプおよびタップと相関するピークの数を求める:

特性と関係  (1)

デフォルトで,オブジェクトの検出にはImageBoundingBoxesが使われる.Wolfram Neural Net RepositoryYOLO V8ネットワークを使って検出する:

ネットワークとその評価関数を取り出す:

YOLO V8ネットワークを使ってオブジェクトを検出し,追跡する:

検出・追跡されたオブジェクトをハイライトする:

おもしろい例題  (1)

ランダムウォーク中の粒子の動きを追跡する:

動画から粒子の重心を抽出する:

粒子を追跡してその軌跡を抽出する:

全粒子の軌跡をプロットする:

軌跡が最も長い粒子の動きを可視化する:

Wolfram Research (2025), VideoObjectTracking, Wolfram言語関数, https://reference.wolfram.com/language/ref/VideoObjectTracking.html.

テキスト

Wolfram Research (2025), VideoObjectTracking, Wolfram言語関数, https://reference.wolfram.com/language/ref/VideoObjectTracking.html.

CMS

Wolfram Language. 2025. "VideoObjectTracking." Wolfram Language & System Documentation Center. Wolfram Research. https://reference.wolfram.com/language/ref/VideoObjectTracking.html.

APA

Wolfram Language. (2025). VideoObjectTracking. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/VideoObjectTracking.html

BibTeX

@misc{reference.wolfram_2025_videoobjecttracking, author="Wolfram Research", title="{VideoObjectTracking}", year="2025", howpublished="\url{https://reference.wolfram.com/language/ref/VideoObjectTracking.html}", note=[Accessed: 15-January-2025 ]}

BibLaTeX

@online{reference.wolfram_2025_videoobjecttracking, organization={Wolfram Research}, title={VideoObjectTracking}, year={2025}, url={https://reference.wolfram.com/language/ref/VideoObjectTracking.html}, note=[Accessed: 15-January-2025 ]}