VideoObjectTracking
VideoObjectTracking[video]
video 中の関心オブジェクトを検出し,動画のフレーム間でこれを追跡する.
VideoObjectTracking[objects]
objects が動画フレームからのものであると仮定して,これに対応しこれを追跡する.
VideoObjectTracking[…detector]
detector を使って入力中の関心オブジェクトを求める.
詳細とオプション
- VideoObjectTrackingは可視化オブジェクト追跡としても知られるもので,可能であれば遮蔽を処理しながら,動画のフレーム中の一意的なオブジェクトを追跡する.追跡されるオブジェクトはトラックレットとしても知られている.
- 追跡はフレーム内のオブジェクトを自動検出することも,事前計算されたオブジェクト集合に対して行うこともできる.
- 結果は,ObjectTrackingDataオブジェクトで,各トラックレットの時間,ラベル,さまざまな特性を含んでいる.
- 次は,objects の可能な設定と対応する出力である.
-
{{pos11,pos12,…},…} 追跡点 kposij {{bbox11,bbox12,…},…} 追跡ボックス kbboxij {label1{bbox11,bbox12,…},…,…} 追跡ボックス {labeli,j}bbox {lmat1,…} ラベル行列 lmati内のセグメントのラベルを付け替える {t1obj1,…} 時間とオブジェクトのリスト - デフォルトで,オブジェクトはImageBoundingBoxesを使って検出される.次は,detector の可能な設定である.
-
f サポートされるオブジェクトを返す検出器関数 "concept" "Concept"実体で使われるような名前付きの概念 "word" WordDataで使われるような英単語 wordspec WordDataで使われるような単語の意味の指定 Entity[…] 任意の適切な実体 category1category2… categoryiのいずれか - VideoObjectTracking[{image1,image2,…}]を使うことは,動画のフレーム間でオブジェクトを追跡することに等しい.
- 次は,使用可能なオプションである.
-
Method Automatic 使用する追跡メソッド TargetDevice Automatic 検出を行うターゲットデバイス - 次は,Methodオプションの可能な値である.
-
"OCSort" 観測中心のSORT(簡単,オンライン,リアルタイム)追跡.カルマン推定器を使ってオブジェクトの軌跡を予測する "RunningBuffer" オフラインメソッド.フレームのバッファを比較することでオブジェクトを関連付ける - ラベル行列を追跡するときは,遮蔽は処理されない.Method"RunningBuffer"を使うと遮蔽も追跡できる.
- Method->{"OCSort",subopt}のときは,次のサブオプションが指定できる.
-
"IOUThreshold" 0.2 境界ボックス間のIoU(intersection over union)の閾値 "OcclusionThreshold" 8 トラックレットの履歴が期限切れになるまで保存されるフレーム数 "ORUHistory" 3 トラックレットの再更新のために戻るトラックレット履歴の長さ "OCMWeight" 0.2 移動する境界ボックスの方向性を考慮した観測中心の移動の重み - Method->{"RunningBuffer",subopt}のときは,次のサブオプションが指定できる.
-
"MaxCentroidDistance" Automatic 隣接フレームの重心間の最大距離 "OcclusionThreshold" 8 期限切れになるまで保存されるトラックレットの履歴のフレーム数 - 次は,費用行列の貢献を指定する,追加的な"RunningBuffer"サブオプションである.
-
"CentroidWeight" 0.5 成分または境界ボックス間の重心距離 "OverlapWeight" 1 成分または境界ボックスのオーバーラップ "SizeWeight" Automatic 成分または境界ボックスのサイズ
例題
すべて開くすべて閉じるスコープ (7)
オプション (5)
Method (4)
"OCSort" (3)
OCSortでは,動きがカルマン推定器を使って予測される."OCMWeight"の値が高いほど,ボックスが予測された位置から遠ざかる際の費用も高くなる.
デフォルトで,軌跡の向きは非常に柔軟である.赤と青の2つのボックスが交わる領域で追跡の向きが突然変化するかもしれない点に注意のこと:
"WeightOCM"の値を増すと突然の方向変換の可能性が減ずる:
"IOUThreshold"サブオプションは,ボックス間の和集合上における交点の閾値を,両者を潜在的に同じものと認識するために,指定する.
"OcclusionThreshold"サブオプションは(検出が上手くいかなかったり遮蔽があったりするために)一定時間消失するオブジェクトを扱う.
移動する境界ボックスがある問題を設定し,いくつかのフレームを軌跡から削除する:
TargetDevice (1)
デフォルトで,検出関数が指定されていなければ,検出はCPU上で行われる:
TargetDeviceオプションを"GPU"に設定してGPU上で検出を行う:
アプリケーション (12)
基本的な用法 (2)
オブジェクトを数える (3)
動きの軌跡を可視化する (1)
特性と関係 (1)
デフォルトで,オブジェクトの検出にはImageBoundingBoxesが使われる.Wolfram Neural Net Repository のYOLO V8ネットワークを使って検出する:
テキスト
Wolfram Research (2025), VideoObjectTracking, Wolfram言語関数, https://reference.wolfram.com/language/ref/VideoObjectTracking.html.
CMS
Wolfram Language. 2025. "VideoObjectTracking." Wolfram Language & System Documentation Center. Wolfram Research. https://reference.wolfram.com/language/ref/VideoObjectTracking.html.
APA
Wolfram Language. (2025). VideoObjectTracking. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/VideoObjectTracking.html