【お知らせ】

Adobe Acrobat Readerの特定のバージョンに、一部のPDFが開けないバグが発生しております。PDFが開けない場合、お使いのAcrobat Readerを最新版へアップデートの上お試しください。

画像:パナソニックHD、一人称視点映像からの動作推定・生成を可能にする「UniEgoMotion」を開発

2025年10月17日

技術・研究開発 / プレスリリース

パナソニックHD、一人称視点映像からの動作推定・生成を可能にする「UniEgoMotion」を開発

パナソニックR&Dカンパニー オブ アメリカ(以下、PRDCA)、およびパナソニック ホールディングス株式会社(以下、パナソニックHD)は、スタンフォード大学の研究者らと共同で、一人称視点の映像や頭部軌道から、現在の動作推定や未来の動作予測を可能にするAI技術「UniEgoMotion」を開発しました。

近年、一人称視点カメラやスマートグラスなどの映像を記録できるデバイスの登場により、ユーザー自身の視点から動作を理解・予測する技術への期待が高まっています。一方で一人称視点動画や頭部軌道からの動作推定は技術的に非常に困難で、三人称視点の画像情報や周辺のシーン情報が追加で必要な場合が多く、実用化においては課題がありました。

今回、開発した「UniEgoMotion」は、従来の三人称視点やシーン情報に依存しない新たなアプローチにより、一人称視点動画や頭部の軌跡から高精度な3D動作の再構成・予測・生成を実現しました(図1)。

本技術は、先進性が国際的に認められ、AI・Computer VisionのトップカンファレンスであるIEEE/CVF International Conference on Computer Vision (ICCV) 2025に採択されました。2025年10月19日から2025年10月23日までアメリカ ハワイで開催される本会議で発表します。

図1 UniEgoMotionの概要

■技術の内容

PRDCAとパナソニックHDでは、一人称視点動作モデリングに関する研究に取り組んでいます。昨今、ウェアラブルデバイスやスマートグラスの普及により、ユーザー視点の一人称視点動画からの動作解析や予測を行うニーズが急速に高まっています。しかし一人称視点の動画ではユーザーの身体の一部しか映らないことや、カメラの動きの影響から、現実世界での高精度な動作推定が困難でした。

この課題を解決することは、ユーザーに最適化された動作支援やVR/AR分野への応用の観点から重要だと考えられています。しかし、従来の一人称視点動画を用いた動作推定では、三人称視点の広いシーン情報や3D点群・メッシュなどの明示的な3Dシーン情報を必要とし、実運用には多くの制約がありました。

こういった課題を解決する手段として、「UniEgoMotion」は、3Dシーン情報に依存せずに、ウェアラブルデバイスから得られる一人称視点動画と頭部軌道の情報だけで動作を再構成・予測・生成できる統合型モーション拡散モデルを提案しました。頭部のウェアラブルデバイスの使用と親和性が高い頭部中心の動作表現の導入や、画像特徴抽出に優れたDINOv2(※1)ベースの画像エンコーダを活用することで、従来法を上回る精度と汎用性を実現しています。UniEgoMotionは、学習時に動画や頭部軌道の情報の一部をマスキングする手法を採用しており、これにより「現在の動作の推定」だけでなく、「未来の動作の予測」や「新しい動作の生成」も1つのAIモデルで実現しています。(図2)。

図2 UniEgoMotionのモデル構成図

評価実験では、一人称視点の映像や頭部軌道から現在の動作を推定する「動作の再構成」のタスクについて既存手法と比較を行い、ポーズの再現精度や動作の自然さを示す評価指標で従来手法を上回る精度を達成しました(図3)。

図3 評価実験の結果。Semantic Sim.以外の指標は低い方が精度がよいことを示す。

■今後の展望

今回開発した「UniEgoMotion」は、一人称視点動画や頭部軌跡から高精度な3D動作再構成・予測・生成を1つのモデルで統合的に実現する世界初(※2)の統合型モーション拡散モデルです。この技術は現場作業可視化・効率化の範囲拡大への活用に加えて、リアルタイム動作解析や、現場作業支援、リハビリ・ヘルスケア分野での動作モニタリングなど、幅広い事業領域での活用が期待されます。
今後もパナソニックHDは、AIの社会実装を加速し、お客様のくらしやしごとの現場へのお役立ちに貢献するAI技術の研究・開発を推進していきます。

※1 DINOv2 とは、画像から高品質な画像特徴を抽出できる大規模なモデル
※2 2025年10月3日現在(当社調べ)

【関連情報】

  • 発表論文“UniEgoMotion: A Unified Model for Egocentric Motion Reconstruction, Forecasting, and Generation”
    本研究は、スタンフォード大学のChaitanya Patel、Juan Carlos Niebles、Ehsan Adeliと、パナソニックHDの中村 拓紀、小塚 和紀とPRDCAの久良木 優太による共同研究成果です。
    arXiv:https://arxiv.org/abs/2508.01126

    なお、ICCV 2025には、UCLAの研究者らとの共同研究成果である、AIが自らの生成結果を振り返って改善する画像生成技術“Reflect-DiT: Inference-Time Scaling for Text-to-Image Diffusion Transformers via In-Context Reflection”も採択されました。詳細は下記プレスをご覧ください。

    [プレスリリース]パナソニックHD、AIが自らの生成結果を振り返って改善する画像生成技術「Reflect-Dit」を開発(2025年10月17日)
    https://news.panasonic.com/jp/press/jn251017-1

    あわせてパナソニック コネクトから、ICCV 2025 併設ワークショップ LIMIT Workshop(Representation Learning with Very Limited Resources: When Data, Modalities, Labels, and Computing Resources are Scarce)に下記論文が採択されました。

    Intraclass Compactness: A Metric for Evaluating Models Pre-Trained on Various Synthetic Data
    Tomoki Suzuki, Kazuki Maeno, Yasunori Ishii, Takayoshi Yamashita
    https://openreview.net/pdf?id=G2WCuOVVti

  • Panasonic×AI ウェブサイト
    https://tech-ai.panasonic.com/jp/

  • Panasonic×AI X
    https://X.com/panasonic_ai

記事の内容は発表時のものです。
商品の販売終了や、組織の変更などにより、最新の情報と異なる場合がありますので、ご了承ください。

配信元:
パナソニックホールディングス株式会社
カテゴリ:

画像ダウンロード

パナソニックHD、一人称視点映像からの動作推定・生成を可能にする「UniEgoMotion」を開発
UniEgoMotionの概要
UniEgoMotionのモデル構成図
評価実験の結果

注目ニュース