VPRによるT&Rナビゲーション停滞検出の関連研究調査

本調査は、「VPRを状態監視として用いたTeach-and-Repeatナビゲーションにおける停滞検出手法」に関連する先行研究を、5つのカテゴリにわたり包括的に整理したものである。VPRの出力を自己位置推定ではなく走行状態の監視指標として再解釈するアプローチは、既存文献において明確な空白領域であり、本論文の新規性が高いことが調査により確認された。 以下、各カテゴリの主要論文を重要度とともに記載する。

1. Visual Place Recognition(VPR)の主要手法と評価ベンチマーク

1.1 代表的VPR手法

NetVLAD — Arandjelović, R., Gronat, P., Torii, A., Pajdla, T., Sivic, J. "NetVLAD: CNN Architecture for Weakly Supervised Place Recognition." CVPR 2016, pp. 5297–5307(拡張版: IEEE TPAMI, Vol. 40, 2018, pp. 1437–1451)。CNNにVLAD層を微分可能な形で統合し、end-to-endで学習可能な場所認識アーキテクチャを提案したVPR分野の基盤的論文。Google Street View Time Machineデータを用いた弱教師あり学習により、Pittsburgh250kおよびTokyo24/7で従来手法を大幅に上回った。本論文との関連では、NetVLADの記述子類似度がT&R走行中の画像マッチングの基盤となり、その時間変化パターンが停滞検出の信号源となりうる。〔重要度:極めて高い〕 Patch-NetVLAD — Hausler, S., Garg, S., Xu, M., Milford, M., Fischer, T. "Patch-NetVLAD: Multi-Scale Fusion of Locally-Global Descriptors for Place Recognition." CVPR 2021, pp. 14141–14152。NetVLAD残差からパッチレベルの特徴を導出し、多スケール融合を行う。ECCV 2020のMapillary VPR Challengeで優勝。グローバル検索とローカルリランキングの2段階アプローチで、速度と性能のトレードオフが設定可能。パッチレベルの部分一致情報は、ロボットが期待位置の近傍にいるが正確には到達していない状態の検出に有用である。〔重要度:高い〕 CosPlace — Berton, G., Masone, C., Caputo, B. "Rethinking Visual Geo-localization for Large-Scale Applications." CVPR 2022, pp. 4878–4888。VPR学習を分類問題として定式化し、CosFace損失を使用。SF-XL(San Francisco eXtra Large)データセットを構築。128次元まで圧縮可能なコンパクトな記述子は、リアルタイムT&Rシステムに実用的であり、分類ベースの学習はVPR信頼度のキャリブレーションにも寄与する。〔重要度:高い〕 EigenPlaces — Berton, G., Trivigno, G., Caputo, B., Masone, C. "EigenPlaces: Training Viewpoint Robust Models for Visual Place Recognition." ICCV 2023, pp. 11080–11090。同一地点を向く画像でクラスを構成し、視点変化に頑健なモデルを学習。T&Rにおいてrepeat走行がteach経路から逸脱した場合にもマッチングが安定するため、停滞検出の信頼性向上に寄与する。また、NetVLAD・CosPlace・MixVPR等の公平な比較評価コードベースも公開した。〔重要度:高い〕 MixVPR — Ali-bey, A., Chaib-draa, B., Giguère, P. "MixVPR: Feature Mixing for Visual Place Recognition." WACV 2023, pp. 2998–3007。事前学習済みバックボーンの特徴マップをMLP(Feature Mixer)で全域的に混合する手法。Pitts250k-testでRecall@1=94.6%、NordlandでR@1=58.4%を達成し、NetVLAD/CosPlaceの半分以下のパラメータ数で動作する。単段推論の高速性はリアルタイム状態監視に適しており、全体的な特徴混合は類似度遷移がスムーズになるため閾値ベースの停滞検出に有利である。〔重要度:極めて高い〕 AnyLoc — Keetha, N., Mishra, A., Karhade, J., Jatavallabhula, K.M., Scherer, S., Krishna, M., Garg, S. "AnyLoc: Towards Universal Visual Place Recognition." IEEE RA-L, Vol. 9, No. 2, 2024, pp. 1286–1293。DINOv2の自己教師あり特徴を用い、VPR特化の学習なしで都市・屋内・航空・水中・地下等の多様な環境で汎用的に動作する。Foundation modelの意味的特徴は、環境変化下でもロバストな停滞検出信号を提供する可能性がある。〔重要度:高い〕 SALAD — Izquierdo, S., Civera, J. "Optimal Transport Aggregation for Visual Place Recognition." CVPR 2024。NetVLADのsoft-assignmentを最適輸送問題として再定式化し、非情報的特徴を除去する「dustbin」クラスタを導入。DINOv2バックボーンで単段手法としてSOTAを達成。dustbin機構は特徴の情報量を定量化でき、VPRの自己診断信号として停滞検出に応用できる可能性がある。〔重要度:中〜高い〕 BoQ(Bag-of-Queries) — Ali-bey, A., Chaib-draa, B., Giguère, P. "BoQ: A Place is Worth a Bag of Learnable Queries." CVPR 2024, pp. 17794–17803。学習可能なグローバルクエリがcross-attentionで入力特徴を探索する手法。14ベンチマークでNetVLAD・MixVPR・EigenPlacesを上回り、DINOv2バックボーンでPitts250k-testにおいてR@1=96.6%を達成。解釈可能なattentionパターンが時間的変化に対して一貫した特徴に注目することから、走行状態の一貫性監視に活用しうる。〔重要度:中〜高い〕

1.2 VPR評価フレームワークとベンチマーク

VPR-Bench — Zaffar, M., Garg, S., Milford, M., Kooij, J., Flynn, D., McDonald-Maier, K., Ehsan, S. "VPR-Bench: An Open-Source Visual Place Recognition Evaluation Framework with Quantifiable Viewpoint and Appearance Change." IJCV, Vol. 129, No. 7, 2021, pp. 2136–2174。12データセット・10手法を網羅した包括的ベンチマーク。10手法中8手法が少なくとも1データセットでSOTAを達成するという知見は、VPR性能が条件依存的であることを示し、状態監視のロバスト性設計において重要な示唆を与える。Extended Precision(EP)やPerformance-Per-Compute-Unit(PCU)等の新指標を提案。〔重要度:高い〕 主要データセットとして、Pittsburgh 250k/30k(Torii et al., 2013; 大規模都市VPR)、Tokyo 24/7(Torii et al., 2015; 昼夜変化)、Nordland(Sünderhauf, Neubert, Protzel, 2013; 4季節・728km鉄道路線)、Mapillary Street-Level Sequences(MSLS)(Warburg et al., 2020; 複数都市時系列)、Oxford RobotCar(Maddern et al., 2017; 1年間1000km)、GSV-Cities(Ali-bey et al., 2022; 学習用67k地点)、SF-XL(Berton et al., 2022; San Francisco大規模データ)が広く用いられている。

1.3 VPRの時間的一貫性・系列マッチング

SeqSLAM — Milford, M.J., Wyeth, G.F. "SeqSLAM: Visual Route-Based Navigation for Sunny Summer Days and Stormy Winter Nights." ICRA 2012, pp. 1643–1649。個別画像ではなく画像系列の一致度から場所認識を行う先駆的手法。コントラスト強調された差分行列上で局所的最良一致の系列を探索する。昼夜・季節を超えた極端な外見変化に頑健。ロボットが停滞している場合、参照画像系列のマッチ位置が進行しなくなるため、差分行列に特徴的パターンが出現する。この時間的一貫性の仮定は、VPR出力を状態監視に用いる本論文のアプローチの理論的基盤に直結する。〔重要度:極めて高い〕 SeqNet — Garg, S., Milford, M. "SeqNet: Learning Descriptors for Sequence-Based Hierarchical Place Recognition." IEEE RA-L, Vol. 6, No. 3, 2021, pp. 4305–4312。短い画像系列から学習されたコンパクトな系列記述子を生成し、階層的VPRに用いる。時間的文脈を符号化した記述子は、教示経路に沿ったロボットの進行を監視する自然な基盤を提供する。〔重要度:中〕 SeqMatchNet — Garg, S., Vankadari, M., Milford, M. "SeqMatchNet: Contrastive Learning with Sequence Matching for Place Recognition & Relocalization." CoRL 2021, PMLR Vol. 164, pp. 429–443。系列マッチングに最適化された記述子を学習する初の手法。triplet lossの距離関数に系列マッチングを使用。時間的進行をより明確に捉える表現の学習は、停滞と前進の区別を容易にする。〔重要度:中〕 Carson et al. — "Predicting to Improve: Integrity Measures for Assessing Visual Localization Performance." IEEE RA-L, Vol. 7, No. 4, 2022, pp. 9627–9634。VPR出力のフレームごとの信頼度をSVMで予測し、位置推定の整合性を評価する。VPR手法に依存しない汎用的アプローチで、12のデータセット・手法組み合わせで平均74%の予測精度を達成。VPR出力の品質を診断信号として用いる点で、本論文の状態監視アプローチに最も近い先行研究の一つ。〔重要度:極めて高い〕 Claxton et al. — "Improving Visual Place Recognition Based Robot Navigation By Verifying Localization Estimates." IEEE RA-L, 2024(arXiv: 2407.08162)。MLPベースのVPR整合性モニタにより、VPR位置推定の信頼性を検証。実ロボットナビゲーションで目標誤差を**~9.8mから~3.1mに削減**、ミッション成功率を~41%から~55%に向上。AP-GeM、NetVLAD、SALADの3手法で検証。VPRマッチ品質を航法品質の診断指標とする点で、本論文の状態監視コンセプトに直接的に関連する。〔重要度:極めて高い〕 Carson et al. — "Unsupervised Quality Prediction for Improved Single-Frame and Weighted Sequential Visual Place Recognition." arXiv:2307.01464, 2023。学習不要のVPR品質予測手法。リアルタイム・軽量・VPR手法非依存で、品質予測を系列マッチングにバイアスとして利用する新手法を提案。〔重要度:高い〕 MuSIC — Arcanjo, B. et al. "Multi-Technique Sequential Information Consistency For Dynamic Visual Place Recognition In Changing Environments." arXiv:2401.08263, 2024。系列情報の一貫性を利用してフレームごとに最も整合的なVPR手法を動的に選択。VPRの時間パターン監視の観点から本論文に関連する。〔重要度:中〕

VPRサーベイ論文

  • Lowry, S. et al. "Visual Place Recognition: A Survey." IEEE Trans. Robotics, Vol. 32, No. 1, 2016, pp. 1–19。VPRの包括的サーベイ。
  • Masone, C., Caputo, B. "A Survey on Deep Visual Place Recognition." IEEE Access, Vol. 9, 2021, pp. 19516–19547。深層学習によるVPRのサーベイ。
  • Zhang, X., Wang, L., Su, Y. "Visual Place Recognition: A Survey from Deep Learning Perspective." Pattern Recognition, Vol. 113, 2021, p. 107760。200以上の文献をカバー。

2. Teach-and-Repeat(T&R)ナビゲーション

2.1 T&Rの基礎的枠組み

Furgale & Barfoot (2010) — "Visual Teach and Repeat for Long-Range Rover Autonomy." Journal of Field Robotics, Vol. 27, No. 5, pp. 534–560。T&R分野の最も基礎的な論文。ステレオカメラのみを用いて、教示フェーズでは重複するサブマップの多様体マップを構築し、再生フェーズでは局所的な自己位置推定によって経路追従を行う。都市環境とカナダ北極圏で32km以上、99.6%の自律走行率を達成。サブマップの「難易度スコア」や、一定距離走行後に位置推定が成功しない場合の停止処理など、原始的な故障検出機構も含まれている。〔重要度:極めて高い(基盤論文)〕 Matsumoto, Inaba & Inoue (1996) — "Visual Navigation Using View-Sequenced Route Representation." ICRA 1996, pp. 83–88。東京大学による最初期のビュー系列ベースT&Rシステム。計量地図を用いず、前方画像の系列を記憶して相関計算による位置推定・操舵・障害物検出を同時に実行する純粋なトポロジカルアプローチ。現代のVPRベースT&Rの直接的先駆。日本語原著論文も存在する(視野画像列を利用した経路表現に基づくナビゲーション)。〔重要度:高い〕 Royer, Lhuillier, Dhome & Lavest (2007) — "Monocular Vision for Mobile Robot Localization and Autonomous Navigation." IJCV, Vol. 74, No. 3, pp. 237–260。単眼カメラによるSfMベースのT&R。2年間の屋外実験で検証。正確な特徴マッチングに依存するため、VPR品質の低下がシステム破綻に直結する。〔重要度:中〕 Churchill & Newman (2013) — "Experience-Based Navigation for Long-Term Localization." IJRR, Vol. 32, No. 14, pp. 1645–1661。複数の「Experience(走行経験)」を漸進的に学習し、異なる環境条件を表現する手法を提案。外見変化への対処において基盤的。現在の条件がどの経験にもマッチしない場合を検出する枠組みは、停滞検出と概念的に近い。〔重要度:高い〕 Marshall, Barfoot & Larsson (2008) — "Autonomous Underground Tramming for Center-Articulated Vehicles." JFR, Vol. 25, No. 6-7, pp. 400–421。地下鉱山でのT&R応用。GPS非依存環境での過酷条件下T&R。〔重要度:低〜中〕

2.2 VT&Rの拡張と長期頑健性

Paton, MacTavish, Warren & Barfoot (2016) — "Bridging the Appearance Gap: Multi-Experience Localization for Long-Term Visual Teach and Repeat." IROS 2016, pp. 1918–1925。Multi-Experience Localization(MEL)を提案し、複数の走行経験を同時に位置推定に利用する。単一経験での位置推定失敗に対処するために開発された手法であり、位置推定品質の劣化を認識する概念は停滞検出に直結する。〔重要度:高い〕 Paton et al. (2018) — "I'm Not Lost... I'm Exploring: VT&R 2.0 Extended Field Test." FSR (Field and Service Robotics), Springer, Vol. 5, pp. 415–431。VT&R 2.0の大規模フィールドテスト。砂利採取場で140km以上の自律走行(夜間走行含む)を記録。視覚ベース位置推定の限界と、マッチングが劣化する状況を詳細に文書化。〔重要度:中〜高い〕 Paton, Pomerleau & Barfoot (2017) — "Expanding the Limits of Vision-Based Localization for Long-Term Route-Following Autonomy." JFR, Vol. 34, No. 1, pp. 98–122。Color-constant画像と多カメラによる視覚マッチングの時間的劣化を調査。キーポイントマッチ品質の経時劣化を直接研究しており、VPR品質監視の根拠を提供する。〔重要度:高い〕 Clement, Kelly & Barfoot (2017) — "Robust Monocular Visual Teach and Repeat Aided by Local Ground Planarity and Color-Constant Imagery." JFR, Vol. 34, No. 1, pp. 74–97。単眼VT&Rで地面平面近似によるスケール回復、color-constant画像で照明頑健性を確保。最小限のセンサ構成で、エッジ処理と同様の画像前処理によるロバスト性向上の先例。〔重要度:高い〕 Ostafew, Schoellig & Barfoot (2013) — "Visual Teach and Repeat, Repeat, Repeat: Iterative Learning Control to Improve Mobile Robot Path Tracking in Challenging Outdoor Environments." IROS 2013, pp. 176–181。反復学習制御(ILC)をVT&Rに統合し、繰り返し走行で経路追従誤差を漸進的に削減。信頼性のある位置推定に依存するため、位置推定失敗(停滞)時にはILCも破綻する。〔重要度:中〕

2.3 VPRベースT&Rナビゲーション

Krajník, Majer, Halodová & Vintr (2018) — BearNav — "Navigation without Localisation: Reliable Teach and Repeat Based on the Convergence Theorem." IROS 2018, pp. 1657–1664(arXiv: 1711.05348)。明示的な自己位置推定なしに、方位修正のみで位置誤差が収束することを数学的に証明したT&Rシステム。単眼カメラのみで動作し、カメラキャリブレーション不要。画像特徴マッチングによる方位修正に完全に依存するため、マッチング品質(=VPR信頼度)の監視が停滞検出に直結する。マッチング品質が低下すれば方位修正が不能となり、ロボットはドリフト・停滞する。〔重要度:極めて高い〕 Krajník, Cristóforis, Kusumam, Neubert & Duckett (2016) — "Image Features for Visual Teach-and-Repeat Navigation in Changing Environments." Robotics and Autonomous Systems, Vol. 88, pp. 127–141。季節・照明変化下でのT&Rに適した画像特徴を評価。外見変化へのロバスト性が視点・スケール不変性より重要であることを示した。学習可能なバイナリ記述子GRIEF(Generated BRIEF)を提案。5データセット・1年間で評価。〔重要度:高い〕 Camara et al. (2020) — SSM-Nav — "Accurate and Robust Teach and Repeat Navigation by Visual Place Recognition: A CNN Approach." IROS 2020, pp. 6018–6024。CNNベースのVPR(SSM-VPR)をT&Rに統合。particle filterで最良マッチを選択し、水平オフセットで操舵。屋内10cm以下、屋外25cm以下の誤差。VPR類似度スコアをナビゲーションループの一部として直接使用するVPR統合T&Rの代表例〔重要度:極めて高い〕 Camara et al. (2025) — SSM-Nav2 — "Multi-Platform Teach-and-Repeat Navigation by Visual Place Recognition Based on Deep-Learned Local Features." arXiv:2503.13090。D2-Net局所特徴によるリランキングと時間フィルタによる誤認識抑制を実装。VPR位置推定を「時間フィルタで不正確な認識を抑制する」という処理は、停滞検出の概念に直接関連する。〔重要度:高い〕 Dall'Osto, Fischer & Milford (2021) — "Fast and Robust Bio-inspired Teach and Repeat Navigation." IROS 2021, pp. 500–507。昆虫(砂漠アリ)の航法に着想を得た非同期T&R。単眼カメラ+ホイールオドメトリのみで、パッチ正規化画像の相関値で方位修正。相関値に最小閾値を設定し、閾値以下では修正を適用しないという原始的な状態監視を実装。Clearpath Jackalで550m屋外走行を検証。〔重要度:極めて高い〕 Rozsypálek, Rouček, Vintr & Krajník (2023) — "Multidimensional Particle Filter for Long-Term Visual Teach and Repeat in Changing Environments." IEEE RA-L, Vol. 8, No. 4, pp. 1951–1958。多次元particle filterで走行距離・横方向逸脱・方位逸脱・環境外見を統合的に推定。VPRスコアとオドメトリを粒子フィルタで融合し、粒子重みの低下がマッチング困難を示すため、停滞の間接的指標となる。〔重要度:高い〕 Wang et al. (2025) — "Robust Visual Teach and Repeat with Flexible Topo-metric Graph." arXiv:2510.09089。柔軟なトポメトリックグラフマップによるVT&Rを提案。フレームマッチング失敗時にベースライン手法(BVTR)が「未知の場所に走行して停止し、それ以上のアクションを取らない」と明記。本論文が扱うT&R停滞問題の存在を直接的に文書化した重要な文献。〔重要度:極めて高い〕 Rouček, Rozsypálek et al. (2024) — "Predictive Data Acquisition for Lifelong Visual Teach, Repeat and Learn." IEEE RA-L, DOI: 10.1109/LRA.2024.3421193。ロボットが過去の経験からデータ品質を評価し、モデル劣化時に再訪問による学習データ収集を行う。モデル品質の自己評価は停滞検出の概念に関連する。〔重要度:中〕 Halodová et al. (2019) — "Predictive and Adaptive Maps for Long-Term Visual Navigation." IROS 2019, pp. 7033–7039。FreMEnを用いた周期的外見変化のモデル化により、特徴の可視性を予測。マッチング失敗の事前予測は、予防的停滞検出の一形態。〔重要度:中〜高い〕

3. ナビゲーションにおける異常検出・故障検出・状態監視

3.1 自律移動ロボットにおけるNavigation failure detection

Daftry, Zeng, Bagnell & Hebert (2016) — "Introspective Perception: Learning to Predict Failures in Vision Systems." IROS 2016, pp. 1743–1750。ロボット内省(introspection)の基盤論文。視覚ベースナビゲーションシステムの失敗を、入力センサデータから直接予測するCNN+SVM分類器を学習。MAV自律飛行のデータで学習・検証。「自分が知らないことを知る」能力の実現。VPR類似度スコアを失敗・停滞の指標として用いる本論文のアプローチと概念的に直結する。〔重要度:極めて高い〕 Ji et al. (2022) — PAAD — "Proactive Anomaly Detection for Robot Navigation with Multi-Sensor Fusion." IEEE RA-L, Vol. 7, No. 2, pp. 4975–4982。予測的制御器の計画動作と現在の知覚観測から、将来のナビゲーション失敗確率を事前予測する。LiDAR・カメラの融合。反応的ではなく予防的な検出は、VPR出力の時間変化から停滞を早期に検出するアプローチと並行する。〔重要度:高い〕 Gaussier et al. (2013) — "From Self-Assessment to Frustration: A Small Step Toward Autonomy in Robotic Navigation." Frontiers in Neurorobotics, Vol. 7, Article 16。新規性検出に基づく自己評価の神経アーキテクチャ。感覚運動戦略の品質を監視する二次制御器が、予期しない状況を検出。新規性レベルが「フラストレーション閾値」を超えるとロボットは停止して助けを求める。VPR類似度の低下による停滞検出と直接的に類似するメカニズム。〔重要度:極めて高い〕 Sinha et al. (2024) — "Unpacking Failure Modes of Generative Policies: Runtime Monitoring of Consistency and Progress." CoRL Workshop on Safe and Robust Robot Learning, 2024。生成的ロボットポリシーの「一貫性」と「進捗」のランタイム監視。ロボットが目標に向かって前進しているか停滞しているかを検出する。進捗監視(progress monitoring)の概念はT&Rにおける停滞検出の核心に直結する。〔重要度:極めて高い〕 Rabiee & Biswas (2023) — "Introspective Perception for Mobile Robots." Artificial Intelligence (Elsevier)。センシング冗長性と一貫性制約を活用し、知覚アルゴリズムの誤差分布を展開環境で学習する内省的知覚の一般理論。ステレオ深度推定やV-SLAMの自己誤差予測を実証。〔重要度:高い〕 Kuhn et al. (2021) — "Introspective Failure Prediction for Autonomous Driving Using Late Fusion of State and Camera Information." IEEE Trans. Intelligent Vehicles, Vol. 6, No. 2。画像モデルと状態ベースLSTMモデルの後期融合で、自動運転の失敗を最大7秒前に80%以上の精度で予測。視覚情報と状態情報の時間パターンの組み合わせは、VPR類似度トレンドとオドメトリの統合による停滞検出に類似する。〔重要度:中〜高い〕 Wellhausen, Ranftl & Hutter (2020) — "Safe Robot Navigation via Multi-Modal Anomaly Detection." IEEE RA-L, Vol. 5, No. 2。マルチモーダル画像(RGB、深度、法線)に対する自己教師あり異常検出でtraversabilityを分類。正規化フローで>95% AUCを達成。〔重要度:中〕 Çatal et al. (2020) — "Anomaly Detection for Autonomous Guided Vehicles using Bayesian Surprise." IROS 2020, pp. 8148–8153。ベイジアンサプライズによるAGVの教師なし異常検出。事前知識と整合しない事象を異常として検出。T&Rにおいて、VPRマッチパターンが期待から逸脱した場合にベイジアンサプライズで停滞を検出できる可能性がある。〔重要度:中〜高い〕 Conlon et al. (2023) — "Event-Triggered Robot Self-Assessment to Aid in Autonomy Adjustment." Frontiers in Robotics and AI, Vol. 10, Article 1294533。Model Quality Assessment(MQA)指標による事象トリガー型自己評価。期待されない状態測定が検出された場合に高レベルの自己評価をトリガー。〔重要度:中〕

3.2 ロボットの停滞・デッドロック検出

Stuck, E.R. (1996) — "Detecting and Diagnosing Mistakes in Vision-Based Navigation." Robotics and Autonomous Systems。ビジョンベースナビゲーションの「誤り」を観測と期待の比較で検出・診断する古典的論文。先験知識を用いた記号的表現による診断。〔重要度:中〕 Trevai et al. (~2008) — デッドロック検出を含むファジーロジックナビゲーション。目標距離の周期性に基づくデッドロック検出は、VPR推定進捗の停滞(周期的振動)と概念的に類似。〔重要度:中〕 Jager & Nebel (2001) — "Decentralized Collision Avoidance, Deadlock Detection, and Deadlock Resolution for Multiple Mobile Robots." IROS 2001。多ロボットのデッドロック検出・解消の分散アルゴリズム。進捗保証(liveness)の概念は単一ロボットの停滞検出にも関連。〔重要度:低〜中〕

3.3 VPR出力を状態監視に用いる研究(本論文のギャップ)

調査の結果、VPR類似度スコアを自己位置推定の品質ではなく、ナビゲーション進捗(前進 vs 停滞)の監視指標として明示的に使用する研究は確認されなかった。最も近い研究はClaxton et al. (2024)のVPR整合性モニタだが、これは位置推定精度の検証であり、走行進捗の監視ではない。Carson et al. (2022, 2023)の品質予測も同様にVPR出力の信頼性評価に留まる。教示画像インデックスの時間変化に着目して進行停滞を定量的に定義する本論文のアプローチは、この分野における明確な新規貢献と位置づけられる。

4. 低コスト・不完全なハードウェアでのロバストナビゲーション

4.1 スリップ・バックラッシュ環境での自律走行

Ojeda, Cruz, Reina & Borenstein (2006) — "Current-Based Slippage Detection and Odometry Correction for Mobile Robots and Planetary Rovers." IEEE Trans. Robotics, Vol. 22, No. 2, pp. 366–378。モータ電流からホイールスリップを検出し、エンコーダベースのオドメトリを補正。3つの自動チューニング手法を提案。火星探査ローバクローンで検証。SCOUTプラットフォームのバックラッシュによるオドメトリ誤差の検出・補正に直接適用可能。〔重要度:高い〕 Reinstein, Kubelka & Zimmermann (2013) — "Terrain Adaptive Odometry for Mobile Skid-Steer Robots." ICRA 2013。IMU振動データからの地形分類に基づき、スキッドステアロボットのオドメトリ補正係数を適応的に変更。低計算量でオンライン実装可能。SCOUTと同じスキッドステア駆動方式に直接関連。〔重要度:高い〕 Yamauchi et al. (2017) — "Slip-Compensated Odometry for Tracked Vehicle on Loose and Weak Slope." ROBOMECH Journal, 4:27。スキッドステア式のスリップを縦方向・横方向×直進・旋回の4タイプに分類し、補正オドメトリを提案。〔重要度:中〕 Nourizadeh et al. (2023) — "In Situ Slip Estimation for Mobile Robots in Outdoor Environments." Journal of Field Robotics, Vol. 40, pp. 467–482。プロプリオセプティブセンサと深層学習による屋外移動ロボットの車両レベルスリップ推定。〔重要度:中〕 Chattopadhyay et al. (2021) — RobustNav — "RobustNav: Towards Benchmarking Robustness in Embodied Navigation." ICCV 2021。モータ故障やモーションドリフトなどのナビゲーション劣化条件下でのロバスト性ベンチマーク。バックラッシュによる停滞と概念的に類似する故障モードを明示的にモデル化。〔重要度:中〜高い〕

4.2 エッジ画像処理によるロバスト性向上

Al-Kababji et al. (2025) — "Edges in Image with Illumination Variations Scenarios: A Review." The Visual Computer (Springer)。照明変化下でのエッジ検出手法(Sobel, Canny, 深層学習ベース)の包括的レビュー。エッジ特徴は外見ではなく構造情報を捉えるため照明変化にロバストであることの理論的裏付けを提供。本論文のエッジ前処理アプローチの根拠となる。〔重要度:高い〕 "Leveraging Spatial Attention and Edge Context for Optimized Feature Selection in Visual Localization" (2025)International Journal of Control, Automation and Systems (Springer)。Cannyエッジ検出を特徴抽出パイプラインの一部として使用し、視覚的位置推定のロバスト性を向上。エッジコンテキストをVPR/Visual localizationに明示的に活用する数少ない論文。〔重要度:高い〕 Park, Chae & Song (2020) — "Robust Place Recognition Using Illumination-Compensated Image-Based Deep Convolutional Autoencoder Features." Int. J. Control, Automation, and Systems, Vol. 18, No. 10, pp. 2699–2707。照明補正画像特徴による頑健な場所認識。エッジ画像と同様に、画像前処理によるVPRロバスト性向上の先例。〔重要度:中〕 調査結果として、エッジ検出をVPRの前処理として明示的に使用する研究は極めて限定的であり、現代のVPR研究はCNN/ViTベースの学習された特徴に大きく移行している。エッジ前処理による低コストロバスト化は、計算資源が限られるプラットフォームにおいて実用的意義がある。

4.3 低コスト視覚ナビゲーション

Kim et al. (2021) — "An Open-Source Low-Cost Mobile Robot System with an RGB-D Camera and Efficient Real-Time Navigation Algorithm." arXiv:2103.03054。LiDAR・GPUなしの低コスト屋内移動ロボットで、RGB-Dカメラ+シングルボードコンピュータにより18Hzの自律走行を実現。SCOUTプラットフォームと同様のコスト制約下でのナビゲーション。〔重要度:中〕

5. SCOUTプラットフォームまたは類似の小型移動ロボット

SCOUTプラットフォームを主要実験プラットフォームとする学術論文は極めて限定的であることが判明した。AgileX SCOUT(およびSCOUT Mini)は主にROS2研究・教育用プラットフォームとして市販されているが、フラッグシップ的な学術論文での採用は少ない。 Benjumea, Dennis et al. (2025) — "Safe-ROS: An Architecture for Autonomous Robots in Nuclear Environments." arXiv:2511.14433。AgileX Scout Miniを原子力環境の自律検査に使用。ROS2ベースのナビゲーション(move_base)とBDIエージェントによる安全計装機能を統合。SCOUTプラットフォームを学術研究で使用する数少ない正式な論文。〔重要度:高い(SCOUTプラットフォーム関連として)〕 AIRLab-POLIMI/scout_nav2 — ミラノ工科大学AIRLabによるAgileX Scout用ROS2ナビゲーションスタック(オープンソース)。SLAM Toolbox、AMCL、Nav2の統合。SCOUTのROS2エコシステムの技術基盤を提供。〔重要度:中(技術インフラとして)〕 比較可能なプラットフォームとして、Clearpath Jackalが多くのT&R研究(Dall'Osto et al. 2021等)で使用されており、SCOUTと同クラスの小型屋外移動ロボットとして参照される。またClearpath Huskyもスキッドステア式プラットフォームとして多くの研究(Nourizadeh et al. 2023等)で使用されている。

本論文の新規性が確認されるギャップ

本調査を通じて、以下の文献上のギャップが明確に確認された。これらは本論文の新規貢献を裏付けるものである。 第一に、VPR出力をナビゲーション進捗の監視に用いる研究の不在が最も重要なギャップである。既存研究はVPR信頼度を位置推定精度の評価(Carson et al. 2022; Claxton et al. 2024)に用いるが、教示画像インデックスの時間変化に着目して走行の「前進 vs 停滞」を判定する手法は確認されなかった。第二に、T&Rナビゲーションにおける明示的な停滞検出手法が文献上に存在しない。Wang et al. (2025)がT&Rの失敗モード(「ロボットが未知の場所で停止する」)を記述しているが、検出手法は提案されていない。第三に、エッジ前処理とVPRの組み合わせは現代の深層学習ベースVPRでは主流でなく、低コストプラットフォームに特化した実用的アプローチとして独自性がある。第四に、SCOUTプラットフォームでのT&R研究は前例がなく、低コストスキッドステアロボットでの実機検証は実用的価値が高い。 これらのギャップは、本論文がVPR・T&R・ロボット状態監視の交差領域において新しい研究方向を開拓していることを示している。特に、VPRを「場所を認識する手段」から「走行状態を監視する指標」へと再解釈する視座は、関連分野のいずれにおいても明示的に探究されていない独自の貢献である。

あわせて読みたい