https://hal.science/hal-01643655v1/file/HRC_REVIEW.pdf

翻訳

Abstract
近年、ロボットプラットフォームのハードウェア設計における技術的進歩により、人間や未整備の環境との相互作用を向上させるためのさまざまな制御モダリティが実装可能になった。こうした高度な相互作用能力を備えたロボットの統合において重要な応用分野として、人間-ロボット協調(human-robot collaboration)が挙げられる。この分野は高い社会経済的インパクトを持ち、作業プロセスから人間を完全に排除するのではなく、人間が果たす役割を維持するという点でも意義が大きい。近年の研究コミュニティにおけるこの分野への関心の高まりは、人間の優れた認知能力とロボットの物理的なパワー生成能力など、協調パートナーの強みを生かし、人間-ロボット-環境間の直感的かつシームレスな相互作用を実現するための多様な手法を実装することに注がれている。本稿の主目的は、人間-ロボット間のインターフェース(双方向)、ロボットの制御モダリティ、システムの安定性、ベンチマーキング、および関連するユースケースに関する最先端の研究をレビューし、さらに人間-ロボット協調の領域において今後必要とされる開発に関する展望を示すことである。

1 Introduction
家庭や産業空間におけるサービスロボットへの需要の急速な増大に伴い、豊富な固有感覚(プロプリオセプション)センサーやアクチュエータ制御を備えた高性能ロボットが数多く開発されてきた。これらのシステムは、ロボットマニピュレータ [Albu-Schäffer et al., 2007] からヒト型ロボット [Tsagarakis et al., 2016; Ott et al., 2006; Kaneko et al., 2008; Radford et al., 2015] まで多岐にわたり、安全かつ成功率が高く、時間とエネルギー効率に優れたタスク遂行を必要とする状況において、人間の作業を補助することが期待されている。特に、協調的な作業が必要とされるタスクにおいては、ロボットシステムの導入が盛んであり、急速に研究が進んでいる。Fig.1 では、この20年間に発表された関連研究の文献数に基づく概算を示し、人間-ロボット協調分野に対する研究コミュニティの関心の高まりを示している。

物理的な人間-ロボット協調(Physical Human-Robot Collaboration, PHRC)は、物理的な人間-ロボット相互作用(Physical Human-Robot Interaction)の一般的な範囲内に位置づけられる(詳細は [De Santis et al., 2008; Murphy, 2004; Alami et al., 2006] 参照)。PHRC とは、人間・ロボット・環境が互いに接触し合い、タスクを遂行するために密接に結合した力学系を形成する状況を指す [Bauer et al., 2008; Krüger et al., 2009]。理想的には、このシステムの各アクティブ要素が、システム全体の応答に対する他の要素の貢献をセンシング情報の融合・処理を通じて観測・推定できる必要がある [Argall and Billard, 2010; Ebert and Henrich, 2002; Lallée et al., 2012]。その結果として、(たとえば人間が、同様のタスクを実行した経験から習得したスキルをもとに)これまで得られた知見を再現したり、あるいは新たにロボットの作業能力を補完・向上させるような適切なリアクティブ行動を獲得したりすることで、システム全体のパフォーマンスを向上させることが可能になる。

人間が持つ予測的な(フィードフォワード [Shadmehr and Mussa-Ivaldi, 1994b])またはフィードバック的な [Todorov and Jordan, 2002] 動作形成の仕組みに類似したアプローチとして、ロボットのセンサ入力に対する応答をモデル/知識ベースの手法 [Tamei and Shibata, 2011; Ogata et al., 2003; Kimura et al., 1999; Magnanimo et al., 2014]、あらかじめ設定したインタラクションモダリティをもつフィードバック制御器の実装 [Peternel et al., 2016c; Donner and Buss, 2016a]、あるいは両者を組み合わせた手法 [Rozo et al., 2013; Peternel et al., 2016b; Lawitzky et al., 2012b; Palunko et al., 2014] によって実現することができる。ここでの重要な戦略の一つは、共有された権限(shared authority)フレームワークを築くことであり、そこでは人間とロボットそれぞれの顕著な能力――たとえば、人間が持つ多様なタスク要求や外乱への学習および適応能力と、ロボットが持つ優れた物理的パワーを生成する能力――を組み合わせて活用する。Fig.1 は、ロボット挙動のリアルタイム適応に人間の意図を組み込むことへの研究コミュニティの関心が増加していることを示している。

以上を踏まえ、本稿の主目的は、シームレスで直感的な人間-ロボット協調を実現するためのキーとなる技術について、現状の最先端を概観することである。ハードウェアに関する要素(たとえば通信 [Wang et al., 2005]、センサ [Tegin and Wikander, 2005]、アクチュエータ [Vanderborght et al., 2013a] など)は、すでに近年数多くのレビューが行われている。そのため本稿では、それ以外の重要な要素――すなわち人間-ロボット間のインターフェース(双方向)、ロボット制御モダリティ、システム安定性、ベンチマーキング、そして関連するユースケース――を中心に議論する。また、今後の開発に必要とされる事項に関して、ある程度の共通認識を形成することを目的として、物理的な意味合いに焦点を当てた2形で人間-ロボット協調を概観する。

(脚注:
2 認知的観点からのHRCに関しては、[Fong et al., 2003; Freedy et al., 2007; Rani et al., 2004] などが詳しい。)

2 Interfaces for Improved Robot Perception
人間は、ペアやグループで作業する豊富な経験を通じ、暗黙的あるいは明示的なコミュニケーション基準を発達させてきた [Sebanz et al., 2006]。物理的な人間-ロボット協調の領域においては、ロボットがタスクのさまざまな局面で人間の意図やニーズを把握できるようなコミュニケーション基準を確立することが主要な目標の一つである [Klingspor et al., 1997; Bauer et al., 2008]。現在の技術では人間の感覚システムすべてをロボットに再現することは極めて困難だが、その根底にあるコミュニケーション原理を理解し実装することにより、物理的な人間-ロボット相互作用のパフォーマンスを高める可能性がある [Reed and Peshkin, 2008]。

このようなコミュニケーションインターフェースの代表例として、ビジュアル [Perzanowski et al., 1998; Agravante et al., 2014a; Morel et al., 1998] や音声言語コマンド [Medina et al., 2012a; Miyake and Shimizu, 1994; Petit et al., 2013] を用いる方法が挙げられる。これらは人間にとって新たなツールを学ぶ必要が少ないため、ユーザーフレンドリーな手段といえる。ヒトの頭や身体、腕の動きなどを利用したジェスチャによるコミュニケーションは、人間-ロボット相互作用や協調の分野で多く研究されている [Li et al., 2005; Carlson and Demiris, 2012]。たとえば [Sakita et al., 2004] では、人間の視線移動の直近の履歴をもとに人間の意図を推定し、協調システムで適切なリアクティブ応答を生成する手法が提案されている。[Hawkins et al., 2013] では、カメラによる観測に基づき、人間が必要とするロボットの支援タイミングを確率的に予測するビジョンベースのインターフェースを開発している。この手法は、人間の動作のばらつき・環境制約・タスク構造などを考慮しつつ、人間パートナーの行動タイミングを高精度で分析できる。

これらのインターフェースは、人間にとって自然なコミュニケーション手段となる一方、基本的にはロボット側の高レベルな操作を呼び出す場合に用いられることが多く、タスクの複雑さによっては、こうしたモダリティからロボットが望ましいセンサモータ挙動を引き出すのは難しい場合がある。実際、ビジョンや音声ベースのインターフェースを幅広い用途に適用するためには、現行のロボットが持つ自律性をはるかに超える高度な自律性が必要とされる。

もう一つのアプローチとして、力/圧力センサーを利用して、協調相手である人間の意図をあらかじめ推定したり、協力の度合いを調整したりする手法がある。この仕組みは単純であるため、数多くの応用で用いられている。例としては、協調的な物体搬送 [Ikeura and Inooka, 1995a; Kosuge and Kazamura, 1997a; Al-Jarrah and Zheng, 1997a; Tsumugiwa et al., 2002a; Duchaine and Gosselin, 2007; Agravante et al., 2014a; Gribovskaya et al., 2011a; Rozo et al., 2014; Rozo et al., 2015; Adams et al., 1996]、物体持ち上げ [Evrard and Kheddar, 2009; Evrard et al., 2009]、物体の設置 [Tsumugiwa et al., 2002a; Gams et al., 2014]、物体を振り回す作業 [Donner and Buss, 2016a; Palunko et al., 2014]、姿勢支援 [Ikemoto et al., 2012; Peternel and Babič, 2013]、および産業現場における複雑な組み立て作業 [Krüger et al., 2009] (Fig.2 参照) などが挙げられる。

多くの先行研究においては、相互作用による力やトルクを用いて、アドミタンス則 [Duchaine and Gosselin, 2009; Lecours et al., 2012] またはインピーダンス則 [Tsumugiwa et al., 2002a; Agravante et al., 2014a] の因果関係 [Hogan, 1985] に従い、ロボットの制御パラメータや軌道を調整している。応用範囲は広いものの、粗いあるいは不確実な環境との同時相互作用(例: 共同で道具を操作するタスク)を伴う協調作業では、センサの計測値に対してさまざまな予測不能な力成分が加わる場合がある [Peternel et al., 2014]。これにより、より複雑な相互作用シナリオでは、この種のインターフェースの適用性が大きく低下する可能性がある。というのも、環境との相互作用によって生じた成分と、能動的な相手(あるいは複数の相手)の動作に起因する成分とを区別することが難しくなるためである。

生体信号(たとえば筋電図(EMG)や脳波(EEG))、あるいは電気皮膚活動 [Pecchinenda, 1996; Rani et al., 2006] のような他の生理学的指標を用いることで、PHRC(物理的な人間-ロボット協調)において人間の意図を先読みすることができる。特に EMG 計測は、装着の自由度や使いやすさの面で優れているため、さまざまな人間主体のロボット制御に応用されてきた。具体例としては、義手 [Farry et al., 1996; Jiang et al., 2009; Farina et al., 2014; Castellini et al., 2014; Strazzulla et al., 2017]、外骨格 [Rosen et al., 2001; Fleischer and Hommel, 2008]、産業用マニピュレータの制御 [Vogel et al., 2011; Peternel et al., 2014; Ajoudani, 2016; Gijsberts et al., 2014] などが挙げられる。Peternel らは共同操作タスクにおいてトルク制御されたロボットアームの剛性・柔軟性の切り替えを予測するために EMG 信号を利用し [Peternel et al., 2016c]、このインターフェースを通じて人間とロボットのリード/フォローの役割をオンラインで推定した。また別の研究では、Bell らが、部分的に自律制御されるヒト型ロボットに対して、高レベルのタスク記述を EEG 信号で指令する手法を提案している [Bell et al., 2008]。

HR(ヒューマン-ロボット)インターフェースにおける生体信号の顕著な活用方法としては、人間の身体的(例: 疲労)または認知的(不安や注意散漫など)状態の変化を推定し、それらがロボットのパフォーマンスに及ぼす悪影響を低減することが挙げられる。[Rani et al., 2004] では、EMG・心電図(ECG)・電気皮膚応答から特徴量を抽出して、人間の不安状態を検知する手法を開発した。これと類似した研究では、人間の身体的疲労を検知し、ロボットがタスクに貢献する割合を高めることで作業を支援している [Peternel et al., 2016b]。

単一のセンサデータ源に基づくインターフェースは、協調環境においてあらかじめ定義されたロボット挙動を設定する上で有効だが、汎用性が限られており、異なるドメインにまたがるシナリオへ容易に適用できるわけではない。たとえば、やり取りされるエネルギー量を推定する場合、視覚情報を使うよりも力や圧力センサを使うほうが効果的である。同様に、人間の四肢運動を追跡するために EMG のような生体信号を使う場合、外部の光学式または IMU(慣性計測ユニット)ベースの追跡システム [Corrales et al., 2008] に比べて精度が低下することもある。これらの問題を解消するため、複数のロボット制御モダリティに対して複数のセンサ情報を組み合わせるアプローチ(いわゆるマルチモーダルインターフェース [Mittendorfer et al., 2015; Peternel et al., 2016c])が活用されている。具体的には、Agravante ら [Agravante et al., 2014a] はビジョンセンサと力センサを組み合わせるハイブリッド手法を提案し、人間とヒト型ロボットがテーブルを共同で運搬しながら、その上にある自由に動くボールを安定して保持するタスクにおいて、高次と低次の相互作用成分を切り離して扱った([Rozo et al., 2016] も参照)。また [Böhme et al., 2003] では、ユーザ位置や人物追跡を行うビジョンベースの技術と、それらを統合するマルチモーダルな相互作用スキーマを組み合わせ、インテリジェントかつ自然な人間-ロボット相互作用を実現するマルチモーダル・スキームを提案している。

同様の流れとして、音声コマンドを利用して動的な共同操作タスクの一時停止、停止、再開などを行い、EMG ベースのインターフェースで制御パラメータを調整する(Fig. 3 参照)という手法がある。この研究では、外部トラッキングシステムが人間の腕の姿勢を検知し、リアルタイムでロボットのタスクフレームを修正していた。同様に [Yang et al., 2016] では、デュアルアームロボットプラットフォーム上にマルチモーダルなティーチングインターフェースを開発している。ここでは、ユーザの腕に装着した EMG とロボットのエンドエフェクタに搭載された力センサを用いて、一方のロボットアームが学習者(tutee)の腕に接続されて可変剛性制御によるガイダンスを提供し、もう一方が指導者(tutor)に接続されて動作を取得し、学習者のパフォーマンスを触覚フィードバックで返すという構成である。指導者の腕の剛性はリアルタイムで推定され、それが学習者用のロボットアーム側で再現される [Yang et al., 2016]。

Ivaldi ら [Ivaldi et al., 2016] は、人間がヒト型ロボット iCub と物理的に協働してオブジェクトを組み立てる際のマルチモーダルなコミュニケーションを調査している(Fig. 4 参照)。参加者は共同作業における注意の焦点を伝えるため、自然にロボットの手や顔を注視し、さらに作業内容を説明するためにロボットに話しかけるという行動を示した。著者らは、被験者の個人的特性が、音声や視線といった参照キューの発生に影響を及ぼすことを確認している。特に、ロボットに対して否定的な態度を持つ人はロボットを見ることを避け、外向性の高い人は協働中にロボットに話しかける傾向が高いという結果が得られた。ロボットは関節剛性が低いインピーダンス制御で動作し、人間がロボットの腕(触覚スキンで覆われており正確な接触推定が可能 [Fumagalli et al., 2012])を掴み、音声コマンドで「柔軟になって(be compliant)」と指示したタイミングでトルクゼロ制御に切り替わる。このマルチモーダルな指示戦略によって、ロボットとの作業に不慣れな参加者でも安全性に対する不安を感じずにロボットの腕を直感的に動かすことができるようになり、インタビュー結果でもその点が報告されている。実際に経験の少ない参加者でも、ロボットを物理的に操作してタスクを教えることができた。iCub が子供のような外見をもつことから、参加者は自然に教師/ケアギバーのように行動し、[Nagai and Rohlfing, 2009] が指摘する観察とも一致する結果となった。ただし、物理的相互作用が行われる本研究の状況では、親子の相互作用や足場かけ (scaffolding) シチュエーションに典型的な大げさな動きや、視線やジェスチャーを多用するような場面はあまり見られなかったことも付記している。これは [Kilner et al., 2003; Ugur et al., 2015] で示された先行研究とも整合的である。

複数の情報源を用いたマルチモーダルインターフェースは、より複雑な協調タスクの遂行に必要な複合的なロボット挙動を生み出すうえで効果が高くなり、近年では複数のセンサ情報の利用と融合に注目が集まっている。たとえば Google Scholar のデータによれば、2015年当時の人間-ロボット協調分野の研究のうち 76% 超がマルチモーダルインターフェースを採用していたとのことである。しかしながら、通信チャネルを増やして中間的なインターフェースを開発すると、人的な認知負担や低レベルのロボット制御の複雑さが増し、インターフェースの直感性が損なわれたり、特定のロボットモダリティを操作するための人間側の労力が過大になったりする可能性がある。この問題に対しては、共有コミュニケーションモダリティの導入 [Green et al., 2008; Lackey et al., 2011; Lackey et al., 2011] によって解決を図ることができるかもしれない。あるいは、漸進的な相互適応 [Ikemoto et al., 2012; Peternel et al., 2016a]、強化学習 [Palunko et al., 2014]、デモンストレーションからの学習 [Evrard et al., 2009; Lawitzky et al., 2012a; Rozo et al., 2015] といったロボット学習技術を取り入れてロボットの自律性を高めることで、通信ループ(帯域幅やフィードバックモダリティの数など)に対する要求を緩和することも可能である。

3 Interfaces for Improved Human Perception
人間の視覚および聴覚システムは、運動学的情報や環境に関する情報を素早く正確に捉え、内部モデルを常に更新するための強力な感覚入力を提供する。具体的には、視覚を通じて物体の重量を予測したり [Gordon et al., 1993]、物体をあらかじめ定められた経路に沿って動かすのに必要な力を推定したり [Johansson, 1998] するなど、動的な環境認識において視覚や聴覚が担う役割はよく研究されている。

協調や二者間(ダイアディック)の相互作用において、人間同士が見つめ合ったり注視点を共有することは、情報伝達の一般的な手段である [Tomasello, 2009]。これらの仕組みはロボットとのインタラクションにおいても適切なバックチャネルとして機能し、より効果的な相互作用を実現するために利用されることが多い。たとえば [Ivaldi et al., 2014] では、ロボットに先読み的な視線移動や先制的な行動(プロアクティブ行動)を実装することで、人間がロボットのキュー(合図)に対して素早く反応し、やり取りのペースを上げられることが示されている。

同様の研究として Dumora ら [Dumora et al., 2012] は、棒の共同搬送タスクにおける操作者とロボット間の触覚コミュニケーションを調べ、レンチ(力・トルク)計測だけでは操作者の動作意図を十分に把握できないことを報告している。これは [Reed, 2012] においても同様で、物理的な相互作用のみでコミュニケーションを行う二者が協力する場合に生じる問題点として指摘されている3。触覚フィードバックだけでも、もしタスクの文脈情報(タスクのどのフェーズにあるか等)が提供されるならば短期的にはサブタスクを達成できるが、協調作業を効率良く進めるには、非言語的なキューをより多く取り入れてパートナーの意図を認識し、二者間の活動を同期する必要がある。この意味で、注視点の共有や先手を打った行動(プロアクティブさ)は、相互認識(mutual awareness)を高め、タスクのパフォーマンスを向上させる効果がある。実際 [Ivaldi et al., 2014] では、二者協調の学習課題においてその有効性が示されている。

一方で、拡張現実(Augmented Reality; AR)を用いたアプローチによって、人間側の視覚情報を介して環境への認識を高めることも可能である。AR を使うことで、人間はロボットが作業を実行する前に、計画を視覚的に確認・検証できる [Green et al., 2009; Glassmire et al., 2004](Fig.5 参照)。研究室や航空・軍事など特定の場面でしか使われなかったヘッドマウントディスプレイ(HMD)も、近年では Rift(Oculus)や Gear VR(Samsung)などの登場により一般向け製品として普及し始めている。もっとも、ARベースの手法には、情報過多(information overload)やプライバシー保護の問題(例: 許可なくオーグメントされた情報を表示される)、あるいは追加コストなどが障壁となり、協調作業環境で期待されるパフォーマンスを得られない可能性もある。

一方で、人体の四肢(指先、腕の皮膚など)に存在する受容器がもたらす触覚情報も、外部環境を探索したり日常的なタスクを達成するうえで極めて重要かつ補完的な感覚入力となる。多くの協調シナリオでは、人間のパートナーが物体やロボットと物理的に接触し、閉ループの力学系を構成するため、人間の受容器を通じて大量の有意義な情報が知覚されうる。しかしながら、タスクや環境条件によって人間の環境知覚が制限される特定の状況では、人工センサシステムによる触覚フィードバックを人間側に与えることが有益となり得る。

人工システムによって人間の豊かな感覚器官を完全に再現するのは依然として極めて困難だが、近年の研究では、非侵襲的な方法でロボットオペレータに触覚刺激を提示するさまざまな手法が検討されている。これらは、力フィードバックを完全に再現する代わりに、コストを抑えつつ簡単に適用できるフィードバックシステムを用いて性能の低下を最小限に留めるだけでなく、ループ閉鎖系の安定性 [Tegin and Wikander, 2005] といった本質的な問題の解決にも寄与する。また、こうした感覚置換技術(sensory substitution techniques)は、人間の感覚システムだけでは得られない高度なロボットの環境認識(例: 深度センサ [Plagemann et al., 2010] から得られる情報)を人間に提供する手段としても利用できる。具体例として、振動刺激、経皮電気刺激、機械的圧力 [Shannon, 1976; Nohama et al., 1995; Wang et al., 1995] などを用い、力や固有感覚、あるいはテクスチャ情報を伝達する手法がある。同様に、先行研究では周波数帯域の低い(力関連の)情報と高い(加速度関連の)情報 [Ajoudani et al., 2014; Godfrey et al., 2013] を大まかに区別し、それぞれに対応する非侵襲的な感覚置換技術が検討されている。たとえば [Yang et al., 2016] では、ヒト-ロボット協働によるティーチング環境で、ロボットが二本のアームを使って「指導者(tutor)」と「学習者(tutee)」それぞれの腕に接続し、そのうち指導者側へはハプティックな力フィードバックを与えるインターフェースを開発した。ここでは、学習者の腕と目標軌道との誤差に応じて力が変化し、リアルタイムで偏差の大きさを指導者に伝える仕組みとなっている。

Table 1 では、タスクおよび環境に対するロボットと人間の知覚能力を向上させる目的で用いられるインターフェースについて、文献上の事例を概観している。

4 Interaction Modalities
この節では、ロボットに相互作用能力を付与するためのさまざまな戦略について概観する。第2節ではインターフェースとそれを支える知覚メカニズムを扱ったが、本節では、そうした知覚入力がロボット挙動にどのような影響を与えるか、すなわち制御アプローチの違いを取り上げる。

すでに述べたように、PHRC(物理的な人間-ロボット協調)の枠組みを成功裏に構築するうえで重要となるのは、タスク条件や環境制約へのロボットの適応性を高めることである。この点で先駆的な研究として Hogan の業績が挙げられ、よく知られるインピーダンス制御(およびその双対表現であるアドミタンス制御)の枠組みを提案している [Hogan, 1985]。元々は人間-ロボット相互作用を明示的に対象としたわけではなかったが、後続の研究 [Kosuge and Kazamura, 1997b; Tsumugiwa et al., 2002b; Albu-Schäffer et al., 2007; Gribovskaya et al., 2011b] によって、人間がインタラクション力の発生源である場合にも適用できるように拡張がなされてきた。特に Kosuge らは、重くかさばる物体を人間とロボットマニピュレータが共同で運ぶシナリオを想定し、人間が物体の目標位置や移動経路を指示し、ロボットはペイロードを支えるという方式の制御戦略を提案している [Kosuge and Kazamura, 1997b]。このような取り組みは文献でも広く扱われている。

同様のコンセプトとして [Tsumugiwa et al., 2002b] では、協調的なペグ挿入作業(peg-in-hole)を容易にするため、仮想力をセンサ空間に追加し、人間を支援する方式を検討している。[Bestick et al., 2015] では、人間個人の運動学的モデルを学習データ(モーションキャプチャ情報)から推定・パラメータ化し、それをロボットとの相互作用制御に組み込むフレームワークを提示している。筋骨格モデルをデータ駆動で構築することで、個人差に応じた支援機能を実現しようとしている。[Gribovskaya et al., 2011b] は、ロボットの学習能力を向上させるため、インピーダンスパラメータの適応スキームを提案している。ここでは、ガウシアン混合モデル(GMM)を用いてタスクモデルを学習し、ロボットがパートナーの意図を先読みした上で、認識した相互作用力に応じて動作を適応させる。類似の考え方は [Kronander and Billard, 2014] でも拡張されている。[Ragaglia et al., 2016] では、インピーダンス制御に基づくキネスティック・ティーチング(kinaesthetic teaching)の手法を示し、人間がロボットを直接手で誘導した際の高精度かつ高再現性の動作学習を実現している。[Mörtl et al., 2012] では、動的な役割交換メカニズムを提案し、それを協調搬送タスクに適用した。ここではインピーダンス制御の考え方を用いて、負荷分担や物体の運動制御、さらには無駄な内部力の低減を同時に実現している。

また、実時間で軌道生成や再計画(リプラン)を行う手法によって、暗黙的な相互作用能力を構築するアプローチもある。特にこの領域では、リアルタイムで人間の動作を追跡可能な視覚ベースの認識が広く用いられる。[Ebert and Henrich, 2002] では、天井に固定された2次元カメラを使って共同作業用の産業セル内で危険な状況を予測し、衝突が予想される場合には速やかにマニピュレータに停止軌道を指令するシステムが提案された。類似の設定で [Bascetta et al., 2011] は、長期的な人間作業者の歩行軌道を予測し、適切なインタラクション行動を先回りして発動する手法を開発している。この際、取得した軌道データをガウシアン混合モデル(GMM)で表現し、オンライン予測フェーズには隠れマルコフモデル(HMM)を用いている。

人間の作業空間に自然に溶け込み、受け入れられるロボット動作を生成するという研究分野も近年活発化している [Zanchettin et al., 2013b]。この文脈では、ロボットに対する学習手法(robotic learning techniques)の応用が不可欠になりつつある。たとえば [Kim et al., 2006] ではヒトの運動データベースをもとに動作プリミティブを生成し、ヒトらしい動きを再現する方法を提案している。[Khatib et al., 2009] では、筋骨格モデルを用いて自然な人間の動作を数理的に表現し、人間の疲労を最小化する研究が行われた。[Calinon et al., 2010] では、隠れマルコフモデル(HMM)とガウシアン混合回帰(GMR)を組み合わせ、模倣学習によってヒトらしい動作を再現する確率的な学習戦略を提示している。

第2節で紹介した多様なインターフェースの存在、およびこれまでに分析してきたさまざまな制御手法の選択肢を踏まえ、新たな研究方向として「マルチモーダルな相互作用」が挙げられる。これは、本節で取り上げた複数のモード(例: 視覚と触覚)を組み合わせてロボットマニピュレータの相互作用挙動を構成するもので、人間同士が互いにやり取りを行う方式を模倣する狙いがある。例えば [De Santis et al., 2007] は、視覚と力の両方の情報を組み合わせて安全性の向上を目指す制御スキームを初期の研究成果として報告している。[Magrini et al., 2014] では、視覚情報を利用して人間とロボットマニピュレータ間の接触点を把握する手法を提案している。[Zanchettin and Rocco, 2015] では、インピーダンス制御下で人間とロボットが相互作用している間に、ロボットが物体を追尾するための視覚情報と力情報の両方を利用する制御アーキテクチャを提案している。[Cherubini et al., 2013] でも、視覚認識と力情報を組み合わせることで、ネジ締めタスクを共同実行する際の人間の意図を推定し、センサ情報に基づいて多様な相互作用モードを切り替える制御スキームが示されている。[Agravante et al., 2014b] では、力情報と視覚情報を統合して、安全かつ効果的に共同搬送を行うピア同士の相互作用戦略が提示されている。ここでは安全性の確保を主に力センサで担い、物体の向き制御を視覚情報で実行するという分担を行っている。

同様の文脈で [Peternel et al., 2016c] は、複数の直交軸に対してインピーダンス/力制御をハイブリッドに適用し、それらを組み合わせるマルチモーダルな相互作用モダリティを提案している。この事例では、力制御が「ノコギリ作業時の工具と環境との接触を維持する」ことを担い、一方でインピーダンス制御は「EMG と視覚追跡を組み合わせたインターフェース」に基づいてタスク剛性およびタスクフレームをタスクの各フェーズで動的に調整する。

総じて言えば、ロボットプラットフォームの予期しない事象への適応能力向上によって、複雑な相互作用シナリオでも高性能なロボットの運用が可能になってきている。しかし、人間とロボットの双方にどの程度の適応度合いが必要とされるのか、という本質的な問題については、まだ研究の初期段階にあると言える。今後は、人間とロボットが相互に適応すべき要件を体系的に扱う正式な枠組みが求められている [Ikemoto et al., 2012]。

5 Stability and Transparency of the PHRC Systems
人間がロボットと物理的に相互作用する際、ロボット制御には性能の実現と安定性の確保という重大な課題が伴う。[Buerger and Hogan, 2007] で詳しく説明されているように、人間-ロボットシステムの安定性は両者が結合した力学系に依存する。二つのシステムが相互に結合すると、その相互作用は両システムの性能と安定性に影響を及ぼし、単独では安定なシステムであっても、結合系としては不安定になったり、性能目標を満たせなくなったりする場合がある。たとえば、ロボットマニピュレータが既知の面に沿って目標経路を高速かつ正確に追従できるとしても、人間がロボットを物理的につかみ、タスクの変動に合わせて経路を補正しようとする状況では、人間がどれほどの力を加えるか、グリップの強さや手の剛性などにかかわらず「常に安定」である必要がある。このような相互作用システムの多くでは、ロボットの制御は相互作用ポート(例: エンドエフェクタ)での力や動力学的挙動を調整する。前述のように、こうした性能を実現するための伝統的な制御コンセプトとしてはインピーダンス制御 [Hogan, 1985] があり、外力が作用する下でのロボットの動力学的挙動を、ばね-質量系を模して所望の剛性や減衰を設定する形で制御する方法である。

相互作用中のロボット制御においては、もう一つの望ましい特性として「透明性(transparency)」が挙げられる [Lamy et al., 2009]。たとえばある用途では、オペレータがロボットを操作する際に、ロボットが人間の加える力に抵抗を示すべきではなく、むしろ人間の意図に従って動くことが求められる。これは特に共同操作(co-manipulation)で重要となる。人間とロボットが同時にオブジェクトを保持するような場面(医療分野における手技支援や、工業分野における組み立て作業など)では、このような特性が必要とされる。

通常、透明性は力フィードバック制御によって実現されるが、同時に安定性も確保しなければならない。高い透明性を得るには広い帯域幅で大きな力フィードバックゲインが必要になるが、[Eppinger and Seering, 1987] では、環境が高剛性([Colgate and Hogan, 1989] で言及される“接触不安定性”など)あるいは未知または変動するインピーダンスを持つ場合、この条件は不安定性を招きうることが示されている。

したがって、相互作用制御における安定性は機械的インピーダンスの制御と深く結びついている。従来型のロボットは剛性の高い DC アクチュエータにより駆動されており、インピーダンスはアクティブな力制御によって実現される。関節トルクセンシングを備え、低レベル制御ループを高速に動作させられる(例: KUKA iiwa)ような近年のロボットは、安全とされるインピーダンス範囲内で良好な応答を得やすい。一方、近位(プロクシマル)センサを使用するロボット(例: iCub [Fumagalli et al., 2012])などでは、アクティブ制御の計算遅延やセンサとアクチュエータの位置が離れていること(ノンコロケーション)による影響があり、安定性に潜在的なリスクをもたらす。たとえば [Berret et al., 2011] に示されているように、相互作用において安定を保てるインピーダンスの範囲が大幅に縮小されることがある。関節自体の可撓性や弾性を利用してロボットに本質的な柔軟性を与えるため、弾性/可撓性関節を搭載したロボットや、より最近では可変インピーダンスアクチュエータ [Vanderborght et al., 2013b] を備えたロボットが開発されており、関節レベルで機械的インピーダンスを素早く制御することが可能となっている。

[Buerger and Hogan, 2007] に詳しいように、初期の相互作用制御研究ではインピーダンスを任意に形成すれば望ましい性能が得られると想定されてきた。しかし実際には、完全に任意のインピーダンスを実ロボット上で実現することは不可能であり、特に人間との相互作用では環境剛性が未知もしくは変動するために、[Colgate and Hogan, 1989] が指摘する結合/接触不安定性が生じうる。この問題は受動性(passivity)の概念を用いて研究されている。[Colgate and Hogan, 1988] では、二つの安定システムがパッシブなポート関数を介して物理的に結合される場合、その結合系の安定性が保証されることを Colgate らが示している。しかしパッシビティはゲインの調整を非常に保守的にし、エンドポイントの見かけ上の慣性を実際の値より常に 50% 以上大きく維持しなければならないなどの制約があり、大きく重いロボットを用いた共同操作には不向きである [Lamy et al., 2009]。ここで注目すべき点として、関節トルクセンシングを備えるロボットでは、トルクフィードバックによって慣性を大幅に低減しながらも、パッシビティの枠組み内に収められる可能性がある [Albu-Schäffer et al., 2007]。

いくつかの研究は、パッシビティがあまりに保守的すぎるため、物理的な協調作業の性能向上を図るには緩和が必要と報告している [Buerger and Hogan, 2006; Duchaine and Gosselin, 2008]。パッシビティの緩和を目指して、Newman は自然アドミタンス制御(NAC)[Newman, 1992] を提案し、慣性とは無関係な摩擦成分の低減に注目した。[Ficuciello et al., 2014] は、ロボットの冗長性を利用してエンドエフェクタの見かけ上の慣性を分離し、安定的に扱えるインピーダンスパラメータの範囲を拡大する手法を示している。Buerger & Hogan は「相補安定性(complementary stability)」の概念を導入し [Buerger and Hogan, 2007]、安定性の問題をロバスト安定性の問題へ変換した。これは「人間の腕の力学特性は未知だがある程度の範囲に収まる」と仮定し、その範囲内で安定するよう最適な制御パラメータを求める方法である。NAC と相補安定性は [Lacevic and Rocco, 2011] で組み合わせられているが、[Dimeas and Aspragathos, 2016] の観察によれば、依然としてゲインが保守的であり、人間オペレータが大きな労力をかけずにスムーズな協調を行うことが難しい場合がある。そこで [Dimeas and Aspragathos, 2016] では、力信号の高周波振動を監視してヒト-ロボット結合システムの不安定挙動を検知する「不安定性指標」を用い、アドミタンス制御のゲインをオンラインで適応させる方式を提案している。

アドミタンス制御スキームや、最適制御によってゲインを調整したり交換される力を制御したりする手法の主な利点としては、制御理論に基づく厳密な枠組みと方法論があり、外乱に対してもロバストな制御を設計し、システムの安定性を証明しやすい点が挙げられる。一方で、機械学習技術を通じて獲得・改良される相互作用ポリシーの場合(ロボット学習の多くはデモンストレーションから学習し、強化学習を通じて改良される [Amor et al., 2009])、ポリシーやモデルをオンラインで獲得するため、制御境界にある程度の条件がない限り、安定性を証明するのは非常に困難となる。[Khansari-Zadeh and Billard, 2011] では、SEDS と呼ばれる手法を提案し、ガウシアン混合モデルを用いてロボット動作の動力学系の安定パラメータを学習し、デモンストレーションから獲得した軌道を再現できるようにしている。この手法は、ターゲット地点での大域漸近的安定性を証明することで、時間不変性や外乱への適切な応答を保証している。ただし、この手法は主として動作軌道の安定化を目的としており、相互作用中のインピーダンス安定化には特化していない。[Khansari-Zadeh et al., 2014] では、この枠組みを拡張し、運動軌道の学習と相互作用時のインピーダンス調整を同時に扱い、大域的安定性を保証する方法を提示している。具体的には、フリースペースでの運動については大域漸近的安定性を、受動的な環境と継続的に接触している間についてはパッシビティを満たすための十分条件を提示している。

安全な物理的相互作用を実現するには安定性と透明性が不可欠であり、とくにロボットが人間のガイダンスに追従するような場面で重要となる。これらの特性は、ロボットがコラボレーションを最適化し、人間に動作意図を理解しやすいよう動作を生成する「視認性(legibility)」や、ロボット側が人間の意図や協調目標を予測し制御ポリシーを最適化する「先読み(anticipation)」など([Stulp et al., 2015; Dragan et al., 2013] 参照)を導入するうえでも基盤的である。人間同士の物理的相互作用においては、共同練習によって意図の伝達が向上し、パートナー間の連続的な役割適応 [Mojtahedi et al., 2017] やアームのインピーダンスがそれに関係していることが示されており、これは透明性にも関連する [Jarrasse et al., 2008]。そして同じことが人間-ロボットの物理的相互作用においても当てはまる [Dragan and Srinivasa, 2012; Jarrasse et al., 2013]。また、透明性と安定性は、タスクの遂行時に人間を支援する制御最適化の面でも重要であり、リハビリテーションロボットにおいてはよく導入されている [Morasso et al., 2007]。

5.1 Lessons from human motor control
物理的な人間-ロボット相互作用において最大の課題は、安定性を確保しつつ性能を最適化し、人間オペレータの労力4を低減するために、インピーダンス制御やアドミタンス制御のゲインをオンラインで調整することである。

まず、人間の腕がロボットマニピュレータのエンドエフェクタと相互作用する単純なケースを考えてみよう。この場合、ロボット側の大きな困難は、変動する環境、たとえば人間の腕のエンドポイント剛性 [Ajoudani, 2016; Burdet et al., 2000] を正確に推定する点にある。安定性と透明性を同時に満たすためには、推定された人間の剛性に合わせてインピーダンスあるいはアドミタンスパラメータをオンラインで調整する必要がある。人間の腕の剛性推定には、専用の力/トルクセンサを用いて把持力を測定する方法が一般的だが、工業応用では、人間オペレータが直接ペイロードを保持し、昇降装置やアシストデバイスを介さずに操作するケースもある。[Lamy et al., 2009] では、コラボレーション時に直感的な操作を実現するためのハンドルを設計している。ここでは 6自由度力/トルクセンサに柔らかいフォームを被覆しており、人間が軽くつまむように握る(precision grip)場合にはフォームが機械的フィルタとして機能し、システムは低慣性となる。逆に筋肉の共収縮により腕の剛性が高くなると強いパワーグリップ(power grasp)になり、フォームが強く潰されてフィルタの働きが抑えられ、システムとしては高い慣性特性を示してゲインが下がり、結果として安定性が保たれる [Napier, 1956]。

人間の運動制御(human motor control)は、物理的な相互作用中のインピーダンスゲインを調整し、より一般的にはロボット制御を最適化するうえで活用できる多くの事前知識を提供してくれる [Ivaldi et al., 2012]。[Dimeas and Aspragathos, 2016] では、人間が任意に動作する際の周波数帯域が 2Hz 以下と比較的低い [de Vlugt et al., 2003] ことから、ロボットとの物理的な相互作用中に、周波数解析によって人間オペレータの意図と不安定な運動を識別できることを指摘している。さらに、外部からの振動的な力が腕に加わった場合、中枢神経系(CNS)は腕のインピーダンスを変化させて対処する。実際 [E. Burdet, 2001] によれば、CNS は強制された力学に打ち勝つための力を単純に加えるだけではなく、エンドポイント剛性の大きさ・形状・向きを先読み的(predictive)に制御できる。これは、単にすべての筋肉を共収縮させるのではなく、外乱に対してロバストになるようインピーダンスを増大させる最適な戦略である。

[Yang et al., 2011] で論じられているように、ロボットにおいては外乱や不確実性に対処する一般的戦略としてロバスト制御が使われ、安定性を重視する。しかし人間では、外力を補償する際にエンドポイントの力や粘弾性を調整し、誤差と努力を最小化しつつ常に一定の安定マージンを保つ。[Shadmehr and Mussa-Ivaldi, 1994a] などに示されるように、人間は相互作用中に自分自身の腕や環境の内部動力学モデルを学習・適応させ、それらを使って運動計画のための筋活動を予測する。ただし、こうしたフィードフォワード信号だけでは不安定な動的環境への対応は不十分である。いくつかの研究 [Franklin et al., 2008; Franklin et al., 2007; Franklin et al., 2003] では、CNS が不安定性やフィードバック遅延に対処するため筋肉を共収縮させ、腕の柔軟性(compliance)を調整することが報告されている。特に [Franklin et al., 2007] では、剛性の増加が環境の不安定方向に合わせて向きづけられることを実験的に観察し、CNS が四肢のエンドポイントインピーダンスを制御し、選択的に環境に適応させられることを示している。

これらの研究は、人間の中枢神経系がエンドポイントレベルでインピーダンス制御のように機能し、安定性を確保するとともに、外乱を排除するためにインピーダンスを高めて動作の変動を減少させるという考え方を支持している。この所見に基づき [Yang et al., 2011] では、人間のように適応特性をもつバイオミメティックな制御器を提案している。この制御器は、誤差が大きいときにはフィードフォワード力とインピーダンスを増大させ、外乱がないときにはフィードフォワード力とインピーダンスを低減しつつ安定性を維持する。

上記の研究により、中枢神経系は実際に相互作用を学習し、異なる力学特性に適応できることが実験的に示されている。両手を使う視覚-運動課題において、力場がずれていても、人間は腕の剛性特性と直接的な力制御を組み合わせることで相互作用力をすばやく制御できる [Squeri et al., 2010]。この人間の運動制御システムの特性は、ロボットによるリハビリテーションでも活用され、ロボットデバイスが触覚を通じて支援を行うことで [Morasso et al., 2007]、麻痺など障害のある被験者の腕のインピーダンスや粘性を変化させる事例も報告されている [Piovesan et al., 2013]。

より広く言えば、物理的な相互作用において人間が適応・学習可能であることは、協調ロボットシステムの設計時に考慮すべきである。人間は案内や追従といった視覚-運動タスクでロボットとやり取りする中で、すぐに熟練(expert)レベルにまで習熟できる。ここで興味深い研究課題として、「ロボットは常時人間に合わせて適応すべきか、それとも制御ポリシーをあまり変えずに、人間の素早い学習能力を利用して協調を高めるほうがよいのか」という問題が浮上する。

この問題は非常に重要である。なぜなら、継続的な相互作用があれば人間は“熟練”するが、もしロボット側がポリシーを変え続けると、人間はそのたびに再適応を強いられ、タスクの認知的・身体的負担が増える可能性がある。一方で、ロボットが多様なパートナーと相互作用する必要があり、それによってロボット自身が技能を継続的に学習して高められるようなケースでは、両者が継続的に再適応し合うことが理にかなっているかもしれない。しかし我々の知る限り、リアルな応用で「複数のパートナーと長期的に相互適応すること」による利点を示す成果はまだ報告されていない。

6 Benchmarking and Relevant Use Cases
過去 10年ほどの間に、いくつかの研究グループが、人間ボランティアによるフレームワークの受容性を調べることで、人間-ロボット相互作用および協調の質を評価しようとしてきた。たとえば [Kahn et al., 2006] や [Feil-Seifer et al., 2007] では、心理学的評価に基づくベンチマーキング手法を提案している。特に当時は、評価を以下の 3つのカテゴリに分けるアプローチが一般的であった: 1) ロボットに関する評価(安全性やスケーラビリティ)、2) 社会的相互作用(自律性、模倣、プライバシー、特定ドメインの理解、社会的成功など)、3) 支援技術が利用者にもたらす影響。

他の研究では、ロボットエージェントの人間らしさ(アンドロポモーフィズム)も取り上げ、「不気味の谷(Uncanny Valley)」仮説を支持または否定しようとする試みがなされている [Hegel et al., 2008; Hwang et al., 2013]。初期の研究はアンケートなど主観的応答に焦点が置かれていたが、Kulic と Croft の先駆的研究 [Kulic and Croft, 2007] 以降は、より客観的な評価へ移行し、ロボットの外見だけでなく動作特性を重視するようになった([Zanchettin et al., 2013a; Oztop et al., 2005; Kilner et al., 2003] も参照)。最近では [Bestick et al., 2015] が、個別化(パーソナライズ)されたロボット動作が人間の生理学的指標に与える利点を、客観的に考察している。とはいえ、物理的相互作用に特化した評価手法が確立しているわけではなく、現時点で注目に値する評価手順は文献には報告されていない。

研究成果を実際の有効なデモンストレーションとして検証する場合、いくつかの代表的なベンチマーキング用アプリケーションが提示されている。なかでも、かさばるあるいは重い物体を共同で搬送するタスクは、協調モダリティやインターフェースを試験する代表的な例である。文献上では多くの場合、操作対象は剛体で関節のない物体(箱や平面など)とされることが多く [Al-Jarrah and Zheng, 1997b; De Schutter et al., 2007; Wojtara et al., 2009; Mörtl et al., 2012; Agravante et al., 2014b]、ここでの大きな課題は「人間とロボットがどの方向へ運ぶかを合意する」というタスク定義に関わる部分である。人間工学的観点から特に興味深いのは、作業負担の分担をどのように解決するかという点である。[Rozo et al., 2013] では、学習戦略とインピーダンス制御を組み合わせて木製テーブルの協調組み立てタスクを実装している。具体的には、ロボットがテーブルを保持している間に、人間は脚を簡単に取り付けられるようになっており、ロボットが自動的に剛性パラメータを調整してタスク完了を促進する。[Kim et al., 2017] では、外部負荷によって人間の関節トルクが過度にかかっていないかをモニタリングする手法を提案し、重い物体の共同操作で快適かつ人間工学的に適した動作を実現することを目指している。[Edsinger and Kemp, 2007] では、ロボットと人間の間でオブジェクトを受け渡すタスクが提示されており、ロボットのマニピュレータ剛性を物体との物理的相互作用に合わせて変化させ、タスクを完遂している。

こうした家事支援の応用だけでなく、[Lee et al., 2007] が述べるように建設現場でのカーテンウォール設置作業に向けて、ミニショベルを活用した例もあり、コラボレーティブな物体搬送は即時的な応用が考えられる。ヘルスケア領域でも、リハビリテーションロボット以外の支援用途が取り上げられている。たとえば [Chuy et al., 2006] では、歩行が困難な人を支援するための協調モバイルロボットが開発され、[Ulrich and Borenstein, 2001] では、視覚障害者を支援するための触覚ガイダンス用杖を開発している。同様のシナリオは [Wakita et al., 2013] にも記載がある。

産業用ロボットの分野では、荷物の積み込みや運搬 [Levratti et al., 2016]、ホモキネティック機構の組み立て [Cherubini et al., 2013; Cherubini et al., 2016]、携帯電話の組み立て [Tan et al., 2009] など、数多くの製造工程での応用が文献に挙げられている。[Erden and Billard, 2014] では、インピーダンス制御されたロボットが熟練溶接工のエンドポイントインピーダンスを計測・学習し、のちに自律的な作業遂行と未熟練者のトレーニングを支援する例が示されている。さらに最近では [Peternel et al., 2016c; Peternel et al., 2016b] が、環境不確実性を伴う動的な産業タスクの例として、協調的なノコギリ作業を行っている。

他の研究では、剛体でない物体や関節をもつ物体の操作における協調に注目したものもある [Colomé et al., 2015]。[Kosuge et al., 1998] では、金属シートを変形させ、その荷重をロボットが負担することで人間が容易に扱えるようにする手法が報告されている。[Kruse et al., 2015] では、テーブルクロスを折り畳む作業を支援するために協調ロボットが使われている。ほかにも [Maeda et al., 2001] ではロープを共同で振り回す応用や、[Donner and Buss, 2016a] では、人間とロボットアームが振り子状の物体を共同操作し、所望のエネルギー量をもつリミットサイクルを生成する例がある。こうした可撓性のある素材に関わるタスクは、家庭用サービスロボット分野でも注目されている。

最後に、協調ロボット研究における近年の傾向として、産業分野で必要とされる人間工学的要件を考慮したロボット設計の取り組みが挙げられる [Maurice et al., 2017]。この研究領域は、産業現場に適合するエルゴノミクス対応ロボットの設計や、人間工学的パフォーマンスを最適化するロボット制御の設計にとって重要かつ将来有望である。

注釈
4 人間の労力は大きく 2段階に区別できる。1つは新しい協調タスクを学習する際の身体的・認知的負荷、もう1つは習熟した後の日常的な負荷である。ここで重要なのは、中枢神経系(CNS)が多様なタスク要求や外乱に対する学習・適応能力を有しており、ダイナミックな不確実性のあるタスクを行う際の身体的・認知的負担を低減しうるという点だ [E. Burdet, 2001; Franklin et al., 2003]。しかし、ロボット側の適応挙動も、人間の学習と適応プロセスにかかる時間やパフォーマンスへ影響を及ぼす可能性がある。