Traitement en cours

Veuillez attendre...

Paramétrages

Paramétrages

Aller à Demande

1. WO2020166377 - CORPS MOBILE, PROCÉDÉ DE COMMANDE

Document

明 細 書

発明の名称 移動体、制御方法

技術分野

0001  

背景技術

0002  

先行技術文献

特許文献

0003  

発明の概要

発明が解決しようとする課題

0004   0005   0006  

課題を解決するための手段

0007   0008  

図面の簡単な説明

0009  

発明を実施するための形態

0010   0011   0012   0013   0014   0015   0016   0017   0018   0019   0020   0021   0022   0023   0024   0025   0026   0027   0028   0029   0030   0031   0032   0033   0034   0035   0036   0037   0038   0039   0040   0041   0042   0043   0044   0045   0046   0047   0048   0049   0050   0051   0052   0053   0054   0055   0056   0057   0058   0059   0060   0061   0062   0063   0064   0065   0066   0067   0068   0069   0070   0071   0072   0073   0074   0075   0076   0077   0078   0079   0080   0081   0082   0083   0084   0085   0086   0087   0088   0089   0090   0091   0092   0093   0094   0095   0096   0097   0098   0099   0100   0101   0102   0103   0104   0105   0106   0107   0108   0109   0110   0111   0112   0113   0114   0115   0116   0117  

符号の説明

0118  

請求の範囲

1   2   3   4   5   6   7   8   9   10   11   12   13   14   15   16   17  

図面

1   2   3   4   5   6   7   8   9   10   11  

明 細 書

発明の名称 : 移動体、制御方法

技術分野

[0001]
 本技術は、移動体、制御方法に関し、特に、人と空間に対する移動体の親和性を向上させることができるようにした移動体、制御方法に関する。

背景技術

[0002]
 従来、周囲の人物と環境をセンシングすることによって周囲の状況を表す環境マップなどを作成し、自律的に移動する移動体がある。移動体には、自動車、ロボット、飛行機などがある。

先行技術文献

特許文献

[0003]
特許文献1 : 特開2013-31897号公報
特許文献2 : 特開2013-22705号公報
特許文献3 : 特開2012-236244号公報

発明の概要

発明が解決しようとする課題

[0004]
 従来の移動体は、人が移動する手段としての移動体、掃除などの人の活動を支援する移動体など、人の移動や活動を支援することに着目した移動体にとどまっている。
[0005]
 特に人との相互作用性を有する移動体については、ユーザにとって使いやすく、ユーザがいる空間に溶け込んだ形で存在するような移動体が求められている。
[0006]
 本技術はこのような状況に鑑みてなされたものであり、人と空間に対する移動体の親和性を向上させることができるようにするものである。

課題を解決するための手段

[0007]
 本技術の一側面の移動体は、人物が作業を行う際の机となる天板と、前記天板を支持する伸縮可能な支持アームと、前記支持アームを保持し、前記作業が行われるようにするための移動を行う移動部と、センサによりセンシングされた、周囲の環境の状態である環境状態と周囲に位置する前記人物の状態である人物状態との関係に応じて、前記支持アームの状態を含む姿勢の状態と、前記移動部による移動の状態とを制御する制御部とを備える。
[0008]
 本技術の一側面においては、センサによりセンシングされた、周囲の環境の状態である環境状態と周囲に位置する前記人物の状態である人物状態との関係に応じて、前記支持アームの状態を含む姿勢の状態と、前記移動部による移動の状態とが制御される。

図面の簡単な説明

[0009]
[図1] 本技術の一実施形態に係る接客システムの使用状態を示す図である。
[図2] 接客ロボットの姿勢の例を示す図である。
[図3] インタラクション時の接客ロボットを拡大して示す図である。
[図4] 筐体を分解して示す図である。
[図5] 接客システムの構成例を示すブロック図である。
[図6] 制御部の機能構成例を示すブロック図である。
[図7] 接客ロボットが配置される空間を模式的に示す図である。
[図8] 接客ロボットの処理について説明するフローチャートである。
[図9] 担当エリアの例を示す図である。
[図10] 担当エリアの分割の例を示す図である。
[図11] ユーザ探索の例を示す図である。

発明を実施するための形態

[0010]
<本技術の概要>
 本技術は、ユーザとの相互作用性を発揮することによって、ユーザが作業を直感的に行うことができるようにするだけでなく、人に寄り添いながら、移動体自体が空間に溶け込むような、人と空間に対する親和性を向上させることができるようにしたものである。
[0011]
 また、本技術は、移動体の運動(速さ・方向など)と、移動体に設けられた天板の位置(高さなど)とを適応的に変更することができるようにしたものである。
[0012]
<接客システムの用途>
 図1は、本技術の一実施形態に係る接客システムの使用状態を示す図である。
[0013]
 図1の接客システムは、例えば室内において用いられる。接客システムが設置された空間内には人が存在する。
[0014]
 図1に示すように、室内には、立方体状の接客ロボットが複数用意される。図1の例においては、接客ロボット1-1乃至1-3の3台の接客ロボットが示されている。それぞれの接客ロボットを区別する必要がない場合、適宜、まとめて接客ロボット1という。
[0015]
 接客ロボット1は、床面上を移動する移動体である。接客ロボット1の底面には、接客ロボット1の移動に用いられるタイヤなどの構成が設けられている。
[0016]
 接客ロボット1は、カメラにより撮影された画像などに基づいて、室内にいる人の探索を行い、探索によって検出した人に近づいて接客を行う機能を有する。例えば、アンケートに回答してもらうための接客が接客ロボット1により行われる。接客ロボット1を用いた接客システムは、例えば、展示会の会場、コンサート会場、映画館、アミューズメント施設などにおいて用いられる。
[0017]
 図2は、接客ロボット1の姿勢の例を示す図である。
[0018]
 図2のAに示す接客ロボット1の状態は、移動時の状態である。目的地まで移動する間、接客ロボット1は、略立方体の状態で移動する。接客を行わずに所定の場所で待機している場合も、接客ロボット1の状態は、図2のAに示すような略立方体の状態となる。
[0019]
 図2のBに示す接客ロボット1の状態は、インタラクション時、すなわち、ターゲットとなるユーザに対して接客を行っているときの状態である。接客を行う場合、接客ロボット1は、天板上で作業を行いやすくするために、天板を上げた状態に自身の姿勢を制御する。接客ロボット1には、天板を昇降させるためのアーム部が設けられている。
[0020]
 図3は、インタラクション時の接客ロボット1を拡大して示す図である。
[0021]
 破線で示すように、天板12には、タッチパネルを搭載したディスプレイを有するタブレット端末などのデータ処理端末13が内蔵されている。インタラクション時、破線で示す範囲に設けられたディスプレイには、アンケートとなる文字や画像が表示される。ユーザは、データ処理端末13のディスプレイに表示されたボタンを指で操作するなどして、アンケートに対する回答などのデータを入力する。
[0022]
 このように、天板12は、ユーザがアンケートに回答するなどの作業を行う際の机として用いられる。
[0023]
 アンケートが終了した場合、接客ロボット1は、天板12を下げることによって筐体11の上面を天板12で塞ぎ、図2のAに示す単なる箱のような状態になって、ホームポジションに戻る。
[0024]
 このように、図1の接客システムは、単なる箱のように空間に溶け込んでいる接客ロボット1がユーザに近づき、ユーザにお願いするかのように姿勢を変形させてアンケートをとるシステムとなる。
[0025]
 自分の近くに移動してきた接客ロボット1の天板12が上がるのを見たユーザは、アンケートに回答すればいいことを直感的に確認することができる。また、ユーザは、接客ロボット1との間でコミュニケーションをとるような形で、アンケートに答えることができる。
[0026]
 図4は、筐体11を分解して示す図である。
[0027]
 図4に示すように、箱状の本体部21の側面には、パネル22-1乃至22-4が貼り付けられる。パネル22-1乃至22-4は例えばハーフミラーとなる樹脂製のパネルである。
[0028]
 本体部21の正面上方には、デプスカメラ23が設けられる。デプスカメラ23による撮影は、正面に貼り付けられたパネル22-1越しに行われる。本体部21の正面下方にはLiDAR24が設けられる。
[0029]
 本体部21の上面には、円柱状の支持アーム25が設けられる。支持アーム25を伸縮させたり上下方向に移動させたりすることによって、支持アーム25の上端に固定された天板12の昇降が制御される。本体部21の内部には、支持アーム25を伸縮させたり上下方向に移動させたりするためのモーターやギアなどの駆動部が設けられる。
[0030]
 本体部21の内部には、各種の処理を行うコンピュータ、タイヤなどの移動機構、電源などの構成も設けられる。
[0031]
 図1に示すそれぞれの接客ロボット1が、以上のような構成を有している。
[0032]
<接客システムの構成例>
 図5は、接客システムの構成例を示すブロック図である。
[0033]
 図5に示すように、接客システムは、接客ロボット1と制御装置71により構成される。接客ロボット1と制御装置71の間は、無線の通信を介して接続される。
[0034]
 接客ロボット1は、制御部51、移動部52、昇降制御部53、カメラ54、センサ55、通信部56、および電源部57により構成される。接客ロボット1の天板12には、上述したようにデータ処理端末13が内蔵される。
[0035]
 制御部51は、コンピュータにより構成される。制御部51は、CPUにより所定のプログラムを実行し、接客ロボット1の全体の動作を制御する。
[0036]
 移動部52は、モーターやギアを駆動させることによってタイヤを回転させ、接客ロボット1の移動を実現する。移動部52は、制御部51による制御に従って、移動のスピードと移動の方向とを制御しながら接客ロボット1の移動を実現する移動部として機能する。
[0037]
 昇降制御部53は、モーターやギアを駆動させることによって支持アーム25の伸縮を制御する。
[0038]
 カメラ54は、距離画像を撮影する図4のデプスカメラ23、RGB画像を撮影するRGBカメラ、IR画像を撮影するIRカメラなどにより構成される。カメラ54により撮影された画像は制御部51に出力される。
[0039]
 センサ55は、加速度センサ、ジャイロセンサ、人感センサ、移動部52に設けられるタイヤの回転量を検出するエンコーダ、LiDAR24などの各種のセンサにより構成される。センサ55によるセンシング結果を表す情報は制御部51に出力される。
[0040]
 カメラ54とセンサ55のうちの少なくともいずれかが接客ロボット1の外部に設けられるようにしてもよい。この場合、接客ロボット1の外部に設けられたカメラ54により撮影された画像、センサ55によるセンシング結果を表す情報は、無線通信を介して接客ロボット1に対して送信される。
[0041]
 通信部56は、制御装置71との間で無線通信を行う。通信部56は、後述するような承認の申請に関する情報を制御装置71に送信するとともに、制御装置71から送信されてきた情報を受信し、制御部51に出力する。
[0042]
 電源部57は、バッテリを有している。電源部57は、接客ロボット1の各部に対して電源を供給する。
[0043]
 制御装置71は、PCなどのデータ処理装置により構成される。制御装置71は、それぞれの接客ロボット1の行動を制御する上位システムとして機能する。
[0044]
 図6は、制御部51の機能構成例を示すブロック図である。
[0045]
 図6に示す機能部のうちの少なくとも一部は、制御部51を構成するコンピュータのCPUにより所定のプログラムが実行されることによって実現される。
[0046]
 制御部51においては、人物移動認識部101、人物状態認識部102、周囲状態認識部103、位置認識部104、移動制御部105、および接客制御部106が実現される。
[0047]
 人物移動認識部101は、カメラ54により撮影された画像と、センサ55によるセンシング結果に基づいてユーザの移動の状態を認識する。
[0048]
 ユーザの移動の状態として、例えば、接客ロボット1の現在位置からユーザの位置までの距離が認識される。人物移動認識部101による認識結果を表す情報は、移動制御部105と接客制御部106に供給される。
[0049]
 人物状態認識部102は、カメラ54により撮影された画像と、センサ55によるセンシング結果に基づいてユーザの状態を認識する。
[0050]
 ユーザの状態として、例えば、ユーザがだれであるのか、ユーザの属性(子どもであるのか、大人であるのかなど)が識別される。人物状態認識部102による認識結果を表す情報は、移動制御部105と接客制御部106に供給される。
[0051]
 周囲状態認識部103は、カメラ54により撮影された画像と、センサ55によるセンシング結果に基づいて周囲の環境の状態を認識する。
[0052]
 周囲の環境の状態として、周囲にいる他の接客ロボット1の状態が認識される。周囲状態認識部103が認識する他の接客ロボット1の状態には、他の接客ロボット1との距離、他の接客ロボット1の天板12の高さが含まれる。
[0053]
 また、周囲の環境の状態として、周囲にいるユーザの状態が認識される。周囲状態認識部103が認識するユーザの状態には、ユーザが荷物を所持している場合には、その荷物の状態が含まれる。
[0054]
 周囲状態認識部103による認識結果を表す情報は、移動制御部105と接客制御部106に供給される。
[0055]
 位置認識部104は、接客システムが設置されている空間における自己位置を認識し、認識結果を表す情報を移動制御部105に出力する。後述するように、位置認識部104による自己位置の認識は、接客ロボット1がいるエリアに応じて異なる方式で行われる。
[0056]
 移動制御部105は、人物移動認識部101、人物状態認識部102、および周囲状態認識部103のそれぞれの認識結果と、位置認識部104により認識された自己位置とに基づいて移動部52を駆動させ、接客ロボット1の移動を制御する。
[0057]
 例えば、移動制御部105は、接客のターゲットとなるユーザがいることを人物移動認識部101による認識結果に基づいて特定した場合、ユーザの近くの位置まで接客ロボット1を移動させる。
[0058]
 接客制御部106は、人物移動認識部101、人物状態認識部102、および周囲状態認識部103のそれぞれの認識結果に基づいて昇降制御部53を駆動させ、天板12の昇降を制御する。また、接客制御部106は、天板12を上げた後、データ処理端末13を制御し、アンケートに用いられる画面を表示させるなどして接客を行う。
[0059]
 例えば、接客制御部106は、人物移動認識部101による認識結果に基づいて、接客を行うターゲットとなるユーザの位置を認識する。接客制御部106は、接客を行うターゲットとなるユーザの近くに移動したことに応じて、支持アーム25を伸張させ、天板12の高さを高くする。
[0060]
 また、接客制御部106は、人物状態認識部102による認識結果などに基づいて、ユーザが作業を行うのに最適な高さになるように、天板12の高さを調整する。
[0061]
 接客制御部106は、人物状態認識部102による認識結果に基づいて、接客を行うターゲットが子どもであるのか大人であるのかを識別する。接客制御部106は、ターゲットとなるユーザが子どもである場合、大人である場合より低くなるように、天板12の高さを調整する。
[0062]
 接客制御部106は、周囲状態認識部103による認識結果に基づいて、近くにいる他の接客ロボット1の天板12の高さを特定する。接客制御部106は、他の接客ロボット1の天板12の高さに近づけるように、自身の天板12の高さを調整する。
[0063]
 また、接客制御部106は、周囲状態認識部103による認識結果に基づいて、ターゲットとなるユーザが所持している荷物の高さを特定する。接客制御部106は、ターゲットとなるユーザが所持している荷物の高さに近づけるように、自身の天板12の高さを調整する。ユーザは、高さが調整された天板12の上に、自然な動きで自分の荷物を置くことができる。
[0064]
 このように、移動制御部105と接客制御部106は、接客ロボット1の移動を制御するとともに、天板12の昇降を制御する制御部として機能する。
[0065]
<接客ロボット1の機能>
 上述したように、接客ロボット1は、複数のユーザ(人物)がいるオープンな空間において、顧客となるユーザに対して接客を行うロボットである。接客ロボット1は、以下の機能を有する。
[0066]
(1)デッドレコニングとスターレコニングの併用
(2)複数ロボットの連携
(3)担当エリア内でのロボットの動き
[0067]
 それぞれの機能について説明する。
[0068]
(1)デッドレコニングとスターレコニングの併用
 接客ロボット1は、自己位置の推定方式として、混雑環境ではデッドレコニングを使用し、誤差が許容範囲を超える前に、スターレコニングを使用して自己位置を補正する。
[0069]
 接客ロボット1が配置される空間は、バックヤードとなるエリアであるバックヤードエリアと、実際に接客を行うエリアであるサービスエリアとの2つのエリアに分けられる。接客ロボット1は、2つのエリアを行き来する。
[0070]
 バックヤードエリアが用意されていることにより、接客ロボット1は、ユーザの目に付かないところで、ユーザに違和感を与えることなくスターレコニングを行い、自己位置を補正することが可能となる。
[0071]
 図7は、接客ロボット1が配置される空間を模式的に示す図である。
[0072]
 図7に示すように、接客ロボット1が配置される空間には、サービスエリアA1とバックヤードエリアA2が設定される。サービスエリアA1とバックヤードエリアA2は壁面Wによって分けられる。破線で示すように、壁面Wの一部には開口が形成され、その開口が、バックヤードエリアA2の出入口Gとして用いられる。
[0073]
 サービスエリアA1が、デッドレコニングによって自己位置の推定が行われるエリアとなる。一方、バックヤードエリアA2が、スターレコニングによって自己位置の推定が行われるエリアとなる。
[0074]
 デッドレコニングは、車軸エンコーダやIMU(Inertial Measurement Unit)といった、ロボット内部のセンサの出力を使用して自己位置を推定する方式である。周囲が混雑している状況においても自己位置を推定できるため、サービスエリアA1での使用に適しているが、走行距離や経過時間に応じて誤差が蓄積する。
[0075]
 一方、スターレコニングは、カメラ54を用いたマーカ認識やLiDAR SLAMを用いた認識といった、外界の状況に基づいて自己位置を推定する方式である。
[0076]
 バックヤードエリアA2には、ホームポジションとなる位置P1にマーカが設けられる。マーカを認識して位置P1に移動することにより、自己位置の補正、すなわち、サービスエリアA1での使用によって蓄積した誤差の初期化が行われる。
[0077]
 バックヤードエリアA2の位置P2には、充電ポジションが設定される。例えば、接客ロボット1のバッテリの残量が予め設定された閾値となる量を下回った場合、接客ロボット1の状態はスタンバイ状態となり、バッテリの充電が位置P2において行われる。
[0078]
 図8のフローチャートを参照して、接客ロボット1の処理について説明する。適宜、図7を参照する。
[0079]
 図8の処理は、例えば、接客ロボット1のバッテリの充電が完了したときに開始される。
[0080]
 ステップS1において、接客ロボット1の移動制御部105は、充電ポジション(位置P2)からホームポジション(位置P1)に移動する。
[0081]
 ホームポジションに移動した後、ステップS2において、移動制御部105は、サービスエリアA1の自己の担当エリア内に設定されたユーザ探索位置に移動する。図7の例においては、ユーザ探索位置となる位置P11が設定されている。
[0082]
 ユーザ探索位置に移動した後、ステップS3において、人物移動認識部101は、ユーザ探索を行う。
[0083]
 ユーザ探索によってターゲットとなるユーザを認識した場合、ステップS4において、移動制御部105は、ユーザに接近する。図7の例においては、ターゲットとなるユーザの前方の位置である位置P12がターゲット位置として設定されている。
[0084]
 ターゲット位置に移動した後、ステップS5において、接客制御部106は、顧客対応を行う。
[0085]
 すなわち、接客制御部106は、昇降制御部53を制御することによって天板12を上昇させ、データ処理端末13を用いてアンケートを行わせる。アンケートが終わった場合、接客制御部106は、自己の姿勢をインタラクション時の姿勢から走行時の姿勢に遷移させる。
[0086]
 ステップS6において、移動制御部105は、ホームポジション侵入位置に移動する。図7の例においては、出入口Gの近傍にホームポジション侵入位置となる位置P13が設定されている。
[0087]
 例えば、ホームポジション侵入位置に移動した後、上位システムとなる制御装置71との間で通信が行われ、バックヤードエリアA2に侵入することの承認の申請が上位システムに対して行われる。上位システムに対する承認の申請については後述する。
[0088]
 バックヤードエリアA2に侵入することが許可された場合、ステップS7において、移動制御部105は、バックヤードエリアA2内のホームポジションに移動する。
[0089]
 ホームポジションに移動した後、ステップS8において、位置認識部104は、自己位置の初期化とヘルスチェックを行う。ヘルスチェックには、例えば、バッテリ残量のチェックが含まれる。
[0090]
 バッテリ残量が閾値となる量を下回っている場合、ステップS9において、移動制御部105は、充電ポジションに移動し、充電を行う。充電が完了した後、ステップS1以降の処理が繰り返される。
[0091]
 なお、ステップS4においてターゲット位置を目的地として移動を開始したものの、ターゲットとなるユーザへの接近が失敗した場合、ステップS2に戻り、ユーザ探索位置に移動した後に、ユーザ探索が再度行われる。
[0092]
 ステップS5において顧客対応を行った後、自己位置の精度が十分に確保できている場合も同様に、ステップS2に戻り、ユーザ探索位置に移動した後に、ユーザ探索が再度行われる。
[0093]
 例えば、自己位置の初期化を最後に行ってからの走行距離が閾値となる距離を超えていない場合、または、自己位置の初期化を最後に行ってからの経過時間が閾値となる時間を超えていない場合、自己位置の精度が十分に確保できているものとして判断される。
[0094]
 ステップS8におけるヘルスチェックの結果、バッテリ残量が閾値となる量以上ある場合も同様に、ステップS2に戻り、ユーザ探索位置に移動した後に、ユーザ探索が再度行われる。
[0095]
(2)複数ロボットの連携
 サービスエリアA1が複数のエリアに分割され、接客を担当するエリア(担当エリア)がそれぞれの接客ロボット1に割り当てられる。
[0096]
 図9は、担当エリアの例を示す図である。
[0097]
 図9の例においては、接客ロボット1-1の担当エリア、接客ロボット1-2の担当エリア、接客ロボット1-3の担当エリアのそれぞれの担当エリアが設定されている。
[0098]
 それぞれの接客ロボット1は、バックヤードエリアA2内のホームポジションから、それぞれの担当エリア内に設定されたユーザ探索位置に移動した後、上述したようにしてユーザ探索などを行う。
[0099]
 バックヤードエリアA2に戻る際、それぞれの接客ロボット1は、ホームポジション侵入位置に移動した後、上位システムに対してバックヤードエリアA2への侵入を申請し、許可が得られてからバックヤードエリアA2に侵入する。例えばあるタイミングでは、1台の接客ロボット1だけに対して、出入口Gの通行が許可される。
[0100]
 これにより、出入口Gで複数台の接客ロボット1が競合・干渉してしまうことを防ぐことが可能となる。
[0101]
(3)担当エリア内でのロボットの動き
 接客ロボット1は、デプスカメラ23(RGB-Dセンサ)により撮影された画像に基づいてユーザを認識した後に接近し、接客を行う。ユーザを認識可能な範囲には制限があるため、接客ロボット1は、担当エリア内を移動しながら、ユーザ探索を行う必要がある。担当エリアには、複数のユーザ探索位置が設定されている。
[0102]
 例えば、担当エリアはトラス状に分割される。接客ロボット1は、各トラスの頂点を移動しながら、ユーザの探索を行う。
[0103]
 図10は、担当エリアの分割の例を示す図である。
[0104]
 図10の例においては、担当エリア内に9個のトラスが形成されている。丸印で示す各トラスの頂点が、ユーザ探索位置に相当する。白抜き矢印で示すように、ユーザ探索位置においては、隣接ノードの方を向いた状態(デプスカメラ23が設けられた筐体11の正面を向けた状態)でユーザ探索が行われる。
[0105]
 図11は、ユーザ探索の例を示す図である。
[0106]
 例えば、位置P21において行ったユーザ探索によってユーザ#1を認識した場合、接客ロボット1は、矢印A11に示すように、ユーザ#1をターゲットとして位置P22に移動する。位置P22がターゲット位置に相当する。位置P22に移動した後、接客ロボット1は顧客対応を行う。
[0107]
 顧客対応が終わり、自己位置の精度が十分に確保できている場合、接客ロボット1は、矢印A12に示すように、現在位置である位置P22から最も近い隣接ノードである位置P23に移動し、ユーザ探索を再度行う。
[0108]
 例えば、位置P23において行ったユーザ探索によって、ユーザ#2の方向については認識できたものの、具体的な位置を認識できていない場合、接客ロボット1は、矢印A13に示すように、ユーザ#2の方向にある隣接ノードである位置P24に移動する。接客ロボット1は、位置P24に移動した後、ユーザ探索を行い、ユーザ#2の位置についても認識できた場合には、ユーザ#2の近傍に移動し、顧客対応を行う。
[0109]
 このような処理により、活動する領域を限定しつつ、接客ロボット1を、担当エリア内のユーザに柔軟に接近させることが可能となる。
[0110]
<変形例>
 ユーザに対して求められる作業がアンケートに対する回答であるものとしたが、チケットの注文、グッズの注文、料理の注文、展示内容の確認などの各種の作業が接客ロボット1を用いて行われるようにしてもよい。
[0111]
 接客ロボット1の移動時の状態が、筐体11と天板12が重なり、天板12によって筐体11の上面が塞がれた状態であるものとしたが、天板12が、筐体11の内部に収納されるようにしてもよい。
[0112]
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
[0113]
 コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
[0114]
 本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
[0115]
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
[0116]
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
[0117]
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。

符号の説明

[0118]
 1 接客ロボット, 51 制御部, 52 移動部, 53 昇降制御部, 54 カメラ, 55 センサ, 56 通信部, 57 電源部, 71 制御装置

請求の範囲

[請求項1]
 人物が作業を行う際の机となる天板と、
 前記天板を支持する伸縮可能な支持アームと、
 前記支持アームを保持し、前記作業が行われるようにするための移動を行う移動部と、
 センサによりセンシングされた、周囲の環境の状態である環境状態と周囲に位置する前記人物の状態である人物状態との関係に応じて、前記支持アームの状態を含む姿勢の状態と、前記移動部による移動の状態とを制御する制御部と
 を備える移動体。
[請求項2]
 前記人物の移動の状態を認識する人物移動認識部をさらに備え、
 前記制御部は、前記人物移動認識部により認識された前記人物の移動の状態に応じて、前記姿勢の状態と前記移動の状態とを制御する
 請求項1に記載の移動体。
[請求項3]
 前記人物の移動の状態は、前記移動体と前記人物との間の距離であり、
 前記制御部は、前記距離が近づくことに応じて、前記支持アームを伸張させて前記天板の高さを高くする
 請求項2に記載の移動体。
[請求項4]
 前記制御部は、前記天板の高さが、前記人物が行う作業に応じた高さになるように、前記支持アームの伸縮を調整する
 請求項3に記載の移動体。
[請求項5]
 前記人物状態を認識する人物状態認識部をさらに備え、
 前記制御部は、前記人物状態認識部により認識された前記人物状態に応じて、前記姿勢の状態と前記移動の状態とを制御する
 請求項1に記載の移動体。
[請求項6]
 前記人物状態認識部は、作業を行う前記人物を識別し、
 前記制御部は、前記人物状態認識部により識別された前記人物に応じて、前記姿勢の状態と前記移動の状態とを制御する
 請求項5に記載の移動体。
[請求項7]
 前記環境状態を認識する周囲状態認識部をさらに備え、
 前記制御部は、さらに、前記周囲状態認識部により認識された前記環境状態に応じて、前記姿勢の状態と前記移動の状態とを制御する
 請求項1に記載の移動体。
[請求項8]
 前記周囲状態認識部は、他の移動体の状態を認識し、
 前記制御部は、前記周囲状態認識部により認識された前記他の移動体の状態に応じて、前記姿勢の状態と前記移動の状態とを制御する
 請求項7に記載の移動体。
[請求項9]
 前記周囲状態認識部は、前記他の移動体の天板の高さを認識し、
 前記制御部は、前記天板の高さを前記他の移動体の天板の高さに近づけるように、前記姿勢の状態を制御する
 請求項8に記載の移動体。
[請求項10]
 前記周囲状態認識部は、前記人物が所持する荷物の状態を認識し、
 前記制御部は、前記周囲状態認識部により認識された前記荷物の状態に応じて、前記姿勢の状態を制御する
 請求項9に記載の移動体。
[請求項11]
 前記荷物の状態は、前記荷物が位置する高さであり、
 前記制御部は、前記天板の高さを前記荷物が位置する高さに近付けるように、前記姿勢の状態を制御する
 請求項10に記載の移動体。
[請求項12]
 前記制御部は、前記人物により前記作業が行われない場合、前記天板と前記移動部が重なった状態になるように、または、前記天板が前記移動部に収納された状態になるように、前記姿勢の状態を制御する
 請求項1に記載の移動体。
[請求項13]
 前記天板は、前記人物が行う前記作業に用いられるデータ処理端末を内蔵する
 請求項1に記載の移動体。
[請求項14]
 前記作業は、前記人物によるデータ入力である
 請求項13に記載の移動体。
[請求項15]
 前記移動部は、移動のための駆動部分を動作させる電源を備え、
 前記制御部は、前記電源のバッテリ残量に応じて、前記移動体の位置を変更する
 請求項1に記載の移動体。
[請求項16]
 前記制御部は、前記電源のバッテリ残量が予め設定された閾値を下回った場合にスタンバイ状態になるように、前記姿勢の状態と前記移動の状態とを制御する
 請求項15に記載の移動体。
[請求項17]
 人物が作業を行う際の机となる天板と、
 前記天板を支持する伸縮可能な支持アームと、
 前記支持アームを保持し、前記作業が行われるようにするための移動を行う移動部と
 を備える移動体が、
 センサによりセンシングされた、周囲の環境の状態である環境状態と周囲に位置する前記人物の状態である人物状態との関係に応じて、前記支持アームの状態を含む姿勢の状態と、前記移動部による移動の状態とを制御する
 制御方法。

図面

[ 図 1]

[ 図 2]

[ 図 3]

[ 図 4]

[ 図 5]

[ 図 6]

[ 図 7]

[ 図 8]

[ 図 9]

[ 図 10]

[ 図 11]