Some content of this application is unavailable at the moment.
If this situation persists, please contact us atFeedback&Contact
1. (WO2019031257) INFORMATION PROCESSING DEVICE, METHOD, AND PROGRAM
Document

明 細 書

発明の名称 情報処理装置および方法、並びにプログラム

技術分野

0001  

背景技術

0002  

先行技術文献

特許文献

0003  

発明の概要

発明が解決しようとする課題

0004   0005  

課題を解決するための手段

0006   0007   0008   0009  

発明の効果

0010   0011  

図面の簡単な説明

0012  

発明を実施するための形態

0013   0014   0015   0016   0017   0018   0019   0020   0021   0022   0023   0024   0025   0026   0027   0028   0029   0030   0031   0032   0033   0034   0035   0036   0037   0038   0039   0040   0041   0042   0043   0044   0045   0046   0047   0048   0049   0050   0051   0052   0053   0054   0055   0056   0057   0058   0059   0060   0061   0062   0063   0064   0065   0066   0067   0068   0069   0070   0071   0072   0073   0074   0075   0076   0077   0078   0079   0080   0081   0082   0083   0084   0085   0086   0087   0088   0089   0090   0091   0092   0093   0094   0095   0096   0097   0098   0099   0100   0101   0102   0103   0104   0105   0106   0107   0108   0109   0110   0111   0112   0113   0114   0115   0116   0117   0118   0119   0120   0121   0122   0123   0124   0125   0126   0127   0128   0129   0130   0131   0132   0133   0134   0135   0136   0137   0138   0139   0140   0141   0142   0143   0144   0145   0146   0147   0148   0149   0150   0151   0152   0153   0154   0155   0156   0157   0158   0159   0160   0161   0162   0163   0164   0165   0166   0167   0168   0169   0170   0171   0172   0173   0174   0175   0176   0177   0178   0179   0180   0181   0182   0183   0184   0185   0186   0187   0188   0189   0190   0191   0192   0193   0194   0195   0196   0197   0198   0199   0200   0201   0202   0203   0204   0205   0206   0207   0208   0209   0210   0211   0212   0213   0214   0215   0216   0217   0218   0219   0220   0221   0222   0223   0224   0225   0226   0227   0228   0229   0230   0231   0232   0233   0234   0235   0236   0237   0238   0239   0240   0241   0242   0243   0244   0245   0246   0247   0248   0249   0250   0251   0252   0253   0254   0255   0256   0257   0258   0259   0260   0261   0262   0263   0264   0265   0266   0267   0268   0269   0270   0271   0272   0273   0274   0275   0276   0277   0278   0279   0280   0281   0282   0283   0284   0285   0286   0287   0288   0289   0290   0291   0292   0293   0294   0295   0296   0297   0298   0299   0300   0301   0302   0303   0304   0305   0306   0307   0308   0309   0310   0311   0312   0313   0314   0315   0316   0317   0318   0319   0320   0321   0322   0323   0324   0325   0326   0327   0328   0329   0330   0331   0332   0333   0334   0335   0336   0337   0338   0339   0340   0341   0342   0343   0344   0345   0346   0347   0348   0349   0350   0351   0352   0353   0354   0355   0356   0357   0358   0359   0360   0361   0362   0363   0364   0365   0366   0367   0368   0369   0370   0371   0372   0373   0374   0375   0376   0377   0378   0379   0380   0381   0382   0383   0384   0385   0386   0387   0388   0389   0390   0391   0392   0393   0394   0395   0396   0397   0398   0399   0400   0401   0402   0403   0404   0405   0406   0407   0408   0409   0410   0411   0412   0413   0414   0415   0416   0417   0418   0419   0420   0421   0422   0423   0424  

符号の説明

0425  

請求の範囲

1   2   3   4   5   6   7   8   9   10   11   12   13   14   15   16   17   18   19  

図面

1   2   3   4   5   6   7   8   9   10   11   12   13   14   15   16   17   18   19   20   21   22   23   24   25   26   27   28   29   30   31   32   33   34   35   36   37   38   39   40   41   42   43   44   45  

明 細 書

発明の名称 : 情報処理装置および方法、並びにプログラム

技術分野

[0001]
 本技術は、情報処理装置および方法、並びにプログラムに関し、特に、状況に応じて、ストレスレベルをコントロールできるようにした情報処理装置および方法、並びにプログラムに関する。

背景技術

[0002]
 ストレスを測定する方法として、ユーザの心拍を解析することによってストレスのレベルを推定する方法の提案があった(特許文献1参照)。また、ストレスのレベルに応じてストレスを軽減する方法も提案されている。

先行技術文献

特許文献

[0003]
特許文献1 : 特開2012-120206号公報

発明の概要

発明が解決しようとする課題

[0004]
 しかしながら、上述した提案は、ストレスのレベルのみを見ているため、ストレスの要因が何であるかが考慮されていない。ストレスのコントロールをより緻密に行うには、ストレスの要因に応じてコントロールできるようにすることが望ましい。
[0005]
 本技術は、このような状況に鑑みてなされたものであり、状況に応じて、ストレスレベルをコントロールできるようにするものである。

課題を解決するための手段

[0006]
 本技術の一側面の情報処理装置は、センサの検出結果に基づいて、ユーザのストレスレベルを測定するストレスレベル測定部と、前記ストレスレベルの増減の要因を、前記ストレスレベルの増減が生じた期間における前記ユーザの行動に基づいて特定するストレス要因特定部とを備える。
[0007]
 本技術の一側面の情報処理方法は、センサの検出結果に基づいて、ユーザのストレスレベルを測定し、前記ストレスレベルの増減の要因を、前記ストレスレベルの増減が生じた期間における前記ユーザの行動に基づいて特定する処理を含む。
[0008]
 本技術の一側面のプログラムは、センサの検出結果に基づいて、ユーザのストレスレベルを測定するストレスレベル測定部と、前記ストレスレベルの増減の要因を、前記ストレスレベルの増減が生じた期間における前記ユーザの行動に基づいて特定するストレス要因特定部として、コンピュータを機能させる。
[0009]
 本技術の一側面においては、センサの検出結果に基づいて、ユーザのストレスレベルが測定され、前記ストレスレベルの増減の要因が、前記ストレスレベルの増減が生じた期間における前記ユーザの行動に基づいて特定される。

発明の効果

[0010]
 本技術によれば、状況に応じて、ストレスレベルをコントロールできる。
[0011]
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。

図面の簡単な説明

[0012]
[図1] 本技術を適用したストレス制御システムの基本的な構成例を示す図である。
[図2] ストレス制御システムの全体的な構成の例を示すブロック図である。
[図3] 入力部および出力部の具体例を示す図である。
[図4] 処理部の構成例を示すブロック図である。
[図5] 処理部の他の構成例を示すブロックである。
[図6] ストレスの要因の特定に使用するデータの例を示す図である。
[図7] ストレスの要因を提示するためのスマートフォン用の第1の表示画面例を示す図である。
[図8] スマートフォン用の表示画面におけるユーザの操作例を示す図である。
[図9] ストレスの要因を提示するためのスマートウオッチ用の第1の表示画面例を示す図である。
[図10] スマートウオッチ用の表示画面におけるユーザの操作例を示す図である。
[図11] ストレスの要因を提示するためのスマートフォン用の第2の表示画面例を示す図である。
[図12] ストレスの要因を提示するためのスマートウオッチ用の第2の表示画面例を示す図である。
[図13] ストレスの要因を提示するためのスマートフォン用の第3の表示画面例を示す図である。
[図14] ストレスの要因を提示するためのスマートウオッチ用の第3の表示画面例を示す図である。
[図15] ストレスの要因の分析結果を提示するためのスマートフォン用の第1の表示画面例を示す図である。
[図16] ストレスの要因の分析結果を提示するためのスマートウオッチ用の第1の表示画面例を示す図である。
[図17] ストレスの要因の分析結果を提示するためのスマートフォン用の第2の表示画面例を示す図である。
[図18] ストレスの要因の分析結果を提示するためのスマートフォン用の第3の表示画面例を示す図である。
[図19] ストレスの要因からの提案の音声出力の例を示す図である。
[図20] ストレスの要因からの提案のAR表示の例を示す図である。
[図21] 集団内におけるストレス耐性の表示例を示す図である。
[図22] ストレス制御システムのストレスレベル制御処理について説明するフローチャートである。
[図23] 図22のステップS15のストレスレベル増減処理について説明するフローチャートである。
[図24] 図22のステップS15のストレスレベル増減処理の他の例について説明するフローチャートである。
[図25] 休日におけるストレス緩和行為の具体例を示す図である。
[図26] 平日におけるストレス緩和行為の具体例を示す図である。
[図27] 平日におけるストレス緩和行為の具体例を示す図である。
[図28] 平日におけるストレス緩和行為の具体例を示す図である。
[図29] 平日におけるストレス緩和行為の具体例を示す図である。
[図30] 睡眠の最適化を行う場合のストレスレベル増減処理部の詳細な構成例を示すブロック図である。
[図31] 睡眠の最適化によるストレスレベル増減処理について説明するフローチャートである。
[図32] 就寝前にユーザに提示される表示画面例である。
[図33] 図31のステップS311において行われる目標値設定処理について説明するフローチャートである。
[図34] 図31のステップS312において行われる予定時刻決定処理について説明するフローチャートである。
[図35] 図34のステップS353において行われる睡眠時間算出処理について説明するフローチャートである。
[図36] 図31のステップS314において行われる睡眠中環境調整処理について説明するフローチャートである。
[図37] 図36のステップS396において行われる起こし処理について説明するフローチャートである。
[図38] 本技術の実施形態に係るシステム構成の第1の例を示すブロック図である。
[図39] 本技術の実施形態に係るシステム構成の第2の例を示すブロック図である。
[図40] 本技術の実施形態に係るクライアント-サーバシステムを示す図である。
[図41] 本技術の実施形態に係るシステム構成の第3の例を示すブロック図である。
[図42] 本技術の実施形態に係るシステム構成の第4の例を示すブロック図である。
[図43] 本技術の実施形態に係る中間サーバを含むシステムの例を示す図である。
[図44] 本技術の実施形態に係るホストとして機能する端末装置を含むシステムの例を示す図である。
[図45] 本技術の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。

発明を実施するための形態

[0013]
 以下、本技術を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 0.本技術の概要
 1.ストレス制御システムの構成例
 2.入力部および出力部の構成例
 3.処理部の構成例
 4.ストレスの要因の特定に使用するデータの例
 5.ストレスの要因の分析結果を提示するための表示画面例
 6.その他の提示例
 7.ストレス制御システムの処理例
 8.具体的な提示例
 9.ストレスレベル増減処理部の詳細な構成例
 10.ストレスレベル増減処理例
 11.システム構成
 12.ハードウェア構成
[0014]
 <本技術の概要>
 図1は、本技術を適用したストレス制御システムの基本的な構成例を示す図である。
[0015]
 図1に示されるストレス制御システムは、携帯端末1、サーバ2、および出力器3を含むように構成される。
[0016]
 ユーザが携帯する携帯端末1は、複数のセンサを備える。携帯端末1は、複数のセンサより得られたセンサデータを、ネットワーク4を介してサーバ2に送信する。携帯端末1は、スマートフォン、スマートウオッチ、タブレット端末などの携帯型の装置により構成される。
[0017]
 サーバ2は、携帯端末1から送信されてきたセンサデータを受信し、受信したセンサデータを用いて、ユーザのストレスレベルを測定する。サーバ2によるストレスレベルの測定は、センサデータが携帯端末1から送信されてくる毎に繰り返し行われる。
[0018]
 サーバ2は、ストレスレベルの増減が生じた期間におけるユーザの行動情報等に基づいて、ユーザのストレスレベルの増減の要因を特定し、特定した要因に応じたイベントを実行する。
[0019]
 ストレスレベルが所定の閾値より高いため、ユーザのストレスを軽減させる場合、例えば、サーバ2は、ユーザが装着する出力器3としてのヘッドフォンを制御し、リラックスできるような曲を出力させる。例えば、ストレスレベルが低い期間が過去にあり、その要因が、ユーザがある曲を聞いていたためであるといったことが特定されている場合、ストレスを軽減させるために、そのときに聞いていた曲と同じ曲の再生が行われる。
[0020]
 また、ストレスレベルが所定の閾値より低いため、ユーザの緊張感を高める場合、サーバ2は、ヘッドフォンを制御し、緊張感が高まるような曲を出力させる。例えば、緊張感(ストレスレベル)が高い期間が過去にあり、その要因が、ユーザがある曲を聞いていたためであるといったことが特定されている場合、緊張感を高めるために、そのときに聞いていた曲と同じ曲の再生が行われる。
[0021]
 以上のように、図1のストレス制御システムにおいては、ストレスレベルの増減が生じた期間におけるユーザの行動に基づいてストレスレベルの要因が特定される。また、ユーザのストレスレベルをコントロールするためのイベントが、ストレスレベルの要因に応じて実行される。
[0022]
 これにより、ユーザのストレスをコントロールすることが可能になる。
[0023]
 <ストレス制御システムの構成例>
 図2は、ストレス制御システム10の全体的な構成の例を示すブロック図である。
[0024]
 図2に示されるように、ストレス制御システム10は、入力部11、処理部13、および出力部15を含むように構成される。入力部11、処理部13、および出力部15は、1または複数の情報処理装置により実現される。
[0025]
 入力部11、処理部13、出力部15がそれぞれ別個の装置として実現される場合、例えば、入力部11は図1の携帯端末1に対応する。また、処理部13はサーバ2に対応し、出力部15は出力器3に対応する。
[0026]
 また、入力部11、処理部13、出力部15が1個の装置において実現される場合、入力部11、処理部13、および出力部15は、例えば、携帯端末1内の構成として実現される。
[0027]
 このように、入力部11、処理部13、出力部15のそれぞれの機能がどの装置において実現されるようにするのかは任意に変更可能である。入力部11と出力部15が同じ装置において実現され、処理部13が他の装置において実現されるようにしてもよいし、処理部13と出力部15が同じ装置において実現され、入力部11が他の装置において実現されるようにしてもよい。
[0028]
 入力部11と処理部13の間のインターフェースとしてインターフェース12が設けられ、処理部13と出力部15の間のインターフェースとしてインターフェース14が設けられる。
[0029]
 入力部11と処理部13が異なる装置において実現される場合、インターフェース12は、有線または無線の通信インターフェースにより構成される。通信インターフェースとしては、3G/LTEなどのセルラー通信、Wi-Fi、Bluetooth(登録商標)、NFC(Near Field Communication)、イーサネット(登録商標)、HDMI(登録商標)(High-Definition Multimedia Interface)、USB(Universal Serial Bus)などが用いられる。入力部11と処理部13の間にインターネットが介在することもある。
[0030]
 一方、入力部11と処理部13が同じ装置において実現される場合、インターフェース12は、装置内のバスなどにより構成される(以下、適宜、装置内のインターフェースともいう)。
[0031]
 インターフェース14についても同様に、処理部13と出力部15の構成態様に応じて通信インターフェースや装置内のインターフェースにより構成される。
[0032]
 (入力部)
 入力部11は、操作入力装置、センサ、および外部サービスから情報を取得するソフトウェアなどにより構成される。入力部11は、ユーザ、周辺環境、および他のサービスから様々な情報の入力を受け付ける。
[0033]
 入力部11を構成する操作入力装置は、例えば、ハードウエアボタン、キーボード、マウス、タッチパネル、タッチセンサ、近接センサ、加速度センサ、角速度センサ、温度センサ等であり、ユーザによる操作入力を受け付ける。ユーザのジェスチャまたは音声による入力を受け付ける、カメラやマイクロフォン(マイク)などにより操作入力装置が構成されるようにしてもよい。
[0034]
 なお、操作入力装置によって取得されるデータを操作コマンドに変換するプロセッサや処理回路が入力部11に含まれるようにしてもよい。この場合、入力部11による変換によって得られた操作コマンドは、インターフェース12に出力される。操作コマンドに変換することなく、操作入力装置により取得されたデータがそのままインターフェース12に出力されるようにしてもよい。
[0035]
 入力部11を構成するセンサは、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、気圧センサなどのセンサであり、各種のセンサデータを検出する。
[0036]
 脈拍、発汗、脳波、触覚、嗅覚、味覚などの、ユーザの生体情報を検出するセンサが、入力部11を構成するセンサとして設けられるようにしてもよい。
[0037]
 ユーザや周囲の状況を撮影するカメラや、ユーザの音声を検出するマイクがセンサとして設けられるようにしてもよい。この場合、カメラやマイクを含む各種のセンサによって検出されたデータを解析することによってユーザの感情を解析する処理回路が入力部11に含まれるようにすることが可能である。
[0038]
 また、測位センサが設けられるようにしてもよい。具体的には、GPS(Global Positioning System)受信機、GLONASS(Global Navigation Satellite System)受信機、BDS(BeiDou Navigation Satellite System)受信機などのGNSS(Global Navigation Satellite System)受信機が測位センサとして設けられる。
[0039]
 Wi-Fi、MIMO(Multi-Input Multi-Output)、セルラー通信、または近距離無線通信(例えばBLE(Bluetooth(登録商標) Low Energy)、Bluetooth(登録商標))などの技術を利用して位置を検出する通信装置が測位センサとして用いられるようにしてもよい。
[0040]
 上記のようなセンサを含む装置はユーザによって携帯または装着され、ユーザの位置の検出や、生体情報を含むユーザの状況の検出が繰り返される。
[0041]
 センサを含む装置がユーザの生活環境に設置されており、そのような装置により、ユーザの位置や状況の検出が繰り返されるようにしてもよい。例えば、室内などに固定して設置されたカメラによって取得されたユーザの顔を含む画像を解析することによって、ユーザの脈拍を検出することができる。
[0042]
 入力部11を構成する、外部サービスから情報を取得するソフトウェアは、例えばAPI(Application Program Interface)を利用して、外部サービスによって提供される各種の情報を取得する。ソフトウェアは、外部サービスのサーバから情報を取得するものであってもよいし、クライアント装置で実行されているアプリケーションから情報を取得するものであってもよい。
[0043]
 ソフトウェアによって、例えば、ユーザまたは他のユーザがソーシャルメディアなどの外部サービスに投稿したテキストや画像などの情報が取得される。取得される情報は、ユーザまたは他のユーザが実行した操作のログなどであってもよい。
[0044]
 また、ニュース、天気予報、交通情報、POI(Point Of Interest)、または広告などのように、不特定多数のユーザに向けて配信される情報が取得されるようにしてもよい。
[0045]
 <入力部および出力部の構成例>
 入力部11の具体例を図3に示す。
[0046]
 図3の例においては、入力部11は、GPS11a、マイクロフォン11b、加速度センサ11c、心拍計11d、体温計11e、カメラ11f、および騒音計11gを含むものとされている。上述した各種の操作入力装置、センサも、入力部11に含まれる。上述した説明については省略する。
[0047]
 心拍計11dはユーザの心拍数を計測し、体温計11eはユーザの体温を計測する。騒音計11gはユーザの周囲の騒音を検出する。入力部11のこれらの構成が例えば携帯端末1に設けられる。
[0048]
 (処理部)
 例えばサーバ2に対応する処理部13は、入力部11によって取得された情報に基づいてさまざまな処理を実行する。例えば、処理部13は、CPU(Central Processing Unit)、GPU(Graphics processing unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などのプロセッサまたは処理回路を含む。
[0049]
 プロセッサまたは処理回路において実行されるプログラム、および処理において読み書きされるデータを一時的または永続的に格納するメモリまたはストレージ装置が処理部13に含まれるようにしてもよい。
[0050]
 なお、処理部13は、単一の装置内の単一のプロセッサまたは処理回路によって実現されてもよいし、複数の装置、または同一の装置内の複数のプロセッサもしくは処理回路に分散して実現されてもよい。
[0051]
 処理部13が分散して実現される場合、処理部13の機能を実現する各部の間には、インターフェース12と同様の、通信インターフェース、または装置内のインターフェースが介在する。
[0052]
 (出力部)
 出力部15は、処理部13から供給された情報を出力し、ユーザに提示する。情報の提示先となるユーザは、入力部11のユーザと同じユーザであってもよいし、異なるユーザであってもよい。
[0053]
 出力部15を構成する出力装置は、処理部13から供給された情報を、ユーザが視覚、聴覚、触覚、嗅覚、味覚のうちの少なくともいずれかの感覚によって知覚可能な形式で出力する。
[0054]
 例えば、出力装置をディスプレイにより構成することが可能である。ディスプレイとして、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイなどの反射型または自発光型のディスプレイが用いられるようにしてもよいし、ウェアラブル装置などで用いられるような、ユーザの眼に画像表示光を導光する導光部材と光源とを組み合わせた表示モジュールが用いられるようにしてもよい。
[0055]
 出力部15がスピーカにより構成されるようにしてもよいし、プロジェクタやバイブレータなどの、ユーザに対して情報を提示する外部の装置により構成されるようにしてもよい。
[0056]
 処理部13から供給された情報が、ユーザに対して情報を提示するアプリケーションにより出力されるようにしてもよい。この場合、ユーザに対して情報を提示するアプリケーションが出力部15を構成する。
[0057]
 図3に示すように、出力部15は、例えば、表示部15a、アロマランプ15b、ナビゲーションアプリケーション15c(ナビアプリ15c)、予定表アプリケーション15d(予定表アプリ15d)、およびスピーカ15eを含むように構成される。
[0058]
 図3に示す出力部15の各構成が携帯端末1に設けられるようにしてもよいし、携帯端末1とは別の装置として実現されるようにしてもよい。
[0059]
 表示部15aは、処理部13から提供された情報を表示する。アロマランプ15bは、処理部13から提供された情報を、嗅覚によって知覚される形式で出力する。
[0060]
 ナビアプリ15cは、経路の案内を行うためのアプリケーションである。予定表アプリ15dは、ユーザの予定を管理し、出力するためのアプリケーションである。
[0061]
 スピーカ15eは、据え置き型のスピーカ、またはヘッドフォンで構成される。スピーカ15eは、処理部13からの提供された情報を音声として出力する。
[0062]
 <処理部の構成例>
 図4は、処理部13の構成例を示すブロック図である。
[0063]
 ここでは、図3の入力部11、処理部13、および出力部15がそれぞれ別の装置において実現される場合について説明する。入力部11は図1の携帯端末1において実現され、処理部13はサーバ2において実現される。出力部15は出力器3において実現される。
[0064]
 処理部13は、行動解析部31、ストレスレベル測定部32、データベース33、ストレス要因特定部34、ストレス増減閾値特定部35、ストレスレベル増減処理部36を含むように構成される。入力部11により取得された情報は、行動解析部31、ストレスレベル測定部32、およびデータベース33に供給される。
[0065]
 行動解析部31は、入力部11により取得された情報に基づいて、ユーザの行動を解析する。例えば、歩いている/走っている/電車に乗っているなどのユーザの運動状態、ユーザの場所、ユーザが使用したアプリケーション、ユーザが聞いた曲、同伴者の情報などが行動解析部31により解析される。行動解析部31により解析されたユーザの行動を表す情報は、データベース33とストレスレベル増減処理部36に供給される。
[0066]
 ストレスレベル測定部32は、入力部11により取得された情報に基づいて、ユーザの統合的なストレスレベルを測定する。ストレスレベル測定部32により測定されたストレスレベルを表す情報は、データベース33とストレスレベル増減処理部36に供給される。
[0067]
 入力部11により取得された情報には、位置、加速度、明るさ、血管の収縮、心拍数、呼吸、発汗、皮膚温度、皮膚の電気抵抗値、画像データ、音声データなどの測定データが含まれる。
[0068]
 ここで、各種の測定データを{x_i}(i=1,2,…,n)とすると、ストレスレベルQは、下式(1)のように表される。{x_i}からQを推定するアルゴリズムFは、機械学習または統計的手法により求められる。
[数1]


[0069]
 δは、推定に伴う誤差である。多数の測定データ{x_i}とストレスレベルQのセットを用いて、δができるだけ小さくなるようなアルゴリズムFが求められる。
[0070]
 アルゴリズムFが定まれば、新たに得られた(あるいは仮定した)測定データ{x_i}を用いてストレスレベルQを推定することが可能になる。
[0071]
 なお、ストレスレベルを測定する方法については、参考文献に記載されている以下の方法を用いてもよい。
[0072]
 特開2003-153905号公報には、心身がストレス状態にあるかリラックス状態にあるかを客観的に評価するために、自律神経によって調整される血管の収縮、心拍数、呼吸、発汗、皮膚温などの生理的変化の計測値を用いることができることが記載されている。
[0073]
 また、特開2003-153905号公報または特表2014-514080公報には、皮膚の温度、皮膚の電気抵抗値、皮膚のコンダクタンスを測定することでストレスを測定する方法が記載されている。
[0074]
 特開2009-100088号公報には、皮膚の電気抵抗値に加えて、問診形式によるストレス診断を併用してストレスを測定する方法が記載されている。
[0075]
 音声からストレスを測定する技術もある。特開2010-273700号公報には、対話中の各々の話者の音声を入力として用い、話者同士の音声信号の重なりの長さを利用して話者のストレスを判定する方法が記載されている。
[0076]
 特表2010-506206号公報には、音声信号のスペクトル特性を計算し、そのスペクトル特性に応じてストレスを測定する方法が記載されている。
[0077]
 このように、ストレスレベル測定部32においては、各種の方法を適宜組み合わせて用いることによって、統合的に、ストレスレベルが測定される。
[0078]
 データベース33には、行動解析部31により解析されたユーザの行動履歴、ストレスレベル測定部32により測定されたストレスレベル、および、入力部11から供給された測定データなどが対応付けて登録される。
[0079]
 ストレス要因特定部34は、データベース33に登録されている情報を参照し、異なる時刻のストレスレベルを比べることで、ストレスレベルが増加しているか減少しているかを特定する。
[0080]
 時刻t1,時刻t2(t1<t2)のストレスレベルをそれぞれQ_t1,Q_t2とする。この場合、下式(2)の条件を満たすことは、ストレスレベルが減少していることを表す。また、下式(3)の条件を満たすことは、ストレスレベルが増加していることを表す。
[数2]


[数3]


[0081]
 また、ストレス要因特定部34は、ストレスレベルの増減が生じた時間(時刻t1,時刻t2の間)のユーザの行動を行動履歴から抽出するとともに、騒音などの、ストレスの外部要因となる情報を測定データから抽出する。
[0082]
 ストレス要因特定部34は、抽出した行動と外部要因に基づいて、ストレスレベルが増加することになった要因、または、ストレスレベルが減少することになった要因を特定する。ユーザの行動と外部要因の一方に基づいて要因の特定が行われるようにしてもよい。ストレスレベルの増加または減少の要因についても、例えば、機械学習または統計的手法により特定される。
[0083]
 ストレス要因特定部34により特定された要因に関する情報はストレスレベル増減処理部36に供給される。
[0084]
 ストレス増減閾値特定部35は、イベントを発生するための閾値を特定する。
[0085]
 ・閾値の算出方法1
 ストレス増減閾値特定部35は、長期的に測定され、データベース33に蓄積されたストレスレベルに基づいて、個人の平均ストレスレベルを求める。
[0086]
 ストレス増減閾値特定部35は、平均ストレスレベルを基準としてストレスレベルがある程度上昇した場合、「リラックスしたいか」、または「イライラしているか」などの質問をユーザに対して行い、その質問に対するユーザの回答から閾値を求める。
[0087]
 例えば、ストレスレベルが平均よりある程度上昇した場合において、ユーザが「リラックスしたい」と回答した場合、ユーザにとって、ストレスレベルが増加しているものと想定できる。この場合、平均よりある程度上昇しているいまのストレスレベルが閾値として特定される。このようにして求められた閾値は、ストレスレベルを下げるためのイベントを発生するか否かの基準として用いられる。
[0088]
 また、ストレス増減閾値特定部35は、平均ストレスレベルを基準としてストレスレベルがある程度減少した場合、「刺激がほしいか」、または「リラックスし過ぎか」などの質問をユーザに対して行い、その質問に対するユーザの回答から閾値を求める。
[0089]
 例えば、ストレスレベルが平均よりある程度減少した場合において、ユーザが「刺激がほしい」と回答した場合、ユーザにとって、ストレスレベルが減少していると感じているものと想定できる。この場合、平均よりある程度減少しているいまのストレスレベルが閾値として特定される。このようにして求められた閾値は、ストレスレベルを上げるためのイベントを発生するか否かの基準として用いられる。
[0090]
 ・閾値の算出方法2
 ストレス増減閾値特定部35は、長期的に測定され、データベース33に蓄積されたストレスレベルに基づいて、個人の平均ストレスレベルを求める。
[0091]
 また、ストレス増減閾値特定部35は、平均ストレスレベルを基準としてストレスレベルがある程度上昇した場合、ユーザに生じた病気(下痢や便秘など)、睡眠時間、食事量、買い物の量、外出機会などとの相関を、機械学習や統計的手法により求める。ストレス増減閾値特定部35は、これらの変化が生じたときのストレスレベルを閾値とする。
[0092]
 ストレス増減閾値特定部35は、このようにして特定した閾値をストレスレベル増減処理部36に出力し、設定する。
[0093]
 ストレスレベル増減処理部36は、処理制御部36Aと出力制御部36Bにより構成される。
[0094]
 処理制御部36Aは、ストレスレベル測定部32から供給されるユーザのストレスレベルと、ストレス増減閾値特定部35により設定された閾値を比較する。処理制御部36Aは、例えば、ユーザのストレスレベルが閾値より高い場合、ストレス要因特定部34から供給された情報に基づいて、ストレスレベルが減少する要因を検出し、検出した要因に応じたイベント処理を実行する。例えば、ストレスレベルが減少する要因となる行動をとることを提案する処理がイベント処理として実行される。
[0095]
 また、処理制御部36Aは、ユーザのストレスレベルが閾値より低い場合、ストレス要因特定部34から供給された情報に基づいて、ストレスレベルが増加する要因を検出し、検出した要因に応じたイベントを実行する。例えば、ストレスレベルが増加する要因となる行動をとることを提案する処理がイベント処理として実行される。なお、ストレスが減少している場合と増加している場合との閾値は、それぞれ異なる閾値を用いてもよい。
[0096]
 出力制御部36Bは、ストレスレベルの増減を表す情報を、要因を表す情報とともに出力部15に出力させる。例えば、出力部15からは、後述するストレスの要因を提示するための表示画面、ストレスの要因の分析結果を提示するための表示画面、または提案するための音声などが出力される。
[0097]
 <処理部の他の構成例>
 図5は、処理部13の他の構成例を示すブロックである。図5に示す構成のうち、図4を参照して説明した構成と同じ構成については同じ符号を付してある。重複する説明については適宜省略する。
[0098]
 図5の例においては、入力部11、処理部13、および出力部15が1つの装置としての携帯端末1で実現されている。
[0099]
 このように、入力部11、処理部13、および出力部15の各機能を携帯端末1に持たせることも可能である。
[0100]
 <ストレスの要因の特定に使用するデータの例>
 図6は、ストレスの要因の特定に使用するデータの例を示す図である。左から順に、データの種別、使用するデータ、および取得方法が示されている。
[0101]
 データの種別には、1次元の離散量、1次元の連続量、および位置情報がある。1次元の離散量は、一定の周期ではなく、所定のタイミングで検出されるデータであることを表す。1次元の連続量は、一定の周期で検出されるデータであることを表す。
[0102]
 1次元の離散量の種別に属するデータには、移動手段に関するデータ、使用中のアプリケーションに関するデータ、リスニング中の音楽に関するデータ、視聴中のTV番組に関するデータが含まれる。また、1次元の離散量の種別に属するデータには、同伴者に関するデータ、時間帯に関するデータ、季節に関するデータが含まれる。
[0103]
 移動手段のデータは、静止、徒歩、電車などのユーザの移動手段を表す。移動手段のデータは、加速度センサによる振動パターンを分析することによって取得される。
[0104]
 使用中のアプリケーションのデータは、ナビアプリ15c、予定表アプリ15dなどの、フォアグラウンドアプリケーションを特定することにより取得される。
[0105]
 リスニング中の音楽のデータは、再生中の曲が取得されることにより、または、マイクロフォン11bで集音した音から曲を推定することにより取得される。
[0106]
 視聴中TV番組のデータは、マイクロフォン11bで集音した音から番組を推定することにより取得される。
[0107]
 同伴者のデータは、ユーザと一緒にいる他のユーザを表す。同伴者のデータは、GPS11aによる位置情報がお互いに近いこと、お互いにBluetooth(登録商標)のスキャン圏内にいること、または、お互いにWi-Fiのスキャン圏内にいることを判断することにより取得される。
[0108]
 時間帯のデータは、朝、昼、夜などの時間帯を表す。時間帯のデータは、入力部11を構成する携帯端末1などの装置の内蔵時計により取得される。
[0109]
 季節のデータは、春、夏、秋、冬などの季節を表す。季節のデータも、装置の内蔵時計により取得される。
[0110]
 1次元の連続量の種別に属するデータには、騒音レベルに関するデータ、明るさに関するデータ、運動強度に関するデータが含まれる。
[0111]
 騒音レベルのデータは、マイクロフォン11bにより音圧を計測することにより取得される。騒音レベルのデータが騒音計11gにより取得されるようにしてもよい。
[0112]
 明るさレベルのデータは、照度センサにより明るさを計測することにより取得される。
[0113]
 運動強度のデータは、加速度センサ11cによる振動パターンを分析することにより取得される。
[0114]
 位置情報の種別に属するデータには、現在地のデータが含まれる。現在地のデータは、GPS11aによる測位履歴を保存したり、Mapアプリケーション(図示せぬ)の入出履歴を保存したりすることにより取得される。
[0115]
 なお、図6に示す各データの取得方法は一例であり、他の方法で取得されるようにしてもよい。
[0116]
 <ストレスの要因を提示するための表示画面例>
 ここで、表示部15aに表示される表示画面の例について説明する。
[0117]
 各図に示すスマートフォン用の表示画面は、携帯端末1としてのスマートフォンに設けられる表示部15aの画面であり、スマートウオッチ用の表示画面は、携帯端末1としてのスマートウオッチに設けられる表示部15aの画面である。ストレス要因特定部34によりストレスの要因が特定された後、ユーザの操作に応じて、各種の画面が出力制御部36Bにより表示される。
[0118]
 図7は、ストレスの要因を提示するためのスマートフォン用の表示画面例を示す図である。
[0119]
 図7のAの表示画面101は、アクティビティとストレスレベルの関係を示す縦向きの画面である。表示画面101に表示されるグラフの横方向は時刻を表し、縦方向はストレスレベルを表す。横方向の白抜き矢印#1は、横にスクロールすることで時間帯を切り替えることができることを表す。
[0120]
 表示画面101においては、各時間帯の移動手段がアクティビティとして表されている。細かいハッチは、その時間帯の移動手段が徒歩であることを表し、斜線のハッチは、その時間帯の移動手段が電車であることを表している。ハッチのない時間帯は、静止、すなわち、移動していない時間帯であることを表している。図においてはハッチで示しているが、実際には、例えば移動手段毎に異なる色で表示される。
[0121]
 ストレスレベルの時系列は、時間帯毎のアクティビティの表示に重ねて実線で表される。
[0122]
 表示画面101を見ることで、ユーザは、7:00ころから9:00ころまでの電車での移動中にストレスレベルが上がっていることを確認することができる。また、ユーザは、12:00ころの移動していないときにストレスがほとんどなく、18:00ころの移動をしていないときにストレスが大きいことを確認することができる。
[0123]
 これにより、ユーザは、出勤時間に電車に乗ることがストレスレベルの増加の要因であるといったように、ストレスレベルの増減と、その要因としての移動手段との関係を確認することができる。
[0124]
 また、図7の場合では、ストレス要因特定部34は、出勤時間の7:00ころから9:00ころまでの時間が、ストレスレベルの増加が生じた時間とし、このときのユーザの行動である、出勤時間に電車に乗ることがストレスレベル増加の要因であるとする。また、ストレス要因特定部34は、9:00ころから10:00ころまでの時間が、ストレスレベルの減少が生じた時間とし、このときのユーザの行動である、電車を降りることがストレスレベル減少の要因であるとする。
[0125]
 図7のBの表示画面102は、表示画面101を横向きにした画面である。上下方向の白抜き矢印#2は、縦にスクロールすることで時間帯を切り替えることができることを表す。
[0126]
 図8は、表示画面101におけるユーザの操作例を示す図である。
[0127]
 ユーザが、表示画面101上のある位置を指でタップした場合、図8の左側に示されるように、指でタップした位置を中心とした円形状の画像101aが表示される。この状態のまま、所定の時間長押しした場合、表示画面101の状態は、矢印#3の先に示されるように、詳細情報を表示する状態に遷移する。
[0128]
 図8の右側の表示画面101には、タップした位置の時刻を明示するライン101bと、ライン101bの時刻の詳細情報を提示する吹き出し101cとが表示されている。吹き出し101cには、詳細情報として、時刻が「15時10分」であり、その時刻におけるストレスレベルが「20」であることが表示されている。また「15時10分」のアクティビティが「徒歩」であることが表示されている。
[0129]
 以上のように、ユーザは、ストレスの要因が提示される表示画面101上の所定の時刻をタップすることによりその時刻のストレスレベルとアクティビティの詳細情報を知ることができる。
[0130]
 図9は、ストレスの要因を提示するためのスマートウオッチ用の表示画面例を示す図である。
[0131]
 スマートウオッチ用の表示画面は、スマートフォン用の表示画面と比べて表示範囲が狭い。スマートウオッチ用の表示画面は、表示内容を説明するための表示画面111と、アクティビティとストレスレベルの関係を表す表示画面112とに分かれている。
[0132]
 表示画面111には、表示画面112に表示される内容が「アクティビティとストレスレベル」であり、徒歩のアイコンと電車のアイコンの説明が示されている。表示画面111の下部に表示される下向きの三角形は、上方向にスワイプすることで表示画面112に遷移可能であることを表している。
[0133]
 表示画面112には、表示画面101と同様に、各時間帯の移動手段に重ねてストレスレベルの時系列が表示されている。横方向の白抜き矢印#11は、横にスクロールすることで時間帯を切り替えることができることを表す。
[0134]
 このような表示画面によっても、ユーザは、ストレスレベルの増減と、その要因としての移動手段との関係を確認することができる。
[0135]
 図10は、表示画面112におけるユーザの操作例を示す図である。
[0136]
 表示画面112の操作も、図8を参照して説明した表示画面101の操作と基本的に同様である。すなわち、ユーザが、表示画面112上のある位置を指でタップする。これに対応して、図10に示されるように、表示画面112には、指でタップした位置を中心とした円形状の画像112aが表示される。この状態のまま、所定の時間長押し下場合で、表示画面112の状態は、矢印#12の先に示されるように詳細情報を表示する状態に遷移する。
[0137]
 図10の下段の表示画面112には、タップした位置の時刻を明示するライン112bと、ライン112bの時刻の詳細情報を提示する吹き出し112cとが表示される。吹き出し112cには、詳細情報として、時刻が「15時10分」であり、その時刻におけるストレスレベルが「20」であることが表示されている。また、「15時10分」のアクティビティが「徒歩」であることがアイコンにより表示されている。
[0138]
 図11は、ストレスの要因を提示するためのスマートフォン用の他の表示画面例を示す図である。
[0139]
 図11のAの表示画面121は、騒音とストレスレベルの関係を示す縦向きの画面である。表示画面121に表示されるグラフの横方向は時刻を表し、縦方向はストレスレベルを表す。横方向の白抜き矢印#21は、横にスクロールすることで時間帯を切り替えることができることを表す。
[0140]
 表示画面121において、実線は、時刻毎のストレスレベルを表し、破線は、時刻毎の騒音レベルを表している。図においては線種を分けて示しているが、実際には、例えばグラフ毎に異なる色で表示されてもよい。
[0141]
 このように、表示画面121においては、ストレスレベルの時系列が、時間帯毎の騒音レベルの時系列とともに表される。
[0142]
 表示画面121を見ることで、ユーザは、7:00ころから9:00ころまでの、騒音レベルが70前後といったように高い時間に、ストレスレベルが上がっていることを確認することができる。また、ユーザは、12:00前後の騒音レベルが下がっている時間に、ストレスがほとんどなく、18:00前後の騒音レベルが50前後にまで上がっている時間に、ストレスレベルが上がっていることを確認することができる。
[0143]
 これにより、ユーザは、騒音レベルが大きいことがストレスレベルの増加の要因であるといったように、ストレスレベルの増減と、その要因としての騒音との関係を確認することができる。
[0144]
 図11のBの表示画面122は、表示画面121を横向きにした画面である。上下方向の白抜き矢印#22は、縦にスクロールすることで時間帯を切り替えることができることを表す。
[0145]
 図12は、ストレスの要因を提示するためのスマートウオッチ用の他の表示画面例を示す図である。
[0146]
 スマートウオッチ用の表示画面は、表示内容を説明するための表示画面131と、騒音とストレスレベルの関係を表す表示画面132とに分かれている。
[0147]
 表示画面131には、表示画面132に表示される内容が「騒音とストレスレベル」であり、騒音レベルのアイコンの説明が示されている。表示画面131の下部に表示される下向きの三角形は、上方向にスワイプすることで表示画面132に遷移可能であることを表している。
[0148]
 表示画面132には、表示画面131と同様に、各時間帯のストレスレベルの時系列と、騒音レベルの時系列が表示されている。横方向の白抜き矢印#31は、横にスクロールすることで時間帯を切り替えることができることを表す。
[0149]
 このような表示画面によっても、ユーザは、ストレスレベルの増減と、その要因としての騒音レベルとの関係を確認することができる。
[0150]
 図13は、ストレスの要因を提示するためのスマートフォン用のさらに他の表示画面例を示す図である。
[0151]
 図13の表示画面141は、移動経路とストレスレベルの関係を示す画面である。
[0152]
 表示画面141には、ユーザの移動経路を含む範囲の地図が表示され、位置情報(現在地)の履歴から得られる移動経路が、ストレスレベルを表す色(0乃至100の階調)を付して表示されている。すなわち、表示画面141は、ユーザがどこにいたのかを要因として、要因としての場所とストレスレベルの関係を示す画面で表されている。
[0153]
 表示画面141を見ることで、ユーザは、地図の左下の場所から右上の場所に行くにつれて、ストレスレベルが高くなっていくことを確認することができる。
[0154]
 図14は、ストレスの要因を提示するためのスマートウオッチ用のさらに他の表示画面例を示す図である。
[0155]
 スマートウオッチ用の表示画面は、表示内容を説明するための表示画面151と、移動経路とストレスレベルの関係を表す表示画面152とに分かれている。
[0156]
 表示画面151には、表示画面152に表示される内容が「移動経路とストレスレベル」であり、ストレスレベルを表す階調が示されている。表示画面151の下部に表示される下向きの三角形は、上方向にスワイプすることで表示画面152に遷移可能であることを表している。
[0157]
 表示画面151と同様に、表示画面152には、ユーザの移動経路が、ストレスレベルを表す色を付して地図上に表示されている。
[0158]
 このような表示画面によっても、ユーザは、ストレスレベルの増減と、その要因としての場所との関係を確認することができる。
[0159]
 <ストレスの要因の分析結果を提示するための表示画面例>
 例えばストレス要因特定部34においては、ストレスの要因の分析も行われる。ユーザの操作に応じて、ストレスの要因の分析結果を提示するための各種の画面が出力制御部36Bにより表示される。
[0160]
 図15は、ストレスの要因の分析結果を提示するためのスマートフォン用の表示画面例を示す図である。
[0161]
 図15のAの表示画面181は、同伴者とストレスレベルの関係の分析結果を示す縦向きの画面である。表示画面181に表示される棒グラフは、Aさん乃至Eさんと一緒にいたときの縦方向はストレスレベルを表す。すなわち、表示画面181は、ユーザがだれと一緒にいたのかを要因として、要因としての同伴者とストレスレベルの関係を示す画面である。横方向の白抜き矢印#81は、横にスクロールすることで表示可能な項目(同伴者)を切り替えることができることを表す。
[0162]
 ユーザ(スマートフォンのユーザ)がAさんと一緒にいるときのストレスレベルは50であり、Bさんと一緒にいるときのストレスレベルは40である。他のユーザと一緒にいるときのストレスレベルについても同様に棒グラフによって表示される。
[0163]
 表示画面181を見ることで、ユーザは、自身のストレスレベルが、Dさんと一緒にいるときが高く、BさんまたはEさんと一緒にいるときが低いといったように、ストレスレベルの増減と、その要因としての同伴者との関係を確認することができる。
[0164]
 図15のBの表示画面182は、表示画面181を横向きにした画面である。上下方向の白抜き矢印#82は、縦にスクロールすることで表示可能な項目(同伴者)を切り替えることができることを表す。
[0165]
 図16は、ストレスの要因の分析結果を提示するためのスマートウオッチ用の他の表示画面例を示す図である。
[0166]
 図16の表示画面191は、図15の表示画面181と同様に同伴者とストレスレベルの関係の分析結果を示す画面である。図16の例においては、ストレスレベルの高い、上位3人の同伴者のみが表示されている。
[0167]
 このような表示画面によっても、ユーザは、ストレスレベルの増減と、その要因としての同伴者との関係の分析結果を確認することができる。
[0168]
 図17は、ストレスの要因の分析結果を提示するためのスマートフォン用の表示画面例を示す図である。
[0169]
 図17のAの表示画面201は、位置とストレスレベルの関係の分析結果を示す画面である。表示画面201には、所定の範囲の地図が表示され、地図上に、複数の位置をそれぞれ中心とした円の画像が表示されている。円の大きさがストレスレベルの大きさを表している。表示画面201の右下には、円の大きさが表すストレスレベルの度合いが示されている。
[0170]
 表示画面201は、要因としての場所(位置)とストレスレベルの関係を示す画面である。ユーザは、表示画面201を見ることで、各地域にいるときのストレスレベルを確認することができる。
[0171]
 各場所とストレスレベルの関係が、図17のBに示すような立体視画像211により表現されるようにしてもよい。立体視画像211においては、地図上の各位置のストレスレベルが、四角柱状の棒グラフの高さで表現されている。このように、ストレスレベルの表現の仕方は任意に変更可能である。
[0172]
 図18は、ストレスの要因の分析結果を提示するためのスマートフォン用の他の表示画面例を示す図である。
[0173]
 図18の立体視画像212は、朝、昼、夕、夜の各時間帯を横軸、春、夏、秋、冬の各季節を縦軸とした平面上の四角柱状の棒グラフによって、各期間のストレスレベルを表した画像である。すなわち、立体視画像212は、所定の期間を要因として、要因としての期間とストレスレベルの関係を示す画像である。
[0174]
 ユーザは、立体視画像212を見ることで、例えば、夏は、暑さで昼の時間にストレスレベルが上がり、冬は、寒さで朝と夜にストレスレベルが上がることを確認することができる。
[0175]
 <その他の提示例>
 ストレスの要因または要因の分析結果の提示が、表示部15aだけでなく、音声として、スピーカ15eを用いて行われるようにしてもよい。また、ARで表示するようにしてもよい。また、ストレスの要因または要因の分析結果の提示だけでなく、ストレスの要因からの提示も、表示部15a、スピーカ15e、ARを用いて行われる。
[0176]
 図19は、ストレスの要因からの提案の音声出力の例を示す図である。
[0177]
 上段に示す吹き出し221の例においては、「ここから北に向かうと、その後ストレスを感じることが多いようです。今日は西から行ってみてはいかがですか?」という音声出力が示されている。吹き出し221の音声出力は、位置情報とストレスレベルとの関係に基づいて、この後のルートを提案するものである。現在位置から目的地までに向かうルートとして北から行くルートと西から行くルートがあり、北から行くルート上に、ストレスレベルが上がる地域がある場合、このような提案が行われることになる。
[0178]
 このような音声による提案は、例えば、ユーザがナビアプリ15cを起動させたとき、上述したような位置情報とストレスレベルとの関係に基づいて出力制御部36Bにより出力される。
[0179]
 下段に示す吹き出し222の例においては、「つかれていませんか?ちょっと気晴らしに、今日は○○まで歩いてみるのはどうでしょう?」という音声出力が示されている。吹き出し222の音声出力は、アクティビティとストレスレベルのとの関係に基づいて、移動手段を提案するものである。現在位置から目的地までに向かう移動手段として徒歩を含む複数の手段があり、軽い運動を行うことによりストレスレベルが減少することが特定されている場合、このような提案が行われることになる。
[0180]
 このような音声による提案も、例えば、ユーザがナビアプリ15cを起動させたとき、上述したようなアクティビティとストレスレベルとの関係に基づいて出力制御部36Bにより出力される。
[0181]
 ユーザは、吹き出し221または222に示される音声出力を聞くことで、自分のストレスレベルと改善方法を知ることができる。
[0182]
 図20は、ストレスの要因からの提案のAR表示の例を示す図である。
[0183]
 図20のAR表示画面231は、表示部15aを備えるメガネ型のウェアラブルデバイスを装着したときにユーザ232にとって確認可能な形で表示される画面である。表示部15aが透過型の表示デバイスである場合、各種の情報が、ユーザ232が実際に見ている風景に重ねて表示される。
[0184]
 図20の例においては、ユーザ232の正面には、その場所で予測されるストレスレベルが200ptであることを示すオブジェクト233が表示されている。
[0185]
 また、ユーザ232の正面を基準として右側には、500ptの値が付された矢印#91(矢印型のオブジェクト)が表示され、左側には、10000ptの値が付された矢印#92が、矢印#91より大きく表示されている。それぞれの矢印型のオブジェクトに付されている値は、ユーザ232が、矢印の方向に移動したときに予測されるストレスレベルを表す。
[0186]
 オブジェクト233、矢印#91、矢印#92は、ストレスレベルの大きさに対応した大きさで表示される。このような各方向に移動した場合のストレスレベルの提案も、例えば、ユーザがナビアプリ15cを起動させたとき、上述したような位置情報とストレスレベルとの関係に基づいて出力制御部36Bにより出力される。
[0187]
 ユーザ232は、このような表示を見ることで、それぞれの方向に移動する際に予測されるストレスレベルを知ることができる。
[0188]
 図21は、集団内におけるストレス耐性の表示例を示す図である。
[0189]
 図21のAの表示画面241は、AさんのストレスレベルとBさんのストレスレベルを図11の表示画面121と同様に騒音レベルととともに示す画面である。実線はAさんのストレスレベルを示し、一点鎖線はBさんのストレスレベルを示す。表示画面241から、矢印241aで示す時間帯に騒音レベルが増加することに伴ってAさんのストレスレベルが急に増加しているものの、Bさんのストレスレベルが緩やかな増加にとどまっていることを確認することができる。
[0190]
 図21のBの比較表242は、矢印241aで示す時間帯における各ユーザのストレスレベルの増減を示すものである。
[0191]
 比較表242に示されるように、Aさんのストレスレベルは100上昇しているのに対し、Bさんのストレスレベルは30上昇している。
[0192]
 比較表242に示されるようなストレス上昇度をユーザ毎に計算することで、図21のCに示されるように、各ユーザの相対的なストレス耐性の比較グラフ243が生成される。これにより、相対的なストレス耐性を可視化することができる。
[0193]
 ユーザ毎のストレス耐性が可視化されることで、ユーザは、騒音によるストレスに強いユーザと弱いユーザを知ることができる。
[0194]
 <ストレス制御システムの処理例>
 ここで、以上のような構成を有するストレス制御システム10の動作について説明する。
[0195]
 はじめに、図22のフローチャートを参照して、ストレス制御システム10のストレスレベル制御処理について説明する。入力部11によって取得された情報は、行動解析部31、ストレスレベル測定部32、およびデータベース33に供給される。
[0196]
 ステップS11において、行動解析部31は、入力部11によって取得された情報に基づいて、ユーザの行動を解析し、特定する。
[0197]
 ステップS12において、ストレスレベル測定部32は、入力部11によって取得された情報に基づいて、ユーザの統合的なストレスレベルを測定する。
[0198]
 行動解析部31により特定されたユーザの行動を表す情報とストレスレベル測定部32により測定されたストレスレベルを表す情報は、データベース33とストレスレベル増減処理部36に供給される。データベース33には、ユーザの行動履歴、ストレスレベル、および、入力部11によって取得された測定データが登録される。
[0199]
 ステップS13において、ストレス要因特定部34は、データベース33に登録されている情報に基づいて、ストレスレベルの増減の要因を上述したようにして特定する。
[0200]
 ストレス要因特定部34は、ストレスレベルが下がったときに注目し、そのときにユーザが行っていた行為や周囲の状況を解析することにより、ストレスレベルを下げる要因となる行為や状況を特定することができる。また、ストレス要因特定部34は、ストレスレベルが上がったときに注目し、そのときにユーザが行っていた行為や周囲の状況を解析することにより、ストレスレベルを上げる要因となる行為や状況を特定することができる。
[0201]
 ステップS14において、ストレス増減閾値特定部35は、ストレスレベル増減処理部36がイベントを発生するための閾値を設定する。
[0202]
 ステップS15において、ストレスレベル増減処理部36は、ストレスを増減させるための処理であるストレスレベル増減処理を行う。ストレスレベル増減処理の詳細については、図23のフローチャートを参照して後述する。
[0203]
 ステップS16において、ストレスレベル増減処理部36は、ストレスレベル制御処理を終了するか否かを判定する。ストレスレベル制御処理を終了しないとステップS16において判定された場合、ステップS11に戻り、以上の処理が繰り返される。
[0204]
 ステップS16において、ストレスレベル制御処理を終了すると判定された場合、ストレスレベル制御処理は終了される。
[0205]
 次に、図23のフローチャートを参照して、図22のステップS15において行われるストレスレベル増減処理について説明する。図23の処理は、会社での会議が多いことなどを要因として上がったストレスレベルを下げる場合などに行われる。
[0206]
 ステップS51において、ストレスレベル増減処理部36の処理制御部36Aは、ストレスレベル測定部32により測定されたユーザのストレスレベルを取得する。
[0207]
 ステップS52において、処理制御部36Aは、図22のステップS14でストレス増減閾値特定部35により設定された閾値を用いて、ユーザのストレスレベルが閾値を超えているか否かを判定する。
[0208]
 ユーザのストレスレベルが閾値を超えていないとステップS52において判定された場合、ステップS51に戻り、以上の処理が繰り返される。一方、ユーザのストレスレベルが閾値を超えているとステップS52において判定された場合、処理はステップS53に進む。
[0209]
 ステップS53において、処理制御部36Aは、行動解析部31により特定されたユーザの現在の状況を取得する。例えば、ユーザの行動、場所、ユーザが使用しているアプリケーション、ユーザが聞いている曲、および同伴者等の情報が現在の状況として取得される。
[0210]
 ステップS54において、処理制御部36Aは、ストレスを緩和させるための行為であるストレス緩和行為を選択する。ストレス緩和行為の選択は、ストレスレベルの減少の要因と、ユーザの現在の状況に基づいて行われる。
[0211]
 例えば、ある音楽を聞いていたことがストレスレベルの減少の要因であるとして過去に特定されており、現在、ユーザが、その音楽を再生可能な携帯端末1を操作していることが特定されている場合、携帯端末1を使って同じ曲を聞くことが、ストレス緩和行為として選択される。
[0212]
 また、アロマランプ15bのある香りを嗅いでいたことがストレスレベルの減少の要因であるとして過去に特定されており、現在、ユーザが自宅のリビングがいることが特定されている場合、リビングにあるアロマランプ15bを使って同じ香りを嗅ぐことが、ストレス緩和行為として選択される。
[0213]
 軽い運動を行っていたことがストレスレベルの減少の要因であるとして過去に特定されており、現在、ユーザが徒歩で移動中であることが特定されている場合、軽い運動になるような遠回りのルートを使って移動することが、ストレス緩和行為として選択される。
[0214]
 このように、ストレスレベルの減少の要因として特定されたユーザの行動のうち、現在のユーザの状況に応じた行動が、ストレス緩和行為として選択される。例えば、美味しいものを食べる、好きな本を読むなどの行為も、ストレス緩和行為として適宜選択される。
[0215]
 ストレス緩和行為を選択した後、処理制御部36Aは、ステップS55においてストレス緩和行為の誘導を行うか、ステップS56においてストレス緩和行為の自動実行を行う。
[0216]
 ステップS55において行われるストレス緩和行為の誘導は、通知などを行うことによって、選択したストレス緩和行為を行うことをユーザに提案することを意味する。ユーザに対する通知は、例えば、図19、図20を参照して説明したように、出力部15を用いた画面表示や音声により行われる。
[0217]
 また、ステップS56において行われるストレス緩和行為の自動実行は、ストレス緩和行為をとらせるための処理を、ユーザによる操作によらずに、処理制御部36Aが自動的に行うことを意味する。
[0218]
 例えば、携帯端末1を使ってある曲を聞く行為をストレス緩和行為として選択している場合、処理制御部36Aは、ストレス緩和行為を誘導するときには、同じ曲を聞くことを提案する画面を表示する。また、処理制御部36Aは、ストレス緩和行為の自動実行を行うときには、携帯端末1を制御することによって、その曲の再生を開始させる。
[0219]
 また、アロマランプ15bを使ってある香りを嗅ぐ行為をストレス緩和行為として選択している場合、処理制御部36Aは、ストレス緩和行為を誘導するときには、同じ香りを嗅ぐことを提案する画面を表示する。また、処理制御部36Aは、ストレス緩和行為の自動実行を行うときには、出力部15を構成するアロマランプ15bを制御し、その香りを炊かせる。
[0220]
 遠回りのルートを使って移動する行為をストレス緩和行為として選択している場合、処理制御部36Aは、ストレス緩和行為を誘導するときには、その遠回りのルートを使って移動することを提案する画面を表示する。また、処理制御部36Aは、ストレス緩和行為の自動実行を行うときには、出力部15を構成するナビアプリ15cを制御し、その遠回りのルートを提示させる。
[0221]
 このようなストレス緩和行為の誘導に応じて同じ行為をとることにより、ユーザは、ストレスを軽減させることが可能になる。ストレス緩和行為が自動的に実行されることによっても、ユーザは、ストレスを軽減させることが可能になる。
[0222]
 次に、図24のフローチャートを参照して、図22のステップS15において行われる他のストレスレベル増減処理について説明する。図24の処理は、重要な会議の前、スポーツの練習中、スポーツの競技の前などのタイミングで行われる。このようなタイミングでは、ストレスレベルを上げた方が好ましい場合がある。
[0223]
 ステップS71において、ストレスレベル増減処理部36の処理制御部36Aは、ストレスレベル測定部32により測定されたユーザのストレスレベルを取得する。
[0224]
 ステップS72において、処理制御部36Aは、図22のステップS14で設定された閾値を用いて、ユーザのストレスレベルが閾値を下回っているか否かを判定する。
[0225]
 ユーザのストレスレベルが閾値を下回ってないとステップS72において判定された場合、ステップS71に戻り、以上の処理が繰り返される。一方、ユーザのストレスレベルが閾値を下回っているとステップS72において判定された場合、処理はステップS73に進む。
[0226]
 ステップS73において、処理制御部36Aは、行動解析部31により特定されたユーザの現在の状況を取得する。例えば、ユーザの行動、場所、ユーザが使用しているアプリケーション、ユーザが聞いている曲、および同伴者等の情報が現在の状況として取得される。
[0227]
 ステップS74において、処理制御部36Aは、ストレスを上げる行為であるストレス上昇行為を選択する。ストレス上昇行為の選択は、ストレスレベルの増加の要因と、ユーザの現在の状況に基づいて行われる。
[0228]
 例えば、緊張感を高める音楽や、緊張感を維持できるような音楽を聞いていたことがストレスレベルの上昇の要因であるとして過去に特定されており、現在、ユーザが、リビングにいることが特定されている場合、リビングで同じ音楽を聞くことが、ストレス上昇行為として選択される。
[0229]
 また、教室での授業中に、生徒の個々のストレスレベルを上昇させる場合において、授業の内容や指導方法を変えることがストレスレベルの上昇の要因であるとして過去に特定されており、現在、授業中であることが特定されているとき、授業の内容や指導方法を同じように変えることが、ストレス上昇行為として選択される。
[0230]
 目的地へ徒歩での移動の際に、遠回りや階段を使って移動することがストレスレベルの上昇の要因であるとして過去に特定されており、現在、ユーザが徒歩で移動中であることが特定されている場合、鍛錬のために、遠回りや階段を使った経路を通ることが、ストレス上昇行為として選択される。
[0231]
 このように、ストレスレベルの増加の要因として特定されたユーザの行動のうち、現在のユーザの状況に応じた行動が、ストレス上昇行為として選択される。例えば、瞑想するなどの行為も、ストレス上昇行為として適宜選択される。
[0232]
 ストレス上昇行為を選択した後、処理制御部36Aは、ステップS75においてストレス上昇行為の誘導を行うか、ステップS76においてストレス上昇行為の自動実行を行う。
[0233]
 例えば、携帯端末1を使ってある曲を聞く行為をストレス上昇行為として選択している場合、処理制御部36Aは、ストレス上昇行為を誘導するときには、同じ曲を聞くことを提案する画面を表示する。また、処理制御部36Aは、ストレス上昇行為の自動実行を行うときには、携帯端末1を制御することによって、その曲の再生を開始させる。
[0234]
 また、授業の内容や指導方法を同じように変える行為をストレス上昇行為として選択している場合、処理制御部36Aは、ストレス上昇行為を誘導するときには、授業の内容や指導方法を変えることを先生に提案する画面を表示する。また、処理制御部36Aは、ストレス上昇行為の自動実行を行うときには、出力部15を構成する表示部15aを制御し、その生徒に合った授業を提示させる。
[0235]
 遠回りや階段を使ったルートを通ることがストレス上昇行為として選択している場合、処理制御部36Aは、ストレス上昇行為を誘導するときには、その遠回りや階段を使ったルートを使って移動することを提案する画面を表示する。また、処理制御部36Aは、ストレス緩和行為の自動実行を行うときには、出力部15を構成するナビアプリ15cを制御し、その遠回りのルートを提示させる。
[0236]
 このようなストレス上昇行為の誘導に応じて同じ行為をとることにより、ユーザは、ストレスを高めて維持させることが可能になる。ストレス上昇行為が自動的に実行されることによっても、ユーザは、ストレスを高めて維持させることが可能になる。
[0237]
 以上のように、ストレスレベルが高い場合にはストレス緩和行為をユーザに行わせ、ストレスレベルが低い場合にはストレス上昇行為をユーザに行わせることにより、ユーザのストレスレベルを所定のレベルにキープすることが可能になる。
[0238]
 <具体的な提示例>
 ストレス緩和行為の具体例について説明する。ここでは、ストレス緩和行為の具体例について説明するが、ストレス上昇行為についても同様に定義される。
[0239]
 図25は、休日におけるストレス緩和行為の具体例を示す図である。右端の列には、ストレス緩和行為自体の例、または、ストレス緩和行為の提示の例が示される。
[0240]
 朝8時起床において、「もう少し寝たいのに家族に起こされた」という理由でストレスレベルが高いときのストレス緩和行為としては、以下の3つの例があげられる。
 ・「好きな匂いを出す」
 ・「好きな音楽、テレビ番組を流す」
 ・「犬の散歩に行って、リフレッシュする」
[0241]
 午前の活動において、「買い物に行きたいのに、掃除をしなければいけない」という理由でストレスレベルが高いときのストレス緩和行為、またはその提示例としては、以下の2つの例があげられる。
 ・「単純作業に合わせた音楽を流して、没頭させる」
 ・「終わったら、コーヒーを飲むように勧める」
[0242]
 お昼において、「付き合いで、得意でない親戚とお昼を食べる」という理由でストレスレベルが高いときのストレス緩和行為の提示例としては、以下の4つの例があげられる。
 ・「好きな料理で、ストレスが下がる料理を提示する」
 ・「食事の後に、近辺に気の合う友達がいれば、会ってコーヒーを飲むことを提示する」
 ・「帰りは歩いて、癒しの場所によることを提示する」
 ・「昼寝を勧める」
[0243]
 午後の活動において、「昼寝をしたいのに、買い物に行かされる」という理由でストレスレベルが高いときのストレス緩和行為、またはその提示例としては、以下の3つの例があげられる。
 ・「買い物までの移動は、好きな音楽をかける」
 ・「少しでもユーザが楽しめるお店に行くように勧める」
 ・「買い物の後に、一息つけるように、お菓子やコーヒーを買うように勧める」
[0244]
 夜の活動において、「好きなテレビ番組を見たいのに、子どもに占領される」という理由でストレスレベルが高いときのストレス緩和行為の提示例としては、以下の2つの例がある。
 ・「子どもも、大人も楽しめるコンテンツを家族に表示する」
 ・「家族で楽しめるゲームなどを勧める」
[0245]
 図26乃至図29は、平日におけるストレス緩和行為の具体例を示す図である。
[0246]
 図26には、朝6時起床時のストレス緩和行為と通勤時のストレス緩和行為が示されている。
[0247]
 朝6時起床時において、「仕事で睡眠時間が短かった」という理由でストレスレベルが高いときのストレス緩和行為としては、以下の3つの例があげられる。
 ・「好きな匂いを出す」
 ・「好きな音楽を流す」
 ・「好きなテレビ番組を流す」
[0248]
 「好きな匂いを出す」場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことが検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、家のカメラ等でユーザがどこにいるかを認識することによって取得される。ユーザがベッドルームにいることが認識された場合、過去のデータに基づいて、ベットルームで「好きな匂いを出す」処理が自動的に実行される。
[0249]
 「好きな音楽を流す」場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことが検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、家のカメラ等でユーザがどこにいるかを認識することによって取得される。ユーザがリビングルームにいることが認識された場合、過去のデータに基づいて、リビングルームで「好きな音楽を流す」処理が自動的に実行される。
[0250]
 「好きなテレビ番組を流す」場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことが検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、家のカメラ等でユーザがどこにいるかを認識することによって取得される。ユーザがリビングルームにいることが認識された場合、過去のデータに基づいて、リビングルームで「好きなテレビ番組を流す」処理が自動的に実行される。
[0251]
 通勤時において、「電車遅延でいつもより混んでいる」という理由でストレスレベルが高いときのストレス緩和行為の提示例としては、以下の2つの例があげられる。
 ・「好きなテレビ番組をスマートフォンで提示」
 ・「会社まで歩いてもそれほど時間がかからないことがわかったので、軽い運動でのストレス発散を兼ねて、歩いて会社にいくことを提示」
[0252]
 「好きなテレビ番組をスマートフォンで提示」する場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことが検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、スマートフォンのGPSや加速度計で電車に乗っていることを認識/電車会社の情報から、混んでいることを認識/スマートフォンの画面を開いていることからスマートフォンの操作が出来ることを認識することによって取得される。このとき、過去のデータから、スマートフォンを使ってできるストレス緩和行為が列挙され、例えば、効果が一番大きいと考えられる、好きなテレビ番組をスマートフォンで視聴することが通知される。
[0253]
 「会社まで歩いてもそれほど時間がかからないことがわかったため、軽い運動でストレス発散も兼ねて、歩いて会社にいくことを提示」する場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことを検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザ状況については、スマートフォンのGPSや加速度計で電車に乗っていることを認識/電車会社の情報から、混んでいることを認識/位置情報と予定表から、歩いて会社にいけることを認識することによって取得される。このとき、過去のデータから歩くとストレスが下がることがわかっているので、歩いて会社にいくことをスマートフォンに通知される。
[0254]
 図27には、午前中の仕事時のストレス緩和行為が示されている。
[0255]
 午前中の仕事時において、「期限間近の仕事が溜まっている」という理由でストレスレベルが高いときのストレス緩和行為、またはその提示例としては、以下の3つ例があげられる。
 ・「好きな音楽を流して、仕事に没頭させる」
 ・「仕事の質問は気の合う人に聞くように提示」
 ・「提出物は階段を使って、運ぶように提示」
[0256]
 「好きな音楽を流して、仕事に没頭させる」場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことが検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、スマートフォンのマイクで、周りに人がいないことを認識/予定表から仕事が溜まっていることを認識することによって取得される。このとき、好きな音楽を流すと集中できることが過去のデータからわかっているので、好きな音楽を流す処理が自動的に実行される。
[0257]
 「仕事の質問は気の合う人に聞くように提示」する場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことが検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、PCを開いているが、書き込みなどが少なかったり、ブラウザで調べ物をしていることを認識することによって取得される。このとき、質問を気の合う友人に聞くことを誘導する画面がPC上に表示される。
[0258]
 「提出物は階段をつかって、運ぶように提示」する場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことが検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、予定表で提出物があることを認識することによって取得される。このとき、運動するとストレスが下がることが過去のデータからわかっているので、席を立ったタイミングなどに、歩いて提出物を運ぶように誘導する画面がスマートウオッチに表示される。
[0259]
 図28には、昼のストレス緩和行為が示されている。
[0260]
 昼に「面倒なクライアントと食事」という理由で、ストレスレベルが高いときのストレスレベルを下げるための提示例としては、以下の4つの例があげられる。
・「好きな料理で、ストレスが下がる料理を提示」
・「食事の後に、近辺に気の合う友達がいれば、会ってコーヒーを飲むことを提示」
・「帰りは歩いて、癒しの場所によることを提示」
・「昼寝を勧める」
[0261]
 「好きな料理で、ストレスが下がる料理を提示」する場合、予定表で今後ストレスが上がることが予測されるときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、予定表から面倒なクライアントとの打ち合わせを認識することによって取得される。面倒なクライアントであることは、過去のデータから予測される。このとき、好きなものを食べるとストレスが下がることがわかっているので、食堂に問い合わせて、好きなメニューを調べ、好きなメニューがあることが通知される。
[0262]
 「食事の後に、近辺に気の合う友達がいれば、会ってコーヒーを飲むことを提示」する場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことが検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、スマートフォンのGPSにより測定されるユーザと友達の位置情報から、友達が近くにいることを認識することによって取得される。このとき、過去のデータから、友達と話すとストレスが下がることがわかっているので、予定表に時間が空いていれば、食堂を出るときに、友達と会うことがスマートフォンに通知される。
[0263]
 「帰りは歩いて、癒しの場所によることを提示」する場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことが検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況ついては、スマートフォンのGPSにより位置情報を認識することによって取得される。このとき、予定表に時間が空いていれば、食堂を出るときに、癒しスポットに行くように勧める画面がスマートフォンに表示される。
[0264]
 「昼寝を勧める」場合、スマートウオッチの脈拍計で、通常よりもストレスが高いことが検知されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、スマートフォンのGPSにより位置情報を認識することによって取得される。このとき、予定表に時間が空いていれば、昼寝をすることが推奨される。
[0265]
 図29には、午後の仕事時のストレス緩和行為が示されている。
[0266]
 午後の仕事時において、「面倒な上司との打ち合わせ」という理由で、ストレスレベルが高いときのストレス緩和行為としては、以下の3つの例があげられる。
 ・「打ち合わせ前に好きな匂いを出す」
 ・「気の合う同僚との打ち合わせを、前に入れる」
 ・「打ち合わせの準備ができているなら、他の仕事をさせて、打ち合わせを忘れさせる」
[0267]
 「打ち合わせ前に好きな匂いを出す」場合、予定表でストレスが今後上がることが予測されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、予定表から、面倒な上司との打ち合わせが入っていることを認識するとともに、スマートフォンのGPSにより位置情報を認識することによって取得される。面倒な上司であることは、過去のデータから予測される。このとき、好きな匂いを出すとストレスが下がることが過去のデータからわかっているので、マイクロフォン等による検出結果に基づいて他の人が周りにいないことが認識された場合、好きな匂いを出す処理が自動的に実行される。
[0268]
 「気の合う同僚との打ち合わせを、前に入れる」場合、予定表でストレスが今後上がることが予測されたときに、ストレスレベルが閾値を超えているものとして判定される。ユーザの状況については、予定表から面倒な上司との打ち合わせ前に時間があることを認識することによって取得される。このとき、気の合う同僚と話すとストレスが下がることがわかっているので、面倒な上司との打ち合わせ前に、同僚と打ち合わせをすることが通知される。
[0269]
 「打ち合わせの準備ができているなら、他の仕事をさせて、打ち合わせを忘れさせる」場合、ユーザの状況については、予定表から面倒な上司との打ち合わせ前に時間があることを認識することによって取得される。また、ユーザの状況については、資料作成の進み具合や、「やっと終った」などの独り言から、打ち合わせの準備ができたことを認識することによって取得される。このとき、予定表から面倒な上司との打ち合わせまでに時間があることが認識された場合、過去のデータから、集中するとストレスが下がることがわかっているので、To Do Listに登録されている仕事をハイライト表示させるなどして、仕事に取り掛からせるための処理が自動的に実行される。
[0270]
 以上のように、本技術においては、ストレスの要因を特定するようにしたので、特定した要因に基づいて、ストレスレベルの制御を効果的に行うことができる。
[0271]
 ストレスを緩和させたいとき、またはストレスをあるレベルまで上げてキープしたいときなど、状況に応じたストレスレベルの制御を行うことができる。
[0272]
 個人が自身のストレスレベルのコントロールのために用いるだけでなく、集団のストレスを制御することも可能となる。
[0273]
 <ストレスレベル増減処理部の詳細な構成例>
 ここで、ストレスレベルが高いと睡眠不足になりやすい。逆に、睡眠不足の状態では、同じ要因でも、ストレスレベルがより高まる可能性がある。また、睡眠不足そのものがストレスの要因になる場合がある。一方、よい睡眠はストレスレベルを下げる、というように、ストレスと睡眠は関係があるといえる。
[0274]
 次に、睡眠を最適化することによって、ストレスレベルを制御する方法について説明する。
[0275]
 図30は、睡眠の最適化を行う場合のストレスレベル増減処理部36の詳細な構成例を示すブロック図である。
[0276]
 ストレスレベル増減処理部36は、目標値設定部311、予定時刻決定部312、就寝前行動制御部313、および睡眠中制御部314を含むように構成される。
[0277]
 目標値設定部311は、睡眠の質の目標値を設定する。睡眠の質の目標値Q_s0は、ストレスレベルを用いて、下式(4)のように表される。
[数4]


[0278]
 S_1は、就寝時のストレスレベルである。S_1として、就寝の1時間前のストレスレベルが用いられるようにしてもよい。
[0279]
 S_2は、起床時のストレスレベルである。実際には、S_2は、起床時におけるストレスレベルの目標値である。S_2として、起床の1時間後のストレスレベルが用いられるようにしてもよい。
[0280]
 式(4)は、睡眠によりストレスレベルが低下した場合(S_2<S_1)に正の値となるように睡眠の質を定義するものである。
[0281]
 ストレスレベルは、上述したような方法により測定することが可能である。睡眠によるストレスレベルの改善(または劣化)についても、個人の毎日の就寝時と起床時のストレスレベルを比較することにより測定可能である。
[0282]
 目標値設定部311は、このように、就寝時のストレスレベルと起床時のストレスレベルを用いて、睡眠の質の目標値Q_s0を設定する。
[0283]
 予定時刻決定部312は、起床後の予定と生活パターンの情報を取得し、起床後の予定にあわせて予定起床時刻を決定する。例えば、起床後の予定として7時に会社に向かうという予定が入っており、生活パターンが、朝の準備に1時間かかるようなパターンである場合、7時の1時間前の時刻である6時が、予定起床時刻として決定される。
[0284]
 また、予定時刻決定部312は、入力部11からの測定データを用いて、最適な睡眠時間を算出する。最適な睡眠時間は、例えば、睡眠の質を推定し、基準となる質を確保できるような時間として設定される。
[0285]
 睡眠中の様々な測定データと、睡眠によるストレスレベルの変化とを組にしたデータを日々蓄積し、解析することで、睡眠中の様々な測定データから睡眠の質を定量化することができる。
[0286]
 測定データには、就寝時刻、入眠時刻、起床時刻、睡眠時間、就寝から入眠までの時間が含まれる。また、測定データには、就寝中の体動、脈拍、呼吸、体温、眼球運動などの生体情報が含まれる。測定データには、寝具内の温度や湿度、寝室の温度、湿度、騒音、明るさ、匂いなどの環境の情報も含まれる。
[0287]
 これらの測定データは、入力部11の様々なセンサから取得される。この場合、入力部11は、多種のセンサを有するウェアラブル機器で構成され、ウェアラブル機器から取得されたライフログなどから、測定データが取得されるようにしてもよい。
[0288]
 ここで、各種の測定データを{x_i}(i=1,…,n)とすると、睡眠の質Q_sは、下式(5)のように表される。{x_i}から睡眠の質Q_sを推定するアルゴリズムFは、機械学習または統計的手法により求められる。
[数5]


[0289]
 δは、推定に伴う誤差である。多数の測定データ{x_i}と睡眠の質Q_sのセットを用いて、δができるだけ小さくなるようなアルゴリズムFが求められる。アルゴリズムFが定まれば、新たに得られた(あるいは仮定した)測定データ{x_i}を用いて、睡眠の質Q_sを推定することが可能になる。
[0290]
 睡眠の質の解析方法は、機械学習でもよいし、因子分析または主成分分析、共分散構造分析などの統計的手法でもよい。
[0291]
 睡眠の質においては、ストレスレベルがより下がる睡眠を、より質の高い睡眠と定義することができる。例えば、速やかに入眠し、深く十分に眠り、朝方において眠りの浅いタイミングで起床すると、睡眠の質は高く、前日夜のストレスレベルに比べて、起床後のストレスレベルは低い。
[0292]
 予定時刻決定部312は、このような質の高い睡眠を推定し、最適な睡眠時間を算出することになる。
[0293]
 また、予定時刻決定部312は、決定した予定起床時刻と、算出した最適な睡眠時間とに基づいて予定就寝時刻を決定する。
[0294]
 就寝前行動制御部313は、就寝前のユーザの行動をアドバイスするための提示を行う。就寝前行動制御部313は、就寝前のストレスレベルが高い場合、翌日のストレスレベルを下げるように、十分な睡眠時間をとるために早めに就寝することを提示などにより促す。
[0295]
 就寝前行動制御部313は、速やかに入眠するために、就寝予定時刻の1時間前からはテレビ、スマートフォン、パーソナルコンピュータ、ゲーム機を使わないように勧めたり、それらの機器の電源を落としたりする。就寝前行動制御部313は、部屋の照明の明るさを落としたり、音楽を流したり、アロマまたはお香などで落ち着いた環境を整えたりするなどの就寝前の環境の調整を行う。
[0296]
 睡眠中制御部314は、就寝中の、部屋の温度・湿度、寝具内の温度・湿度などを観測し、質の高い睡眠を実現するように、睡眠中の環境の調整を行う。
[0297]
 睡眠中制御部314は、体動や睡眠パターンから、その日の予定起床時刻に最も近い最適なタイミングでユーザを起こすための処理を行う。起こす際も、ユーザの好みに合わせ、ストレスレベルが最も上がりにくい方法が用いられる。例えば、部屋の照明を徐々に明るくする、ユーザの好みの音楽を流す、音楽の音量を徐々にあげる、アロマやお香をたく、揺り動かすなどの方法のうちの少なくともいずれかが、最適な起こし方として用いられる。
[0298]
 <ストレスレベル増減処理例>
 次に、図31のフローチャートを参照して、睡眠の最適化によるストレスレベル増減処理について説明する。
[0299]
 ステップS311において、目標値設定部311は、目標値Q_s0を設定する処理である目標値設定処理を行う。目標値設定処理については、図33のフローチャートを参照して後述する。
[0300]
 ステップS312において、予定時刻決定部312は、予定就寝時刻と予定起床時刻を決定する処理である予定時刻決定処理を行う。予定時刻決定処理については、図34のフローチャートを参照して後述する。
[0301]
 ステップS313において、就寝前行動制御部313は、就寝前の行動に対するアドバイスを行うとともに、睡眠前の環境を調整する上述したような処理を行う。
[0302]
 図32は、就寝前にユーザに提示される表示画面の例を示す図である。
[0303]
 表示画面351の上方に表示されるストレスレベル遷移表361は、現在時刻、予定就寝時刻、および、予定起床時刻におけるストレスレベルの遷移をグラフとして可視化して示す画像である。ユーザは、ストレスレベル遷移表361を見ることで、提案通りに睡眠をとった場合のストレスレベルの遷移を知ることができる。
[0304]
 睡眠の深さをグラフ化して可視化するようにしてもよい。また、入眠時、睡眠時、起床時の快適さをグラフ化して可視化するようにしてもよい。
[0305]
 ストレスレベル遷移表361の下には、「そろそろテレビを消して寝室に移動しましょう」、「バッハの無伴奏チェロ組曲でもいかがですか」などの、就寝前の行動のアドバイスとなるメッセージが表示される。このようなアドバイスが、音声出力によって行われるようにしてもよい。
[0306]
 ステップS314において、睡眠中制御部314は、睡眠中環境調整処理を行う。睡眠中環境調整処理には、睡眠状態の測定、睡眠環境の調整、および、最適タイミングで起こすための処理が含まれる。睡眠中環境調整処理については、図36のフローチャートを参照して後述する。
[0307]
 睡眠中環境調整処理の後、睡眠の最適化によるストレスレベル増減処理は終了される。
[0308]
 次に、図33のフローチャートを参照して、図31のステップS311において行われる目標値設定処理について説明する。
[0309]
 ステップS331において、目標値設定部311は、現時点でのストレスレベルS_1を取得する。
[0310]
 ステップS332において、目標値設定部311は、起床時のストレスレベル目標値S_2を取得する。
[0311]
 ステップS333において、目標値設定部311は、上式(4)を参照して説明したように、ストレスレベルS_1とストレスレベル目標値S_2の差から、睡眠の質の目標値Q_s0を算出する。
[0312]
 ステップS333の処理の後、図31のステップS311に戻り、それ以降の処理が行われる。
[0313]
 次に、図34のフローチャートを参照して、図31のステップS312において行われる予定時刻決定処理について説明する。
[0314]
 ステップS351において、予定時刻決定部312は、データベース33から、ユーザの起床後の予定、生活パターンの情報を取得する。データベース33には、これらの情報がユーザ情報として記憶されている。ユーザ情報が、マイクロフォン11bを用いて検出されたユーザの発話から取得されるようにしてもよい。
[0315]
 ステップS352において、予定時刻決定部312は、起床後の予定などに合わせて、予定起床時刻を設定する。
[0316]
 ステップS353において、予定時刻決定部312は、睡眠時間算出処理を行う。睡眠時間算出処理の詳細については、図35のフローチャートを参照して後述する。
[0317]
 ステップS354において、予定時刻決定部312は、ステップS352で設定した予定起床時刻と、ステップS353で算出した最適な睡眠時間とから、予定就寝時刻を決定する。
[0318]
 ステップS354の処理の後、図31のステップS312に戻り、それ以降の処理が行われる。
[0319]
 次に、図35のフローチャートを参照して、図34のステップS353において行われる睡眠時間算出処理について説明する。睡眠時間の算出には、上述した測定データ{x_i}から睡眠の質Q_sを推定するアルゴリズムFが用いられる。なお、この場合の測定データ{x_i}は、就寝時刻、起床時刻、就寝から入眠までの時間である。
[0320]
 予定時刻決定部312は、ステップS371において、測定データ{x_i}に起床時刻が含まれるか否かを判定する。測定データ{x_i}に起床時刻が含まれるとステップS371において判定された場合、処理はステップS372に進む。
[0321]
 ステップS372において、予定時刻決定部312は、式(5)のF({x_i})の{x_i}中の起床時刻に、図34のステップS352で設定された予定起床時刻を代入する。
[0322]
 測定データ{x_i}に起床時刻が含まれないとステップS371において判定された場合、ステップS372はスキップされる。
[0323]
 ここで、睡眠時間は、就寝時刻から予定起床時刻までの時間から、入眠に要する時間を引いた時間(睡眠時間=予定起床時刻-就寝時刻-入眠に要する時間)である。ステップS373において、予定時刻決定部312は、{x_i}中の起床時刻と睡眠時間以外のx_iの値を予測する。
[0324]
 ステップS374において、予定時刻決定部312は、x_iの予測値をF({x_i})に代入する。
[0325]
 ステップS375において、予定時刻決定部312は、睡眠時間を変数x_iとして、目標値Q_s0= F({x_i})を(できるだけ)満たす睡眠時間を、最適な睡眠時間として算出する。解が求められない場合、例えば、現在の時刻や生活パターンから許容される範囲で、目標値Q_s0に最も近い睡眠時間が最適な睡眠時間とされる。
[0326]
 ステップS375の処理の後、図34のステップS353に戻り、それ以降の処理が行われる。
[0327]
 次に、図36のフローチャートを参照して、図31のステップS314において行われる睡眠中環境調整処理について説明する。
[0328]
 ステップS391において、睡眠中制御部314は、睡眠状態と睡眠環境を表す測定データ{x_i}を取得する。
[0329]
 ステップS392において、睡眠中制御部314は、その時点での睡眠の質Q_s1を推定する。睡眠の質Q_s1は、例えば、ステップS391において取得された測定データ{x_i}を用いて、上式(5)に基づいて推定される。
[0330]
 ステップS393において、睡眠中制御部314は、ステップS392で推定された睡眠の質Q_s1と目標値Q_s0が同じであるか否かを判定する。
[0331]
 睡眠の質Q_s1が睡眠の質の目標値Q_s0以下でないとステップS393において判定された場合、処理はステップS394に進む。
[0332]
 ステップS394において、睡眠中制御部314は睡眠環境を調整する。例えば、部屋の温度・湿度を調整したり、寝具内の温度・湿度を調整したりする処理が、睡眠環境の調整として行われる。
[0333]
 睡眠の質Q_s1が睡眠の質の目標値Q_s0以下であるとステップS393において判定された場合、ステップS394の処理はスキップされる。
[0334]
 ステップS395において、睡眠中制御部314は、現在時刻が、予定時刻決定部312により決定された予定起床時刻に近いか否かを判定する。現在時刻が予定起床時刻に近くないとステップS395において判定された場合、ステップS391に戻り、それ以降の処理が繰り返される。
[0335]
 一方、現在時刻が、30分前等の所定の時間だけ前の時刻であるため、予定起床時刻に近いとステップS395において判定された場合、処理はステップS396に進む。
[0336]
 ステップS396において、睡眠中制御部314は、最適タイミングでの起こし処理を行う。最適タイミングでの起こし処理の詳細については、図37のフローチャートを参照して後述する。
[0337]
 ステップS396の処理の後、睡眠中環境調整処理は終了され、図31のステップS314以降の処理が行われる。
[0338]
 次に、図37のフローチャートを参照して、図36のステップS396において行われる最適タイミングでの起こし処理について説明する。
[0339]
 ステップS411において、睡眠中制御部314は、睡眠状態の測定データから、ユーザの眠りの深さを推定する。例えば、就寝中の体動、脈拍、呼吸、体温などの測定データを用いて、眠りの深さが推定される。眠りの深さは数値として表される。
[0340]
 ステップS412において、睡眠中制御部314は、眠りが浅いか否かを判定する。ここでは、例えば、推定された眠りの深さが、閾値となる値より低い場合、眠りが浅いと判定される。眠りが深いとステップS412において判定された場合、処理はステップS413に進む。
[0341]
 ステップS413において、睡眠中制御部314は、起こすための睡眠環境の調整を行う。上述したように、部屋の照明を徐々に明るくする、ユーザの好みの音楽を流す、音楽の音量を徐々にあげる、アロマやお香をたく、揺り動かすなどの任意の方法を用いて、ユーザを起こすための調整が行われる。
[0342]
 一方、ステップS412において、推定された眠りの深さが閾値となる値より高いことから、眠りが深いと判定された場合、処理はステップS414に進む。
[0343]
 ステップS414において、睡眠中制御部314は、次に眠りが浅くなるタイミングを推定する。通常、眠りが浅くなるタイミングには周期がある。
[0344]
 ステップS415において、睡眠中制御部314は、現在時刻が、予定起床時刻の前であるか否かを判定する。予定起床時刻にまだなっていないことから、現在時刻が予定起床時刻前であるとステップS415において判定された場合、ステップS411に戻り、それ以降の処理が繰り返される。
[0345]
 一方、ステップS414において、現在時刻が予定起床時刻前ではない、すなわち、予定起床時刻になっていると判定された場合、処理はステップS413に進み、ユーザを起こすための睡眠環境の調整が行われる。眠りが深い場合であっても、予定起床時刻を過ぎているときには、ユーザを起こすための処理が行われることになる。
[0346]
 ステップS413において起こすための睡眠環境の調整が行われ、ユーザが目覚めた後、図36のステップS396に戻り、それ以降の処理が行われる。
[0347]
 以上の一連の処理により、ユーザの睡眠を最適化することができ、十分に休養を取らせることで、ストレスを軽減させることが可能になる。
[0348]
 上記説明においては、ストレスレベルが通常よりも高く、その翌日のストレスレベルを下げる場合の例について説明したが、ストレスレベルを下げないようにするための制御を行うようにすることも可能である。
[0349]
 例えば、日中のストレスレベルが低く、しかも明日が休日であってストレスレベルが多少高くても構わないような場合、睡眠の質を高めるための上述した制御は不要となる。したがって、夜更かししてテレビをみたり、ゲームで遊んだりしてもよいことを、ユーザに伝えてもよい。
[0350]
 この場合においても、翌日の休養で回復できないほどストレスレベルが高くなることは避けたほうがよい。また、生活リズムを崩しすぎると、ストレスレベルの回復が難しくなる。夜更かしが許容できる時間を伝え、制限時間以降は就寝の準備をするような提案をすることも可能である。
[0351]
 <システム構成>
 以上、本技術の一実施形態について説明した。上述したように、本実施形態に係るストレス制御システム10は、入力部11と、処理部13と、出力部15とを含み、これらの構成要素は、1または複数の情報処理装置によって実現される。以下では、ストレス制御システム10を実現する情報処理装置の組み合わせの例について、より具体的な例とともに説明する。
[0352]
 (第1の例)
 図38は、本技術の実施形態に係るシステム構成の第1の例を示すブロック図である。
[0353]
 図38のストレス制御システム10は、情報処理装置401を含む。入力部11、処理部13、および出力部15は、いずれも情報処理装置401において実現される。情報処理装置401は、以下で説明するように端末装置またはサーバである。
[0354]
 この第1の例において、情報処理装置401は、ネットワークを介して外部装置と通信しない、スタンドアロンの装置であってもよい。なお、情報処理装置401は、他の機能のために外部装置と通信してもよく、スタンドアロンの装置でなくてもよい。入力部11と処理部13との間のインターフェース12a、および処理部13と出力部15との間のインターフェース14aは、いずれも装置内のインターフェースである。
[0355]
 第1の例において、情報処理装置401は、例えば端末装置である。この例、入力部11は、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含む。外部サービスから情報を取得するソフトウェアは、例えば、端末装置で実行されているサービスのアプリケーションソフトウェアからデータを取得する。
[0356]
 処理部13は、端末装置が備えるプロセッサまたは処理回路が、メモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。出力部15は、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含む。外部サービスに情報を提供するソフトウェアは、例えば、端末装置で実行されているサービスのアプリケーションソフトウェアに情報を提供する。
[0357]
 なお、第1の例において、情報処理装置401は、サーバであってもよい。この場合、入力部11は、外部サービスから情報を取得するソフトウェアを含む。外部サービスから情報を取得するソフトウェアは、例えば、外部サービスのサーバ(情報処理装置401自身であってもよい)からデータを取得する。
[0358]
 処理部13は、端末装置が備えるプロセッサが、メモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。出力部15は、外部サービスに情報を提供するソフトウェアなどを含む。外部サービスに情報を提供するソフトウェアは、例えば、外部サービスのサーバ(情報処理装置401自身であってもよい)に情報を提供する。
[0359]
 (第2の例)
 図39は、本技術の実施形態に係るシステム構成の第2の例を示すブロック図である。
[0360]
 図39のストレス制御システム10は、情報処理装置401a,401b,411を含む。入力部11は、情報処理装置401aにおいて実現される。出力部15は、情報処理装置401bにおいて実現される。また、処理部13は、情報処理装置411において実現される。情報処理装置401a,401bと情報処理装置411とは、本技術の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
[0361]
 入力部11と処理部13との間のインターフェース12bおよび処理部13と出力部15との間のインターフェース14bは、いずれも装置間の通信インターフェースである。ただし、第2の例では、情報処理装置401aと情報処理装置401bとが別個の装置であるために、インターフェース12b,14bは、それぞれ異なる種類のインターフェースを含む。
[0362]
 情報処理装置401aと情報処理装置401bは、1つの装置で構成されてもよい。その際、インターフェース12b,14bは、同じ種類のインターフェースとなる。
[0363]
 第2の例において、情報処理装置401a,401bは、例えば端末装置である。この場合、入力部11は、上記の第1の例と同様に、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含む。出力部15も、上記の第1の例と同様に、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含む。
[0364]
 あるいは、情報処理装置401a,401bのうちの一方または両方は、外部サービスからの情報の取得、および外部サービスへの情報の提供のためのサーバであってもよい。この場合、入力部11は、外部サービスから情報を取得するソフトウェアを含む。また、出力部15は、外部サービスに情報を提供するソフトウェアを含む。
[0365]
 また、第2の例において、情報処理装置411は、サーバまたは端末装置である。処理部13は、情報処理装置411が備えるプロセッサまたは処理回路がメモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。
[0366]
 上記の第2の例では、入力部11を実現する情報処理装置401aと、出力部15を実現する情報処理装置401bとが別個の装置である。したがって、例えば、第1のユーザが所持または使用する端末装置である情報処理装置401aによって取得された入力に基づく処理の結果を、第1のユーザとは異なる第2のユーザが所持または使用する端末装置である情報処理装置401bから出力するといったような機能が実現できる。
[0367]
 また、第1のユーザが所持または使用する端末装置である情報処理装置401aによって取得された入力に基づく処理の結果を、その時点では第1のユーザの手元にない(例えば留守中の自宅に設置されている)端末装置である情報処理装置401bから出力するといったような機能も実現できる。
[0368]
 あるいは、情報処理装置401aと情報処理装置401bは、いずれも同じユーザによって所持または使用される端末装置であってもよい。例えば、情報処理装置401a,401bが、ユーザの異なる部位に装着されるウェアラブルデバイスである場合や、ウェアラブルデバイスとモバイルデバイスとの組み合わせであるような場合、これらのデバイスを連携させた機能をユーザに提供することができる。
[0369]
 なお、図39の例においては、処理部13は、情報処理装置411のみで構成される例を説明したが、処理部13のうち、一部分の処理を行う処理部13aおよび13bが情報処理装置401aおよび401bに構成されるようにしてもよい。
[0370]
 情報処理装置401aおよび401bが、1つの装置で構成される場合も、処理部13のうち、一部分の処理を行う処理部13が、1つの装置である情報処理装置401に構成されるようにしてもよい。
[0371]
 (クライアント-サーバシステムの例)
 図40は、本技術の実施形態に係るシステム構成のより具体的な例の一つとして、クライアント-サーバシステムを示す図である。
[0372]
 図40では、情報処理装置401(または情報処理装置401a,401b)が端末装置であり、情報処理装置411がサーバである。
[0373]
 図40の端末装置には、モバイルデバイス401-1、ウェアラブルデバイス401-2、車載デバイス401-3、TV装置401-4、デジタルカメラ401-5、CE(Consumer Electronics)デバイス401-6、サインボード401-7などが含まれる。
[0374]
 モバイルデバイス401-1は、スマートフォン、タブレット、もしくはノートPC(Personal Computer)等からなる。ウェアラブルデバイス401-2は、アイウェアまたはコンタクトレンズ型端末、腕時計型端末、腕輪型端末、指輪型端末、ヘッドセット、衣服取付型または衣服一体型端末、靴取付型または靴一体型端末、もしくはネックレス型端末等からなる。
[0375]
 車載デバイス401-3は、カーナビゲーションシステムやリアシートエンターテインメントシステム等からなる。CEデバイス401-6は、レコーダ、ゲーム機、エアコンディショナー、冷蔵庫、洗濯機、もしくはデスクトップPC等からなる。サインボード401-7は、デジタルサインボードからなり、街頭に設置される。
[0376]
 これらの情報処理装置401(端末装置)は、ネットワークを介して情報処理装置411(サーバ)と通信する。端末装置とサーバとの間のネットワークは、上記の例におけるインターフェース12b、またはインターフェース14bに相当する。さらに、これらの装置は、装置相互間で個別に連係動作してもよいし、すべての装置が連係動作可能なシステムが構築されていてもよい。
[0377]
 なお、図40に示した例は、ストレス制御システム10がクライアント-サーバシステムにおいて実現される例を理解しやすくするために示されたものである。したがって、ストレス制御システム10が、このようなクライアント-サーバシステムに限定されないのは、上記のそれぞれの例で説明された通りである。
[0378]
 つまり、例えば、情報処理装置401,411の両方が端末装置であってもよいし、情報処理装置401,411の両方がサーバであってもよい。情報処理装置401が情報処理装置401a,401bを含む場合、情報処理装置401a,401bのうちの一方が端末装置であり、他方がサーバであってもよい。
[0379]
 また、情報処理装置401が端末装置である場合も、端末装置の例は、上述したモバイルデバイス401-1、ウェアラブルデバイス401-2、車載デバイス401-3、TV装置401-4、デジタルカメラ401-5、CEデバイス401-6、サインボード401-7には限られず、他の種類の端末装置が含まれてもよい。
[0380]
 (第3の例)
 図41は、本技術の実施形態に係るシステム構成の第3の例を示すブロック図である。
[0381]
 図41のストレス制御システム10は、情報処理装置401,411,421を含む。入力部11および出力部15は、情報処理装置401において実現される。一方、処理部13は、情報処理装置411および情報処理装置421に分散して実現される。情報処理装置401と情報処理装置411、および情報処理装置411と情報処理装置421とは、本技術の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
[0382]
 上記のように、この第3の例では、処理部13が、情報処理装置421と情報処理装置411との間で分散して実現される。より具体的には、情報処理装置421で実現される処理部13a,13cと、情報処理装置411で実現される処理部13bとを含む。処理部13aは、入力部11からインターフェース12bを介して提供される情報に基づいて処理を実行し、処理の結果をインターフェース422bを介して処理部13bに提供する。
[0383]
 一方、処理部13cは、処理部13bからインターフェース422bを介して提供される情報に基づいて処理を実行し、処理の結果をインターフェース14bを介して出力部15に提供する。なお、図示された例では、前処理を実行する処理部13aと後処理を実行する処理部13cとが両方示されているが、実際にはこのうちのいずれか一方だけが存在してもよい。
[0384]
 第3の例において、情報処理装置421は、情報処理装置401と情報処理装置411との間に介在する。より具体的には、例えば、情報処理装置421は、端末装置である情報処理装置401と、サーバである情報処理装置411との間に介在する端末装置またはサーバである。
[0385]
 情報処理装置421が端末装置である例としては、情報処理装置401がウェアラブルデバイスであり、情報処理装置421がウェアラブルデバイスとBluetooth(登録商標)などで接続されたモバイルデバイスであり、情報処理装置411がモバイルデバイスとインターネットで接続されたサーバであるような場合がある。また、情報処理装置421がサーバである例としては、情報処理装置401が各種の端末装置であり、情報処理装置421が端末装置とネットワークで接続された中間サーバであり、情報処理装置411が中間サーバとネットワークで接続されたサーバであるような場合がある。
[0386]
 (第4の例)
 図42は、本技術の実施形態に係るシステム構成の第4の例を示すブロック図である。
[0387]
 図42のストレス制御システム10は、情報処理装置401a,401b,421a,421b,411を含む。
[0388]
 この第4の例において、入力部11は、情報処理装置401aにおいて実現される。出力部15は、情報処理装置401bにおいて実現される。一方、処理部13は、情報処理装置421a,421bおよび情報処理装置411に分散して実現される。情報処理装置401aと情報処理装置421a、情報処理装置401bと情報処理装置421b、および情報処理装置421a,421bと情報処理装置411とは、本技術の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
[0389]
 第4の例では、入力部11を実現する情報処理装置401aと、出力部15を実現する情報処理装置401bとが別個の装置である。情報処理装置401a,401bは、それぞれ別個の中間ノード(情報処理装置421a,421b)と通信する。したがって、この第4の例では、処理部13が3つのサーバ(情報処理装置421a,421b,411)に分散して実現されるとともに、同じユーザによって所持または使用される、または異なるユーザによって所持または使用される端末装置でありうる情報処理装置401a,401bを利用して、本技術の実施形態に係る機能を実現することができる。
[0390]
 第4の例において、図示はされないが、情報処理装置401aと情報処理装置401bとが1つの装置で構成される場合もある。また、第4の例において、情報処理装置421a,421bが1つの装置で構成される場合もある。
[0391]
 (中間サーバを含むシステムの例)
 図43は、本技術の実施形態に係るシステム構成のより具体的な例の一つとして、中間サーバを含むシステムの例を示す図である。
[0392]
 図43のシステムでは、情報処理装置401(または情報処理装置401a,401b)が端末装置であり、情報処理装置421が中間サーバであり、情報処理装置411がサーバである。
[0393]
 図43の端末装置には、図40を参照して説明した例と同様に、モバイルデバイス401-1、ウェアラブルデバイス401-2、車載デバイス401-3、TV装置401-4、デジタルカメラ401-5、CEデバイス401-6、ロボットデバイス、またはサインボード401-7などが含まれる。
[0394]
 これらの情報処理装置401(端末装置)は、ネットワークを介して情報処理装置421(中間サーバ)と通信する。端末装置と中間サーバとの間のネットワークは、上記の例におけるインターフェース12b,14bにあたる。また、情報処理装置421(中間サーバ)は、ネットワークを介して情報処理装置411(サーバ)と通信する。中間サーバとサーバとの間のネットワークは、上記の例におけるインターフェース422bにあたる。
[0395]
 なお、図43に示した例は、ストレス制御システム10が中間サーバを含むシステムにおいて実現される例を理解しやすくするために示されたものである。ストレス制御システム10がこのようなシステムに限定されないのは、上記のそれぞれの例で説明された通りである。
[0396]
 (ホストとして機能する端末装置を含むシステムの例)
 図44は、本技術の実施形態に係るシステム構成のより具体的な例の一つとして、ホストとして機能する端末装置を含むシステムの例を示す図である。
[0397]
 図44のシステムでは、情報処理装置401(または情報処理装置401a,401b)が端末装置であり、情報処理装置421がホストとして機能する端末装置であり、情報処理装置411がサーバである。
[0398]
 図44の端末装置には、例えば、ウェアラブルデバイス401-2、車載デバイス401-3、デジタルカメラ401-5、ロボットデバイス、設備に付帯して設置されるセンサなどを含むデバイス、およびCEデバイス401-6が含まれる。これらの情報処理装置401(端末装置)は、例えばBluetooth(登録商標)やWi‐Fiのようなネットワークを介して情報処理装置421と通信する。
[0399]
 図44では、ホストとして機能する端末装置として、モバイルデバイス421-1を例示している。端末装置とモバイルデバイスとの間のネットワークは、上記の例におけるインターフェース12b,14bにあたる。情報処理装置421(モバイルデバイス)は、例えばインターネットなどのネットワークを介して情報処理装置411(サーバ)と通信する。モバイルデバイスとサーバとの間のネットワークは、上記の例におけるインターフェース422bにあたる。
[0400]
 なお、図44に示した例は、ストレス制御システム10がホストとして機能する端末装置を含むシステムにおいて実現される例を理解しやすくするために示されたものである。ストレス制御システム10がこのようなシステムに限定されないのは、上記のそれぞれの例で説明された通りである。また、ホストとして機能する端末装置は、図示された例におけるモバイルデバイス421-1には限られず、適切な通信機能および処理機能を有する各種の端末装置が、ホストとして機能する。
[0401]
 また、端末装置の例として図示したウェアラブルデバイス401-2、車載デバイス401-3、デジタルカメラ401-5、およびCEデバイス401-6は、これらの装置以外の端末装置をこの例から除外するものではない。これらは、情報処理装置421がモバイルデバイス421-1である場合の情報処理装置401としてありうる典型的な端末装置の例を示しているにすぎない。
[0402]
 <ハードウェア構成>
 次に、図45を参照して、本技術の実施形態に係る情報処理装置のハードウェア構成について説明する。
[0403]
 図45は、本技術の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
[0404]
 情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などの処理回路を有してもよい。
[0405]
 CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに 従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
[0406]
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
[0407]
 出力装置917は、取得した情報をユーザに対して視覚や聴覚、触覚などの感覚を用いて通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカまたはヘッドフォンなどの音声出力装置、もしくはバイブレータなどである。出力装置917は、情報処理装置900の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、またはバイブレーションなどとして出力する。
[0408]
 ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置919は、例えばCPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
[0409]
 ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
[0410]
 接続ポート923は、機器を情報処理装置900に接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどである。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換される。
[0411]
 通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、LAN(Local Area Network)、Bluetooth(登録商標)、Wi-Fi、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などを含む。
[0412]
 撮像装置933は、例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
[0413]
 センサ935は、例えば、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、または音センサ(マイクロフォン)などの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPS受信機を含んでもよい。
[0414]
 以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
[0415]
 本技術の実施形態は、例えば、上記で説明したような情報処理装置、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
[0416]
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
[0417]
 例えば、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
[0418]
 また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
[0419]
 また、例えば、上述したシステム構成のように、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
[0420]
 また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
[0421]
 また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
[0422]
 なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
[0423]
 なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術を、他の実施の形態において説明した本技術と組み合わせて実施することもできる。また、上述した任意の本技術を、上述していない他の技術と併用して実施することもできる。
[0424]
 なお、本技術は以下のような構成も取ることができる。
 (1) センサの検出結果に基づいて、ユーザのストレスレベルを測定するストレスレベル測定部と、
 前記ストレスレベルの増減の要因を、前記ストレスレベルの増減が生じた期間における前記ユーザの行動に基づいて特定するストレス要因特定部と
 を備える情報処理装置。
 (2) 前記ストレス要因特定部は、さらに、前記ストレスレベルの増減が生じた期間における前記ユーザの環境に基づいて前記要因を特定する
 前記(1)に記載の情報処理装置。
 (3) 前記要因に応じたイベントを実行する処理実行部をさらに備える
 前記(1)または(2)に記載の情報処理装置。
 (4) 前記処理実行部は、前記ストレスレベルが閾値より高い場合、前記ストレスレベルが減少した前記要因に応じた前記イベントを実行し、前記ストレスレベルが前記閾値より低い場合、前記ストレスレベルが増加した前記要因に応じた前記イベントを実行する
 前記(3)に記載の情報処理装置。
 (5) 前記処理実行部は、前記要因に応じた行動を前記ユーザにとらせるための処理、または、前記要因に応じた行動の提案を、前記イベントとして実行する
 前記(3)に記載の情報処理装置。
 (6) 前記センサの検出結果に基づいて、前記ユーザの行動を解析する行動解析部をさらに備え、
 前記処理実行部は、前記ユーザの行動に応じた前記イベントを実行する
 前記(3)に記載の情報像処理装置。
 (7) 前記ストレスレベルの増減を表す情報を、前記要因を表す情報とともに出力させる出力制御部をさらに備える
 前記(1)乃至(6)のいずれかに記載の情報処理装置。
 (8) 前記出力制御部は、離散的な前記要因を表す情報、または、連続的な前記要因を表す情報を出力させる
 前記(7)に記載の情報処理装置。
 (9) 前記出力制御部は、離散的な前記要因を表す情報として、時間帯毎の前記ユーザの行動を表す情報を出力させ、連続的な前記要因を表す情報として、前記センサによる検出結果の変化を表す情報を出力させる
 前記(8)に記載の情報処理装置。
 (10) 前記出力制御部は、前記ユーザの場所を前記要因とし、前記ストレスレベルの増減を表す情報を、前記ユーザの移動経路とともに出力させる
 前記(7)に記載の情報処理装置。
 (11) 前記出力制御部は、前記ユーザの場所を前記要因とし、前記ストレスレベルを表す情報を、前記ストレスレベルが測定された位置に対応する地図上の位置に出力させる
 前記(7)に記載の情報処理装置。
 (12) 前記出力制御部は、所定の期間を前記要因とし、各期間に測定された前記ストレスレベルを表す情報を出力させる
 前記(7)に記載の情報処理装置。
 (13) 前記出力制御部は、前記ユーザの同伴者を前記要因とし、前記ストレスレベルを表す情報を、前記ユーザの同伴者を表す情報とともに出力させる
 前記(7)に記載の情報処理装置。
 (14) 前記要因に応じた行動の提案を、音声、またはAR表示を用いて行う出力部をさらに備える
 前記(5)に記載の情報処理装置。
 (15) 前記処理実行部は、
  睡眠の質の目標値を前記ストレスレベルの増減に基づいて設定する目標値設定部と、
  就寝および起床の予定時刻を前記目標値に基づいて決定する予定時刻決定部と
 を備える前記(3)に記載の情報処理装置。
 (16) 前記処理実行部は、
  就寝前に関する処理を実行する就寝前処理実行部と、
  就寝中に関する処理を実行する就寝中処理実行部と
 をさらに備える前記(15)に記載の情報処理装置。
 (17) 前記就寝前処理実行部は、前記就寝前の行動に関する提案と睡眠環境の制御のうちの少なくともいずれかを、前記就寝前に関する処理として実行し、
 前記就寝中処理実行部は、睡眠状態の測定、睡眠環境の制御、および、起床タイミングの調整のうちの少なくともいずれかを、前記就寝中に関する処理として実行する
 前記(16)に記載の情報処理装置。
 (18) センサの検出結果に基づいて、ユーザのストレスレベルを測定し、
 前記ストレスレベルの増減の要因を、前記ストレスレベルの増減が生じた期間における前記ユーザの行動に基づいて特定する
 処理を含む情報処理方法。
 (19) センサの検出結果に基づいて、ユーザのストレスレベルを測定するストレスレベル測定部と、
 前記ストレスレベルの増減の要因を、前記ストレスレベルの増減が生じた期間における前記ユーザの行動に基づいて特定するストレス要因特定部と
 して、コンピュータを機能させるプログラム。

符号の説明

[0425]
 1 携帯端末, 2 サーバ, 3 出力器, 4 ネットワーク, 10 ストレス制御システム, 11 入力部, 12 インターフェース, 13 処理部, 14 インターフェース, 15 出力部, 31 行動解析部, 32 ストレスレベル測定部, 33 データベース, 34 ストレス要因特定部, 35 ストレス増減閾値特定部, 36 ストレスレベル増減処理部, 311 目標値設定部, 312 予定時刻決定部, 313 就寝前行動制御部, 314 睡眠中制御部, 401,411,421 情報処理装置

請求の範囲

[請求項1]
 センサの検出結果に基づいて、ユーザのストレスレベルを測定するストレスレベル測定部と、
 前記ストレスレベルの増減の要因を、前記ストレスレベルの増減が生じた期間における前記ユーザの行動に基づいて特定するストレス要因特定部と
 を備える情報処理装置。
[請求項2]
 前記ストレス要因特定部は、さらに、前記ストレスレベルの増減が生じた期間における前記ユーザの環境に基づいて前記要因を特定する
 請求項1に記載の情報処理装置。
[請求項3]
 前記要因に応じたイベントを実行する処理実行部をさらに備える
 請求項1に記載の情報処理装置。
[請求項4]
 前記処理実行部は、前記ストレスレベルが閾値より高い場合、前記ストレスレベルが減少した前記要因に応じた前記イベントを実行し、前記ストレスレベルが前記閾値より低い場合、前記ストレスレベルが増加した前記要因に応じた前記イベントを実行する
 請求項3に記載の情報処理装置。
[請求項5]
 前記処理実行部は、前記要因に応じた行動を前記ユーザにとらせるための処理、または、前記要因に応じた行動の提案を、前記イベントとして実行する
 請求項3に記載の情報処理装置。
[請求項6]
 前記センサの検出結果に基づいて、前記ユーザの行動を解析する行動解析部をさらに備え、
 前記処理実行部は、前記ユーザの行動に応じた前記イベントを実行する
 請求項3に記載の情報処理装置。
[請求項7]
 前記ストレスレベルの増減を表す情報を、前記要因を表す情報とともに出力させる出力制御部をさらに備える
 請求項1に記載の情報処理装置。
[請求項8]
 前記出力制御部は、離散的な前記要因を表す情報、または、連続的な前記要因を表す情報を出力させる
 請求項7に記載の情報処理装置。
[請求項9]
 前記出力制御部は、離散的な前記要因を表す情報として、時間帯毎の前記ユーザの行動を表す情報を出力させ、連続的な前記要因を表す情報として、前記センサによる検出結果の変化を表す情報を出力させる
 請求項8に記載の情報処理装置。
[請求項10]
 前記出力制御部は、前記ユーザの場所を前記要因とし、前記ストレスレベルの増減を表す情報を、前記ユーザの移動経路とともに出力させる
 請求項7に記載の情報処理装置。
[請求項11]
 前記出力制御部は、前記ユーザの場所を前記要因とし、前記ストレスレベルを表す情報を、前記ストレスレベルが測定された位置に対応する地図上の位置に出力させる
 請求項7に記載の情報処理装置。
[請求項12]
 前記出力制御部は、所定の期間を前記要因とし、各期間に測定された前記ストレスレベルを表す情報を出力させる
 請求項7に記載の情報処理装置。
[請求項13]
 前記出力制御部は、前記ユーザの同伴者を前記要因とし、前記ストレスレベルを表す情報を、前記ユーザの同伴者を表す情報とともに出力させる
 請求項7に記載の情報処理装置。
[請求項14]
 前記要因に応じた行動の提案を、音声、またはAR表示を用いて行う出力部をさらに備える
 請求項5に記載の情報処理装置。
[請求項15]
 前記処理実行部は、
  睡眠の質の目標値を前記ストレスレベルの増減に基づいて設定する目標値設定部と、
  就寝および起床の予定時刻を前記目標値に基づいて決定する予定時刻決定部と
 を備える請求項3に記載の情報処理装置。
[請求項16]
 前記処理実行部は、
  就寝前に関する処理を実行する就寝前処理実行部と、
  就寝中に関する処理を実行する就寝中処理実行部と
 をさらに備える請求項15に記載の情報処理装置。
[請求項17]
 前記就寝前処理実行部は、前記就寝前の行動に関する提案と睡眠環境の制御のうちの少なくともいずれかを、前記就寝前に関する処理として実行し、
 前記就寝中処理実行部は、睡眠状態の測定、睡眠環境の制御、および、起床タイミングの調整のうちの少なくともいずれかを、前記就寝中に関する処理として実行する
 請求項16に記載の情報処理装置。
[請求項18]
 センサの検出結果に基づいて、ユーザのストレスレベルを測定し、
 前記ストレスレベルの増減の要因を、前記ストレスレベルの増減が生じた期間における前記ユーザの行動に基づいて特定する
 処理を含む情報処理方法。
[請求項19]
 センサの検出結果に基づいて、ユーザのストレスレベルを測定するストレスレベル測定部と、
 前記ストレスレベルの増減の要因を、前記ストレスレベルの増減が生じた期間における前記ユーザの行動に基づいて特定するストレス要因特定部と
 して、コンピュータを機能させるプログラム。

図面

[ 図 1]

[ 図 2]

[ 図 3]

[ 図 4]

[ 図 5]

[ 図 6]

[ 図 7]

[ 図 8]

[ 図 9]

[ 図 10]

[ 図 11]

[ 図 12]

[ 図 13]

[ 図 14]

[ 図 15]

[ 図 16]

[ 図 17]

[ 図 18]

[ 図 19]

[ 図 20]

[ 図 21]

[ 図 22]

[ 図 23]

[ 図 24]

[ 図 25]

[ 図 26]

[ 図 27]

[ 図 28]

[ 図 29]

[ 図 30]

[ 図 31]

[ 図 32]

[ 図 33]

[ 図 34]

[ 図 35]

[ 図 36]

[ 図 37]

[ 図 38]

[ 図 39]

[ 図 40]

[ 図 41]

[ 図 42]

[ 図 43]

[ 図 44]

[ 図 45]