WIPO logo
Mobile | Deutsch | English | Español | Français | 한국어 | Português | Русский | 中文 | العربية |
PATENTSCOPE

国際・国内特許データベース検索
World Intellectual Property Organization
検索
 
閲覧
 
翻訳
 
オプション
 
最新情報
 
ログイン
 
ヘルプ
 
自動翻訳
1. (WO2007102505) 乳児の情動を判定する方法、そのための装置とプログラム
国際事務局に記録されている最新の書誌情報   

Translation翻訳: 原文 > 日本語
国際公開番号:    WO/2007/102505    国際出願番号:    PCT/JP2007/054329
国際公開日: 13.09.2007 国際出願日: 06.03.2007
予備審査請求日:    27.12.2007    
IPC:
G10L 15/10 (2006.01), G10L 11/00 (2006.01), G10L 15/00 (2006.01)
出願人: NAGASAKI UNIVERSITY [JP/JP]; 1-14, Bunkyomachi, Nagasaki-shi, Nagasaki8528521 (JP) (米国を除く全ての指定国).
SHINOHARA, Kazuyuki [JP/JP]; (JP) (米国のみ).
MATSUNAGA, Syoichi [JP/JP]; (JP) (米国のみ)
発明者: SHINOHARA, Kazuyuki; (JP).
MATSUNAGA, Syoichi; (JP)
代理人: TAKASHIMA, Hajime; Meiji Yasuda Seimei Osaka Midosuji Bldg., 1-1, Fushimimachi 4-chome, Chuo-ku, Osaka-shi, Osaka5410044 (JP)
優先権情報:
2006-060370 06.03.2006 JP
発明の名称: (EN) INFANT EMOTION JUDGING METHOD, AND DEVICE AND PROGRAM THEREFOR
(FR) PROCÉDÉ, DISPOSITIF ET LOGICIEL POUR JUGER LES ÉMOTIONS CHEZ LES NOURISSONS
(JA) 乳児の情動を判定する方法、そのための装置とプログラム
要約: front page image
(EN)The cry of an object infant is acquired in procedure 1, and the cry is converted into time-series data on a sound feature parameter by sound feature analysis (procedure 2). From the time-series data, an affect sound model held in advance in a database (X), and segment occurrence information held in advance in a database (Y), the affect giving the highest general similarity is determined, and it is judged that it is the affect of the infant (procedure 3). The affect sound model held in the database (X) is made by converting the cry of an infant having a predetermined affect into time-series data on a sound feature parameter by sound feature analysis, and by subjecting the sound feature parameter of each affect to appearance distribution learning processing (procedure X1 to X3). The segment occurrence information held in the database(Y) is created by dividing the cry of the infant having a predetermined affect into sound feature segments according to the sound feature, labeling them to convert them into sound feature segment-series data, and subjecting them to occurrence order learning processing for each affect (procedure Y1, Y2). The invention provides a method for accurately judging the affect of an infant on the basis of the voice uttered by the infant and a device and computer program for executing the method.
(FR)Dans le cadre de la présente invention, une procédure 1 acquiert le cri d'un nourrisson étudié. Une procédure 2 convertit ensuite ledit cri en données chronologiques sur un paramètre de caractéristiques sonores au moyen d'une analyse de caractéristiques sonores. Sur la base, d'une part, des données chronologiques, un modèle de son d'affect enregistré au préalable dans une base de données (X) et, d'autre part, d'informations d'occurrences de segments enregistrées au préalable dans une base de données (Y), l'affect donnant la similitude générale la plus forte est déterminé puis jugé comme étant celui du nourrisson (procédure 3). Le modèle de son d'affect enregistré dans la base de données (X) est produit en convertissant le cri d'un nourrisson ayant un affect prédéterminé en données chronologiques sur un paramètre de caractéristiques sonores au moyen d'une analyse de caractéristiques sonores puis en soumettant ledit paramètre de caractéristiques sonores de chaque affect à un processus d'apprentissage de répartition d'aspects (procédures X1 à X3). Les informations d'occurrences de segments enregistrées dans la base de données (Y) sont produites en divisant le cri du nourrisson ayant un affect prédéterminé en segments de caractéristiques sonores en fonction de la caractéristique sonore, en les étiquetant pour les convertir en données chronologiques de caractéristiques sonores puis en les soumettant à un processus d'apprentissage d'ordre d'occurrences pour chaque affect (procédure Y1, Y2). La présente invention concerne ainsi un procédé destiné à juger avec précision l'affect d'un nourrisson sur la base des sons vocaux qu'il émet de même qu'un dispositif et un logiciel pour mettre le procédé ci-décrit en pratique.
(JA) 手順1で対象乳児の泣き声を取得し、これを、音響特徴分析によって、音響特徴パラメータの時系列データへと変換し(手順2)、前記時系列データと、予めデータベース(X)に保持した情動音響モデルと、予めデータベース(Y)に保持したセグメント生起情報とから、最も高い総合類似度を与える情動を求め、それを対象乳児の情動であると判定する(手順3)。データベース(X)の情動音響モデルは、所定の情動下にある乳児の泣き声を、音響特徴分析し音響特徴パラメータの時系列データとし、情動毎に音響特徴パラメータの出現分布学習処理を施して得る(手順X1~X3)。データベース(Y)のセグメント生起情報は、所定の情動下にある乳児の泣き声を、音響的特徴によって複数の音響特徴セグメントに分割しラベリングして音響特徴セグメント系列データとし、これを情動毎に生起順序の学習処理を施して形成する(手順Y1、Y2)。本発明によって、乳児が発する声に基いてその乳児の情動をより精度よく判定できる方法、および、それを実施するための装置とコンピュータプログラムが提供される。
指定国: AE, AG, AL, AM, AT, AU, AZ, BA, BB, BG, BR, BW, BY, BZ, CA, CH, CN, CO, CR, CU, CZ, DE, DK, DM, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IS, JP, KE, KG, KM, KN, KP, KR, KZ, LA, LC, LK, LR, LS, LT, LU, LY, MA, MD, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PG, PH, PL, PT, RO, RS, RU, SC, SD, SE, SG, SK, SL, SM, SV, SY, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW.
アフリカ広域知的所有権機関(ARIPO) (BW, GH, GM, KE, LS, MW, MZ, NA, SD, SL, SZ, TZ, UG, ZM, ZW)
ユーラシア特許庁(EAPO) (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM)
欧州特許庁(EPO) (AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HU, IE, IS, IT, LT, LU, LV, MC, MT, NL, PL, PT, RO, SE, SI, SK, TR)
アフリカ知的所有権機関(OAPI) (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, ML, MR, NE, SN, TD, TG).
国際公開言語: Japanese (JA)
国際出願言語: Japanese (JA)