WIPO logo
Mobile | Deutsch | English | Español | Français | 한국어 | Português | Русский | 中文 | العربية |
PATENTSCOPE

国際・国内特許データベース検索
World Intellectual Property Organization
検索
 
閲覧
 
翻訳
 
オプション
 
最新情報
 
ログイン
 
ヘルプ
 
自動翻訳
1. (WO2017051480) 画像処理装置及び画像処理方法
国際事務局に記録されている最新の書誌情報   

Translation翻訳: 原文 > 日本語
国際公開番号:    WO/2017/051480    国際出願番号:    PCT/JP2015/077157
国際公開日: 30.03.2017 国際出願日: 25.09.2015
IPC:
G06T 7/00 (2017.01), G06T 7/20 (2017.01)
出願人: HITACHI INFORMATION & TELECOMMUNICATION ENGINEERING, LTD. [JP/JP]; 2-3-3, Minatomirai, Nishi-ku, Yokohama-shi, Kanagawa 2206122 (JP)
発明者: UEJIMA Toshiaki; (JP)
代理人: THE PATENT BODY CORPORATE TAKEWA INTERNATIONAL PATENT OFFICE; Nishishimbashi Bldg., 13-3, Nishishimbashi 3-chome, Minato-ku, Tokyo 1050003 (JP)
優先権情報:
発明の名称: (EN) IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
(FR) DISPOSITIF DE TRAITEMENT D'IMAGES ET PROCÉDÉ DE TRAITEMENT D'IMAGES
(JA) 画像処理装置及び画像処理方法
要約: front page image
(EN)The purpose of the present invention is to efficiently predict the position of an object in an actual environment at a next future point in time on the basis of observed values of one or more physical quantities relating to the object. In order to achieve this purpose, the image processing device according to the present invention extracts a first object image from a first image, said first object image being a captured image of a first object, the conditions of which are to be predicted, and then identifies the type of the first object (S102). The image processing device then fits a model around the first object image and associates points on the model with feature points in the first object image, said model matching the type of the first object, the conditions of which are to be predicted (S105). The image processing device then selects a plurality of movement sequences from finite state sequences associated with the type of the first object, on the basis of the position and initial observed conditions of the first object (S108). Then, the image processing device: converts the coordinates of the model fitted around the first object image, and the coordinates of the feature points on the model that are associated with the feature points in the first object image, in accordance with each movement sequence of the selected plurality of movement sequences, thereby obtaining converted feature points (S111); generates particles around each converted feature point (S112); and determines, as predicted conditions of the first object, particles having the highest probability (S113).
(FR)L'invention concerne la prédiction efficace de la position d'un objet dans un environnement réel lors d'un point dans le temps suivant dans le futur, sur la base de valeurs observées d'une ou de plusieurs quantités physiques associées à l'objet. Afin d'atteindre cet objectif, le dispositif de traitement d'images selon la présente invention extrait une première image d'objet d'une première image, ladite première image d'objet étant une image capturée d'un premier objet, dont les conditions doivent être prédites, puis identifie le type du premier objet (S102). Le dispositif de traitement d'images ajuste ensuite un modèle autour de la première image d'objet et associe des points sur le modèle à des points caractéristiques dans la première image d'objet, ledit modèle correspondant au type du premier objet, dont les conditions doivent être prédites (S105). Le dispositif de traitement d'images sélectionne ensuite une pluralité de séquences de mouvement à partir de séquences d'état finies associées au type du premier objet, sur la base de la position et des conditions observées initiales du premier objet (S108). Ensuite, le dispositif de traitement d'images : convertit les coordonnées du modèle ajustées autour de la première image d'objet et les coordonnées des points caractéristiques sur le modèle qui sont associés aux points caractéristiques dans la première image d'objet, conformément à chaque séquence de mouvement de la pluralité sélectionnée de séquences de mouvement, ce qui permet d'obtenir des points caractéristiques convertis (S111) ; produit des particules autour de chaque point caractéristique converti (S112) ; et détermine, en guise de conditions prédites du premier objet, des particules ayant la probabilité la plus élevée (S113).
(JA)実環境における対象物に関連する物理量の観測値に基づいて、次の時刻の対象物の位置を効率よく推定する。そのために、画像処理装置は、第一画像から状態予測を行う第一対象物が撮像された第一対象物像を抽出し、前記第一対象物の種類を識別する(S102)。状態予測を行う対象物の種類に応じたモデルを第一対象物画像に合わせこみ、第一対象物画像の特徴点に紐づける(S105)。第一対象物の種類に対応した有限状態系列から第一対象物の位置及び初期観測状態を基に複数の動き系列を選択する(S108)。第一対象物画像に合わせこんだモデル及びそれに紐づけられた特徴点の座標を、選択した複数の動き系列に含まれる各動き系列に従って変換し(S111)、上記変換後の特徴点を中心としてパーティクルを生成し(S112)、最も確率が高いパーティクルを第一対象物の予想状態として決定する(S113)。
指定国: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JP, KE, KG, KN, KP, KR, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW.
アフリカ広域知的所有権機関(ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
ユーラシア特許庁(EAPO) (AM, AZ, BY, KG, KZ, RU, TJ, TM)
欧州特許庁(EPO) (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
アフリカ知的所有権機関(OAPI) (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG).
国際公開言語: Japanese (JA)
国際出願言語: Japanese (JA)