Certains contenus de cette application ne sont pas disponibles pour le moment.
Si cette situation persiste, veuillez nous contacter àObservations et contact
1. (WO2019007041) PROCÉDÉ DE RÉCUPÉRATION BIDIRECTIONNELLE IMAGE-TEXTE BASÉ SUR UN ESPACE DE JONCTION MULTI-VUES D'INCORPORATION
Dernières données bibliographiques dont dispose le Bureau international    Formuler une observation

N° de publication : WO/2019/007041 N° de la demande internationale : PCT/CN2018/074408
Date de publication : 10.01.2019 Date de dépôt international : 29.01.2018
CIB :
G06F 17/30 (2006.01)
G PHYSIQUE
06
CALCUL; COMPTAGE
F
TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES
17
Equipement ou méthodes de traitement de données ou de calcul numérique, spécialement adaptés à des fonctions spécifiques
30
Recherche documentaire; Structures de bases de données à cet effet
Déposants :
北京大学深圳研究生院 PEKING UNIVERSITY SHENZHEN GRADUATE SCHOOL [CN/CN]; 中国广东省深圳市 南山区西丽镇丽水路深圳大学城北大校区 Peking University Campus Shenzhen University Town Lishui Road, Xili Town, Nanshan District Shenzhen, Guangdong 518055, CN
Inventeurs :
王文敏 WANG, Wenmin; CN
冉璐 RAN, Lu; CN
王荣刚 WANG, Ronggang; CN
李革 LI, Ge; CN
董胜富 DONG, Shengfu; CN
王振宇 WANG, Zhenyu; CN
李英 LI, Ying; CN
赵辉 ZHAO, Hui; CN
高文 GAO, Wen; CN
Mandataire :
北京万象新悦知识产权代理事务所(普通合伙) BEIJING WANXIANGXINYUE INTELLECTUAL PROPERTY OFFICE; 中国北京市 海淀区颐和园路1号北京资源燕园宾馆六层1625号 Room 1625, 6th Floor, Beijing Resource Yanyuan Hotel No. 1 Yiheyuan Road, Haidian District Beijing 100080, CN
Données relatives à la priorité :
201710545632.X06.07.2017CN
Titre (EN) BIDIRECTIONAL IMAGE-TEXT RETRIEVAL METHOD BASED ON MULTI-VIEW JOINT EMBEDDING SPACE
(FR) PROCÉDÉ DE RÉCUPÉRATION BIDIRECTIONNELLE IMAGE-TEXTE BASÉ SUR UN ESPACE DE JONCTION MULTI-VUES D'INCORPORATION
(ZH) 基于多视图联合嵌入空间的图像-文本双向检索方法
Abrégé :
(EN) The invention discloses a bidirectional image-text retrieval method based on a multi-view joint embedding space, comprising: performing retrieval with reference to a semantic association relationship between a global level and a local level; obtaining the semantic association relationship between the global level and the local level under a frame-sentence view and a region-phrase view, respectively, and then obtaining from the frame-sentence view semantic association information in a frame and sentence global level subspace; obtaining from the region-phrase view semantic association information in a region and phrase local level subspace; processing data by a dual-branch neural network in the two views to obtain an isomorphic feature and embedding the same in a common space, and using a constraint condition to reserve an original semantic relationship of the data during training; and merging two semantic association relationships by means of a multi-view merging and sorting method to obtain an accurate semantic similarity between data, so as to obtain a high precision retrieval result.
(FR) L'invention concerne un procédé de récupération bidirectionnelle image-texte basé sur un espace de jonction multi-vues d'incorporation, comportant les étapes consistant à: effectuer une récupération en se référant à une relation d'association sémantique entre un niveau global et un niveau local; obtenir la relation d'association sémantique entre le niveau global et le niveau local sous une vue trame-phrase et une vue région-locution, respectivement, puis obtenir à partir de la vue trame-phrase des informations d'association sémantique dans un sous-espace de niveau global de trames et de phrases; obtenir à partir de la vue région-locution des informations d'association sémantique dans un sous-espace de niveau local de régions et de locutions; faire traiter des données par un réseau neuronal à double ramification dans les deux vues pour obtenir une caractéristique isomorphe et l'incorporer dans un espace commun, et utiliser une condition de contrainte pour réserver une relation sémantique d'origine des données au cours de l'apprentissage; et fusionner deux relations d'association sémantique au moyen d'une méthode de fusion et de tri multi-vues pour obtenir une similarité sémantique précise entre les données, de façon à obtenir un résultat de récupération de haute précision.
(ZH) 本发明公布了一种基于多视图联合嵌入空间的图像-文本双向检索方法,通过结合全局层面和局部层面的语义关联关系进行检索;先从画面-句子视图和区域-短语视图下分别获得全局和局部层面的语义关联关系,在画面-句子视图中获取画面和句子全局层面子空间中的语义关联信息;在区域-短语视图中获取区域和短语局部层面子空间中的语义关联信息;两个视图中均通过双分支的神经网络处理数据得到同构特征嵌入共同空间,在训练中使用约束条件保留数据原有的语义关系;再通过多视图融合排序方法融合两种语义关联关系得到数据之间更精准的语义相似度,使得检索结果准确度更高。
front page image
États désignés : AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
Organisation régionale africaine de la propriété intellectuelle (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Office eurasien des brevets (OEAB) (AM, AZ, BY, KG, KZ, RU, TJ, TM)
Office européen des brevets (OEB (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
Organisation africaine de la propriété intellectuelle (OAPI) (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Langue de publication : chinois (ZH)
Langue de dépôt : chinois (ZH)