WIPO logo
Mobile | Deutsch | English | Español | 日本語 | 한국어 | Português | Русский | 中文 | العربية |
PATENTSCOPE

Recherche dans les collections de brevets nationales et internationales
World Intellectual Property Organization
Recherche
 
Options de navigation
 
Traduction
 
Options
 
Quoi de neuf
 
Connexion
 
Aide
 
Traduction automatique
1. (WO2017223010) RÉSEAUX DE MÉMOIRE DE BOUT EN BOUT POUR COMPRÉHENSION DU LANGAGE CONTEXTUEL
Dernières données bibliographiques dont dispose le Bureau international    Formuler une observation

N° de publication : WO/2017/223010 N° de la demande internationale : PCT/US2017/038210
Date de publication : 28.12.2017 Date de dépôt international : 20.06.2017
CIB :
G10L 15/18 (2013.01) ,G10L 15/16 (2006.01) ,G10L 15/22 (2006.01)
Déposants : MICROSOFT TECHNOLOGY LICENSING, LLC[US/US]; One Microsoft Way Redmond, Washington 98052-6399, US
Inventeurs : CHEN, Yun-Nung; US
HAKKANI-TUR, Dilek, Z.; US
TUR, Gokhan; US
DENG, Li; US
GAO, Jianfeng; US
Mandataire : MINHAS, Sandip; US
CHEN, Wei-Chen Nicholas; US
DRAKOS, Katherine J.; US
KADOURA, Judy M.; US
HOLMES, Danielle J.; US
SWAIN, Cassandra T.; US
WONG, Thomas S.; US
CHOI, Daniel; US
HWANG, William C.; US
WIGHT, Stephen A.; US
Données relatives à la priorité :
15/229,03904.08.2016US
62/354,07623.06.2016US
Titre (EN) END-TO-END MEMORY NETWORKS FOR CONTEXTUAL LANGUAGE UNDERSTANDING
(FR) RÉSEAUX DE MÉMOIRE DE BOUT EN BOUT POUR COMPRÉHENSION DU LANGAGE CONTEXTUEL
Abrégé : front page image
(EN) A processing unit can extract salient semantics to model knowledge carryover, from one turn to the next, in multi-turn conversations. Architecture described herein can use the end-to-end memory networks to encode inputs, e.g., utterances, with intents and slots, which can be stored as embeddings in memory, and in decoding the architecture can exploit latent contextual information from memory, e.g., demographic context, visual context, semantic context, etc. e.g., via an attention model, to leverage previously stored semantics for semantic parsing, e.g., for joint intent prediction and slot tagging. In examples, architecture is configured to build an end-to-end memory network model for contextual, e.g., multi-turn, language understanding, to apply the end-to-end memory network model to multiple turns of conversational input; and to fill slots for output of contextual, e.g., multi-turn, language understanding of the conversational input. The neural network can be learned using backpropagation from output to input using gradient descent optimization.
(FR) L'invention concerne une unité de traitement pouvant extraire une sémantique saillante pour modéliser un transfert de connaissances, d'un tour à l'autre, dans des conversations multi-tours. L'architecture de la présente invention peut utiliser les réseaux de mémoire de bout en bout pour coder des entrées, par exemple des énoncés, avec des intentions et des fentes, qui peuvent être stockées en tant qu'éléments d'intégration dans la mémoire, et peut exploiter des informations contextuelles latentes provenant de la mémoire, par exemple, un contexte démographique, un contexte visuel, un contexte sémantique, etc., dans le décodage d'architecture. Par exemple, par l'intermédiaire d'un modèle d'attention, pour tirer profit de la sémantique précédemment stockée pour une analyse sémantique, une prédiction d'intention d'articulation et un étiquetage de fente. Dans des exemples, l'architecture est configurée pour construire un modèle de réseau de mémoire de bout en bout permettant la compréhension du langage contextuel, par exemple multi-tours, pour appliquer le modèle de réseau de mémoire de bout en bout à de multiples tours d'entrée de conversation, et pour remplir des fentes de sortie de la compréhension de langage contextuel, par exemple multi-tours, à partir de la conversation en entrée. Le réseau neuronal peut être appris à l'aide de la rétropropagation de la sortie à l'entrée au moyen d'une optimisation de la descente du gradient.
États désignés : AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
Organisation régionale africaine de la propriété intellectuelle (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Office eurasien des brevets (OEAB) (AM, AZ, BY, KG, KZ, RU, TJ, TM)
Office européen des brevets (OEB (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
Organisation africaine de la propriété intellectuelle (OAPI) (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Langue de publication : anglais (EN)
Langue de dépôt : anglais (EN)