Search International and National Patent Collections
Some content of this application is unavailable at the moment.
If this situation persists, please contact us atFeedback&Contact
1. (WO2017130089) SYSTEMS AND METHODS FOR NEURAL CLINICAL PARAPHRASE GENERATION
Latest bibliographic data on file with the International Bureau

Pub. No.: WO/2017/130089 International Application No.: PCT/IB2017/050325
Publication Date: 03.08.2017 International Filing Date: 23.01.2017
IPC:
G06F 17/27 (2006.01) ,G06F 17/28 (2006.01)
G PHYSICS
06
COMPUTING; CALCULATING; COUNTING
F
ELECTRIC DIGITAL DATA PROCESSING
17
Digital computing or data processing equipment or methods, specially adapted for specific functions
20
Handling natural language data
27
Automatic analysis, e.g. parsing, orthograph correction
G PHYSICS
06
COMPUTING; CALCULATING; COUNTING
F
ELECTRIC DIGITAL DATA PROCESSING
17
Digital computing or data processing equipment or methods, specially adapted for specific functions
20
Handling natural language data
28
Processing or translating of natural language
Applicants:
KONINKLIJKE PHILIPS N.V. [NL/NL]; High Tech Campus 5 5656 AE Eindhoven, NL
Inventors:
AL HASAN, Sheikh Sadid; NL
LIU, Bo; NL
FARRI, Oladimeji Feyisetan; NL
LIU, Junyi; NL
PRAKASH, Aaditya; NL
Agent:
BELOBORODOV, Mark; NL
DE HAAN, Poul Erik; NL
Priority Data:
62/286,98926.01.2016US
Title (EN) SYSTEMS AND METHODS FOR NEURAL CLINICAL PARAPHRASE GENERATION
(FR) SYSTÈMES ET PROCÉDÉS DE GÉNÉRATION DE PARAPHRASE NEURALE CLINIQUE
Abstract:
(EN) The present disclosure pertains to a paraphrase generation system. The system comprises one or more hardware processors and/or other components. The system is configured to obtain a training corpus. The training corpus comprises language and known paraphrases of the language. The system is configured to generate, based on the training corpus, a word-level attention-based model and a character- level attention- based model. The system is configured to provide one or more candidate paraphrases of a natural language input based on both the word-level and character-level attention-based models. The word-level attention-based model is a word-level bidirectional long short term memory (LSTM) network and the character-level attention-based model is a character-level bidirectional LSTM network. The word-level and character level LSTM networks are generated based on words and characters in the training corpus. In some embodiments, the LSTM networks are stacked residual LSTM networks comprising residual connections between stacked layers of a given LSTM network.
(FR) La présente invention concerne un système de génération de paraphrase. Le système comprend un ou plusieurs processeurs matériels et/ou d'autres composants. Le système est configuré pour obtenir un corpus d'apprentissage. Le corpus d'apprentissage comprend un langage et des paraphrases connues du langage. Le système est configuré pour générer, sur la base du corpus d'apprentissage, un modèle basé sur l'attention de niveau de mot et un modèle basé sur l'attention de niveau de caractère. Le système est configuré pour fournir une ou plusieurs paraphrases candidates d'une entrée en langage naturel sur la base à la fois des modèles basés sur l'attention de niveau de mot et de niveau de caractère. Le modèle basé sur l'attention de niveau de mot est un réseau de mémoires à long et court termes (LSTM) bidirectionnel de niveau de mot et le modèle basé sur l'attention de niveau de caractère est un réseau de LSTM bidirectionnel de niveau de caractère. Les réseaux de LSTM de niveau de mot et de niveau de caractère sont générés sur la base de mots et de caractères contenus dans le corpus d'apprentissage. Selon certains modes de réalisation, les réseaux de LSTM sont des réseaux de LSTM résiduelles empilées comprenant des connexions résiduelles entre des couches empilées d'un réseau de LSTM donné.
front page image
Designated States: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
African Regional Intellectual Property Organization (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Eurasian Patent Organization (AM, AZ, BY, KG, KZ, RU, TJ, TM)
European Patent Office (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Publication Language: English (EN)
Filing Language: English (EN)
Also published as:
CN108604227EP3408755US20190034416