Search International and National Patent Collections
Some content of this application is unavailable at the moment.
If this situation persists, please contact us atFeedback&Contact
1. (WO2017135334) METHOD AND SYSTEM FOR TRAINING LANGUAGE MODELS TO REDUCE RECOGNITION ERRORS
Latest bibliographic data on file with the International Bureau

Pub. No.: WO/2017/135334 International Application No.: PCT/JP2017/003680
Publication Date: 10.08.2017 International Filing Date: 26.01.2017
IPC:
G10L 15/19 (2013.01)
G PHYSICS
10
MUSICAL INSTRUMENTS; ACOUSTICS
L
SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
15
Speech recognition
08
Speech classification or search
18
using natural language modelling
183
using context dependencies, e.g. language models
19
Grammatical context, e.g. disambiguation of recognition hypotheses based on word sequence rules
Applicants:
MITSUBISHI ELECTRIC CORPORATION [JP/JP]; 7-3, Marunouchi 2-chome, Chiyoda-ku, Tokyo 1008310, JP
Inventors:
HORI, Takaaki; US
HORI, Chiori; US
WATANABE, Shinji; US
HERSHEY, John; US
Agent:
SOGA, Michiharu; S. SOGA & CO., 8th Floor, Kokusai Building, 1-1, Marunouchi 3-chome, Chiyoda-ku, Tokyo 1000005, JP
Priority Data:
15/013,23902.02.2016US
Title (EN) METHOD AND SYSTEM FOR TRAINING LANGUAGE MODELS TO REDUCE RECOGNITION ERRORS
(FR) PROCÉDÉ ET SYSTÈME D'APPRENTISSAGE DE MODÈLES DE LANGUE POUR RÉDUIRE DES ERREURS DE RECONNAISSANCE
Abstract:
(EN) A method and for training a language model to reduce recognition errors, wherein the language model is a recurrent neural network language model (RNNLM) by first acquiring training samples. An automatic speech recognition system (ASR) is appled to the training samples to produce recognized words and probabilites of the recognized words, and an N-best list is selected from the recognized words based on the probabilities. determining word erros using reference data for hypotheses in the N-best list. The hypotheses are rescored using the RNNLM. Then, we determine gradients for the hypotheses using the word errors and gradients for words in the hypotheses. Lastly, parameters of the RNNLM are updated using a sum of the gradients.
(FR) L'invention concerne un procédé d'apprentissage d'un modèle de langue pour réduire des erreurs de reconnaissance, où le modèle de langue est un modèle de langue à réseau neuronal récurrent (RNNLM), en acquérant d'abord des échantillons d'apprentissage. Un système de reconnaissance vocale automatique (ASR) est appliqué aux échantillons d'apprentissage pour produire des mots reconnus et des probabilités des mots reconnus, et une liste des N meilleurs est sélectionnée parmi les mots reconnus en fonction des probabilités, en déterminant des erreurs de mot grâce à des données de référence pour des hypothèses dans la liste des N meilleurs. Le score des hypothèses est mis à jour grâce au RNNLM. On détermine ensuite des gradients pour les hypothèses en utilisant les erreurs de mot et les gradients pour les mots dans les hypothèses. Enfin, des paramètres des RNNLM sont mis à jour à l'aide d'une somme des gradients.
front page image
Designated States: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
African Regional Intellectual Property Organization (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Eurasian Patent Organization (AM, AZ, BY, KG, KZ, RU, TJ, TM)
European Patent Office (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Publication Language: English (EN)
Filing Language: English (EN)