Traitement en cours

Veuillez attendre...

Paramétrages

Paramétrages

Aller à Demande

1. WO2020117639 - RECONNAISSANCE DE LOCUTEUR INDÉPENDANTE DU TEXTE

Numéro de publication WO/2020/117639
Date de publication 11.06.2020
N° de la demande internationale PCT/US2019/063927
Date du dépôt international 02.12.2019
CIB
G10L 17/22 2013.01
GPHYSIQUE
10INSTRUMENTS DE MUSIQUE; ACOUSTIQUE
LANALYSE OU SYNTHÈSE DE LA PAROLE; RECONNAISSANCE DE LA PAROLE; TRAITEMENT DE LA PAROLE OU DE LA VOIX; CODAGE OU DÉCODAGE DE LA PAROLE OU DE SIGNAUX AUDIO
17Identification ou vérification du locuteur
22Procédures interactives; Interfaces homme-machine
G10L 17/24 2013.01
GPHYSIQUE
10INSTRUMENTS DE MUSIQUE; ACOUSTIQUE
LANALYSE OU SYNTHÈSE DE LA PAROLE; RECONNAISSANCE DE LA PAROLE; TRAITEMENT DE LA PAROLE OU DE LA VOIX; CODAGE OU DÉCODAGE DE LA PAROLE OU DE SIGNAUX AUDIO
17Identification ou vérification du locuteur
22Procédures interactives; Interfaces homme-machine
24l’utilisateur étant incité à prononcer un mot de passe ou une phrase prédéfinie
G10L 17/10 2013.01
GPHYSIQUE
10INSTRUMENTS DE MUSIQUE; ACOUSTIQUE
LANALYSE OU SYNTHÈSE DE LA PAROLE; RECONNAISSANCE DE LA PAROLE; TRAITEMENT DE LA PAROLE OU DE LA VOIX; CODAGE OU DÉCODAGE DE LA PAROLE OU DE SIGNAUX AUDIO
17Identification ou vérification du locuteur
06Techniques de prise de décision; Stratégies d’alignement de motifs
10Systèmes multimodaux, c. à d. basés sur l’intégration de moteurs multiples de reconnaissance ou de fusion de systèmes experts
G10L 17/04 2013.01
GPHYSIQUE
10INSTRUMENTS DE MUSIQUE; ACOUSTIQUE
LANALYSE OU SYNTHÈSE DE LA PAROLE; RECONNAISSANCE DE LA PAROLE; TRAITEMENT DE LA PAROLE OU DE LA VOIX; CODAGE OU DÉCODAGE DE LA PAROLE OU DE SIGNAUX AUDIO
17Identification ou vérification du locuteur
04Entraînement, enrôlement ou construction de modèle
CPC
G10L 17/04
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
17Speaker identification or verification
04Training, enrolment or model building
G10L 17/10
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
17Speaker identification or verification
06Decision making techniques; Pattern matching strategies
10Multimodal systems, i.e. based on the integration of multiple recognition engines or fusion of expert systems
G10L 17/22
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
17Speaker identification or verification
22Interactive procedures; Man-machine interfaces
G10L 17/24
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
17Speaker identification or verification
22Interactive procedures; Man-machine interfaces
24the user being prompted to utter a password or a predefined phrase
Déposants
  • GOOGLE LLC [US]/[US]
Inventeurs
  • CHAO, Pu-sen
  • CASADO, Diego Melendo
  • MORENO, Ignacio Lopez
  • WANG, Quan
Mandataires
  • HIGDON, Scott
  • MIDDLETON REUTLINGER
  • SALAZAR, John
  • SHUMAKER, Brantley
  • THRELKELD, Elizabeth
Données relatives à la priorité
62/774,74303.12.2018US
Langue de publication anglais (EN)
Langue de dépôt anglais (EN)
États désignés
Titre
(EN) TEXT INDEPENDENT SPEAKER RECOGNITION
(FR) RECONNAISSANCE DE LOCUTEUR INDÉPENDANTE DU TEXTE
Abrégé
(EN)
Text independent speaker recognition models can be utilized by an automated assistant to verify a particular user spoke a spoken utterance and/or to identify the user who spoke a spoken utterance. Implementations can include automatically updating a speaker embedding for a particular user based on previous utterances by the particular user. Additionally or alternatively, implementations can include verifying a particular user spoke a spoken utterance using output generated by both a text independent speaker recognition model as well as a text dependent speaker recognition model. Furthermore, implementations can additionally or alternatively include prefetching content for several users associated with a spoken utterance prior to determining which user spoke the spoken utterance.
(FR)
Des modèles de reconnaissance de locuteur indépendante du texte peuvent être utilisés par un assistant automatisé pour vérifier qu'un utilisateur particulier a prononcé un énoncé parlé et/ou pour identifier l'utilisateur qui a prononcé un énoncé parlé. Des modes de réalisation peuvent comprendre la mise à jour automatique d'une incorporation de locuteur pour un utilisateur particulier sur la base d'énoncés précédents de l'utilisateur particulier. En outre ou en variante, des modes de réalisation peuvent comprendre la vérification qu'un utilisateur particulier a prononcé un énoncé parlé à l'aide d'une sortie générée par un modèle de reconnaissance de locuteur indépendante du texte ainsi qu'un modèle de reconnaissance de locuteur dépendante du texte. En outre, des modes de réalisation peuvent en outre ou en variante comprendre la prélecture d'un contenu pour plusieurs utilisateurs associés à un énoncé parlé avant de déterminer quel utilisateur a prononcé l'énoncé parlé.
Dernières données bibliographiques dont dispose le Bureau international