(EN) Techniques are described for training and/or utilizing an end-to-end speaker diarization model. In various implementations, the model is a recurrent neural network (RNN) model, such as an RNN model that includes at least one memory layer, such as a long short-term memory (LSTM) layer. Audio features of audio data can be applied as input to an end-to-end speaker diarization model trained according to implementations disclosed herein, and the model utilized to process the audio features to generate, as direct output over the model, speaker diarization results. Further, the end-to-end speaker diarization model can be a sequence-to-sequence model, where the sequence can have variable length. Accordingly, the model can be utilized to generate speaker diarization results for any of various length audio segments.
(FR) La présente invention concerne des techniques d’apprentissage et/ou d’utilisation d’un modèle de segmentation et regroupement de locuteur. Dans différents modes de réalisation, le modèle est un modèle de réseau de neurones récurrents (RNR), tel qu’un modèle RNR qui comprend au moins une couche de mémoire, telle qu’une couche de mémoire à court et long terme (LSTM). Des caractéristiques audio de données audio peuvent être appliquées en tant qu’entrée d’un modèle de segmentation et regroupement de locuteur de bout en bout entraîné selon des modes de réalisation de la présente invention, et le modèle utilisé pour traiter les caractéristiques audio pour générer, en tant que sortie directe sur le modèle, des résultats de segmentation et regroupement de locuteur. En outre, le modèle de segmentation et regroupement de locuteur de bout en bout peut être un modèle de séquence à séquence, la séquence pouvant avoir une longueur variable. En conséquence, le modèle peut être utilisé pour générer des résultats de segmentation et regroupement de locuteur pour l’un quelconque de segments audio de différentes longueurs.