Processing

Please wait...

Settings

Settings

Goto Application

1. WO2021027759 - FACIAL IMAGE PROCESSING

Publication Number WO/2021/027759
Publication Date 18.02.2021
International Application No. PCT/CN2020/108121
International Filing Date 10.08.2020
IPC
G06K 9/00 2006.01
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
CPC
G06K 9/00302
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
00221Acquiring or recognising human faces, facial parts, facial sketches, facial expressions
00302Facial expression recognition
G06N 3/02
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
Applicants
  • HUAWEI TECHNOLOGIES CO., LTD. [CN]/[CN]
Inventors
  • VERVERAS, Evangelos
  • ZAFEIRIOU, Stefanos
Priority Data
1911689.615.08.2019GB
Publication Language English (EN)
Filing Language English (EN)
Designated States
Title
(EN) FACIAL IMAGE PROCESSING
(FR) TRAITEMENT D'IMAGES D'UN VISAGE
Abstract
(EN)
Methods for generating facial images with a given facial expression using neural networks, and methods of training neural networks for generating facial images with a given facial expression are provided. A method of training a generator neural network to generate a facial image with a target expression from a facial image and a set of target expression parameters, wherein the training comprises: receiving training data comprising a plurality of training examples, each training example comprising an input facial image, a set of initial expression parameters and a set of target expression parameters; applying the generator neural network to an input facial image and a corresponding set of target parameters to generate an output facial image; applying the generator neural network to the first output facial image and a corresponding set of initial expression parameters to generate a reconstructed facial image; applying the discriminator neural network to the input facial image to generate a first predicted classification; applying the discriminator neural network to the output facial image to generate a second predicted classification; and updating parameters of the generator neural network in dependence on a generator loss function depending on the first predicted classification, the second predicted classification and a comparison between the input facial image and the reconstructed facial image; and/or updating parameters of the discriminator neural network in dependence on a discriminator loss function depending on the first predicted classification and the second predicted classification.
(FR)
L'invention concerne des procédés de génération d'images d'un visage ayant une expression faciale donnée au moyen de réseaux neuronaux, ainsi que des procédés de formation de réseaux neuronaux de génération d'images d'un visage ayant une expression faciale donnée. L'invention concerne un procédé de formation d'un réseau neuronal générateur de génération d'une image d'un visage ayant une expression cible à partir d'une image d'un visage et d'un ensemble de paramètres de l'expression cible. La formation comprend les étapes consistant à : recevoir des données de formation contenant une pluralité d'exemples de formation, chaque exemple de formation contenant une image d'un visage d'entrée, un ensemble de paramètres d'une expression initiale et un ensemble de paramètres d'une expression cible ; appliquer le réseau neuronal générateur à une image d'un visage d'entrée et à un ensemble correspondant de paramètres cibles de façon à générer une image d'un visage de sortie ; appliquer le réseau neuronal générateur à la première image d'un visage de sortie et à un ensemble correspondant de paramètres de l'expression initiale de façon à générer une image d'un visage reconstruite ; appliquer le réseau neuronal discriminateur à l'image d'un visage d'entrée de façon à générer une première classification prédite ; appliquer le réseau neuronal discriminateur à l'image d'un visage de sortie de façon à générer une seconde classification prédite ; et mettre à jour des paramètres du réseau neuronal générateur d'après une fonction de perte de générateur dépendant de la première classification prédite, de la seconde classification prédite et d'une comparaison entre l'image d'un visage d'entrée et l'image d'un visage reconstruite ; et/ou mettre à jour des paramètres du réseau neuronal discriminateur d'après une fonction de perte de discriminateur dépendant de la première classification prédite et de la seconde classification prédite.
Latest bibliographic data on file with the International Bureau