Processing

Please wait...

Settings

Settings

Goto Application

1. WO2020108610 - IMAGE PROCESSING METHOD, APPARATUS, COMPUTER READABLE MEDIUM AND ELECTRONIC DEVICE

Publication Number WO/2020/108610
Publication Date 04.06.2020
International Application No. PCT/CN2019/121935
International Filing Date 29.11.2019
IPC
G06K 9/00 2006.01
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
CPC
G06K 9/00228
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
00221Acquiring or recognising human faces, facial parts, facial sketches, facial expressions
00228Detection; Localisation; Normalisation
Applicants
  • 腾讯科技(深圳)有限公司 TENCENT TECHNOLOGY (SHENZHEN) COMPANY LIMITED [CN]/[CN]
Inventors
  • 林祥凯 LIN, Xiangkai
  • 暴林超 BAO, Linchao
  • 凌永根 LING, Yonggen
  • 宋奕兵 SONG, Yibing
  • 刘威 LIU, Wei
Agents
  • 北京德琦知识产权代理有限公司 DEQI INTELLECTUAL PROPERTY LAW CORPORATION
Priority Data
201811455877.430.11.2018CN
Publication Language Chinese (ZH)
Filing Language Chinese (ZH)
Designated States
Title
(EN) IMAGE PROCESSING METHOD, APPARATUS, COMPUTER READABLE MEDIUM AND ELECTRONIC DEVICE
(FR) PROCÉDÉ DE TRAITEMENT D'IMAGE, APPAREIL, SUPPORT LISIBLE PAR ORDINATEUR ET DISPOSITIF ÉLECTRONIQUE
(ZH) 图像处理方法、装置、计算机可读介质及电子设备
Abstract
(EN)
The embodiment of the present invention provides an image processing method, apparatus, a computer readable medium and an electronic device. The image processing method comprises: respectively projecting the face model of a target object into multiple face images of the target object collected through multiple perspectives according to multiple perspective parameters corresponding to the multiple perspectives, to determine the correspondence between the area on the face model and the area in the face image; based on the correspondence and the target area on the face model that needs to generate texture image, respectively extracting images corresponding to the target area from the multiple face images; and performing fusion processing on the images corresponding to the target area, which are respectively extracted from the multiple face images, to generate the texture image. The technical solution of the embodiment of the present invention can improve the accuracy of the generated texture image.
(FR)
Dans ses modes de réalisation, la présente invention concerne un procédé de traitement d’image, un appareil, un support lisible par ordinateur et un dispositif électronique. Le procédé de traitement d'image comprend les étapes consistant à : projeter respectivement le modèle de face d'un objet cible dans des images à faces multiples de l'objet cible collectées par de multiples perspectives selon de multiples paramètres de perspective correspondant aux multiples perspectives, pour déterminer la correspondance entre la zone sur le modèle de face et la zone dans l'image de face; sur la base de la correspondance et de la zone cible sur le modèle de face qui doit générer une image de texture, extraire respectivement des images correspondant à la zone cible à partir des images de faces multiples ; et effectuer un traitement de fusion sur les images correspondant à la zone cible, qui sont respectivement extraites des images de faces multiples, pour générer l'image de texture. La solution technique des modes de réalisation de la présente invention permet d'améliorer la précision de l'image de texture générée.
(ZH)
本发明的实施例提供了一种图像处理方法、装置、计算机可读介质及电子设备。该图像处理方法包括:根据多个视角对应的多个视角参数分别将目标对象的人脸模型投影到通过所述多个视角采集到的所述目标对象的多张人脸图像中,以确定所述人脸模型上的区域与所述人脸图像中的区域之间的对应关系;基于所述对应关系和所述人脸模型中需要生成纹理图像的目标区域,分别从所述多张人脸图像中提取与所述目标区域相对应的图像;将分别从所述多张人脸图像中提取出的与所述目标区域相对应的图像进行融合处理,生成所述纹理图像。本发明实施例的技术方案能够提高生成的纹理图像的准确性。
Also published as
Latest bibliographic data on file with the International Bureau