Traitement en cours

Veuillez attendre...

Paramétrages

Paramétrages

Goto Application

1. WO2020062493 - PROCÉDÉ ET APPAREIL DE TRAITEMENT D'IMAGE

Numéro de publication WO/2020/062493
Date de publication 02.04.2020
N° de la demande internationale PCT/CN2018/115968
Date du dépôt international 16.11.2018
CIB
G06T 7/70 2017.01
GPHYSIQUE
06CALCUL; COMPTAGE
TTRAITEMENT OU GÉNÉRATION DE DONNÉES D'IMAGE, EN GÉNÉRAL
7Analyse d'image
70Détermination de la position ou de l'orientation des objets ou des caméras
CPC
G06T 2207/20081
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
2207Indexing scheme for image analysis or image enhancement
20Special algorithmic details
20081Training; Learning
G06T 2207/20084
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
2207Indexing scheme for image analysis or image enhancement
20Special algorithmic details
20084Artificial neural networks [ANN]
G06T 2207/30196
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
2207Indexing scheme for image analysis or image enhancement
30Subject of image; Context of image processing
30196Human being; Person
G06T 7/70
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
7Image analysis
70Determining position or orientation of objects or cameras
Déposants
  • 北京字节跳动网络技术有限公司 BEIJING BYTEDANCE NETWORK TECHNOLOGY CO., LTD. [CN]/[CN]
Inventeurs
  • 胡耀全 HU, Yaoquan
Mandataires
  • 北京英赛嘉华知识产权代理有限责任公司 INSIGHT INTELLECTUAL PROPERTY LIMITED
Données relatives à la priorité
201811149818.429.09.2018CN
Langue de publication chinois (ZH)
Langue de dépôt chinois (ZH)
États désignés
Titre
(EN) IMAGE PROCESSING METHOD AND APPARATUS
(FR) PROCÉDÉ ET APPAREIL DE TRAITEMENT D'IMAGE
(ZH) 图像处理方法和装置
Abrégé
(EN)
Disclosed in the embodiments of the present application are an image processing method and apparatus. A specific embodiment of the method comprises: acquiring an image wherein the poses of the subjects are already labelled; on the basis of the images and the labelling of the poses, training a convolutional neural network to obtain a trained convolutional neural network, the training process comprising: inputting the image into the convolutional neural network and, on the basis of preset anchor poses of the convolutional neural network, determining candidate poses of each subject; setting candidate frames having a degree of coincidence greater than a preset degree of coincidence as target candidate frames; for each key point in a target candidate frame corresponding to each labelled frame, taking average position values of the key point in each target candidate frame; and setting the set of average position values of the key points as a pose detected for the image. In the present embodiment, the candidate poses are filtered by means of the degree of coincidence and the average values of the key points are taken in order to accurately distinguish the poses in an image.
(FR)
Les modes de réalisation de la présente invention concernent un procédé et un appareil de traitement d'image. Un mode de réalisation spécifique du procédé consiste à : acquérir une image dans laquelle les poses des sujets sont déjà étiquetées ; sur la base des images et de l'étiquetage des poses, entraîner un réseau neuronal convolutif pour obtenir un réseau neuronal convolutif entraîné. Le processus d'entraînement consistant à : entrer l'image dans le réseau neuronal convolutif et, sur la base de poses d'ancrage prédéfinies du réseau neuronal convolutif, déterminer des poses candidates de chaque sujet ; définir des trames candidates ayant un degré de coïncidence supérieur à un degré de coïncidence prédéfini en tant que trames candidates cibles ; pour chaque point clé dans une trame candidate cible correspondant à chaque trame étiquetée, prendre des valeurs de position moyennes du point clé dans chaque trame candidate cible ; et définir l'ensemble de valeurs de position moyenne des points clés en tant que pose détectée pour l'image. Dans le présent mode de réalisation, les poses candidates sont filtrées au moyen du degré de coïncidence et les valeurs moyennes des points clés sont prises en vue de distinguer avec précision les poses dans une image.
(ZH)
本申请实施例公开了图像处理方法和装置。该方法的一具体实施方式包括:获取已标注对象的姿态的图像;基于该图像和对姿态的标注,对卷积神经网络进行训练,得到训练后的卷积神经网络,训练过程包括:将该图像输入卷积神经网络,基于该卷积神经网络的在先设置的锚点姿态,确定各个对象的候选姿态;将重合度大于预设重合度阈值的候选框作为目标候选框;对于每个标注框所对应的目标候选框内的每一个关键点,取各个目标候选框内的该关键点的位置平均值;将各个关键点的位置平均值的集合作为对该图像检测到的一个姿态。本实施例通过重合度对各个候选姿态进行筛选并取得关键点的平均值,以准确地分辨出图像中的各个姿态。
Également publié en tant que
Dernières données bibliographiques dont dispose le Bureau international