Processing

Please wait...

Settings

Settings

Goto Application

1. WO2020072579 - MOTION ESTIMATION USING 3D AUXILIARY DATA

Publication Number WO/2020/072579
Publication Date 09.04.2020
International Application No. PCT/US2019/054194
International Filing Date 02.10.2019
IPC
H04N 7/18 2006.01
HELECTRICITY
04ELECTRIC COMMUNICATION TECHNIQUE
NPICTORIAL COMMUNICATION, e.g. TELEVISION
7Television systems
18Closed-circuit television systems, i.e. systems in which the signal is not broadcast
CPC
H04N 13/00
HELECTRICITY
04ELECTRIC COMMUNICATION TECHNIQUE
NPICTORIAL COMMUNICATION, e.g. TELEVISION
13Stereoscopic video systems; Multi-view video systems; Details thereof
H04N 19/52
HELECTRICITY
04ELECTRIC COMMUNICATION TECHNIQUE
NPICTORIAL COMMUNICATION, e.g. TELEVISION
19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
50using predictive coding
503involving temporal prediction
51Motion estimation or motion compensation
513Processing of motion vectors
517by encoding
52by predictive encoding
H04N 19/56
HELECTRICITY
04ELECTRIC COMMUNICATION TECHNIQUE
NPICTORIAL COMMUNICATION, e.g. TELEVISION
19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
50using predictive coding
503involving temporal prediction
51Motion estimation or motion compensation
56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
H04N 19/597
HELECTRICITY
04ELECTRIC COMMUNICATION TECHNIQUE
NPICTORIAL COMMUNICATION, e.g. TELEVISION
19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
50using predictive coding
597specially adapted for multi-view video sequence encoding
H04N 7/18
HELECTRICITY
04ELECTRIC COMMUNICATION TECHNIQUE
NPICTORIAL COMMUNICATION, e.g. TELEVISION
7Television systems
18Closed circuit television systems, i.e. systems in which the signal is not broadcast
Applicants
  • FUTUREWEI TECHNOLOGIES, INC. [US]/[US]
Inventors
  • ZAKHARCHENKO, Vladyslav
  • CHEN, Jianle
Agents
  • CARLSON, Craig E.
  • LI, Jun
Priority Data
62/740,23702.10.2018US
62/863,36219.06.2019US
Publication Language English (EN)
Filing Language English (EN)
Designated States
Title
(EN) MOTION ESTIMATION USING 3D AUXILIARY DATA
(FR) ESTIMATION DE MOUVEMENT À L'AIDE DE DONNÉES AUXILIAIRES 3D
Abstract
(EN)
Methods, systems, and apparatus, including computer programs encoded on computer storage media, for performing motion estimation. In some implementations, a method includes generating a segmentation of point cloud data based on continuity data of the point cloud data. A representation of the segmented point cloud data is projected onto sides of a three-dimensional bounding box. Patches are generated based on the projected representation of the segmented point cloud data. A first frame of the patches is generated. First and second auxiliary information is generated using the first frame and a reference frame. A first patch from the first frame is identified that matches a patch from the reference frame based on the first and second auxiliary information. A motion vector candidate is generated between the first and second patch based on a difference between the first and second auxiliary information. Motion compensation is performed using the motion vector candidate.
(FR)
La présente invention concerne des procédés, des systèmes et des appareils, comprenant des programmes informatiques codés sur des supports de stockage informatique afin d'effectuer une estimation de mouvement. Dans certains modes de réalisation, un procédé consiste à générer une segmentation de données de nuage de points sur la base de données de continuité des données de nuage de points. Une représentation des données de nuage de points segmentées est projetée sur des côtés d'une boîte de délimitation tridimensionnelle. Des pastilles sont générées sur la base de la représentation projetée des données de nuage de points segmentées. Une première trame des pastilles est générée. Des première et seconde informations auxiliaires sont générées à l'aide de la première trame et d'une trame de référence. Une première pastille de la première trame est identifiée, qui correspond à une pastille de la trame de référence sur la base des première et seconde informations auxiliaires. Un vecteur de mouvement candidat est généré entre les premières et les secondes pastilles sur la base d'une différence entre les première et seconde informations auxiliaires. Une compensation de mouvement est effectuée à l'aide du vecteur de mouvement candidat.
Latest bibliographic data on file with the International Bureau