Processing

Please wait...

Settings

Settings

Goto Application

1. WO2022207438 - METHOD AND SYSTEM FOR ESTIMATING DEPTH INFORMATION

Publication Number WO/2022/207438
Publication Date 06.10.2022
International Application No. PCT/EP2022/057733
International Filing Date 24.03.2022
IPC
G06V 10/60 2022.1
G06T 7/593 2017.1
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
7Image analysis
50Depth or shape recovery
55from multiple images
593from stereo images
G06V 10/80 2022.1
G06V 20/56 2022.1
CPC
G06T 2207/10021
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
2207Indexing scheme for image analysis or image enhancement
10Image acquisition modality
10016Video; Image sequence
10021Stereoscopic video; Stereoscopic image sequence
G06T 2207/10028
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
2207Indexing scheme for image analysis or image enhancement
10Image acquisition modality
10028Range image; Depth image; 3D point clouds
G06T 2207/10048
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
2207Indexing scheme for image analysis or image enhancement
10Image acquisition modality
10048Infrared image
G06T 2207/20081
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
2207Indexing scheme for image analysis or image enhancement
20Special algorithmic details
20081Training; Learning
G06T 2207/30252
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
2207Indexing scheme for image analysis or image enhancement
30Subject of image; Context of image processing
30248Vehicle exterior or interior
30252Vehicle exterior; Vicinity of vehicle
G06T 7/593
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
7Image analysis
50Depth or shape recovery
55from multiple images
593from stereo images
Applicants
  • CONTI TEMIC MICROELECTRONIC GMBH [DE]/[DE]
  • VOLKSWAGEN AG [DE]/[DE]
Inventors
  • HEINRICH, Stefan
  • KRÖKEL, Dieter
  • FECHNER, Thomas
  • KURZ, Heiko Gustav
Agents
  • WOLF, Gerhard
Priority Data
10 2021 107 903.929.03.2021DE
Publication Language German (de)
Filing Language German (DE)
Designated States
Title
(DE) VERFAHREN UND SYSTEM ZUR SCHÄTZUNG VON TIEFENINFORMATIONEN
(EN) METHOD AND SYSTEM FOR ESTIMATING DEPTH INFORMATION
(FR) PROCÉDÉ ET SYSTÈME D'ESTIMATION D'INFORMATIONS DE PROFONDEUR
Abstract
(DE) Die Erfindung betrifft ein Verfahren zur Ermittlung von Tiefeninformationen zu Bildinformationen mittels eines künstlichen neuronalen Netzes (2) in einem Fahrzeug (1), umfassend die folgenden Schritte: - Bereitstellen zumindest eines Emitters (3, 3') und zumindest eines ersten und eines zweiten Empfangssensors (4, 5), wobei der erste und zweite Empfangssensor (4, 5) beabstandet zueinander angeordnet sind (810); - Aussenden von elektromagnetischer Strahlung durch den Emitter (3, 3') (811); - Empfangen von reflektierten Anteilen der vom Emitter (3, 3') ausgesandten elektromagnetischen Strahlung durch den ersten und zweiten Empfangssensor (4, 5) und Erzeugung von ersten Bildinformationen (B1) durch den ersten Empfangssensor (4) und zweiten Bildinformationen (B2) durch den zweiten Empfangssensor (5) basierend auf den empfangenen reflektierten Anteilen (S12); - Vergleichen der ersten und zweiten Bildinformationen (B1, B2) zur Bestimmung zumindest eines in den ersten und zweiten Bildinformationen ungleich beleuchteten Bildbereichs (D1, D2), der aufgrund der beabstandeten Anordnung der Empfangssensoren (4, 5) durch die Parallaxe entsteht (S13); - Auswerten von geometrischen Informationen des zumindest einen ungleich beleuchteten Bildbereichs (D1, D2) und Schätzung von Tiefeninformationen durch das künstliche neuronale Netz (2) basierend auf dem Ergebnis der Auswertung der geometrischen Informationen des zumindest einen ungleich beleuchteten Bildbereichs (S14).
(EN) The invention relates to a method for determination depth information relating to image information by means of an artificial neural network (2) in a motor vehicle (1), comprising the following steps: - providing at least one emitter (3, 3') and at least one first and one second receiving sensor (4, 5), said first and second receiving sensors (4, 5) being spaced apart from one another (810); - emitting electromagnetic radiation by the emitter (3, 3') (811); - receiving reflected proportions of the electromagnetic radiation emitted by the emitter (3, 3') by the first and second receiving sensors (4, 5) and generating first image information (B1) by the first receiving sensor (4) and second image information (B2) by the second receiving sensor (5) on the basis of the received reflected proportions (S12); - comparing the first and second image information (B1, B2) for determining at least one image area (D1, D2) which is unequally illuminated in the first and second image information and which is produced by the parallax (S13) due to the spaced-apart arrangement of the receiving sensors (4, 5); - evaluating geometric information of the at least one unequally illuminated image area (D1, D2) and estimating depth information by the artificial neural network (2) on the basis of the evaluation of the geometric information of the at least one unequally illuminated image area (S14).
(FR) L'invention concerne un procédé de détermination d'informations de profondeur relatives à des informations d'image au moyen d'un réseau neuronal artificiel (2) dans un véhicule (1), qui comprend les étapes suivantes qui consistent à : fournir au moins un émetteur (3, 3') et au moins un premier et un deuxième capteur de réception (4, 5), le premier et le deuxième capteur de réception (4, 5) étant espacés l'un par rapport à l'autre (810) ; émettre un rayonnement électromagnétique par l'émetteur (3, 3') (811) ; recevoir des proportions réfléchies du rayonnement électromagnétique par l'émetteur (3, 3') par le premier et le deuxième capteur de réception (4, 5) et générer des premières informations d'image (B1) par le premier capteur de réception (4) et des deuxièmes informations d'image (B2) par le deuxième capteur de réception (5) sur la base des proportions réfléchies (S12) ; comparer les premières et deuxièmes informations d'image (B1, B2) pour déterminer au moins une zone d'image (D1, D2) qui est éclairée de manière inégale dans les premières et les deuxièmes informations d'image et qui est produite par le parallaxe (S13) en raison de la disposition espacée des capteurs de réception (4, 5) ; évaluer des informations géométriques de la ou des zones d'image éclairées de manière inégale (D1, D2) et estimer des informations de profondeur par le réseau neuronal artificiel (2) sur la base de l'évaluation des informations géométriques de la ou des zones d'image éclairées de manière inégale (S14).
Related patent documents
Latest bibliographic data on file with the International Bureau