Processing

Please wait...

Settings

Settings

Goto Application

1. WO2020221989 - A SYSTEM AND METHOD FOR LOCALISATION USING FOOTPRINTS

Publication Number WO/2020/221989
Publication Date 05.11.2020
International Application No. PCT/GB2020/051005
International Filing Date 23.04.2020
IPC
G06T 7/73 2017.1
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
7Image analysis
70Determining position or orientation of objects or cameras
73using feature-based methods
CPC
G01C 21/1656
GPHYSICS
01MEASURING; TESTING
CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
21Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
10by using measurements of speed or acceleration
12executed aboard the object being navigated; Dead reckoning
16by integrating acceleration or speed, i.e. inertial navigation
165combined with non-inertial navigation instruments
1656with passive imaging devices, e.g. cameras
G06T 2207/10048
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
2207Indexing scheme for image analysis or image enhancement
10Image acquisition modality
10048Infrared image
G06T 2207/30244
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
2207Indexing scheme for image analysis or image enhancement
30Subject of image; Context of image processing
30244Camera pose
G06T 7/73
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
7Image analysis
70Determining position or orientation of objects or cameras
73using feature-based methods
G06T 7/75
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
7Image analysis
70Determining position or orientation of objects or cameras
73using feature-based methods
75involving models
G06T 7/80
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
7Image analysis
80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Applicants
  • BAE SYSTEMS PLC [GB]/[GB]
Inventors
  • ASHCROFT, Jennifier
  • JACKSON, Eddie
Agents
  • BAE SYSTEMS PLC, GROUP IP DEPT
Priority Data
1905945.029.04.2019GB
19275060.229.04.2019EP
Publication Language English (en)
Filing Language English (EN)
Designated States
Title
(EN) A SYSTEM AND METHOD FOR LOCALISATION USING FOOTPRINTS
(FR) SYSTÈME ET PROCÉDÉ DE LOCALISATION UTILISANT DES EMPREINTES
Abstract
(EN) A system comprises a camera for capturing an image, at least one processor and at least one memory, the at least one memory storing instructions configured to cause the processor to: obtain an image of a scene captured using the camera, the scene comprising a footprint of a user of the system; identify the footprint in the image; identify a first plurality of reference points each having a fixed position relative to the footprint in the image; identify a second plurality of reference points each having a fixed position relative to a three-dimensional model of the user's foot constructed based on at least one known dimension of the user's foot; determine a transformation matrix by mapping the second plurality of reference points of the three-dimensional model to the first plurality of reference points; and determine, based on the transformation matrix, a three-dimensional position of the camera relative to the footprint in the scene at the time of capturing the image.
(FR) L’invention concerne un système qui comprend une caméra pour capturer une image, au moins un processeur et au moins une mémoire, la ou les mémoires stockant des instructions configurées pour amener le processeur à : obtenir une image d'une scène capturée à l'aide de la caméra, la scène comprenant une empreinte d'un utilisateur du système ; identifier l'empreinte dans l'image ; identifier une première pluralité de points de référence ayant chacun une position fixe par rapport à l'empreinte dans l'image ; identifier une seconde pluralité de points de référence ayant chacun une position fixe par rapport à un modèle tridimensionnel du pied de l'utilisateur construit sur la base d'au moins une dimension connue du pied de l'utilisateur ; déterminer une matrice de transformation par mise en correspondance de la seconde pluralité de points de référence du modèle tridimensionnel avec la première pluralité de points de référence ; et déterminer, sur la base de la matrice de transformation, une position tridimensionnelle de la caméra par rapport à l'empreinte dans la scène au moment de la capture de l'image.
Latest bibliographic data on file with the International Bureau