PATENTSCOPE will be unavailable a few hours for maintenance reason on Monday 03.02.2020 at 10:00 AM CET
Search International and National Patent Collections
Some content of this application is unavailable at the moment.
If this situation persists, please contact us atFeedback&Contact
1. (WO2020006378) SENSOR CALIBRATION
Latest bibliographic data on file with the International BureauSubmit observation

Pub. No.: WO/2020/006378 International Application No.: PCT/US2019/039763
Publication Date: 02.01.2020 International Filing Date: 28.06.2019
IPC:
G06T 7/80 (2017.01)
[IPC code unknown for G06T 7/80]
Applicants:
ZOOX, INC. [US/US]; 1149 Chess Drive Foster City, CA 94404, US
Inventors:
KROEGER, Till; US
Agent:
DIDAS, Michael, J.; US
HARTMAN, Robert, G.; US
Priority Data:
16/023,50729.06.2018US
16/023,57129.06.2018US
Title (EN) SENSOR CALIBRATION
(FR) ÉTALONNAGE DE CAPTEUR
Abstract:
(EN) This disclosure is directed to calibrating sensors mounted on an autonomous vehicle 104. First image data 110(1) and second image data 110(2) representing an environment can be captured 102 by first and second cameras 106(1) and 106(2), respectively (and/or a single camera at different points in time). Point pairs comprising a first point in the first image data and a second point in the second image data can be determined 112 and projection errors associated with the points can be determined 134. The operation 112 may determine correspondence between points, e.g., identify the point pairs, using feature matching. A subset of point pairs can be determined 150, e.g., by excluding point pairs with the highest projection error. Calibration data associated with the subset of points can be determined 152 and used to calibrate the cameras without the need for calibration infrastructure. Process 100 uses epipolar geometry to correct for misalignment, e.g., physical misalignment, of cameras on the autonomous vehicle. Lidar data, which does consider the three- dimensional characteristics of the environment (e.g., feature edges) can be used to further constrain the camera sensors, thereby removing any scale ambiguity and/or translational / rotational offsets. In an embodiment, the process may perform several of the operations in parallel, e.g., to solve for the extrinsic calibration data and the intrinsic calibration data from the same image data and at the same time (e.g., a joint optimization).
(FR) La présente invention concerne l'étalonnage de capteurs montés sur un véhicule autonome 104. Des premières données d'image 110(1) et des secondes données d'image 110(2) représentant un environnement peuvent être capturées 102 par des première et seconde caméras 106(1) et 106(2), respectivement (et/ou une seule caméra à différents instants). Des paires de points comprenant un premier point dans les premières données d'image et un second point dans les secondes données d'image peuvent être déterminées 112 et des erreurs de projection associées aux points peuvent être déterminées 134. L'opération 112 peut déterminer une correspondance entre des points, par ex., identifier les paires de points, en utilisant une correspondance de caractéristiques. Un sous-ensemble de paires de points peut être déterminé 150, par ex., en excluant des paires de points ayant l'erreur de projection la plus élevée. Des données d'étalonnage associées au sous-ensemble de points peuvent être déterminées 152 et utilisées pour étalonner les caméras sans avoir besoin d'une infrastructure d'étalonnage. Le procédé 100 utilise une géométrie épipolaire pour corriger un défaut d'alignement, par ex., un défaut d'alignement physique, de caméras sur le véhicule autonome. Des données Lidar, qui tiennent compte des caractéristiques tridimensionnelles de l'environnement (par ex., des bords de caractéristiques) peuvent être utilisées pour contraindre davantage les capteurs de caméra, ce qui permet d'éliminer toute ambiguïté d'échelle et/ou les décalages de translation/rotation. Selon un mode de réalisation, le procédé peut effectuer plusieurs des opérations en parallèle, par ex., pour calculer les données d'étalonnage extrinsèques et les données d'étalonnage intrinsèques à partir des mêmes données d'image et en même temps (par ex., une optimisation conjointe).
front page image
Designated States: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
African Regional Intellectual Property Organization (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Eurasian Patent Organization (AM, AZ, BY, KG, KZ, RU, TJ, TM)
European Patent Office (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Publication Language: English (EN)
Filing Language: English (EN)