Traitement en cours

Veuillez attendre...

Paramétrages

Paramétrages

Aller à Demande

1. WO2004098176 - PROCEDE DE TRANSMISSION DE DONNEES REPRESENTANT LA POSITION DANS L'ESPACE D'UNE CAMERA VIDEO ET SYSTEME DE MISE EN OEUVRE DU PROCEDE

Note: Texte fondé sur des processus automatiques de reconnaissance optique de caractères. Seule la version PDF a une valeur juridique

[ FR ]

PROCEDE DE TRANSMISSION DE DONNEES REPRESENTANT LA POSITION DANS LΕSPACE D'UNE CAMERA VIDEO ET SYSTEME DE MISE EN OEUVRE DU
PROCEDE

L'invention concerne un procédé de transmission de données représentant la position dans l'espace d'une caméra vidéo en mouvement, plus particulièrement un procédé de transmission en temps réel de ces coordonnées.
Elle permet de ce fait de connaître les coordonnées des plans images d'un film vidéo.
Un tel procédé est généralement connu sous l'appellation anglo-saxonne de " motion control".
L'invention concerne également un système pour la mise en œuvre du procédé.
Dans le cadre de l'invention, le terme "coordonnées" doit être entendu dans un sens très général. Dans leur sens général, les coordonnées du plan image sont : l'Inclinaison de ce plan dans l'espace, donnée par les angles d'azimut, d'élévation et de roulement, ainsi que la position du centre de l'image. Ce centre peut être donnée par trois valeurs de coordonnées, dénommés arbitrairement x, y, et z, d'un trièdre orthonormé d'axes X, Y et Z
Elle trouve une application particulièrement intéressante, bien que non exhaustive, dans deux domaines principaux :
- premier domaine d'application : la caractérisation des images d'un flux vidéo quand à la position de leur plan dans l'espace ; et
- deuxième domaine d'application : la visualisation en temps réel d'un aperçu du cadrage d'une caméra vidéo dans un décor virtuel.
Premier domaine d'application :
Dans l'industrie des effets spéciaux de film, il est souvent nécessaire d'incruster des images d'autres provenances (autre film, maquettes, images de synthèses, ...) dans des images filmées avec une caméra en mouvement. En connaissant avec précision les coordonnées de chaque plan d'image et la focale utilisée, il devient aisé de faire correspondre pour incrustation d'autres plans d'images dont on connaît aussi les coordonnées. Les coordonnées du plan image sont, comme il a été rappelé, l'Inclinaison du plan dans l'espace (angles d'azimut, d'élévation et de roulement), ainsi que la position du centre de l'image (coordonnées x, y, z). ceci est particulièrement pratique pour l'incrustation d'images de synthèses dans un film.
Deuxième domaine d'application :
Les décors d'un film sont de plus, en tout ou partie, composés d'images de synthèse. Or, il devient difficile dans ces conditions de choisir exactement le cadrage d'une caméra vidéo surtout lorsqu'elle est en mouvement, il est alors nécessaire de visualiser en temps réel un aperçu du cadrage de la caméra dans un décor virtuel tridimensionnel. Le décor tridimensionnel est modélisé au préalable. Lorsque les positions de la caméra et la focale sont connues en temps réel, l'image virtuelle du cadrage est restituée par un logiciel de rendu tridimensionnel en temps réel.
Dans l'art connu, il existe un certain nombre de procédés et de systèmes visant à répondre à des besoins de ce type, procédés et systèmes qui peuvent se répartir selon deux catégories principales.
Il existe tout d'abord des procédés associés à des systèmes munis de caméras vidéo positionnées sur des robots ou des bras articulés. Avec ce type de système, il est certes possible de parvenir à une bonne précision. Par contre, il présente habituellement des inconvénients relativement nombreux, que l'on peut résumer ainsi : appareil lourd et peu transportable, faible rayon d'action, coût élevé, système réservé à des spécialistes, car de mise en œuvre complexe.
Il existe aussi des procédés et systèmes de traitement d'images mettant en oeuvre un suivi de points dits "remarquables". Ces solutions recourent à un logiciel spécialisé. Une fois le film numérisé, des points remarquables sont sélectionnés sur une image particulière du film. Ces mêmes points remarquables sont ensuite repérés sur chaque image grâce à une méthode logicielle dite de "tracking de points" (c'est-à-dire de "suivi de points"). Grâce à un algorithme de traitement d'image, le logiciel est capable de déterminer la position de chaque plan focal de chaque image. L'avantage principal de ce procédé est que les prises de vue sont faciles et rapides. A titre d'exemple, on peut citer les logiciels "3D equalizer" de la société "Techimage" et "MatchMover" de la société "Réalvitz" (marque enregistrée).
Les inconvénients de ce procédé sont toutefois nombreux :
- traitement d'image long et coûteux : le traitement de séquences de moins d'une minute peut prendre des semaines ;
- nécessite de nombreuses Interventions manuelles ;
- définitions médiocres.
- nécessité pour les images d'être contrastées : à titre d'exemple, le procédé est pratiquement impossible sur des séquences avec du brouillard, de la pluie ou avec une faible luminosité ;
- nécessité pour les images d'être nettes, un effet de flou perturbant la qualité des mesures : à titre d'exemple, lorsque qu'il y a une grande ouverture du diaphragme de l'objectif qui diminue la profondeur de champ ;
- en présence d'erreurs engendrées par l'optique, ces d'erreurs perturbent la qualité des mesures (aberration chromatique, aberration sphérique, coma, astigmatisme, courbure de champ, distorsion, etc.) ;
- les systèmes de compressions d'image nuisent aussi à la qualité des mesures ;

- le traitement du calcul de position d'image étant différé, il est impossible d'appliquer cette technique à la visualisation de décor en temps réel ; et
- nécessité d'utiliser des cibles optiques lorsque l'image n'offre que peu de contraste : on peut citer à titre d'exemple un film sur fond bleu.
L'invention vise à pallier les inconvénients des systèmes et procédés de l'art connu, et dont certains viennent d'être rappelés.
L'invention se fixe comme but un procédé transmission en temps réel des coordonnées de position dans l'espace d'une caméra vidéo en mouvement
L'invention se fixe comme but un système de mise en œuvre de ce procédé. Le système dans sa globalité se présente sous la forme d'un système léger conçu pour être assujetti à une caméra vidéo.
Plus précisément, il se présente sous la forme d'un système léger, mobile et autonome permettant, si la focale est connue, le contrôle de la position de la caméra vidéo, ce qui permet de faciliter l'incrustation d'images sur des images filmées. Il peut servir de pointeur pour permettre une visualisation, selon l'axe de la caméra, d'un décor virtuel tridimensionnel.
Le système selon l'invention comprend essentiellement deux sous systèmes principaux :
Le premier sous-système est destiné à être rendu solidaire d'une caméra vidéo. Il est constitué avantageusement d'une coque rigide dans laquelle sont logé une centrale inertielle et son électronique.
Le deuxième sous-système, pouvant être porté avantageusement en besace par un opérateur, est destiné à traiter les informations du premier sous-système et alimente en énergie le système en entier. Il comprend :
- une batterie, ou tout organe équivalent, préférentiellement pour alimentation électrique du système en son entier ; et - une console électronique légère reliée à la sortie de la centrale inertielle qui enregistre les données de position de la caméra vidéo dans l'espace à une fréquence déterminée, typiquement 100 Hz.
Les données enregistrées dans la console électronique sont indexées par rapport au temps.
Les données peuvent êtres transmises directement par câble ou par onde à une unité de traitement informatique de données supplémentaire munie d'un logiciel de navigation dans un modèle 3D, de manière à y être traité en temps réel ou quasi-réel. Dans une variante préférentielle de réalisation, cette unité de traitement supplémentaire peut être incorporée dans un sac à dos, ou un organe similaire, porté par l'opérateur.
Pour améliorer la qualité et la précision des mesures et/ou la facilité de traitement, des organes supplémentaires peuvent être adjoints à l'un et/ou l'autre des deux sous-systèmes.
Grâce au procédé et au système selon l'invention, la précision des mesures est indépendante de la qualité de l'image. En outre, la transmission des coordonnées de position est effectuée en temps réel.
L'invention a donc pour objet principal un procédé de transmission des coordonnées de position d'un appareil de prise de vues d'une séquence d'images vidéo se déplaçant dans l'espace le long d'une trajectoire déterminée par rapport à un référentiel déterminé, caractérisé en ce que en ce qu'il comprend au moins les étapes suivantes :
- une étape préliminaire consistant en l'assujettissement dudit appareil de prise de vues à un premier sous-système comprenant une centrale inertielle délivrant des signaux de données représentatives des coordonnées et de l'inclinaison instantané dudit appareil de prise de vues par rapport au dit référentiel ;
- une première étape d'acquisition en temps réel desdits signaux de données lors d'un déplacement dudit appareil de prise de vues le long de ladite trajectoire et de leur transmission à un deuxième sous-système comprenant des moyens de traitement de ces données à programme enregistré ; et
- une deuxième étape de traitement desdites données en temps réel et/ou différé, de manière à déterminer lesdites coordonnées de position.
L'invention a encore pour objet l'application de ce procédé à la caractérisation des images d'un flux vidéo quand à la position de leur plan dans l'espace.
L'invention a encore pour objet l'application de ce procédé à la visualisation en temps réel d'un aperçu du cadrage d'une caméra vidéo dans un décor virtuel.
L'invention a enfin pour objet un système transmission en temps réel des coordonnées de position dans l'espace d'une caméra vidéo en mouvement pour la mise en oeuvre du procédé.
L'invention va maintenant être décrite de façon plus détaillée en se référant aux dessins annexés, parmi lesquels :
la figure 1A illustre schématiquement un exemple de système de transmission et de traitement de données représentant la position dans l'espace d'un appareil de prise de vues d'une séquence d'images vidéo, selon un premier mode de réalisation de l'invention ;
les figures 1 B à 1 D illustrent schématiquement un exemple de système de transmission et de traitement de données représentant la position dans l'espace d'un appareil de prise de vues d'une séquence d'images vidéo, selon un deuxième mode de réalisation de l'invention ;
- la figure 2 illustre schématiquement un mode opératoire permettant l'acquisition de coordonnées en trois dimensions du plan d'une image, par rapport à un trièdre orthonormé de référence lié à une scène ; et la figure 3 est un bloc diagramme décrivant les principales étapes du procédé selon deux modes de réalisation du procédé de l'invention
On va tout d'abord décrire un exemple de système transmission en temps réel des coordonnées de position dans l'espace d'une caméra vidéo en mouvement selon deux modes de réalisation de l'invention par référence aux figures 1A à 3.
Sur ces figures, les éléments identiques portent les mêmes références et ne seront re-décrits qu'en tant que de besoin.
Sur la figure 1A, on a représenté un système 1 , que l'on peut qualifier de "minimaliste".
Ce système 1 comprend une caméra vidéo. En effet, le procédé selon l'invention, comme il le sera montré, permet de décorreller la qualité des images de la précision des mesures fournies par le système. En d'autres termes, une grande précision de mesure peut être obtenue même si les images sont de faible qualité. Le système n'est donc pas sensible à des conditions de prise de vues telles que faible lumière, flou, etc.
Selon l'invention, le système de transmission en temps réel des coordonnées de position dans l'espace de la caméra vidéo 10 en mouvement comprend, comme il a été indiqué deux sous-systèmes principaux :
Le premier sous-système, 11 , comprend une centrale inertielle et son électronique (non explicitement représentés). Il est constitué avantageusement d'une coque rigide 110 dans laquelle sont logées la centrale inertielle et son électronique. Cette coque est destinée à être assujettie à la caméra vidéo 10 par tout organe approprié de fixation, définitif ou déverrouillable (liens, vis, etc.), symbolisé par la référence 1 11.
Le deuxième sous-système est un organe de mémorisation 12, pouvant être porté avantageusement en besace par un opérateur (non représenté sur la figure 1A). cet organe de mémorisation 12 est destiné à traiter les informations fournies par le premier sous-système 11. de façon préférentielle, il alimente en énergie le système 1 en entier.
De façon plus précise, le deuxième sous-système 12 comprend :
- une batterie d'alimentation électrique, ou tout organe équivalent (non représenté) ; et
- une console électronique légère reliée à la sortie de la centrale inertielle qui enregistre les données de position dans l'espace de la caméra vidéo 10 (via le bâti 11 qui lui est assujetti), à une fréquence typique d'environ 100 Hz.
Les données sont transmises au deuxième sous-système 12 via une liaison 112, filaire ou non (onde électromagnétique, etc.). Il est à noter que cette liaison 112 peut être bidirectionnelle, et dans le cas d'une liaison de type filaire, série ou parallèle. La figure 1 B illustre un exemple de système transmission en temps réel des coordonnées de position dans l'espace d'une caméra vidéo en mouvement selon un deuxième mode de réalisation, que l'on pourra qualifier de "complet". Ce système est désormais référencé l'.
La caméra vidéo et le premier sous-système peuvent être d'un type identique à ceux représentés sur la figure 1A. Cependant la caméra vidéo et le premier sous-système sont désormais référencés 10' et 11', car ils peuvent être complétés, l'un et/ou l'autre, dans certaines variantes de réalisation, par divers organes qui vont être décrits ci-après. Le premier sous-système 11' est, comme précédemment assujetti à la caméra vidéo 10' par tout moyen approprié, symbolisé par le lien de référence 111'.
Une différence fondamentale entre les premier et deuxième modes de réalisation consiste en ce que les données générées par le premier sous-système 11' sont transmises à un système de traitement de données à programme enregistré sous la référence générale 20. Ce dernier est disposé avantageusement dans un sac à dos,

200, ou tout organe similaire, porté par l'opérateur OP.

La figure 1C illustre schématiquement une configuration possible du système de traitement de données 20, sous la forme par exemple d'un microordinateur 4 disposé dans le sac à dos 200 et communiquant avec le premier sous-système 1 l' par des liaisons 112' de type similaires sinon identiques à celles de la figure 1A.
Le microordinateur 4 comprend un ensemble d'organes et de circuits regroupés arbitrairement dans un châssis 40. Les principaux organes et circuits de ce microordinateur 4 sont les suivants :
une batterie d'alimentation en énergie électrique 400, par exemple de 12 volts

10 AH au lithium, et une alimentation à découpage associée 401 , de manière à éviter l'utilisation de transformateurs lourds : l'alimentation fournit un jeu de tensions et/ou courants de sorties d'amplitudes appropriés, destinés à sous la référence générale VS ;
une unité de traitement de données numériques à programme enregistré 402 proprement dite, comprenant divers organes classiques nécessaires à son bon fonctionnement (non représentés) tels que, microprocesseur, mémoire centrale, etc., et notamment une carte vidéo, avantageusement de type 3D,
une mémoire de masse 403, par exemple constitués de deux disques magnétiques de 80 GO chacun ;
une unité de visualisation 404 commandée par la carte vidéo 3D précitée ; - des dispositifs d'entrée de données de type clavier 405 et de pointage 406 : souris, boule etc., pour saisir des commentaires, données, instructions de synchronisation ou ordres de traitement ;
des circuits électroniques 407 de traitement des signaux générés par le premier sous-système 11' (figure 1 B), interfaces avec l'unité de traitement de données numériques 402 par une carte de circuits électroniques appropriés (port série par exemple) ; et
- des ports d'entrée-sortie pour la gestion de différents protocoles et des circuits électroniques d'interfaces vers des dispositifs extérieurs : "IEEE 1394" ou "firewire", "USB", "VGA", vidéo, son, "bluetooth", "ethernet", "wireless", "802.11", etc., regroupés sous une référence unique 408.
On prévoit également une connectique appropriée 409 permettant de réaliser une connexion par câble 112' (figure 1 B) avec le premier sous-système 11'. A priori, le câble 112' peut véhiculer des signaux de plusieurs catégories: électroniques par des liaisons filaires 1120' (bus série par exemple ou autre), des signaux d'alimentation électrique 1121' et des signaux optiques par des liaisons à fibres optiques 1122', par exemple en provenance de gyromètres à fibre optique contenus dans le premier sous-système 11 '. Une connectique semblable (non représentée) est prévue dans le sous-système 11 '. On peut naturellement prévoir aussi d'autres types de liaisons : liaisons radio (par exemple selon le protocole "bluethooth" précité) et/ou optiques directes (signaux modulant une porteuse infrarouge par exemple), entre le sous-système 11' et des éléments du microordinateur 4.
En lieu et place des dispositifs d'entrée de données 405 et/ou 406, ou en complément de ceux-ci, on peut prévoir un "Assistant Électronique de Poche" ("ADP") externe (figure 1 B), connu sous l'abréviation anglo-saxonne de "PDA" (pour "Personal Digital Assistant"). Ce "PDA" est relié au microordinateur 4 par un câble 210 transitant, par exemple, par la connectique 409.
De façon préférentielle, les circuits 421 alimentent par les liaisons 1121', via la connectique 409, l'ensemble du système l', c'est-à-dire le premier sous-système 11', et éventuellement la caméra vidéo 10'.
Pour améliorer les mesures effectuées et/ou obtenir une meilleure facilité de traitement on peut compléter et/ou modifier les premier et deuxième sous-systèmes, 11 ' et 2, respectivement.

De façon à améliorer la détermination de la localisation de la caméra vidéo 10', on peut faire appel aux organes suivants, disposés dans la caméra vidéo 10', le premier sous-système 11' et/ou le deuxième sous-système 2 :
- mettre en œuvre un gyromètre constitué à base de trois bobines orthogonales de fibre optique monomode, par exemple de diamètre 80 mm comportant chacune

1000 mètres de fibre optique ;
- mettre en œuvre en complément un magnétomètre tri flux rotatif pour préciser les paramètres de localisation ;
- mettre en œuvre deux inclinomètres orthogonaux par rapport au le plan principal de l'appareil, c'est-à-dire de la caméra vidéo 10' ;
- mettre en œuvre un dispositif de localisation satellitaire 22, de type connu sous l'abréviation anglo-saxonne "GPS" ("pour "Global Positionning System" ou "Système de Positionnement Mondial") ou, dans un futur proche du type duit "GALILLEO" qui permettra une localisation plus précise) pour de données caractérisant des variations de localisation et corriger les composantes inertielles (le dispositif 22 communique avec des circuits de traitement appropriés, non représenté sur la figure 1C, contenus dans le châssis 40 du microordinateur 4 ;

- mettre en œuvre un dispositif de localisation électronique (par champ électromagnétique ou électrostatique) pour procurer des variations de localisation et corriger les composants inertiels,
- mettre en œuvre un magnétomètre, à un ou plusieurs flux, statique ou dynamique (par exemple rotatif pour éliminer des composantes parasites) pour procurer des variations de localisation essentiellement par rapport au champ magnétique terrestre et corriger les composantes inertielles ;
- mettre en œuvre un odomètre pour procurer des variations de localisation et corriger les composantes inertielles ;
- mettre en œuvre un système électronique donnant à l'opérateur et au système une estimation de la dérive des dispositifs de localisations en temps réel ;
- mettre en œuvre un trièdre de trois émetteurs à ultrasons pour générer des informations sur la localisation de la caméra vidéo 10' ; et/ou
- mettre en œuvre un capteur de température pour améliorer les précisions des données de la centrale inertielle.
Pour obtenir une bonne synchronisation des données entre les séquences d'images vidéo prises par la caméra vidéo 10', on peut mettre en œuvre un compteur de temps de précision à quartz pour permettre une bonne synchronisation des données.
On peut également utiliser une petite caméra (auxiliaire) embarquée 100' rendue solidaire de la caméra vidéo 10'. Le flux d'images obtenu par celle-ci, même de faible qualité, synchronisé avec les mesures de localisation de la caméra vidéo 10', permet de synchroniser facilement le flux d'images de meilleure qualité de la caméra vidéo principale 10' avec les mesures de localisation de celle-ci.
On peut également compléter le deuxième sous-système 2 par un microphone 23 captant des commentaires de l'opérateur OP et/ou des tops sonores de synchronisation, ce pour faciliter et sécuriser le montage des différentes séquences d'images vidéo prises.
On peut enfin mettre en œuvre une borne d'initialisation 3, comme illustré schématiquement par la figure 1 D. La caméra vidéo 10' est placée originellement sur un support 30 qui sert de point d'origine pour les capteurs de mouvement et de localisation de la caméra vidéo 10' placés dans le premier sous-système 11'.
II est tout à fait possible de mettre en œuvre une caméra vidéo de conception plus élaborée que celle suggérée jusqu'à présent, notamment en ce qui concerne des organes dits "d'Interface homme machine": la caméra vidéo 10' peut notamment être pourvue : - de boutons poussoir ;
- de deux mollettes (permettant de régler la vitesse d'acquisition d'images et l'acquisition de points remarquables) ; et/ou
- d'un écran de visualisation, avantageusement de type "LCD" (pour "Liquid Crystal Display" ou "Écran à Cristaux liquides", par exemple de résolution 400x300 pixels).
On peut également munir l'opérateur OP de lunettes virtuelles qui peuvent remplacer l'écran de la caméra vidéo 10'.
Dans les deux modes de réalisation qui viennent d'être décrits (figure 1A, d'une part, et figures 1 B à 1 D, d'autre part), le premier sous-système, 1 1 ou 11' respectivement, est constitué d'un module comprenant au moins des dispositifs à base de capteurs de position et de vitesse instantanée à caractère inertiels (gyrometres et accéléromètres).
Le premier sous-système, 11 ou 11', est assujetti à une caméra vidéo, 10 ou 10'. Le système selon l'invention permet notamment de réaliser ce qui a été appelé précédemment du "motion control". L'invention couvre, comme il va l'être montré deux grandes séries d'application : la caractérisation des images d'un flux vidéo quand à la position de leur plan dans l'espace et la visualisation en temps réel d'un aperçu du cadrage d'une caméra vidéo dans un décor virtuel.
Ces opérations supposent que l'on puisse déterminer à chaque instant un certain nombre de paramètres liés à la prise de vues, notamment les coordonnées de la caméra vidéo, 10 ou 10', par rapport à un référentiel, et la focale utilisée.
La figure 2 illustre schématiquement le mode opératoire permettant l'acquisition des coordonnées en trois dimensions, xn, yπ,et zn, du plan Pû'une image /, par rapport à un trièdre orthonormé de référence, XYZ, lié à une scène SC.
On se reporte de nouveau au deuxième mode de réalisation représenté sur les figures 1 B à 1 D, étant entendu que ce qui va être explicité s'applique également au premier mode de réalisation (figure 1A). On suppose que l'axe Δ, de la caméra vidéolO' coupe le plan P de l'image / en son centre C. La caméra vidéo 10' suit une trajectoire quelconque /, la faisant passer par exemple d'un point p-i de coordonnées initiales AÏ , /I et | à un point pn de coordonnées finales x„, yn et z„, en passant par un point intermédiaire p, de coordonnées instantanées x„ y, et z,. les vitesse de déplacement et l'accélération instantanée de la caméra vidéo 10' peuvent être quelconques et variables le long du trajet /. En chaque point, on peut définir, outre les cordonnées instantanées, xh y, et zh par rapport aux axes du trièdre de référence XYZ, trois séries de valeurs instantanées d'inclinaison, caractérisées par des angles, dits d'élévation, α„ d'azimut, β„ et de roulement y, de l'axe Δ, par rapport à ce même trièdre de référence XYZ.
Le premier sous-système 11' étant assujetti a la caméra vidéo 10', il suit les mouvements de celle-ci, à la même vitesse de déplacement et suit également son inclinaison (caractérisée par des angles d'élévation, α„ d'azimut, β„ et de roulement y . Les dispositifs de mesure des dispositifs à base de capteurs de position et de vitesse instantanée à caractère inertiel présents dans le deuxième sous-système 11' peuvent donc générer tout au long du déplacement précité des données de positon (coordonnées), de vitesse instantanée et d'inclinaison. La transmission de ces données est effectuée via la liaison 112', typiquement à une fréquence de 100 Hz. Ces données sont enregistrées dans le système de traitement de données 2 pour un traitement différé et/ou traités en temps réel ou quasi-réel, suivi préférentiellement d'un enregistrement des résultats du traitement pour une utilisation ultérieure.
D'autres paramètres peuvent également être acquis, par exemple la focale utilisée pour la prise de vues.
Comme il a déjà été indiqué, une initialisation des appareils de mesure présent dans le premier sous-système 11' peut être réalisé en plaçant la caméra vidéo 10' sur le support 30 de la borne d'initialisation, en un endroit prédéterminé de la scène SC, par exemple de coordonnées xr, y, et |. Dans ce cas, on peut obtenir des mesures absolues. Dans un le contraire, c'est-à-dire sans initialisation, les données générées représenteront des mesures relatives.
On va maintenant décrire les principales étapes du procédé selon un premier mode de réalisation de l'invention, par référence au bloc-diagramme 5 de la figure 3. On se référera également, en tant que de besoin, au deuxième mode de réalisation et aux références utilisées sur les figures 1B à 2.
Étape 1 (bloc 51) : Il s'agit d'une étape préliminaire et de configuration du système.
On réalise tout d'abord l'assemblage du premier sous-système 11' (module position) avec la caméra vidéo 10'. Le premier sous-système 11' est solidarisé à la caméra vidéo 10' par une vis prévue à cet effet ou par tout autre organe 111'. De manière préférentielle, le premier sous-système 11' est fixé via le pas de vis prévu généralement pour le pied de la caméra 10'.
Un descriptif de configuration est intégré dans le deuxième sous-système 2 sous la forme d'un fichier de configuration système de type texte. Dans ce fichier, sont fournies les informations relatives au matériel et aux logiciels utilisés. Certains paramètres peuvent être reconfigurés à cette étape.
Ultérieurement, au fur et à mesure des acquisitions de données, des modèles de prédictions du comportement des capteurs inertiels pourront être affinés par des procédés de traitement algorithmique de données.
Étape 2 (bloc 52) : Initialisation du système.
Avant de commencer à filmer, il est souhaitable d'initialiser la centrale inertielle présente dans le premier sous-système 11'. L'endroit où se trouve la caméra vidéo 10' lors de cette initialisation devient alors le point l'origine à partir duquel sont calculés les déplacements de celle-ci. Les mesures de positions sont des mesures relatives à ce point d'origine.
En tant que de besoin, si la mesure de la position de la caméra vidéo 10' en coordonnées absolues s'avère nécessaire (pour une meilleure facilité d'incrustation d'image de synthèse ou de superpositions de plans successifs, par exemple), il suffit de connaître les coordonnées du point d'initialisation. Pour connaître la position de ce point dans le référentiel terrestre il est facile et relativement rapide d'utiliser un "GPS" différentiel 22, ou toutes techniques appropriées, notamment celles connues des géomètres.
Étape 3 (bloc 53) : traitement des données inertielles
Cette étape permet de traiter en temps réel les données d'acquisition de localisation et d'établir la cinématique de la caméra vidéo 10' (y compris son inclinaison).
La position de la caméra vidéo 10' est déterminée par un système de localisation de type centrale inertielle essentiellement basé sur l'usage de gyrometres et d'accéléromètres disposés dans le premier sous-système 11'.
Ces principes sont connus en soi et explicités notamment dans :
- l'article de Britting K.R., intitulé : "Inertial Navigation System Analysis", Wiley- Interscience New York (1971) ; et
- l'article de Broxmeyer O, intitulé : "Inertial Navigation Systems", McGraw Hill (1964).
Au bout d'un laps de temps déterminé, il est le plus souvent nécessaire d'effectuer un recalage sur une borne 3 (figure 1 D) qui sert de point de référence. L'écart des mesures par rapport au point de référence est relevé. Cet écart est réparti sur les différentes mesures de localisation antérieures afin de pratiquer une compensation de l'erreur de mesure.

On peut également utiliser d'autres capteurs de localisation et de distance, tels que ceux qui ont été énumérés précédemment : GPS, magnétomètres, inclinomètres, entrées odomètres. Ces capteurs permettent d'obtenir des redondances et d'améliorer les mesures.
L'estimation de la dérive des capteurs de position de l'appareil peut aussi être transmise à l'utilisateur.
Ces mesures sont également corrigées par traitement d'image.
En soi, ces traitements sont également bien connus et explicités notamment dans :
- l'article de El-Sheimy N. Shwarz, K.P intitulé : "Integrating Differential GPS with an inertial navigation System (INS) and CCD Caméras for a Mobile GIS Data Collection System. Proc", "The canadian Conférence on GIS", Ottawa, Canada, 6-10 juin 1994, pp.241-248 ;
- l'article de Abdulah Q., intitulé : "Evaluation of GPS-lnertial Navigation System for Airborne Photogrammetry", "ASPRS/MAPPS Softcopy Conférence",

Arlington, Virginia, 27-30 juillet 1997 ; et
- l'article de Skaloud J., Cramer M., Schwarz K. P., intitulé : "Exterior Orientation By Direct Measurement of Caméra Position and Attitude", "XVII. ISPRS Congress", Vienna, Austria, 9-19 juillet 1996, Int. Archives of Photogrammetry and Remote Sensing, vol 31 , part b3, pp125-130, 1996 ; et
L'inclinaison de la caméra vidéo 10' (angles d'élévation, α„ d'azimut, β„ et de roulement γ,), et par conséquent l'inclinaison dans l'espace du plan P e l'image /, est donnée principalement par un trièdre de trois gyrometres placés selon trois axes distincts non coplanaires disposés dans le premier sous-système 11'.
L'électronique associée aux trois capteurs gyrométriques fournit des incréments de rotations Δθ Δθy et Δθ , suivants les trois axes. A partir de ces incréments, les positions angulaires 6 , θy, θ sont calculées par un changement de repère au moyen de l'arithmétique dite des quatemions.
La position instantanée (coordonnées x„ y, et z„) du capteur d'images de la caméra vidéo 10' et par conséquent la position du centre C e l'image / est fournie principalement par le trièdre des trois accéléromètres.
Les distances parcourues selon les trois axes (x„ y, et z„) sont calculées par intégrations successives à l'aide de calculs de cinématique en utilisant les données d'accélération émises par le trièdre des trois accéléromètres.
Les accéléromètres et les gyrometres coopèrent pour calculer des données de localisation de la caméra vidéo 10', typiquement à la fréquence de 100 Hertz précitée.
La cinématique de caméra vidéo 10' est calculée en continue au moyen d'algorithmes d'intégration numérique connus (par exemple du type "prédicteur-correcteur de Range Kutta" et "prédicteur-correcteur d'Adam") pour interpoler des points intermédiaires.
Des facteurs liés à la terre dans les mesures de position doivent également être intégrés dans les calculs.
Il est en effet nécessaire de prendre en compte deux facteurs dans les calculs de la cinématique dans un repère Euclidien. Ces deux facteurs sont, d'une part, la rotondité de la terre et, d'autre part, la vitesse de rotation de celle-ci.
Afin de compenser les erreurs dues à la rotondité de la terre, on utilise une correction par les gyrometres pour tenir compte de la courbure terrestre lors des translations.
Afin de compenser la dérive due à l'accélération de la terre : Il est nécessaire d'intégrer la latitude et la vitesse pour que l'appareil décrémente automatiquement les valeurs ajoutées par l'accélération de Coriolis. On intègre la latitude et la vitesse automatiquement à l'aide d'un "GPS".

Il est également utile, sinon nécessaire, de tenir compte de corrections d'erreurs et de dérives liées au caractère inertiel de l'appareillage mis en oeuvre.
Il est connu que les valeurs issues de gyrometres dérivent, notamment en temps, en température et suivant le champ magnétique. Il est nécessaire d'effectuer un calibrage statique et dynamique des gyrometres
Il est connu que les valeurs issues des accéléromètres dérivent notamment selon une oscillation d'environ 84 minutes. Cette dérive est connue sous le nom de loi de "Schuler". Les accéléromètres dérivent également à cause de l'accélération dite de "Coriolis" (effet de "Foucault") qui dépend de la latitude et de la vitesse du mobile.
Dans un mode de réalisation préférentiel, pour corriger les erreurs et de dérives liées au caractère inertiel, on met en œuvre une triple série de moyens de compensation :
- des premiers moyens permettant de compenser les dérives spécifiques des gyrometres ;
- des seconds moyens permettant de compenser les dérives spécifiques des accéléromètres ; et
- des troisièmes moyens permettant de compenser les dérives de la centrale inertielle.
Ces trois types de correction vont être explicités ci-dessous.
Des gyrometres de très haute précision collaborant avec des capteurs gravitationnels sont à même de déterminer l'axe de rotation de la terre et donc de déterminer la direction du Nord géographique et la direction du centre de gravité terrestre. Par ce biais on recale automatiquement les capteurs de type inertiel.
Afin de compenser la dérive de "Schuler", les accéléromètres sont mesurés pendant une période supérieure à 84 minutes. Ce temps d'initialisation permet de connaître les caractéristiques de la période de "Schuler" pour chaque accéléromètre. À partir de ces caractéristiques, à l'aide d'une synchronisation par une horloge électronique, on décrémente la valeur de la période à tout instant des résultats donnés par les accéléromètres.
Pour compenser les erreurs dues aux lois de "Schuler" et de "Coriolis" on utilise une modélisation prédictive basée sur des filtres d'un type connu dit de Kalman.

Au bout d'un laps de temps déterminé, on effectue un recalage sur une borne

3 (figure 1 D) qui sert de point de référence. L'écart des mesures par rapport au point de référence est relevé. Cet écart est réparti sur les différentes mesures antérieures afin de pratiquer une compensation de l'erreur de mesure.
Des mesures sur les gyrometres et les accéléromètres sont effectuées dans différentes conditions. Ces mesures sont entrées dans un logiciel spécifique dont la fonction est de odéliser le comportement des gyrometres. Ce logiciel est implémenté dans le deuxième sous-système 2. Les erreurs sont compensées en temps réel en tenant compte du modèle.
Les acquisitions menées avec des capteurs annexes (mesures du flux magnétique terrestre, mesure "GPS", mesures fournies par des inclinomètres) permettent de corréler en temps réel ou différé les informations de trajectoire / (figure 2).
Dans un mode de réalisation préférée, le système l' est capable de s'interfacer avec des systèmes de positionnement annexes :
- Adjonction des informations provenant d'odomètres, si la caméra vidéo 10' est utilisé sur un véhicule qui en est équipé.
- Adjonction d'un laser rotatif. On installe alors trois bornes semblables à la borne 3 (figure 1 D) autour de la zone à modéliser. Le laser les identifie plusieurs fois par seconde. Il détermine ainsi sa position. La mesure est précise sur des zones de plusieurs dizaines de mètres. Cela permet de corriger les mesures de la centrale inertielle.

- Adjonction d'un système de localisation par trièdre générant un champ électromagnétique ou électrostatique.
Il peut être également nécessaire de gérer correctement des redondances d'erreurs et/ou des redondances d'informations
Toutes les méthodes visant à apporter des informations supplémentaires pour aider à la localisation des images peuvent se combiner. En effet, les redondances d'informations sont fondamentales pour multiplier les informations et permettre ainsi les corrélations.
Pour la gestion des redondances, on peut faire appel à des algorithmes connus du type "descente du gradient" ou de "programmation quadratique" (tels que ceux proposés par Karmakar, More et Toraldo, ou les modèles de Markhov, etc.) qui donnent une valeur quasi-certaine des paramètres recherchés malgré des erreurs de mesures. Ces algorithmes permettent en outre d'éliminer des valeurs aberrantes et de reconstituer des valeurs manquantes.
Ces méthodes sont bien connues en soi et explicitées notamment dans le livre : "Numerical Recipes in C++: The Art of Scientific Computing", Saul A. Teukolsky, Brian P. Flannert et William T. Vetterling (15 janvier 2002).
En fin, un autre problème à résoudre est celui du tremblement de la caméra vidéo 10'.
Ce problème accroît la difficulté de mesure de localisation lorsque la caméra vidéo 10' est tenue en main par l'opérateur OP (figure 1 B). En effet, ce mode opératoire engendre du bruit dans les mesures. Des études ont démontré que ce tremblement portait en générale sur une fréquence de 10 Hz environ.
Il est donc utile de prévoir un dispositif d'amortissement de variations brusques et fréquentes de la trajectoire /(figure 2) ainsi que des chocs
Il est connu que les accéléromètres sont précis surtout dans une gamme de mesures déterminée (accélération et fréquence). Il est souhaitable dès lors d'amortir les variations de trajectoires / qui dépassent cette gamme de prédilection. Ce mode opératoire permet d'optimiser la qualité des mesures fournies par les accéléromètres. Un autre avantage est de lisser la courbe de la trajectoire suivie par la caméra vidéo 10' et d'éliminer ainsi du bruit qui parasite les mesures.
Un moyen d'obtenir cet effet est de fixer la caméra vidéo 10' et le boîtier du premier sous-système 11', contenant les gyrometres et les accéléromètres, à l'aide d'amortisseurs (non représentés sur la figure 1B).
Étape 4 (bloc 54) : acquisition des données.
Cette étape consiste à acquérir les informations nécessaires. Toutes ces informations sont horodatées.
Ces informations proviennent principalement de :
- l'acquisition d'un flux de données généré par la centrale inertielle ; et
- l'acquisition dans un registre temporaire des incréments de rotations Δθ , Δθy et

Δθz, suivants les trois axes des trois gyrometres et les incréments de translation Axh Ay, et Az, suivants les trois axes des trois accéléromètres à une fréquence de 100 Hertz, comme il a été indiqué précédemment ; et
- l'acquisition de la focale utilisée.
Optionnellement, d'autres informations peuvent être acquises et parmi celles-ci :

- acquisition de données à une fréquence de 10 Hz en provenance de deux inclinomètres ;
- acquisition des données de position absolue d'un GPS à une fréquence de 5 Hertz ι
- acquisition de données de télémétrie laser une fréquence de 1000 Hertz ;
- acquisition des données de température internes à une fréquence de 1 Hertz ;

- acquisition asynchrone de séquences sonores ;

- acquisition des données magnétométriques horodatées générées par des magnétomètres tri-flux, en synchronisation avec les images prises par la caméra vidéo 10' ;
- acquisition de données générées par des émetteurs d'ultrasons pour des mesures de position.;
- acquisition de données représentant des paramètres optiques : valeur de la focale, vitesse de scrutation, ouverture du diaphragme et distance de mise au point de la caméra vidéo 10', ces acquisitions étant synchronisées avec la prise d'images ; et
- acquisition des commandes entrées par l'opérateur
Étape 5 (bloc 55) : amélioration des mesures de localisation de la prise de vues par traitement d'image.
La localisation de la position de la caméra vidéo 10' par traitement d'images sert essentiellement à corroborer et à compenser des dérives de mesures des gyrometres et des accéléromètres.
On gère des données redondantes par les algorithmes précités de "descente du gradient" ou de "programmation quadratique" qui donnent la valeur quasi-certaine des paramètres recherchés malgré les erreurs de mesures. Ces algorithmes permettent en outre d'éliminer les valeurs aberrantes et de reconstituer les valeurs manquantes comme il a été indiqué précédemment.
Dan un mode de réalisation préféré, on utilise également des points remarquables et on met en œuvre la technique dite de "tracking" ou "poursuite".
En effet, la précision de la localisation des prises de vue peut être affinée par la sélection de "points repères" sur les images. On appelle points repères, des points remarquables d'un sujet à modéliser que l'on identifie sur un maximum de prises de vue. L'analyse de ces points remarquables permet de donner des indications sur la position des prises de vues.
On utilise un procédé dit de "tracking" pour retrouver ces points remarquables dans une succession d'images, car les images sont prises à partir d'une vidéo ou d'une séquence où les prises de vues se succèdent. Le "tracking" est une méthode logicielle de traitement d'image, bien connue en soi, qui permet de suivre automatiquement un ou plusieurs points images de mΛme catégorie d'un sujet lors d'une séquence où les prises de vues se succèdent. Il est connu que ce procédé fait actuellement l'objet d'études et de réalisations industrielles, néanmoins sa fiabilité est souvent mise en cause dans les cas difficiles, notamment quand les points remarquables ne sont pas suffisamment différents des points voisins. Ce procédé est rendu nettement plus facile et plus fiable, lorsqu'on met en œuvre les dispositions spécifiques au procédé de l'invention, par le fait que l'on connaît déjà avec une certaine précision les caractéristiques de l'image (coordonnées du plan image...). Par les moyens physiques de localisations déjà définis. Le logiciel n'effectue sa "recherche" que dans une région de l'image bien définie.
Pour effectuer ces opérations, de nombreux logiciels sont connus. Cette méthode de "tracking" permet l'aide à la localisation des images. Elle permet le traitement automatique d'un grand nombre de points de référence. On comprend aisément que plus on dispose de points de repères plus il devient possible d'affiner les mesures de positions de la localisation des images.
De façon pratique, afin de permettre une analyse affinée de la trajectoire, on adjoint à la caméra vidéo 10' et/ou au premier sous-système 11' qui luit est assujetti, un télémètre laser (non représenté) pour mesurer la distance la/le séparant d'un point particulier d'un objet à modéliser. Ce point dont on connaît désormais la distance est pris automatiquement comme point remarquable. Il est alors suivi par "tracking". L'analyse des courbes dans le temps des positions des points de référence permet de connaître précisément la cinématique des points de référence par rapport à la caméra vidéo 10'. Si la modélisation porte sur un espace immobile. Il devient très aisé de connaître la cinématique de la caméra vidéo 10 elle-même. Il est possible par ce biais de corriger les mesures fournies par les gyrometres et les accéléromètres du premier sous-système 11'.
On peut également, et de nouveau, utiliser des cibles optiques comme points de référence.
Une solution robuste pour obtenir des points de références sur les images est d'installer des cibles optiques autour du sujet à modéliser. Ces cibles sont équipées de diodes émettrices générant des signaux. Leurs positions sur les images sont automatiquement reconnues.
Étape 6 (bloc 56) : Synchronisation des données.
La centrale inertielle disposée dans le premier sous-système 11' transmet des données à la fréquence de quelques centaines d'Hertz. La difficulté est de synchroniser les données de position de la caméra vidéo 10' transmises par le système avec les images filmées, le but étant que les images soient caractérisés par la position de la caméra vidéo 10' au moment où elles ont été filmées.
Il est à noter que certaines caméras vidéo peuvent transmettre de manière numérique et en temps réel des données concernant la synchronisation du son, la position de la focale (ce qui constitue un paramètre très important, sinon essentiel), le type de pellicule, les mesures de lumières, etc., données qu'il est aussi utile de synchroniser par rapport aux données de positions.
Plusieurs solutions de synchronisation peuvent être adoptées dans le cadre de l'invention et parmi celles-ci les trois ci-après :
Solution 1 : La synchronisation des données images/positions se fait selon la méthode traditionnelle de synchronisation des images/son utilisée dans l'industrie cinématographique. On filme un "clap". On "cale" ensuite l'image du film où le clap est fermé avec le moment où dans la bande son on entend le bruit du clap.
Le deuxième sous-système 2 est muni d'un microphone 23 (figure 1 B). On synchronise le flux de données de position avec le son (enregistrement en simultané). II ne reste plus qu'à retrouver dans la bande sonore le son émit par le clap pour qu'il y ait synchronisation images/flux de données position.
Solution 2 : La caméra vidéo 10' est munie de circuits générant un signal de sortie qui indique le moment où l'opérateur OP commence à enregistrer une nouvelle séquence d'images. Ce signal est capté par l'unité de traitement 4 du deuxième sous-système 2 et l'enregistrement du flux de données de position s'exécute immédiatement.
Solution 3 : On utilise une petite caméra vidéo supplémentaire 100', légère et de faible définition, assujettie à la caméra vidéo principale 10' ou au premier sous-système 1 l' : dans ce cas, l'enregistrement images/ flux des données position est simultané. La direction de l'objectif de la caméra vidéo 100' est le même que celui de la caméra vidéo principale 10'. De ce fait, la petite caméra vidéo100' filme les mêmes scènes avec les mêmes positions. Il suffit de superposer les deux flux images pour obtenir la synchronisation des images de la caméra vidéo principale 10' avec le flux de données
Étape 7 (bloc 7) : Stockage des données
Les images prises par la caméra vidéo 10' sont caractérisées par les six coordonnées de position mais aussi par les principaux paramètres suivants :
- configuration physique du système l' ;
- horodatage : heure précise de la prise de vues des images,
- cinématique : accélération, vitesse et trajectoire ;
- focale de la caméra vidéo 10' : type de focale utilisée ou position du zoom le cas échéant ;
- position du réglage de la distance de mise au point ;

- vitesse de la prise de vues et donc temps d'exposition de chaque image ;
- ouverture de diaphragme lors de la prise de vues ;
- luminosité ambiante lors de la prise de vues régnant dans en une ou plusieurs zones ;
- température ambiante ;
- estimation de l'erreur des mesures des accéléromètres et des accéléromètres ;

- fichiers sonores ; et
- fichiers vidéo
Ces données sont intégrées dans une base de données enregistrées dans la mémoire de masse (disque dur 403) du dispositif de traitement de données 4 d u deuxième sous-système 2.
Étape 8 (bloc 58) : traitement ultérieur des images caractérisées.
L'opérateur OP peut a loisir exploiter la base de donnée des images caractérisés pour modifier celles-ci a posteriori.
Comme il a été indiqué le procédé de l'invention est susceptible d'applications variées et notamment les suivantes :
Application 1 : Dans l'industrie des effets spéciaux de film, le besoin se fait souvent sentir d'incruster des images de synthèse dans des images filmées avec une caméra en mouvement. En connaissant avec précision les coordonnées de chaque plan d'image et la focale employée, il devient aisé de faire correspondre les plans d'images de synthèse aux plans d'images du film, ce que permet précisément le procédé selon l'invention. Les coordonnées du plan P d'une image / (figure 2) sont, comme il a été précédemment indiqué :
- Inclinaison du plan P dans l'espace : angles d'élévation, α„ d'azimut, β„ et de roulement γ,) ; et
- position du centre Cde l'image /de coordonnées : x„ y, et z,.
Application 2 : Les films tournés sur des caméras portés à l'épaule peuvent subir de brusques variations de trajectoire ainsi que des chocs ou des vibrations. Connaître les positions d'image peut servir à lisser la séquence d'image, notamment grâce a des logiciels connus d'interpolation d'image. Là encore le procédé de l'invention permet d'atteindre ce but.
Application 3 : Pour donner des effets de ralenti sans pour autant avoir des effets saccadés, les effets spéciaux utilisent des logiciels pour créer des images "virtuelles" entre deux images réellement filmées. Connaître la trajectoire du plan focal, comme le permet le procédé selon l'invention, permet une interpolation d'images rapide et fiable.
Application 4 : Un trucage traditionnel du cinéma consiste à effectuer une superposition d'images. Un exemple classique est de filmer une personne, puis de la filmer de nouveau dans un autre endroit de la scène, et enfin de superposer les deux images. La personne filmée semble alors s'être dédoublée. Cet effet, relativement facile à effectuer lorsque les plans sont fixes, est rendu beaucoup plus difficile lorsque les plans sont en mouvement. Il est nécessaire alors de synchroniser les deux séquences d'images dont les plans images sont situées aux mêmes endroits, ce que permet là encore le procédé selon l'invention.
Dans un deuxième mode de réalisation, le procédé selon l'invention permet également une navigation dans un univers tridimensionnelle en temps réel.
Les étapes de ce deuxième mode du procédé de l'invention sont similaires, sinon identiques, à celles du premier mode qui vient d'être décrit, du moins jusque à la quatrième étape comprise. On passe ensuite à ce qui est référencé arbitrairement "Étape 9" sur le bloc-diagramme de la figure 3, puisque cette étape se déroule en réalité après la quatrième étape, et qui va être explicitée ci-après.
Cependant l'important ici est d'obtenir des données de positions en temps réel. Les données de positions sont fournies à la fréquence de 100 Hz.

Étape 9 (bloc 59) : Obtention d'un pointeur dans un espace tridimensionnel pour une navigation dans un univers virtuel.
Les données de positions de la caméra vidéo 10', les images prises, ainsi qu'éventuellement la focale utilisée sont communiquées en temps réel au deuxième sous-système2, plus précisément au dispositif de traitement 4, par une liaison approprié 112' : câble filaire , liaison optique ou onde.
Le dispositif de traitement de données à programme en registre est muni d'un d'un logiciel de restitution en trois dimensions, fonctionnant en temps réel. Il peut s'agir par exemple, du logiciel du commerce "Director" distribué par la société MACROMEDIA ou "3DS max" distribué par la société "DISCRET" (toutes ces appellations étant des marques déposées).
A titre non exhaustif, ce deuxième mode de réalisation du procédé peut trouver application dans le domaine suivant :
Les décors de film sont de plus en plus, en tout ou partie, composés d'images de synthèse. Or, il devient difficile, dans ces conditions, de choisir exactement le cadrage de la caméra vidéo 10', surtout lorsqu'elle est en mouvement. Il devient nécessaire de visualiser en temps réel un aperçu du cadrage de la caméra vidéo 10' dans un décor virtuel. On suppose que ce décor tridimensionnel est déjà modélisé. Lorsque les positions de la caméra vidéo 10' et sa focale sont connues en temps réel, l'image virtuelle du cadrage peut alors être restituée par un logiciel de rendu tridimensionnel en temps réel.
A la lecture de ce qui précède, on constate aisément que l'invention atteint bien les buts qu'elle s'est fixés.
Il doit être clair cependant que l'invention n'est pas limitée aux seuls exemples de réalisations explicitement décrits, notamment en relation avec les figures 1A à 3.
De même, le choix des composants ou dispositifs précis procède d'un choix technologique, à la portée de l'Homme de Métier, et ceux-ci n'ont été précisés que pour mieux décrire les caractéristiques techniques du dispositif selon l'invention.
L'invention n'est pas limitée non plus aux seules applications explicitement décrites.