(DE) Verfahren zur automatisierten Unterstützung einer Inspektion und/oder Zustandsüberwachung von Objekten eines Produktions- systems, bei dem ein Prozessor (P) aus Sensordaten in einem Fokusdatensatz, welche Messwerte von Messungen von Sensoren an einem Objekt (O) in dem Produktionssystem und/oder aus den Messwerten abgeleitete Daten enthalten, eine Ist-Pose des Objekts (O) entnimmt oder berechnet, welche eine Translation und/oder Rotation gegenüber einer Soll-Pose (1) des Objekts (O) angibt, der Prozessor (P) oder ein weiterer Prozessor aus der Ist-Pose des Objekts (O) eine skalierte Pose (2) des Objekts (O) berechnet, indem der Prozessor die Translation und/oder Rotation gegenüber der Soll-Pose (1) des Objekts (O) skaliert, der Prozessor (P) oder ein weiterer Prozessor eine bewegte Fokusgrafik (333), welche die Sensordaten des Fokusdatensatzes darstellt, auf einer grafischen Benutzeroberfläche (GO) anzeigt, wobei die Fokusgrafik (333) abwechselnd eine grafische Abbildung des Objekts (O) in der Soll-Pose (1) des Objekts (O) und eine grafische Abbildung des Objekts (O) in der skalierten Pose (2) des Objekts (O) zeigt, und wobei die Skalierung derart gewählt ist, dass eine für die Inspektion und/oder Zustandsüberwachung des Objekts (O) diagnostisch relevante Abweichung der Ist-Pose von der Soll-Pose (1) auf der grafischen Benutzeroberfläche (GO) deutlich erkennbar ist.
(EN) Described is a method for the automated support of an inspection and/or condition monitoring of objects of a production system, in which a processor (P) takes or calculates an actual pose of an object (O) from sensor data in a focus data record, which sensor data contain measurement values of measurements by sensors on the object (O) in the production system and/or contain data derived from the measurement values, which actual pose specifies a translation and/or rotation with respect to a target pose (1) of the object (O), the processor (P) or a further processor calculates a scaled pose (2) of the object (O) from the actual pose of the object (O) by scaling the translation and/or rotation with respect to the target pose (1) of the object (O), the processor (P) or a further processor displays an animated focus graphic (333), which represents the sensor data of the focus data record, on a graphical user interface (GO), wherein the focus graphic (333) displays alternately a graphical image of the object (O) in the target pose (1) of the object (O) and a graphical image of the object (O) in the scaled pose (2) of the object (O), and wherein the scaling is selected such that a deviation of the actual pose from the target pose (1), which deviation is diagnostically relevant for the inspection and/or condition monitoring of the object (O), is clearly perceptible on the graphical user interface (GO).
(FR) L'invention concerne un procédé de support automatisé d'une inspection et/ou d'une surveillance d'état d'objets d'un système de production, dans lequel un processeur (P) saisie ou calcule une posture réelle d'un objet (O) à partir de données de capteur dans un enregistrement de données de mise au point, lesquelles données de capteur contiennent des valeurs de mesure de mesures par des capteurs sur l'objet (O) dans le système de production et/ou contiennent des données dérivées des valeurs de mesure, laquelle posture réelle spécifie une translation et/ou une rotation par rapport à une posture cible (1) de l'objet (O), le processeur (P) ou un autre processeur calcule une posture mise à l'échelle (2) de l'objet (O) à partir de la posture réelle de l'objet (O) par mise à l'échelle de la translation et/ou de la rotation par rapport à la posture cible (1) de l'objet (O), le processeur (P) ou un autre processeur affiche un graphique de mise au point animé (333), qui représente les données de capteur de l'enregistrement de données de mise au point, sur une interface utilisateur graphique (GO), le graphique de mise au point (333) affichant alternativement une image graphique de l'objet (O) dans la posture cible (1) de l'objet (O) et une image graphique de l'objet (O) dans la posture mise à l'échelle (2) de l'objet (O), et la mise à l'échelle étant sélectionnée de telle sorte qu'un écart entre la posture réelle et la posture cible (1), lequel écart est pertinent d'un point de vue diagnostique pour l'inspection et/ou la surveillance d'état de l'objet (O), est clairement perceptible sur l'interface utilisateur graphique (GO).