La calibration d'une caméra guide est une étape cruciale pour obtenir des images d'astrophotographie de haute qualité. Ce processus permet de corriger les distorsions et d'optimiser le guidage de la monture, assurant ainsi un suivi précis des objets célestes.
La résection de la caméra est le processus d’estimation des paramètres d’un modèle de caméra à sténopé qui approxime la caméra ayant produit une photographie ou une vidéo donnée ; il détermine quel rayon lumineux entrant est associé à chaque pixel sur l’image résultante. En gros, le processus détermine la pose de la caméra à sténopé. Habituellement, les paramètres de la caméra sont représentés dans une matrice de projection 3 × 4 appelée la matrice de la caméra.
Ce processus est souvent appelé calibration géométrique de la caméra ou simplement calibration de la caméra, bien que ce terme puisse également se référer à la calibration photométrique de la caméra ou être limité à l’estimation des paramètres intrinsèques uniquement. L’orientation extérieure et l’orientation intérieure se réfèrent respectivement à la détermination des paramètres extrinsèques et intrinsèques. La calibration classique de la caméra nécessite des objets spéciaux dans la scène, ce qui n’est pas requis dans l’auto-calibration de la caméra.
La formulation de la matrice de projection de la caméra est dérivée des paramètres intrinsèques et extrinsèques de la caméra et est souvent représentée par une série de transformations ; par exemple, une matrice des paramètres intrinsèques de la caméra, une matrice de rotation 3 × 3, et un vecteur de translation. Dans ce contexte, nous utilisons [u v 1]^T pour représenter une position de point 2D en coordonnées de pixels et [Xw Yw Zw 1]^T est utilisé pour représenter une position de point 3D en coordonnées mondiales. où M = K [R T].
Xw, Yw, Zw sont les coordonnées de la source du rayon lumineux qui frappe le capteur de la caméra en coordonnées mondiales, par rapport à l’origine du monde. La matrice K contient 5 paramètres intrinsèques du modèle spécifique de caméra. Ces paramètres englobent la longueur focale, le format du capteur d’image et le point principal de la caméra. Les paramètres α_x = f · m_x et α_y = f · m_y représentent la longueur focale en termes de pixels, où m_x et m_y sont les inverses de la largeur et de la hauteur d’un pixel sur le plan de projection et f est la longueur focale en termes de distance. [1] γ représente le coefficient de biais entre l’axe x et l’axe y, et est souvent de 0.
Lire aussi: Fabriquer un pistolet LEGO qui tire
Les paramètres intrinsèques non linéaires tels que la distorsion de l’objectif sont également importants bien qu’ils ne puissent pas être inclus dans le modèle de caméra linéaire décrit par la matrice des paramètres intrinsèques. De nombreux algorithmes modernes de calibration de caméra estiment également ces paramètres intrinsèques sous la forme de techniques d’optimisation non linéaires.
R et T sont les paramètres extrinsèques qui dénotent les transformations du système de coordonnées de coordonnées mondiales en 3D à coordonnées de caméra en 3D. T est souvent à tort considéré comme la position de la caméra. Lorsqu’une caméra est utilisée, la lumière de l’environnement est focalisée sur un plan d’image et capturée.
Il existe de nombreuses approches pour calculer les paramètres intrinsèques et extrinsèques d’une configuration de caméra spécifique:
La calibration de la caméra et la photogrammétrie vont main dans la main. Lorsqu’on calibre une caméra, on ajuste et on corrige tout ce qui pourrait fausser les images, comme les distorsions de l’objectif. C’est très utile en photogrammétrie, où on a besoin que les images soient le reflet le plus fidèle de la réalité pour créer des modèles 3D précis. D’autre part, quand on travaille en photogrammétrie, on prend souvent plein d’images sous différents angles pour reconstruire un objet ou un espace en 3D. La calibration nous donne des infos clés sur où et comment chaque photo a été prise. Ça aide énormément à aligner toutes ces images ensemble correctement.
La géométrie épipolaire et la calibration des caméras sont des composantes clés en vision stéréoscopique informatique, chacune jouant un rôle spécifique dans l’amélioration de la précision des systèmes de vision. La calibration des caméras, processus technique initial, se concentre sur l’ajustement précis des paramètres intrinsèques et extrinsèques. Après la calibration, la géométrie épipolaire utilise ces données calibrées pour établir une relation géométrique entre les vues des caméras. Cette relation facilite la correspondance des points entre les images, essentielle pour les tâches telles que la reconstruction 3D et le suivi d’objets.
Lire aussi: Le fusil de chasse : comment ça marche ?
Voici les étapes pour calibrer votre système de guidage avec PHD2 (Push Here Dummy) :
La qualité de vos futures guidages est en partie dépendante de la qualité de votre fichier de calibration. L’utilisation d’un système multi-caméras pour faire de la métrologie et effectuer des mesures précises nécessite de réaliser un étalonnage de ces caméras. Celles-ci peuvent être représentées mathématiquement par un modèle de projection, sous la forme d’une matrice, permettant le passage de la position de points 3D vers leur projection dans l’espace image 2D.
Les six paramètres (trois angles, trois translations) sont appelés paramètres extrinsèques et définissent donc le positionnement de la caméra dans l’espace 3D. La matrice de projection M peut ainsi être exprimée de façon « implicite » comme une matrice 3×4 contenant 12 termes (mij) ou bien de façon « explicite », via les 10 paramètres indépendants extrinsèques et intrinsèques présentés précédemment.
Dans le modèle de caméra introduit précédemment, les distorsions ne sont pas prises en compte. Les distorsions, qui sont dues aux imperfections du système optique telles que des défauts de forme et de positionnement des lentilles des caméras, vont dévier les faisceaux lumineux et donc induire un écart de positionnement pour le point projeté par rapport à un modèle idéal [2].
L’étalonnage par mire est donc basé sur l’utilisation d’un objet 3D de géométrie bien connue (appelé mire d’étalonnage) et son image acquise par la caméra [1, 2]. Cette mire présente sur sa surface des points 3D spécifiques, de positions connues. Ils peuvent correspondre à l’intersection de lignes verticales et horizontales quand la mire est une grille (ou un damier) ou bien au centre de cercles lorsque la mire est composée de points.
Lire aussi: Instructions : Pistolet laser à faire soi-même
Le second type d’étalonnage est appelé auto-étalonnage [14] et est utilisé en particulier par les approches de stéréocorrélation dites « globales » [15], comme celle proposée par EikoTwin DIC. Il utilise la pièce à tester dans son intégralité comme objet d’étalonnage et cela grâce à une description dense de l’objet (c’est-à-dire que la position de chaque point de la pièce est paramétrisée et peut être déterminée via un modèle mathématique [16]).
Lorsque les caméras ont mal été étalonnées, cela induit très souvent des erreurs de mesures de déplacements et, par conséquence, de déformations. Faire du « Virtual Testing », en préparant l’essai en amont de façon virtuelle. Le logiciel EikoTwin Virtual, qui utilise l’outil de visualisation Blender, permet ainsi d’étudier en amont le positionnement des caméras et de l’optimiser afin d’avoir un bon étalonnage pour mesurer les déplacements attendus (à partir d’une simulation par éléments finis).
L’étalonnage des caméras constitue ainsi la première étape de toute analyse par corrélation d’images numériques et demeure une étape à réaliser méticuleusement, en particulier lorsque des mesures précises sont recherchées (de forme, de déplacements ou de déformations). Toutes les approches existantes visent à minimiser les erreurs de reprojection entre une caractéristique liée à la projection de points spécifiques 3D (position, valeur de niveau de gris) et leur caractéristique réelle sur l’image.
On nous demande souvent pourquoi malgré le guidage (autoguidage) de la monture, on a encore des "bougés" (filets) d'étoiles sur les photos. Les causes sont très nombreuses mais une certaine méthodologie doit permettre de résoudre ce problème.
Elle est essentielle !!! Une très bonne mise en station limitera les dérives et facilitera le guidage. Vérifiez toujours que votre mise en station est la plus correcte possible.
Le "top" pour comprendre les soucis de guidage, sera d'enregistrer une EP sans autoguidage, sur une étoile proche de 0° de déclinaison et un peu avant le méridien, pour voir ce qui se passe "de base" sans rien toucher. Pointez une étoile guide et préparez-vous comme pour autoguider normalement. Il faut ensuite lancer le log et dire à PHD (paramètres) de ne pas envoyer les ordres de guidage, ou bien, après le calibrage, débrancher simplement le câble ST4 et enregistrer l'EP sans autoguidage.
Mesurer l'EP est le seul véritable moyen de voir si il y a un truc qui cloche ou un "pic" très fort dans le suivi d'une monture.
Il faut bien entendu avoir réalisé une calibration de l'auto-guidage. Au niveau de l'auto-guidage, il faut configurer l’agressivité en Alpha/Delta. En général, une fois qu'on a trouvé des valeurs qui fonctionnent, on n'y touche plus. On peut éventuellement adapter ces valeurs en fonction du seeing (plus agressif quand il y a un bon seeing).
tags: #comment #calibrer #une #camera #guide