J'ai utilisé cvStereoFindCorrespondenceGC() dans openCV pour produire une carte de disparité à partir de la célèbre image tsukaba. Mais je remarque qu'il manque des fonctionnalités 3D (par exemple la lampe est plate au lieu de légèrement courbe). Comment aborder ce problème? Qu'est-ce qui manquait dans le présent algorithme?Comment produire une reconstruction 3D précise d'un environnement intérieur en utilisant une vision stéréo?
Répondre
La carte de disparité ne contient qu'une quantité limitée d'informations de profondeur (axe z, par exemple pointant sur votre écran).
Vous devez regarder LIDAR, ou des méthodes de Time Of Flight similaires afin d'extraire/scanner/reconstruire une scène 3D.
Cela dit, vous pouvez essayer le Sentience Project
qui utilise le « Système de perception volumétrique 3D pour les robots mobiles » qui plonge ses racines dans l'appariement stéréo.
Vous pouvez également essayer quelque chose comme l'approche Structure from Motion. Vous prenez de nombreuses photos sous différents angles lorsque vous vous déplacez autour de l'objet, puis calculez l'emplacement des pixels qui se produisent dans au moins 3 images. Ceux-ci peuvent produire de très bons modèles, se rapprochant de l'équivalent LiDAR.
par exemple. MS Photosynth (gratuit), ou AGISoft Photoscan (essai de travail, mais vous ne pouvez pas enregistrer/modèles d'exportation)
Pour une version open source consultez Aperçu 3D http://insight3d.sourceforge.net/