Table of Contents

Suivi de plan combiné au suivi de mouvement

Cet article explique comment fusionner le suivi d'image planaire avec le suivi de mouvement de l'appareil pour améliorer la stabilité du suivi et l'expérience utilisateur dans des scénarios complexes. Il couvre les principes fondamentaux, les résultats attendus et l'analyse des problèmes potentiels.

Principes de base

La fusion de mouvement (Motion Fusion) combine les données de pose du suivi d'image planaire avec celles du suivi de mouvement de l'appareil pour une estimation de pose plus robuste. Voici son flux principal :

Synchronisation et complémentarité des données

  • Suivi visuel : Calcule la pose actuelle (position + rotation) via la mise en correspondance des points caractéristiques de l'image, mais est sensible aux occlusions, au flou ou aux mouvements rapides.
  • Suivi de mouvement : Utilise les sorties haute fréquence des capteurs IMU et la sortie de l'image visuelle pour obtenir les données de mouvement de l'appareil, mais présente des erreurs de dérive cumulatives.
  • Mécanisme de fusion :
    • Aligne les systèmes de coordonnées de la pose du suivi visuel avec celle du suivi de mouvement.
    • Lorsque l'image cible est clairement visible et le mouvement stable : Le suivi visuel prime. La pose du suivi visuel est envoyée en continu au module de fusion pour correction, réduisant la dérive cumulative du système.
    • Lorsque l'image cible est perdue ou occupe une très petite partie de l'image, ou lors de mouvements rapides : Le suivi visuel échoue, le suivi de mouvement prime. La pose fusionnée est prédite en fonction de la pose actuelle du suivi de mouvement.

Points techniques clés

  • Alignement des horodatages : Aligne l'horodatage de l'image visuelle avec les données du suivi de mouvement pour éviter les saccades dues à la latence.
  • Alignement des systèmes de coordonnées : Aligne les trajectoires du suivi visuel et du suivi de mouvement.
  • Re-localisation : Lorsque l'image réapparaît, le suivi visuel reprend le contrôle pour corriger rapidement les erreurs cumulatives potentielles, "ramenant" l'objet virtuel à sa position correcte.

Scénarios applicables et limitations

La fusion de mouvement n'est pas adaptée à tous les scénarios. Elle est inapplicable dans les cas suivants :

  • L'appareil cible ne prend pas en charge les fonctionnalités de suivi de mouvement comme ARCore/ARKit. Liste détaillée des appareils pris en charge : Prise en charge des appareils pour le suivi de mouvement.
  • L'image/objet plan cible est dynamique dans la scène, par exemple une carte tenue en main pendant l'expérience.

Pour les autres scénarios, l'utilisation de la fusion de mouvement améliorera considérablement l'expérience utilisateur du suivi d'image planaire, notamment dans les situations d'utilisation suivantes :

  • Mouvements rapides : Déplacement rapide de l'appareil par l'utilisateur, le flou de mouvement entraînant l'échec du suivi d'image.
  • Disparition de la cible : Maintien du contenu virtuel dans la scène lorsque l'image quitte la cible ou que celle-ci est occultée par des objets dynamiques (ex : piétons).
  • Éloignement de la cible : Suivi stable et continu même si l'utilisateur s'éloigne de la cible, réduisant sa taille dans l'image.
  • Faible éclairage : Dégradation des performances du suivi visuel, nécessitant de maintenir l'expérience.

Résultats et effets attendus

Lorsque le scénario est applicable, l'utilisation de la fusion de mouvement offrira une expérience utilisateur plus stable et fluide qu'un simple suivi d'image planaire.

Effets idéaux

  • Suivi plus stable : L'objet virtuel ne tremble pas et ne saute pas.
  • Transition fluide : Changement continu et naturel de la pose fusionnée lors de l'échec du suivi visuel.
  • Résistance aux perturbations : L'objet virtuel continue de suivre le mouvement de l'appareil même en cas de perte d'image, d'occlusion de la cible ou de mouvement rapide de l'appareil.

Cas non idéaux et solutions

Phénomène Cause Perception utilisateur Solution
Non-activation initiale Le suivi de mouvement nécessite un temps d'initialisation Disparition du contenu pendant la phase initiale Indication UI pour confirmer l'initialisation du suivi de mouvement
Dérive notable Accumulation d'erreurs système sans correction visuelle prolongée L'objet virtuel dévie de sa position d'origine Guider l'utilisateur pour réduire la durée d'occlusion ou ajouter un indice de re-localisation visuelle
Baisse de performance Exécution simultanée prolongée des deux fonctionnalités Baisse du taux de rafraîchissement, saccades Phénomène normal. Possibilité de désactiver la fusion de mouvement via l'API

Méthode de vérification des résultats attendus

Testez avec un appareil pris en charge dans un scénario réel :

  1. Visez l'image et confirmez la stabilité de l'objet virtuel.
  2. Occultez l'image avec la main pendant 2 secondes tout en déplaçant l'appareil. Observez si l'objet virtuel se déplace de manière fluide.
  3. Retirez la main et confirmez que l'objet virtuel revient rapidement en position sans saut.

Conclusion et bonnes pratiques

La fusion de mouvement améliore significativement la robustesse du suivi d'image planaire dans de nombreux scénarios, mais nécessite un support matériel et des performances suffisantes. Les développeurs doivent activer sélectivement cette fonctionnalité selon les appareils cibles des utilisateurs et prévoir une solution de repli pour les appareils peu performants.

Référence API pour activer/désactiver la fusion de mouvement en temps réel :