Tracking - Caméras et capteurs de positions
Captation et interprétation des spectateurs dans l'oeuvre (encore en phase de recherche)
Dernière mise à jour
Cet article vous a-t-il été utile ?
Captation et interprétation des spectateurs dans l'oeuvre (encore en phase de recherche)
Dernière mise à jour
Cet article vous a-t-il été utile ?
Actuellement, pour le prototypage, un capteur à ultrasons avec un Arduino est utilisé pour récupérer la distance à laquelle un spectateur est dans l'oeuvre par rapport au capteur. Celui-ci fonctionne pour une personne jusqu'à environ 2.5m.
Les données de distance captés par l'Arduino sont envoyés par cable USB à l'ordinateur et captés par le script python via Serial.
Pour l'oeuvre finale, nos recherches nous mènent vers le système Augmenta de Theoriz () qui permettrait le tracking de plusieurs individus dans l'oeuvre sans limite de distance (suivant le nombre de capteurs).
Via un système de nodes (ordinateur Augmenta) + capteurs 3D (Kinect Azure ou Orbbec Astra), la solution de Theoriz permet de tracker avec précision chaque spectateur dans l'oeuvre et ouput via OSC les paramètres de chaque individu (position xyx, hauteur, orientation, ...) au script python qui les interprètera mapper ces données sur les LEDs (cf. section ).
Ce système paraît très robuste et nous avons déjà pris contact avec la société pour venir tester le logiciel. Il est encore à définir s'il est nécessaire d'avoir un équipement de telle qualité permettant de tracker chaque spectateur individuellement tout le long de l'oeuvre ou non. Pour l'instant, il est possible d'utiliser leur logiciel de simulation open source () afin de prototyper cette interaction avec l'oeuvre.
Ce tracking nous permet de déclencher différents scénarios de lumière dans l'oeuvre suivant la position des spectateurs dans celle-ci. Un des scénarios est que les tiges colorées s'allument et s'éteignent au fur et à mesure de la déambulation du spectateur dans l'oeuvre, avec chaque tige représentant les qualités de l’air respective de chaque jour du mois précédent.
Extrait du script:
Grâce à l'Arduino, nous pouvons capter la distance d'une personne jusqu'à environ 2.5m du capteur. Lorsque l'Arduino est détecté (cf. page pour entrer la bonne adresse) et que la Storyline correspondante est lancée, un nouveau thread est lancé pour capter les données de distances via Serial. Le scénario dynamique est ainsi lancé: le script vérifie continuellement si la distance du spectateur reçu correspond à un intervalle dans lequel se trouve un ruban LED. Si c'est le cas, qu'il est éteint, et qu'il n'a pas été mis à jour depuis un temps donné, celui-ci s'allume. L'inverse est appliqué si la distance ne se trouve pas ce même intervalle.
Grâce au potentiel du futur système , il sera possible de faire ce tracking pour davantage de personnes et d'autres scénarios seront aussi envisageables grâce aux données supplémentaires