Détection automatisée d’oiseaux et d’invertébrés

La biodiversité animale est menacée à l’échelle mondiale. En France, la combinaison du changement climatique, de l’extension urbaine, de la pollution et de la dégradation des paysages naturels due à l’agriculture intensive a entraîné un déclin dramatique des populations d’oiseaux (-23 %) et de chauves-souris (-38 %) au cours des 30 dernières années. Les insectes traversent une véritable apocalypse, avec plus de 40 % des espèces en déclin dans le monde. Les insectes pollinisateurs, essentiels à la reproduction de nombreuses espèces végétales, y compris celles produisant des fruits et des légumes pour l’homme, sont parmi les plus fortement touchés. Pour mieux comprendre les moteurs de la perte de biodiversité et l’efficacité des politiques de conservation, il est crucial de développer de nouvelles méthodes pour mesurer de manière approfondie la biodiversité animale avec une grande précision temporelle et spatiale.

Cependant, les méthodes actuelles d’estimation de la diversité animale reposent soit sur des programmes de sciences citoyennes, soit sur des inventaires d’experts naturalistes, qui manquent respectivement de précision et sont coûteux ; de plus, les deux méthodes manquent de résolution spatiale et temporelle. La bioacoustique et la capture d’images offrent une opportunité sans précédent pour surveiller en continu un large éventail d’espèces animales (y compris les insectes, les oiseaux, les amphibiens, les chauves-souris...) et peuvent fournir des informations détaillées sur la structure et la stabilité de la communauté, les périodes d’activité, les comportements et la phénologie. L’approche de la capture audio/vidéo est donc un moyen idéal et non invasif d’évaluer de manière exhaustive la réponse de la faune aux changements environnementaux, en particulier aux impacts anthropogéniques.

L’enregistreur audio-vidéo développé dans TERRA FORMA est le prolongement des travaux des équipes du LEFE, de la SETE et du LIS. Il s’agit ici de développer un enregistreur audio-vidéo autonome à faible coût qui surpassera tous les outils de surveillance acoustique existants en termes de : flexibilité (gamme de fréquences enregistrables, canaux multiples pour localiser et suivre les sources sonores, capacité de synchronisation avec un enregistreur vidéo) ; économie d’énergie grâce à des systèmes de réveil neuronaux avancés à faible consommation d’énergie ; intelligence intégrée en temps réel grâce à des réseaux neuronaux peu profonds (reconnaissance in situ des espèces ciblées, activité anthropique ou anomalies écologiques) pouvant être étendue à l’apprentissage en profondeur intégré à l’aide de matériel supplémentaire ; connectivité (LoRa pour le contrôle à distance des options d’enregistrement et le transfert de données prétraitées vers le cloud). La formation des algorithmes s’effectuera hors ligne, en se basant sur des bases de données annotées existantes (par exemple, les sons d’oiseaux, l’activité anthropique) et de nouvelles bases de données construites au cours des premières années du projet (par exemple, la vidéo d’oiseaux, l’audio/vidéo des hyménoptères).
Le matériel, le logiciel et les bases de données développés dans le cadre du projet seront en open source destinés aux groupes de recherche, entreprises et organismes gouvernementaux impliqués dans la surveillance de la biodiversité et la conservation. Une plateforme d’annotation sera développée pour faciliter l’approche par les sciences participatives.

Thématique : Biodiversité

Références :
  • Poupard M. et al. 2019. Real-time Passive Acoustic 3D Tracking of Deep Diving Cetacean by Small Non-uniform Mobile Surface Antenna, IEEE ICASSP 2019. DOI
  • Fourniol M. et al. 2018. Analog Ultra Low-Power Acoustic Wake-Up System Based on Frequency Detection. IEEE IoTAIS 2018. DOI


En attente de photos


Mis à jour le 30 octobre 2023