-
Partager cette page
Pendant le Covid-19, des paysages sonores extraordinaires se sont dévoilés
À propos du dispositif "Silent Cities project consortium" mis en place par Samuel Challéat
En mars 2020, les portes sont restées closes, les voitures ont disparu des routes. La pandémie du Covid-19 a mis sur pause le monde entier. Avec elle, la faune locale a repris son territoire et le paysage sonore a considérablement changé. Loin des tumultes de l’humanité, cinq scientifiques du CNRS, de l'Institut Mines-Télécom de Brest (IMT Atlantique), de l’Institut de recherche du développement (IRD), du Muséum national d’Histoire naturelle et de l’Institut d’acoustique de l’université du Mans ont coordonné une collaboration internationale à grande échelle impliquant 261 personnes de 35 pays pour récolter des données acoustiques durant la première vague de confinements.
De la pollution sonore aux chants des oiseaux
Cette production de sons dits anthropiques est essentiellement concentrée dans les espaces urbains : véhicules motorisés, machines, usines, chantiers, manifestations et autres événements extérieurs se produisant dans l’espace public. Mais suite à la mise en place de mesures plus ou moins strictes de confinement des populations lors de la pandémie du Covid-19, les oiseaux ont à nouveau fait entendre leurs vocalises dans les rues de nos villes et jusque dans les centres d’acier, de verre et de ciment des mégapoles à travers le monde. En révélant la richesse des sons d’origine animale (ou biophonie) jusqu’alors occultée par une multitude de sons d’origine humaine (ou antropophonie), la diminution soudaine des flux physiques urbains a façonné des paysages sonores littéralement extraordinaires.
Un dispositif rigoureux déployé dans 35 pays
Entre mars et octobre 2020, des enregistrements ont été réalisés dans 317 sites répartis dans 197 villes et 35 pays, principalement en Europe et en Amérique, couvrant une diversité de contextes urbains et climatiques. L’ensemble de ces enregistrements correspond à plus de 2,6 millions de minutes de son. Le prétraitement des données a consisté à extraire les métadonnées et à diviser les enregistrements en segments de 10 secondes pour calculer divers indices acoustiques et identifier automatiquement les événements sonores.
Lire l'intégralité de l'article sur le site de la DR 14