Des images satellitaires « intelligentes » au service du territoire.
Suite de notre découverte de l’ONERA et de ses équipes de recherche à travers le témoignage d’Elise Koeniguer, qui dirige Méduse, un « Programme Fédérateur de Recherche » visant à améliorer le suivi d’évolution d’un site au moyen d’’images satellitaires « intelligentes ».
– Si vous deviez présenter le projet Méduse ?
Il vise à concevoir un démonstrateur à même de décrire en modèle 2D ou 3D l’intégralité d’un site donné à travers des applications, qui vont du suivi d’activité et de flux de véhicules aux bilans thermiques (à travers la création de cartes d’îlots ou de flux de chaleur des bâtiments…) en passant par du monitoring de structures (pour le repérage des déformations de terrain et de bâti) ou encore du mapping en temps réel du tissu urbain à l’échelle planétaire. L’enjeu est de donner à voir aux collectivités locales ou aux aménageurs le type d’informations que nous sommes désormais capables de produire à partir de données en open source ou commercialisées.
– Qui est à l’initiative de ce programme de recherche ?
Méduse fait partie des Projets de Recherche Fédérateurs (PRF) menés et financés dans leur intégralité par l’ONERA, pour une durée de quatre ans. Comme son nom l’indique, plusieurs départements sont mobilisés en interne. En l’occurrence : le Département de Traitement de l’Information et Modalisation (DTIM), dont je relève et qui pilote le projet ; le Département Optique Théorique et Appliquée (DOTA), qui produit des images à partir de capteurs optiques, et le Département ElectroMagnétisme et radar (DEMR), qui produit des images radar et aéroportées (le département où j’ai débuté à l’ONERA). Au total, une vingtaine de personnes à temps plein sont pressenties pour intervenir dans ce PRF.
Au passage, on peut relever la prise de risque assumée par un organisme de recherche comme le nôtre, en même temps que sa capacité à s’appuyer sur des compétences très diverses en interne, tout en développant des partenariats extérieurs. Car l’enjeu est aussi de démontrer une faisabilité jusqu’à un niveau assez élevé de façon à pouvoir conclure des partenariats avec des acteurs privés ou publics qui pourront ainsi concourir au financement d’autres projets.
– A quels constats le lancement de ce programme de recherche-ci a-t-il répondu ?
Depuis quelques années, on assiste à une explosion des data produites et diffusées à travers le monde, encore une fois en open source ou sur une base commerciale. Un changement de contexte qui affecte jusqu’au monde de la télédétection satellitaire, un des champs de compétence de l’ONERA. Les premiers à s’être lancés dans le mouvement open source sont, comme on s’en doute, les Etats-Unis, avec la Nasa. Depuis 2008, ils ont lancé des satellites Landsat, qui ont commencé à produire des cartographies de la Terre, accessibles par n’importe qui dans le monde. En 2014, l’Europe s’est engagée à son tour dans le mouvement, à travers le programme Sentinel, qui consiste, durant les prochaines années à venir, à déployer des satellites d’observation, chacun avec leurs spécificités. Sentinel-1a, un capteur radar, est le premier à avoir été lancé, en 2014. Il délivre environ 1,5 Terra-Octet par jour (soit l‘équivalent d’un stockage assuré par plus de 300 DVD « classiques »). Pour l’heure, il visite le territoire français tous les dix jours. A l’horizon 2020, l’ESA vise une couverture journalière assurée par l’ensemble de la constellation Sentinel. N’importe qui peut déjà en récupérer les données via des serveurs mis à disposition par l’Agence spatiale européenne (ESA).
– Toutes ces données se valent-elles ?
Non, bien sûr. Au sein des Big Data, il convient de faire la distinction entre des données en open source et les données commerciales, lesquelles offrent a priori un niveau de détail supérieur, qui peut aller jusqu’au centimètre alors que les premières en sont encore à une précision d’une dizaine de mètres. Néanmoins, les deux catégories de données progressent de concert en qualité et en quantité.
On a coutume de caractériser les Big Data à travers 4 V (voire plus), qui ont le mérite de se décliner aussi bien en français qu’en anglais : leur Volume (Volumetry), qui ne cesse de croître ; leur Varieté (Variety) : les données proviennent de sources de plus en plus diversifiées, aussi bien publiques que privées ; leur Vitesse (Velocity) : on peut les télécharger de plus en plus vite ; enfin, leur Véracité (Veracity) : elles gagnent en fiabilité.
– Où se situe la France en la matière ?
A l’échelle internationale, L’Open Data Index proposé par l’association Open Knowledge Foundation, évalue chaque année l’état des données gouvernementales ouvertes dans le monde entier. Une sous-catégorie concerne les données cartographiques avec, parmi les critères, leur taux de réactualisation. D’après cet index, la France ne serait pas bien placée dans ce domaine. Certes, des données sont mises en accès libre, mais sans toujours être actualisées à un rythme suffisamment rapide.
Au titre d’organisme de recherche, nous avons accès aux données de l’IGN – l’opérateur national en matière de données cartographiques (sans pouvoir cependant les valoriser auprès de clients). Nous nous employons, pour commencer, à rechercher toutes les méthodes permettant de mettre cette base de données automatiquement à jour, plus rapidement qu’elle ne l’est.
Pour contribuer à l’accélération de la mise à jour, nous travaillons concrètement à la mise au point d’algorithmes de détection de changement et de traitement d’images, comme on dit dans notre jargon. A chaque nouvelle acquisition d’images satellitaires, nous relevons ce qui a changé par rapport à la précédente en le répercutant, le cas échéant, dans la base. A titre d’illustration, nous travaillons sur le cas de Paris à partir d’images captées tous les onze jours. Dans un avenir proche, nous pourrons travailler sur un temps de revisite plus court. Déjà, nous pouvons relever des changements au niveau de la végétation, liés aux variations saisonnières.
– On mesure au passage que le défi est de mettre les images satellitaires à l’heure des algorithmes…
Oui, d’autant plus que chaque type de donnée traitée présente des problématiques algorithmiques spécifiques. Parmi ceux que nous développons, l’un concerne la coregistration : la capacité de superposer des images, en garantissant un calage aussi fin et rapide que possible. L’enjeu est de transférer des algorithmes très puissants existant dans le monde de la vidéo, vers le monde de la télédétection. Nous avons pour cela la chance de pouvoir compter sur les compétences d’un collègue, Aurélien Plyer, incontournable dans le succès de ce transfert ! Nous nous sommes également mis à l’heure du Deep Learning, qui permet de franchir un gap en terme de performance, pour automatiser certains traitements. Nous en explorons là encore les applications à la télédétection.
– De quels avantages concurrentiels disposez-vous, comparé à d’autres organismes de recherche ?
L’ONERA dispose de toutes les compétences requises, de l’acquisition des signaux jusqu’au stade ultime du traitement, en passant par la conception de capteurs. C’est ce qui fait notre particularité : il est peu fréquent dans le monde de l’image industrielle ou publique, d’avoir des équipes à même de maîtriser l’ensemble de la chaîne transformant des données, depuis leur acquisition, en des informations exploitables. Une particularité qui tient à notre capacité d’exploiter toutes sortes d’images : celles acquises par satellites en orbite autour de la terre, complétées en cas de besoin par celles acquises avec des détecteurs embarqués sur avion ou sur drone – l’ONERA en possède quelques-uns, soit au DOTA, pour les capteurs optiques, soit au DEMR, pour les capteurs radar.
Il ne s’agit pas d’opposer les options mais de les faire évoluer de concert : nous continuons donc à développer nos capteurs pour suppléer l’insuffisance des data en open source, parce que de résolution insuffisante, et à exploiter des images aéroportées, de façon à visualiser ce que les satellites ne sont pas encore en mesure de détecter. C’est le cas, par exemple pour l’analyse du trafic routier : les satellites passent toujours à des heures fixes, ce qui rend leurs informations insuffisantes. Il y a donc besoin d’envoyer des capteurs dédiés sur drones. Reste à surmonter les défis techniques que leur conception représente.
Les images radar sont, certes, plus difficiles à analyser, mais elles conservent un avantage : elles sont stables dans le temps, contrairement aux images optiques, qui, elles, ne jouissent jamais des mêmes conditions d’éclairement. En effet, elles pâtissent de changements nombreux, liés non pas tant aux évolutions que nous cherchons à décrire, qu’aux modalités d’acquisition elles-mêmes. Avec les images radar, on s’affranchit de ces limites.
– Vous-même, comment en êtes-vous venue à rejoindre ce programme de recherche ?
J’ai justement une expérience de dix ans au sein du DEMR, de surcroît, au sein d’une équipe qui s’intéressait plus particulièrement à l’image radar. J’étais donc pré-disposée à poursuivre dans ce domaine de l’image, qu’elle soit radar ou optique. Tout en étant désireuse de rester dans le domaine de la télédétection, j’avais envie de travailler sur d’autres types d’images, y compris satellitaires. J’ai donc rejoint le DTIM, il y a trois ans. A la différence du DEMR ou du DOTA, qui traitent plus spécifiquement les images provenant de leurs propres capteurs, le DTIM traitait des images de tout type, notamment issues des satellites extérieurs (en provenance du CNES, en l’occurrence). En outre, le fait d’intégrer le DTIM m’offrait la perspective de travailler sur un plus large spectre d’images de télédétection et, ainsi, de les combiner entre elles, notamment pour l’analyse d’un site urbain et de son évolution.
– Un domaine nouveau pour vous ?
Pas tout à fait, même si pendant mes années passées au sein du DEMR, j’avais surtout travaillé sur des thématiques relatives à la forêt. Progressivement, avec mon équipe, j’avais commencé à être sollicitée pour traiter plus spécifiquement des milieux urbains. Une thèse a même été lancée sur le sujet. Quand, ensuite, je suis arrivée dans mon nouveau département, en 2013, je me suis vu proposer de coordonner un PRF sur le Big Data en télédétection, celui dont nous parlons justement. L’idée en avait été rapidement admise, en échangeant avec des collègues du DOTA. Très vite, nous l’avons orienté vers l’environnement urbain et les smart cities.
– Justement, comment se décide et s’élabore ce type de programme de recherche ?
Au début, les choses sont forcément un peu floues. Par définition les chercheurs ont vocation à chercher sans savoir par avance ce qu’ils vont trouver ! Une thématique de PRF se définit donc progressivement en s’affinant avec le temps. Le point de départ est une initiative personnelle, qui prend corps à la faveur des interactions avec des collègues, au coin d’une table sinon autour d’un café. Une fois que nous nous sommes accordés sur le principe, nous peaufinons le sujet avant de le présenter à la direction qui le valide ou pas. Dans le cas de celui qui nous occupe, il l’a été en 2016. Il nous mobilise a priori pour quatre ans, jusqu’en 2020, donc.
– Revenons-en à vos applications, vos premiers résultats et à leur intérêt pour les collectivités et aménageurs…
Une première application concerne, donc, la cartographie à base d’imagerie infrarouge, des îlots de chaleur, ces zones confrontées à un surcroît de chaleur sous l’effet de la réverbération. Nous sommes en capacité de produire ce genre de cartographie, au moyen des données acquises par l’ONERA en interne, par le DOTA. Aujourd’hui, les résolutions satellites sont insuffisantes pour répondre aux besoins des collectivités. Nous travaillons déjà sur ce thème avec la communauté d’agglomération de Toulouse.
Une autre application concerne l’analyse du trafic routier et des places de stationnement. Elle intéresse tout particulièrement l’EPA Paris-Saclay et la Communauté de Paris-Saclay, confrontés à l’existence, sur le plateau de Saclay, de plusieurs parkings inoccupés alors que nombre d’automobilistes se plaignent de ne pas trouver de place. On pourrait imaginer d’exploiter des images d’observation soit aériennes, soit satellites, pour améliorer les modèles de trafic. Généralement, la résolution spatiale des données de satellites civils commerciaux est suffisante. Elle permet de comptabiliser la moindre voiture présente dans la voirie, de manière précise.
– Un mot sur le monitoring de structures…
Initialement, nous n’étions pas partis pour aborder cette thématique. Finalement, elle nous a amenés sur des problématiques intéressantes : les déformations et les phénomènes de subsidence (l’affaissement lent des terrains), qui interviennent de manière naturelle, mais aussi sous l’effet d’actions anthropiques suite notamment au pompage des nappes phréatiques. Il importe de pouvoir les anticiper avant que cela ne perturbe le sol et donc les constructions. La technique est connue et s’appuie sur des images radar. Celles-ci nous donnent accès à un type d’information particulier qu’on ne pourrait pas avoir autrement.
Le produit que nous sommes en train de développer en interne, devrait permettre de faire ce même travail d’observation, mais, cette fois au niveau des structures, c’est-à-dire du bâti : pour un bâtiment donné, nous pourrions être capables de faire des mesures de déformations fines entre deux dates d’acquisition de données. La structure sur laquelle nous avons testé notre modèle est la Tour Eiffel, ni plus ni moins. Du fait de sa structure métallique, elle offre l’intérêt de renvoyer des signaux pour le radar. Pour autant, ce n’est pas le choix le plus facile qu’on ait fait car c’est un genre de signal compliqué à interpréter.
– La Tour Eiffel ? Est-ce à dire qu’elle se déforme ?
Oui ! Nous n’y pensions pas au départ. La « découverte » qu’il était nécessaire de le prendre en compte dans nos modèles a été faite de manière fortuite grâce au concours d’une doctorante, Flora Weissgerber. Sa thèse, que je codirige avec un collègue de Télécom ParisTech, Jean-Marie Nicolas, portait sur un sujet plus général en traitement d’images – la combinaison d’images radar de résolution et de modalité différentes. Comme Flora avait récupéré des images de Paris, son codirecteur lui avait recommandé d’appliquer ses méthodes au cas de la Tour Eiffel. Si elles étaient justes, elle devait naturellement en retrouver la hauteur précise. Un matin, elle est arrivée un peu embarrassée : si elle retrouvait bien le plus souvent des ordres de grandeur proches de la hauteur effective, d’autres fois, ses résultats étaient en décalage de pas moins d’un km ! Naturellement, nous n’avons pu nous empêcher de la taquiner un peu. C’est quelqu’un d’exceptionnellement brillant, elle devait juste avoir fait des erreurs de calcul. Sauf qu’il n’y en eut pas. Nous avons alors pensé que ce devait être dû aux artefacts liés à l’atmosphère. C’est finalement le codirecteur de thèse, qui a formulé une hypothèse qui s’est révélée exacte : la Tour Eiffel bouge, non pas en raison du sol, mais parce qu’elle se dilate, et il faut le prendre en compte pour exploiter au mieux nos signaux !
Légende : dans cette image réalisée à partir d’acquisitions satellites, la couleur contient des informations sur la hauteur… mais aussi les dilatations de quelques centimètres ! Interferogramme produit à l’aide d’images © TerraSAR-X, en provenance du DLR.
C’est ainsi que cette autre thématique du monitoring des structures s’est imposée. Nous y avons associé notre doctorante, mais aussi la société d’exploitation de la Tour Eiffel, et la société en charge de son suivi structurel. Nous avons eu l’autorisation de faire nos expérimentations sur la Tour elle-même et de fixer des points d’accroche pour les futures missions satellites. Une expérience enrichissante ! Autant le reconnaître : des motifs personnels sont aussi intervenus dans la reprise de l’exemple de la Tour Eiffel.
Légende : Flora et son équipe de thèse, lors de l’installation d’une cible étalon sur le restaurant du Jules Verne, au deuxième étage de la Tour Eiffel…
– Expliquez-vous…
Cela faisait longtemps que je traitais d’images de sites emblématiques du monde, mais sans qu’y figure Paris ou même l’Ile-de-France. Dans les colloques, San Francisco est quasi systématiquement mise en avant. Cette ville a, de fait, été très fréquemment utilisée pour les démonstrations de télédétection, car elle a fait l’objet d’une des premières images aériennes distribuées par la Nasa, au point de devenir l’exemple canonique, repris par des générations de professeurs et d’étudiants. En réaction, j’ai eu envie de valoriser d’autres exemples, à commencer par Paris. Seulement, promouvoir des images en télédétection de notre capitale n’allait pas de soi, celle-ci ne pouvant être survolée par les avions. En collaboration avec Télécom ParisTech, nous avons entrepris, pour commencer, de récupérer toutes les données satellitaires disponibles sur Paris.
Légende : exemple de combinaisons d’images issues d’une diversité de capteurs au-dessus de San Franciso.
– Soit, mais Paris-Saclay, c’est bien aussi…
Naturellement, nous ne comptions pas nous en tenir à Paris. Malheureusement, les premières piles de données satellitaires commerciales qui mettaient le focus sur Paris escamotaient Paris-Saclay ! Heureusement, avec les images open-source de Sentinel, nous pouvons maintenant faire également nos détections de changement sur ce territoire.
Légende : sur cette image obtenue en combinant une centaine d’image de Sentinel 1 sur la Plateau de Saclay, les couleurs indiquent des changements intervenant à des dates bien précises : on y lit notamment les dates de mises en place de chantiers sur le campus de Polytechnique…
– Encore un mot sur Paris-Saclay : en quoi cet écosystème est-il favorable à un PRF comme celui qui vous occupe actuellement ?
Paris-Saclay s’est révélé un précieux terrain de jeu pour démontrer la viabilité de nos données, notamment pour ce qui concerne le suivi d’évolution d’un site, car nous avons pu confronter nos données avec celles dont dispose l’aménageur, l’EPA Paris-Saclay, à travers ses suivis de chantiers hebdomadaires. C’est d’ailleurs l’intérêt de travailler dans cet écosystème : étant sur place, nous pouvons comparer nos résultats avec les observations de terrain.
Or, si nous sommes capables de le faire dans le contexte de Paris-Saclay, nous pourrions le faire partout ailleurs, y compris pour des sites dont les planificateurs ne seraient pas aussi collaboratifs. De là, donc, notre rapprochement avec l’EPA Paris-Saclay. Nous échanges ont été l’occasion d’aborder un autre sujet : la création d’un comité scientifique d’expertise.
– De quoi s’agit-il ?
Ces comités scientifiques d’expertise ont commencé à se mettre en place un peu partout en France en vue d’encourager les échanges de données satellitaires de télédétection, entre laboratoires concernés par une même problématique. Un mouvement organisé au sein de THEIA, un pôle national de données et de services portant sur les surfaces continentales, qui permet de fédérer les demandes de campagnes d’acquisition spécifique (des laboratoires peuvent avoir besoin qu’un satellite acquière des types de données particuliers plus souvent à tel ou tel endroit, à telle ou telle date ; ils obtiennent d’autant plus satisfaction que leurs demandes sont groupées). Des comités d’animation scientifique régionaux de ce genre se sont constitués en Alsace, en Aquitaine ou encore dans le sud de la France. Il n’y en avait pas encore en Ile-de-France. Nous nous sommes donc proposés pour en constituer un. Plusieurs partenaires ont déjà manifesté leur intérêt. L’agglomération de Paris-Saclay elle-même s’est montrée intéressée. Elle y voit un moyen de mieux rendre compte de ce qui se passe sur le Plateau de Saclay, de montrer que cela bouge sur ce territoire – aussi bien en termes d’aménagement, de projets urbains que scientifiquement – avec l’espoir d’en faire évoluer les représentations.
A lire aussi : l’entretien avec Manuel Rodrigues, chef du projet Microscope, un important programme de recherche visant à vérifier la pertinence du principe d’équivalence au fondement de la théorie de la relativité générale d’Einstein… (pour y accéder, cliquer ici).
Journaliste
En savoir plus