Couverture de RDNA_835

Article de revue

Donnée et temporalité : facteur clé de succès

Pages 85 à 92

Notes

  • [1]
    Publiée en juillet 2019.
  • [2]
    Cryptologue, spécialiste en sécurité informatique et écrivain américain.
  • [3]
    Après la révolution initiée par Starlink (jusqu’à 48 000 satellites), on pourrait assister à une réponse chinoise avec l’émergence de deux projets évoqués dans la presse : GW-A59 et GW-2 pour environ 13 000 satellites au total.
  • [4]
    Cette dynamique est régulièrement évoquée par Xavier Pasco. Le projet Starlink apparaît ainsi comme une réponse américaine à la domination chinoise en matière de couche technique télécom sur la 5G.
  • [5]
    La diminution de la latence du signal de dizaines de millisecondes pourrait générer des gains considérables (de l’ordre du milliard de dollars) dans le cadre des échanges financiers au travers des FSOC (Free Space Optical Communications).
  • [6]
    Évoquée par la NASA dans le cadre des accords ARTEMIS.
  • [7]
    Écrivain américain, référence du genre de l’anticipation.
  • [8]
    Philosophe de la Grèce antique, né vers 371 av. J.-C. ; élève d’Aristote.
  • [9]
    En particulier ceux du Combined Space Operations (CSpO) : 5 Eyes + France et Allemagne.
  • [10]
    Space Surveillance and Tracking, Space Situational Awareness, Space Domain Awareness, Space Traffic Management.
  • [11]
    Sous réserve de performances réseaux adéquates.
  • [12]
    Notion d’architecture distribuée.
  • [13]
    Les traitements délocalisés doivent néanmoins rester sous la maîtrise du data center afin de ne pas porter atteinte à la pureté des données.
  • [14]
    Observation, orientation, décision, action : boucle du colonel John Boyd de l’US Air Force (1960).

1

« Gertrude avait ceci de bien qu’elle ne faisait jamais semblant de comprendre, comme font si souvent les gens, qui meublent ainsi leur esprit de données imprécises ou fausses, par quoi tous raisonnements ensuite sont viciés. »
André Gide, La Symphonie pastorale, NRF, 1919.

2L’environnement spatial constitue un milieu hostile difficile à appréhender par les seuls sens humains. Sa compréhension requiert obligatoirement la collecte de mesures issues de capteurs en orbite ou au sol, afin de pouvoir modéliser ce milieu aux dynamiques complexes et peu intuitives. Le recueil et le traitement de données sont un des enjeux de la Stratégie spatiale de défense[1]. Le but est de maîtriser l’environnement spatial pour renforcer l’autonomie stratégique française et faciliter l’accès et l’action dans l’espace.

Qu’est-ce qu’une donnée ?

3Les données brutes (ou données primaires) sont issues de sources primaires et ne doivent pas avoir été l’objet d’une interprétation ou d’un traitement quelconque. On les dénomme aussi « mesures ». Compte tenu des évolutions technologiques et de la diminution constante des coûts de stockage, il est aujourd’hui possible de les conserver afin de concevoir des jeux de données primaires. Ces jeux de données doivent aussi intégrer les métadonnées afin de leur adjoindre les indispensables éléments de contexte qui permettront de les réutiliser au mieux.

« Data is content, and metadata is context. Metadata can be much more revealing than data, especially when collected in the aggregate. »
Bruce Schneier [2], Data and Goliath – The Hidden Battles to Collect Your Data and Control Your World, WW Norton & Co, 2015.
Les données peuvent en outre être « chaudes » ou « froides » selon leur degré d’utilisation. Enfin, elles font l’objet de traitements (algorithmique ou humain) afin d’y associer un sens et ainsi produire une information. Le cycle de vie des données comprend donc la création ou la collecte, le traitement et l’analyse (interprétation), le stockage et enfin les capacités d’utilisation ou de réutilisation.

La donnée spatiale : une rupture

4Aujourd’hui, les processus du Commandement de l’espace sont essentiellement fondés sur le partage de données avec les partenaires français (Cnes…) et étrangers. Dans la majorité des cas, des préavis de plusieurs jours sont nécessaires avec de surcroît une qualité de données ne nécessitant pas de traitement très poussé. Les capteurs et les calculs permettant d’anticiper les risques de collisions sont essentiellement américains : le Commandement de l’espace n’est donc pas autonome et reçoit des alertes et des données hétéroclites souvent déjà interprétées.

5Les nouvelles technologies, le nombre et les capacités croissantes des objets spatiaux génèrent de grandes quantités de données : davantage de capteurs (capteurs, télescopes…), de meilleures résolutions et une fusion des données facilitée. Il s’agit d’un changement majeur, facteur de rupture dans nos processus de fonctionnement.

Une révolution est en cours

Un environnement bientôt encombré

6Dans les années à venir, le développement de constellations comptant chacune plusieurs milliers de satellites devrait modifier en profondeur l’équilibre du domaine spatial circumterrestre [3]. Nous assistons en effet à une véritable « infratisation » des orbites basses, que l’on peut assimiler à une volonté d’occupation du terrain [4]. Deux raisons majeures expliquent ce phénomène. Une raison commerciale d’abord avec le besoin de complémenter les réseaux terrestres avec une offre satellitaire à faible latence : il s’agit d’un apport pouvant se révéler essentiel pour rendre l’IoT (Internet of Things) plus efficace (notamment pour les objets mobiles), mais aussi, par exemple, pour ouvrir la voie à du trading haute fréquence [5]. Une raison stratégique ensuite qui consiste à renforcer la résilience des communications en particulier gouvernementales : il s’agit alors de pallier la vulnérabilité des communications terrestres (et notamment des câbles stratégiques sous-marins), mais aussi de concourir à la résilience avec l’architecture des constellations (fonctionnement par le biais du principe d’allocation dynamique, ce qui renforce le caractère agnostique). Ces objets en orbite communiqueront entre eux et multiplieront le volume de données spatiales. Il deviendra vital de détenir des capacités de traitement automatisé embarquées en particulier pour la coordination et l’anticollision. Par ailleurs, les réflexions américaines sur les Safety Zones[6] ainsi que l’émergence potentielle de règles relatives à la coordination du trafic spatial pourraient aussi peser sur le volume de données.

7La maîtrise des constellations participe de l’évaluation militaire des capacités spatiales dans la mesure où elle concourt au développement d’une logique duale de blurring, qui vise à dissimuler des charges utiles militaires au sein de capteurs à vocation civile.

8Enfin, le spécialiste en sécurité informatique Bruce Schneier, a prétendu en 2014 que « la surveillance de masse est devenue le modèle économique de l’Internet ». On rapproche souvent le domaine spatial du cybernétique : compte tenu de l’évolution du modèle spatial et de l’augmentation des capitaux privés, il paraît nécessaire de s’interroger sur la maîtrise que garderont les puissances institutionnelles en matière de surveillance de l’espace, ne serait-ce que pour garantir une politique de transparence.

Démocratisation des technologies de traitement massif

9

« Bourrez les gens de données incombustibles, gorgez-les de « faits », qu’ils se sentent gavés, mais absolument « brillants » côté information. Ils auront l’impression de penser, ils auront le sentiment du mouvement tout en faisant du sur-place. »
Ray Bradbury [7], Fahrenheit 451, 1953.

10On entend régulièrement parler de Big data. Dans nos sociétés modernes et connectées, un véritable déluge de données se déverse depuis et dans nos systèmes d’information. Ce phénomène est parfois décrit comme une véritable « infobésité ». La majorité de ces données ne sont ni interprétées, ni stockées dans des bases de données structurées. Leur traitement pourrait pourtant être utile à une meilleure compréhension globale permettant en particulier l’anticipation ainsi que la décision en temps contraint.

11Ce type de traitement complexe repose de plus en plus sur l’utilisation de calculs hautes performances (de type High Performance Computing ou HPC) sur des réseaux robustes. Ce procédé consiste à paralléliser le calcul dans plusieurs milliers de nœuds, combinant ainsi la puissance de nombreux processeurs. Big data et HPC sont ainsi liés en offrant la capacité de traiter de grands volumes de données en temps contraint, c’est-à-dire quasi réel. Ce procédé est déjà largement utilisé : prévisions météorologiques, études climatiques, simulations scientifiques, tendance des marchés financiers. Cette technologie a également été testée dans l’espace afin d’offrir une grande capacité de calcul en orbite et une plus grande réactivité (moins de dépendance aux délais de transmission vers la Terre pour traitement).

Temporalité et donnée spatiale

12

« La plus coûteuse des dépenses, c’est la perte de temps. »
Théophraste [8], « Le Traité des Lois », Revue de la législation, 1870.

13La stratégie spatiale de défense expose le besoin de connaître la situation spatiale avec précision à des fins d’efficacité. Compte tenu des caractéristiques du milieu spatial (immensité, permanence des trajectoires…), le stockage et la capacité de traitement a posteriori des données prend tout son sens dès lors que l’objectif recherché n’est pas seulement l’anticollision mais bien la connaissance de la vie des objets spatiaux et leur modélisation. En effet, il paraît évident que la possibilité de tracer un objet en permanence depuis son lancement offre des éléments d’appréciation souvent indispensables. Il s’agit là du premier argument conférant au couple temps-données une saveur si particulière : « un satellite ne se pose généralement pas ».

14« Manœuvrer, c’est du calcul ». L’accessibilité au temps réel (ou quasi réel) pour manœuvrer en toute sécurité dans l’espace pour des opérations « actives » est un besoin primordial et partagé avec nos partenaires [9]. Contrairement à un aviateur dans son cockpit, un opérateur satellite devra faire confiance aux calculs fondés sur des données brutes. Peut-on raisonnablement demander à un pilote, dont on a bandé les yeux, d’intercepter un autre avion à Mach 2, au milieu de nombreux avions de ligne, en ne lui donnant des informations que toutes les deux minutes ? Par rapport à l’aéronautique, les capacités de manœuvre des satellites sont faibles et demandent une plus grande anticipation : cela caractérise l’importance de détecter une manœuvre adverse, dès qu’elle est effectuée.

15Enfin, le temps réel est incontournable dans le cadre de manœuvres de navigation sur différentes orbites vers une cible à éviter, à reconnaître ou à neutraliser. Il faut pouvoir assurer l’anti-abordage, mais aussi modifier un profil de vol orbital vers une cible non coopérative qui pourra aussi manœuvrer.

La donnée comme outil de combat

Garantir un espace durable et utilisable par tous

16Du fait de son immensité, le milieu spatial est générateur de quantités importantes de données. De nombreux objets s’y déplacent en permanence avec des trajectoires képlériennes, mais aussi parfois non prédictibles. Éviter une collision entre deux avions est un besoin impérieux : néanmoins, une telle collision ne remettrait jamais en cause l’utilisation du couloir aérien dans lequel ils évoluent. Dans l’espace, en raison des débris qu’une collision générerait, un scénario équivalent pourrait interdire l’utilisation d’orbites avoisinantes pendant des mois voire des années, tout en menaçant au passage l’ensemble des satellites s’y trouvant déjà. L’espace étant un bien commun (res communis), ce postulat de « non droit à l’erreur » nous oblige en qualité de puissance spatiale responsable. Pour la protection de nos satellites, ceux de nos opérateurs nationaux comme ceux de nos alliés, nous devons avoir une connaissance précise de tous les objets susceptibles de présenter un risque. Or, dans l’espace, la connaissance provient des données issues de nos capteurs. Elles occupent et occuperont toujours plus à l’avenir une place centrale dans tous les dispositifs de surveillance quel que soit leur degré de granularité, de finesse ou leur finalité (leur périmètre et leurs règles faisant encore parfois débat entre les nations entre SST, SSA, SDA puis STM) [10]. De nouveaux systèmes devront être mis en œuvre pour pouvoir exploiter ces données de façon la plus optimale.

17La notion de temporalité de la donnée évoquée supra montre toute l’importance du traitement massif en temps réel. Elle doit aussi s’accompagner d’une réflexion sur la « subsidiarité » offerte au traitement de la donnée dans une exploitation au bon moment et au bon niveau : en veillant à ne pas impacter la pureté et la sûreté des informations, il semble nécessaire que ce qui peut être automatisé le soit, le plus en amont possible, pour soulager les capacités de traitement en aval qui auront beaucoup à faire. Ainsi est née, sur le modèle du TCAS (Traffic Collision Avoidance System), la notion de SACAM (Semi-Autonomous Collision Avoidance Manoeuver) que l’on trouve déjà sur certaines constellations de satellites et qui leur permet d’échanger entre eux (positions-état). De tels systèmes devront être poussés au maximum de leur performance pour pouvoir, à terme, éviter une collision en opérant en toute autonomie un repositionnement. L’intelligence artificielle (IA), nourrie de données primordiales, pourra peser sur le meilleur choix du satellite à faire bouger parmi les concernés, en fonction de nombreux critères (consommation de carburant, perte de service associée, etc.).

18Dans un espace ainsi sécurisé, les armées conserveront néanmoins des spécificités qui leur demanderont d’aller plus loin encore dans la collecte et l’exploitation des données spatiales.

Mieux assurer l’autonomie stratégique et la décision

19Opérer militairement dans l’espace exige une maîtrise complète de ce milieu qui se différencie des besoins civils par la nécessité de pouvoir identifier et interpréter tous les déplacements d’objets pour déduire les intentions de leurs propriétaires. Cette maîtrise passe par la capacité à connaître en temps réel cet environnement afin d’y agir avec précision, efficacité, rapidité et permettre au ministère des Armées d’assumer ses responsabilités d’opérateur spatial conduisant des opérations spatiales militaires. Acquérir notre indépendance et conduire ces opérations nécessitent ainsi de disposer de capacités de collecte, de stockage, de calcul et d’archivage sur de gros volumes de données. La supériorité dans l’espace ne viendra pas de la seule donnée en elle-même, mais de la capacité à la traiter dans le temps imparti. Ces capacités doivent permettre de répondre au besoin opérationnel d’appréciation autonome de la situation et de décision stratégique qui peut s’inscrire dans des échelles de temps très courtes, de l’ordre de l’heure. La création de la Space Force a conduit les Américains à revoir intégralement leur prise en compte de la donnée et son traitement pour viser la supériorité spatiale. Ils souhaitent ainsi devenir « data centrés » (Chief of Space operations’ planning guidance, mai 2020).

20Le volume des données croît exponentiellement. Pour s’en convaincre, il suffit d’imaginer que lorsque l’on ajoute aujourd’hui un satellite sur une orbite, il faut calculer les collisions potentielles avec les objets présents dans les orbites sécantes. Demain, les orbites sécantes contiendront probablement 10 voire 100 fois plus d’objets ; pour chaque satellite supplémentaire, nous aurons donc démultiplié nos besoins en calculs. Cela peut nous conduire aux réflexions suivantes :

  • Déjà « débordés » par le volume de données, le premier enjeu sera de discerner la donnée « utile », en particulier pour le temps réel.
  • Ce foisonnement de données est un facteur de résilience non négligeable. Le côté potentiellement irréversible d’une collision, voire d’une mauvaise interprétation des intentions d’un objet mobile rend indispensable la comparaison de données, le recoupement des informations et la possibilité d’obtenir rapidement un enrichissement de l’information pour prendre in fine la meilleure décision.
  • Dans le domaine spatial, le traitement automatisé pourrait se démocratiser dans les systèmes de commandement : il ne s’agit pas d’un choix ou d’une option, mais d’une nécessité. Cela devrait irriguer les niveaux décisionnels et opérationnels, véritable révolution culturelle pour les armées et défi pour la sécurité cybernétique. En effet, seul le calcul massif, continu et rapide permettra d’identifier une situation critique à traiter afin de proposer voire d’imposer les premières mesures par le biais d’un calculateur (réactions pré-planifiées dans les ordres d’opérations actuels).

Réflexions pour un C2 ambitieux et original

21Sur la base de ces constats, la surveillance efficace de l’espace impose une approche particulière : globale, proche de l’instantanée, dans laquelle la donnée ne se suffit pas à elle-même. Elle n’est « qu’une mesure » dont le traitement devra intégrer la notion de temporalité (temps réel, relecture et anticipation dans l’accès aux données et les calculs associés) afin de concourir à la supériorité militaire. Cette notion de temporalité pourrait orienter les choix des structures informatiques à développer. Un tir antisatellite laisse au « chef conduite » du C2 sept à dix minutes pour réagir et donner l’ordre de déplacer les satellites visés pour les protéger, tout en prenant en compte toutes les conséquences d’un mouvement. Cette aptitude devient essentielle pour la France, compte tenu de ses moyens comptés. Dans ce cadre, l’IA et l’apprentissage automatique sont fondamentaux pour permettre d’agréger, d’analyser de grandes quantités de données puis de prendre des décisions optimales dans des délais jusqu’à présent inatteignables. Il s’agit donc de traiter l’« overflow » et d’assurer ainsi une prise en compte complète : stockage, archivage, valorisation, distribution et traitement en temps réel ou différé d’un nombre grandissant de données et d’informations.

22En premier lieu, compte tenu des caractéristiques du milieu et du besoin de temps réel, il paraît intéressant de réfléchir au transfert de données brutes au cœur même du data center pour que le traitement soit réalisé sur le lieu de la prise de décision. Cela nécessiterait des algorithmes adaptés devant rapidement conduire au recours à l’IA. Ce transfert sans traitement préalable permettrait de certifier la « pureté » des données, mais aussi de gagner en célérité [11] en s’affranchissant du temps de traitement des systèmes intermédiaires. C’est une approche différente de celle prônée par les « systèmes de systèmes » [12] qui valorise les traitements intermédiaires et la mise en commun des informations ainsi obtenues. Dans le cas de l’espace, le besoin de temps réel s’affirme et pourrait plaider pour un « système de capteurs avec traitement centralisé » ou a minima pour la centralisation des algorithmes des systèmes intermédiaires au cœur du data center. Cela permettrait de gagner en évolutivité dans la mesure où la compatibilité des algorithmes avec le système cœur pourrait être une condition préalable à leur intégration et à leur pérennité. Cette évolutivité faciliterait les capacités d’interopérabilité avec les partenaires. Ce serait ainsi au C2 de structurer la donnée, ses métadonnées et de diriger la logique de traitement des données brutes (données chaudes ou froides, temps réel ou différé…) en national ou avec les partenaires.

23Par ailleurs, ce cœur de calcul pourrait prioriser les traitements et permettre des calculs délocalisés et distribués [13] afin de libérer de la puissance au profit de tâches secondaires ne nécessitant pas de traitement en temps réel. Cela concourrait aussi à la résilience.

24Enfin, l’indispensable capacité de simulation sur les données singularise le C2 spatial et devrait être intégrée : elle est indispensable en matière de validation des données (en particulier dans le cadre d’un système apprenant). Elle est également indispensable afin de prédire ou d’anticiper les conséquences souvent irréversibles d’une manœuvre ou d’une action et ainsi orienter la décision tant stratégique que tactique. En outre, cette simulation permet de décrypter la stratégie de l’adversaire, d’anticiper ses actions et surtout d’analyser ses faiblesses dans un tempo permettant de mettre en œuvre des moyens d’action en orbite ou au sol. Cette simulation doit être constamment nourrie d’informations les plus à jour possibles pour réduire au maximum toute incertitude sur les résultats en calculs constants.

25Le C2 spatial est le chaînon essentiel permettant d’assurer l’efficacité opérationnelle recherchée : collationner, corréler, analyser, interpréter automatiquement les données, simuler les cas de figure et orienter la décision. Tout cela afin de rester cohérent d’une boucle OODA [14] spécifique, car intégrant les caractéristiques du milieu : réactivité permanente (temps réel), approche globale à l’échelle de l’espace circumterrestre et enfin intégration d’une capacité de simulation efficace et compatible du temps réel.


Mots-clés éditeurs : données, Big data, C2 spatial, boucle OODA

Mise en ligne 16/12/2020

https://doi.org/10.3917/rdna.835.0085

Notes

  • [1]
    Publiée en juillet 2019.
  • [2]
    Cryptologue, spécialiste en sécurité informatique et écrivain américain.
  • [3]
    Après la révolution initiée par Starlink (jusqu’à 48 000 satellites), on pourrait assister à une réponse chinoise avec l’émergence de deux projets évoqués dans la presse : GW-A59 et GW-2 pour environ 13 000 satellites au total.
  • [4]
    Cette dynamique est régulièrement évoquée par Xavier Pasco. Le projet Starlink apparaît ainsi comme une réponse américaine à la domination chinoise en matière de couche technique télécom sur la 5G.
  • [5]
    La diminution de la latence du signal de dizaines de millisecondes pourrait générer des gains considérables (de l’ordre du milliard de dollars) dans le cadre des échanges financiers au travers des FSOC (Free Space Optical Communications).
  • [6]
    Évoquée par la NASA dans le cadre des accords ARTEMIS.
  • [7]
    Écrivain américain, référence du genre de l’anticipation.
  • [8]
    Philosophe de la Grèce antique, né vers 371 av. J.-C. ; élève d’Aristote.
  • [9]
    En particulier ceux du Combined Space Operations (CSpO) : 5 Eyes + France et Allemagne.
  • [10]
    Space Surveillance and Tracking, Space Situational Awareness, Space Domain Awareness, Space Traffic Management.
  • [11]
    Sous réserve de performances réseaux adéquates.
  • [12]
    Notion d’architecture distribuée.
  • [13]
    Les traitements délocalisés doivent néanmoins rester sous la maîtrise du data center afin de ne pas porter atteinte à la pureté des données.
  • [14]
    Observation, orientation, décision, action : boucle du colonel John Boyd de l’US Air Force (1960).
bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Avec le soutien de

Retrouvez Cairn.info sur

18.97.14.82

Accès institutions

Rechercher

Toutes les institutions