Couverture de STRAT_123

Article de revue

Rendre les espaces transparents : la stratégie génétique au futur antérieur

Pages 115 à 142

Notes

  • [1]
    Le concept a été utilisé pour la première fois par le futur général Becam - Becam, Lt-cl., « La manœuvre génétique », Forces Aériennes Françaises, n° 152, octobre 1959. Plus largement, voir Joseph Henrotin, La Stratégie génétique dans la stratégie des moyens, ISC, Paris, 2003.
  • [2]
    Laurent Henninger (entretien), « Le fluide et le solide », Défense & Sécurité Internationale, n° 89, février 2013.
  • [3]
    Jérôme de Lespinois, La Bataille d’Angleterre, juin-octobre 1940, Tallandier, Paris, 2011.
  • [4]
    Paul N. Edwards, The Closed World. Computers and the Politics of Discourse in Cold War America, The MIT Press, Cambridge, 1997.
  • [5]
    Paul E. Ceruzzi, Reckoners: The Prehistory of the Digital Computer, From Relays to the Stored Program Concept, 1939-1945, Greenwood Press, Westport, 1983.
  • [6]
    À titre de comparaison, le processeur AMD FX-8150 utilisé dans les PC de bureaux dépasse les 30 millions d’opérations par seconde.
  • [7]
    Life, « Pushbutton Defense for Air War », Life, vol. 6, n° 42, 1957, p. 62.
  • [8]
    Le centre était toutefois enterré à une profondeur de 210 m. Le complexe a été terminé en 1963 et est resté en service jusqu’en 2006.
  • [9]
    L’appareil était entré en service dans l’US Navy en 1953. L’US Air Force ne commandera ses propres appareils de détection aérienne avancé qu’un peu plus tard.
  • [10]
    Paul N. Edwards, op. cit.
  • [11]
    Pour une synthèse des débats en cours à l’époque, voir Jean-Philippe Baulon, L’Amérique vulnérable ? (1946-1976), Economica/ISC, Paris, 2009.
  • [12]
    Contrairement à la roquette, le missile est, par définition, guidé. Les premiers engins testés dès 1946 bénéficiaient d’un guidage depuis le sol, les mouvements du missile vers la cible s’effectuant via une télécommande par radio, l’homme assurant la computation information entre l’information (fournie par un radar au sol) et l’action à distance sur les gouvernes du missile. La solution, au demeurant inadaptée aux attaques par saturation et vulnérable au brouillage, s’est avéré nettement moins efficace que le guidage terminal du missile par radar ou par infrarouge.
  • [13]
    Avec cependant plusieurs limitations, liées à la capacité de traitement du signal. La détection d’appareils volant lentement ou à proximité du sol s’avérait ainsi délicate : William W. Momyer, Airpower in Three Wars, Air University Press, Maxwell, 2003.
  • [14]
    Notamment par le ravitaillement en vol, qui facilite les déploiements expédi­tionnaires.
  • [15]
    Le Link-1, développé dans les années 1950, permettait l’échange de données entre centres de contrôle aériens. La même logique sera à l’œuvre avec le BADGE (Base Air Defense Ground Environment) destiné aux bases japonaises.
  • [16]
    Quatre exemplaires d’une version modifiée.
  • [17]
    C’est le cas des systèmes Erieye suédois (en service ou sur le point de l’être en Suède, Pakistan, Brésil, Thaïlande, Émirats arabes unis) ; Phalcon israélien (Israël, Chili, Singapour, Italie) ; Wedgetail américain (Australie, Turquie, Corée du Sud) ; de l’E-2C/D Hawkeye (embarqué sur porte-avions et en service aux États-Unis, en France, au Japon, au Mexique, en Égypte) ; du KJ-2000 (Chine) ; du KJ-200 (Chine, Pakistan) ; du A-50 (Russie, Inde).
  • [18]
    Michael Palmer, Command at Sea: Naval Command and Control since the Sixteenth Century, Harvard University Press, Harvard, 2005.
  • [19]
    Joseph C. Wylie, Military Strategy. A General Theory of Power Control, Naval Institute Press, Annapolis, 2014.
  • [20]
    La question importe. Si les Britanniques avaient disposé de liaisons radio proté­gées durant la bataille du Jutland (1916), ils auraient gagné un temps précieux et, pro­bablement, la bataille elle-même. Toutefois, considérant qu’il existait un risque d’écou­te de la part de la flotte allemande, les instructions mentionnaient expressément l’em­ploi de signaux optiques, imposant donc que les navires soient à proximité.
  • [21]
    Céline Lafontaine, L’Empire cybernétique. De la machine à penser à la pensée-machine, Seuil, Paris, 2004.
  • [22]
    Le concept est mis sur le papier en 1962 pour être concrétisé en 1970. Ce qui importe est d’ailleurs plus le protocole TCP/IP et le travail par « paquets » que le réseau lui-même, qui utilise des lignes téléphoniques classiques naturellement vulnéra­bles aux impulsions électromagnétiques des opérations nucléaires.
  • [23]
    Paul N. Edwards, op. cit.
  • [24]
    Arthur K. Cebrowski, John J. Garstka, « Network-Centric Warfare: Its Origin and Future », US Naval Institute Proceedings, January 1998.
  • [25]
    David J. Betz, « The more you know, the less you understand: the problem with information warfare », The Journal of Strategic Studies, vol. 29, n° 3, June 2006.
  • [26]
    Edward N. Luttwak, Le Paradoxe de la stratégie, Odile Jacob, Paris, 1989.
  • [27]
    Olivier Entraygues, Le Stratège oublié. J.F.C. Fuller, 1913-1933, Brèches Éditions, Paris, 2014.
  • [28]
    Un premier projet, remontant à mars 1966, envisageait un barrage tactique classi­que composé de barbelés, de champs de mines et qui aurait été surveillé en perma­nence. L’armée a marqué son opposition au projet, au motif que les forces ainsi fixées n’auraient plus été disponibles pour des actions offensives.
  • [29]
    Thomas G. Mahnken, Technology and the American Way of War Since 1945, Columbia University Press, New York, 2008.
  • [30]
    On notera que ces efforts seront également à l’origine de la dronisation de petits appareils de tourisme, qui deviendront des QU-22B. Leur fiabilité sera cependant rapi­dement remise en question.
  • [31]
    Parfois jusqu’à l’extrême, comme les concepts de C-119 dotés de lampes à xénon et devant illuminer la jungle de nuit.
  • [32]
    Harry G. Summers, On Strategy. A Critical Analysis of the Vietnam War, Presidio Press, New York, 1982.
  • [33]
    Thomas G. Mahnken, p. 112.
  • [34]
    Ibidem.
  • [35]
    James F. Dunnigan, Raymond M. Macedonia, Getting it Right. American Military Reforms After Vietnam to the Persian Gulf and Beyond, William Morrow and Com­pany, New York, 1993.
  • [36]
    Et ce, en dépit de l’échec stratégique de l’Allemagne nazie pour la seconde. La possibilité d’un échec de l’Active defense est, de facto, assumée dans un contexte de guerre froide où l’engagement de forces conventionnelles n’est que l’un des barreaux sur l’échelle de la violence.
  • [37]
    Thomas Rona, Weapons System and Information at War, Boeing Aerospace Co., July 1976.
  • [38]
    Thomas Rona, « From Scorched Earth to Information Warfare » in Alan D. Campen, Douglas H. Dearth, Thomas Gooden (Eds.), Cyberwar: Security, Strategy and Conflict in the Information Age, AFCEA international Press, Halifax, 1996, p. 10.
  • [39]
    Ce sens est d’ailleurs historiquement le premier et remonte à un symposium mené par l’US Air Force en 1960.
  • [40]
    Mark Hewish, « Le programme Assault Breaker – une technologie d’avant-garde pour les armes à longue portée », Revue internationale de Défense, n° 9, 1982.
  • [41]
    Les missiles sont eux-mêmes des sous-versions du Lance et du Patriot. Ils auraient été lancés depuis des remorques, mais aussi depuis des F-16 ou des bom­bardiers B-52.
  • [42]
    La norme OTAN reconnaît un anéantissement des forces ennemies lorsqu’elles ont été réduites de 66 %. Or, la saturation des zones de bataille en sous-munitions ne laisserait que quelques pourcents de véhicules ennemis intacts.
  • [43]
    Stephan T. Possony, Jerry E. Pournelle, Francis X. Kane, The Strategy of Techno­logy, Electronic Edition, 1997, http ://www.webwrights.com.
  • [44]
    Joseph Henrotin, L’Airpower au xxie siècle. Enjeux et perspectives de la stratégie aérienne, Bruylant, Bruxelles, 2005.
  • [45]
    Les premiers récepteurs GPS avaient une masse de plus de 25 kg. Or, en 1991, elle passe à moins d’un kilo et demi.
  • [46]
    Les forces occidentales utilisent des drones depuis les années 1960, essentiel­lement comme systèmes d’observation d’artillerie. C’est en Israël que leur emploi se généralise, dès les années 1970, dans les missions de surveillance des frontières.
  • [47]
    Martin van Creveld, Command in War, Harvard University Press, Cambridge, 1985, p. 264.
  • [48]
    L’auteur est un ancien vice-président du comité des chefs d’états-majors améri­cain. William A. Owens, Lifting the Fog of War, Farrar Straus Giroux, New York, 2000.
  • [49]
    En 2006, le Hezbollah a ainsi été en mesure d’écouter les communications télé­phoniques des soldats israéliens.

1Les conceptions contemporaines d’emploi de la force font la part belle à une stratégie des moyens fondée sur l’électronique, l’informatique et la numérisation. Il s’agirait ainsi de la trans­cription dans l’ordre stratégique de la « révolution dans les affaires militaires » (RMA) des années 1990/2000 puis, après 2002/2003, de la « Transformation ». Dans ce cadre, la combinaison de munitions de précision, de la furtivité et de la gestion de l’information produirait des gains d’efficacité stratégique inédit en augurant d’une bien meilleure efficience des systèmes de forces. Dans cet article, version élaborée d’une présentation faite le 5 juin 2018 au colloque de l’ISC de Toulon, nous nous proposons de renverser le point de vue, en nous interrogeant non pas directement sur la stratégie opérationnelle des États ayant adopté cette rhétorique de la « Transformation », mais d’une manière plus indirecte. Il s’agit alors d’examiner ce que traduit la stratégie des moyens devant répondre aux défis contemporains, par transparence.

2Dans cette perspective, loin d’être « révolutionnaires », la RMA et la Transformation constituent plutôt les conséquences logiques d’évolution entamées dès avant la deuxième guerre mondiale et cen­trées sur la recherche de transparence des espaces. Évidente dans les cadres aériens et navals, elle a ainsi cherché, par transposition d’un certain nombre de modes opératoires – et par des technologies plus ou moins adaptées – à être appliquée dans le cadre nettement plus opaque des espaces terrestres, y compris dans le cadre d’opérations contre-irrégulières. In fine, la stratégie génétique – soit celle liée, au sein de la stratégie des moyens, à la conception des matériels [1] – apparaît comme révélatrice d’une vision cherchant la mise en transparence de l’ennemi et l’uniformisation des espaces de bataille à travers l’intermédiaire technologique.

3Laisser à penser que le chaos et l’incertitude du champ de bataille sont maîtrisables ne représente de facto pas une percée concep­tuelle au regard de l’histoire de l’art de la guerre : toute l’histoire militaire, celle du commandement, de la tactique, de la stratégie ou encore de la formation des officiers montre une tension vers une telle ambition. La charge révolutionnaire des propositions de la RMA/ Transformation en la matière provient d’une recherche de la certitude de la maîtrise du chaos non par l’intermédiaire humain-organisationnel – comme c’était jusqu’alors le cas – mais par celui de la technologie. La combinaison des capteurs et des réseaux joue alors un rôle déter­minant dans cette vision mais les promesses des années 1990, fondées sur les progrès de l’informatique, doivent être remis en perspective à l’aune des tentatives antérieures. En effet, la RMA n’est pas orpheline du point de vue de l’histoire des technologies, comme radicalement isolée des percées opérées auparavant, mais constitue directement le fruit de l’histoire technologique de l’art de la guerre lui-même.

Le fluide et le solide

4Cependant, toute archéo-histoire technologique montre égale­ment que la volonté de contrôle du chaos de la guerre s’exprime d’abord dans ce que Laurent Henninger nomme les « espaces fluides », par opposition aux « espaces solides » [2]. Pour lui, les environnements militaires, au sens sociogéographique du terme, peuvent en effet être caractérisés suivant ces deux idéaux-types – lesquels présentent d’ailleurs des points d’interface. Les environnements « fluides » néces­sitent pour leur investissement des technologies appropriées. Ils ren­voient aux espaces aérien, maritime, spatial et cyber et constituent des medium traversés par des flux de puissance, qui se déplacent relative­ment rapidement, aucune « occupation » au sens militaire – comme humain – n’y étant possible. Comparativement, les environnements « solides » sont plus complexes. S’ils s’apparentent aux variétés du domaine terrestre, ils sont également « visqueux » du fait de la présence de populations et la progression des flux de puissance y est lente. La comparaison entre ces deux catégories d’environnements, idéale-typique, peut se représenter comme suit :

Tableau 1. Comparaison des caractéristiques des espaces solide et fluide
Espace solideEspace fluide
Présence humaineFréquente, voire systématiqueImpossible ou de très courte durée
Relation à la vitesseEspaces de la relative lenteur : vitesse de pro­gression à pied ou en véhicule.Espaces de la relative vitesse : de quelques nœuds aux vitesses hypersoniques ou électroniques.
Relation au mouvementEspaces de la permanence. Espaces de la transi­tion : le mouvement est condition de survie.
Contrainte sur le mouvementEn moyenne forte : la topographie est en soi un obstacle.En moyenne faible : les mouvements peuvent s’effectuer dans les deux, voire trois dimensions.
Conséquences militaires du mouvementÉlargissement des options, du raid à l’occupation.Restriction des options, permanence limitée.
Relation à l’emprise politico-militairePossibilité de la domination.Possibilité du contrôle.
Polarité de la stratégieFacilitation de la défensive.Facilitation de l’offensive.
Nécessité de la technologie pour l’investissement de l’espace et la vie en son sein et le combatNon essentiel.Essentielle : une pleine stratégie aérienne ou navale ne peut se concevoir sans avion ou navire
Relation au savoir nécessaire à son investissementFaible.Fort : importance des techniques de navigation, de la connaissance de points d’appui
Ségrégation des espaces entre civils et militairesPlutôt forte d’un point de vue historique (« faire campagne »), actuellement de plus en plus faible (combat urbain).Plutôt faible : les espaces voient coexister par les acteurs civils et militaires
ExemplesCampagnes, monta­gnes, zones urbaines, forêts, détroits…Surface et/ou profon­deurs des mers, ciel, espace, déserts, lignes ferroviaires, routes…

5Plus spécifiquement, c’est dans le développement des forces aériennes qu’il faut sans doute chercher les racines technologiques de la RMA/Transformation, l’environnement aérien se prêtant bien à l’ambi­tion d’une clarification/rationalisation du chaos des opérations mili­taires. De fait, la mise en place, en Grande-Bretagne, d’un réseau de radars, de centres de commandement régionaux et de bases aériennes à la fin des années 1930 en constitue une forme séminale à la rationalité simple, qui n’a ensuite été que reproduite avec plus de sophistication. Avec l’arrivée de ce système, le capteur premier n’est plus la patrouille d’avions évoluant aléatoirement dans le ciel et cherchant ensuite la destruction d’éventuelles cibles. Le procédé ne systématise en effet pas la surveillance – les patrouilles ne couvrent pas en permanence tous les secteurs, au contraire les radars, dont un placement correct sur le territoire permet de couvrir intégralement ses approches [3]. Les informa­tions recueillies – distance approximative, cap estimé, volume de l’assaillant – sont alors transmises à des centres de commandement régionaux par téléphone, qui les représentent sur une carte au moyen de symboles au fur et à mesure de leur arrivée. En surplomb, les respon­sables de la défense aérienne disposent donc d’une représentation de la situation tactique, et sont en mesure de commander le décollage d’appareils pour intercepter les formations ennemies, tout en modulant les volumes engagés afin de disposer de réserves et ainsi de faire face à une éventuelle surprise.

SAGE, premier système réseau centré

6La logique retenue est donc de réduire l’incertitude tout en ordonnançant une partie du chaos des opérations militaires – celui de la bataille aérienne, entre pilotes, ne pouvant par contre pas encore l’être. Si le système C3I (Command, Control, Communications, Intelligence) adopté, pour rudimentaire qu’il nous semble aujourd’hui, n’a pas permis de gagner à lui seul la bataille d’Angleterre, il y a nettement contribué. Mais c’est au États-Unis que le concept sera plus poussé le plus avant. Dès 1949, moins de dix ans après que les premiers radars soient entrés en service opérationnel, la menace d’une attaque-surprise par l’URSS tout juste dotée d’armements nucléaires conduit l’US Air Force (USAF) à tirer parti des travaux menés sur ce qui devait être le premier ordinateur numérique pour mettre en place le réseau SAGE (Semi-Automatic Ground Environment) [4]. Nombre de technologies sont déjà disponibles : radars, appareils d’interception, missiles antiaériens de première génération. Le véritable problème est dans l’articulation de l’ensemble de ces systèmes – soit dans la création de ce qui serait aujourd’hui appelé « système de systèmes ». L’USAF n’a pas l’expé­rience de la Royal Air Force en matière de gestion de la bataille aérienne. En prime, le territoire américain est plus vaste que celui de la Grande-Bretagne et les progrès potentiels de l’aviation soviétique augurent d’une diversification de ses voies de pénétration : la route transarctique ne sera plus nécessairement celle utilisée par les bom­bardiers soviétiques à l’avenir.

7C’est du Massachussetts Institute of Technology (MIT) que viennent les premières ébauches de solution. Dès décembre 1949, George Valley – le père du viseur de bombardement radar – rencontre les membres du projet Whirlwind de même que son directeur, Jay Forrester. Le programme du MIT remonte à 1944. Subventionné par la marine, il devait permettre de concevoir un système informatisé per­mettant non seulement afin de modéliser le comportement en vol des nouveaux appareils mais aussi de servir de cerveau à des systèmes de simulation de vol devant permettre d’accélérer la formation des futurs pilotes. Reste qu’après la guerre, ses dotations budgétaires ont été réduites au strict minimum et que le programme n’était plus guère considéré comme important – alors que les progrès en électronique étaient considérés comme essentiels quelques années auparavant [5]. Les choses vont cependant changer : Valley sait qu’une attaque-surprise soviétique, nécessairement massive, implique une capacité de traite­ment de l’information phénoménale. Les capacités de Whirlwind, ordi­nateur numérique et non plus analogique, vont y aider. En quelques jours, Valley et Forrester esquissent un plan : des myriades de radars liés par lignes téléphoniques à des centres de traitement de l’infor­mation faisant également office de centres de commandement, d’où partent les ordres vers des effecteurs, avions et missiles.

8Théoriquement, le système est simple mais la pratique est nette­ment plus complexe : il s’agit de discerner appareils civils et militaires, amis et ennemis, donc d’identifier mais aussi de donner le cap, l’alti­tude, la vitesse ; le tout pour des centaines d’appareils et ce, en temps réel. Il s’agit aussi, une fois une attaque détectée et confirmée, d’alerter les autorités politiques et militaires ou encore la défense civile. L’affaire est d’autant plus problématique que la mission assignée au système est bien plus large : il s’agit aussi de gérer la bataille aérienne. Il faut donc intégrer d’autres paramètres, allant de la météo au type et au nombre d’intercepteurs (avions ou missiles) disponibles sur chaque base et ce, en tenant compte de leurs spécificités opérationnelles et de leurs apports tactiques. Jusqu’à intervention d’un homme, le système doit également permettre un guidage automatique des vecteurs de défense. Cette bataille aérienne doit également se dérouler en ambiance nucléaire – non seulement du fait de la probabilité de percées ennemies mais aussi en raison de la dotation de la plupart des batteries SAM américaines en charges nucléaires. Le programme est politiquement prioritaire et G. Valley en prend la tête de 1952 à 1958, année du premier déploiement du système, qui sera intégralement opérationnel en 1961.

9SAGE est un véritable système de systèmes. Chaque centre de contrôle et de commandement abrite deux ordinateurs IBM FSQ-7, directement issus du programme Whirlwind, d’une masse totale de 270 tonnes et comptant 58 000 tubes à vide. Le système a une puissance phénoménale pour l’époque : 75 000 instructions/seconde [6]. Les ordina­teurs sont redondants dès lors que le système doit fonctionner en per­manence. Ils sont installés au deuxième étage d’un bunker aveugle, aux murs de deux mètres d’épaisseur et qui doit permettre un fonction­nement en temps de guerre. Le troisième étage est celui du poste de commandement régional, qui comprend un écran géant représentant les données. Le quatrième étage abrite, sur 2 000 m², les consoles de visua­lisation, les équipements téléphoniques mais aussi des secteurs réservés à l’identification. Au rez-de-chaussée sont installés la centrale électri­que autonome – les ordinateurs nécessitant 3 mégawatts de puissance – mais aussi la production d’eau et les indispensables climatiseurs. Face à sa console l’opérateur dispose d’un pistolet lumineux – une technologie développée pour l’occasion. Le magazine Life présente en termes de science-fiction l’ambiance des salles de contrôle : l’ordinateur permet de « résumer les données et de les présenter si clairement que les hommes de l’Air Force qui gèrent SAGE peuvent rester tranquillement assis à l’intérieur de ces salles à l’étrange lumière, face à leur console, l’esprit libre pour prendre les nécessaires jugements humains sur le combat – où et quand combattre » [7].

10SAGE comptera 25 de ces sites, la base canadienne de Goose Bay devenant le 26e lorsque sera mis en place le North American Air Defense Command (NORAD) en 1957 [8]. Les différents sites n’évolue­ront pas de la même manière. Certains seront mis en réserve dès le milieu des années 1960, les deux derniers fonctionnant encore en 1983. L’effort a été gigantesque. Le développement et la construction du SAGE ont nécessité l’équivalent actuel de 90 milliards de dollars, sans encore compter les radars et les intercepteurs. Le MIT a également joué un rôle central dans la création et le déploiement de la DEW Line (Distant Early Warning), une chaîne de 63 stations radars dotées du FPS-19 et principalement installées en Arctique. Complétant les lignes radars Pinetree (39 radars) et Mid-Canada (90 radars), situées plus au sud, la DEW Line a été construite en deux ans et huit mois, à partir de 1954, dans des conditions climatiques dantesques. Elle comptait notam­ment des stations-radars totalement automatisées, d’autres armées par seulement trois hommes et les principales, servant également de relais. La nécessité de transmettre un gros volume d’informations a également nécessité la mise au point de communications par réflexion sur l’atmos­phère (troposcatters). À partir de 1985, la DEW Line sera débaptisée et nombre de stations fermées, d’autres étant modernisées avec l’instal­lation de radars FPS-117.

11La DEW Line, système bi-national américano-canadien sera également complétée par une veille aérienne au-dessus des approches atlantique et pacifique des États-Unis. Trois plateformes de détection offshore, les Texas Towers, sont positionnées dans l’Atlantique de 1958 à 1963. De même, de vieux destroyers utilisés comme piquets-radars seront également déployées, tout comme des escadrons de WV-2 (EC-121D Warning Star) de l’US Navy, à partir de 1956 [9]. La sophistication de l’ensemble n’est pas sans conséquences politico-stratégiques. Paul N. Edwards y voit une « clôture du monde ». Pour l’auteur, il s’agit de représenter de manière abstraite une gigantesque complexité tout en « verrouillant » totalement l’espace aérien en le représentant de ma­nière rationnelle, laissant de côté les questions politiques. Présenté comme un système de défense stratégique, SAGE est en réalité une sublimation de la tactique, d’autant plus que le système n’est pas exempt de défauts et que l’ensemble des objectifs visés ne seront pas atteints. Le système, nous rappelle Paul N. Edwards, est d’abord une narration technologique : un récit prolongeant celui sur la possibilité d’une attaque-surprise soviétique au moyen de bombardiers [10]. En ce sens, il intègre le récit, plus large, d’une sécurisation des États-Unis (et du Canada) à travers une défense intégrée, un type de dispositif qui est également projeté de l’autre côté de l’Atlantique, en Europe conti­nentale, au travers du NADGE (NATO Air Defense Ground Environ­ment), qui fonctionne d’une manière similaire à celle de SAGE.

12Cependant, il s’agit également d’un récit simplifiant considéra­blement la situation militaire, à plusieurs égards. Premièrement, dès 1957, l’URSS fait la démonstration de sa capacité à lancer des charges sur des distances intercontinentales via des missiles balistiques. Mos­cou se concentrera d’ailleurs sur ses forces de missiles plus que sur ses bombardiers, nourrissant au début des années 1960 un autre « panique nucléaire » avec la question du Missile gap. Or, les batteries antiaé­riennes (Surface-to-Air Missiles – SAM) et les radars mis en place dans le cadre de SAGE sont totalement impuissants face à cette menace [11]. Pis, les centres régionaux dans lesquels sont installés les ordinateurs du réseau et les salles de situation sont situés sur des bases aériennes du Strategic Air Command SAC, à l’exception du centre canadien de Goose Bay, creusé dans la roche. Le corollaire est, en dépit de l’ins­tallation des centres dans de gigantesques cubes de béton, une réelle vulnérabilité : ces bases du SAC seraient parmi les premières à être visées par une frappe soviétique. Le système est également peu rési­lient. Il s’appuie, dans un premier temps, sur le réseau téléphonique national, dont les câbles comme les centraux de commutation sont vulnérables aux impulsions électromagnétiques découlant d’explosions nucléaires. Il s’avère aussi rapidement dépassé : les 58 000 tubes à vide de chaque centre sont dépassés par l’arrivée du transistor moins de dix ans plus tard.

13Au-delà, le système s’avère extrêmement rigide : l’automatisa­tion n’en est encore qu’à ses débuts et il faut ajouter aux plantages du système la difficulté à prendre en compte tous les scenarii tactiques possibles dans la programmation des réponses. In fine, le système n’a pratiquement plus rien d’automatisé. Il devient un système de repré­sentation des axes d’attaque adverses ; les ordres et coordonnées des cibles finissent par être donnés à la voix alors qu’ils auraient dû être transmis directement dans les cockpits ou qu’ils auraient dû lancer les SAM BOMARC et Nike-Hercules installés pour protéger le territoire américain. Cependant, aucun signe de ces « procédures parallèles » ne transparaît dans les comptes rendus d’exercices. Officiellement, tout va bien et, le cas échant, les exercices sont adaptés non pour simuler la réalité mais bien pour tenir compte des limites du système, qu’il s’agit de préserver. De fait, il existe une conjonction d’intérêts variés pour conserver le système :

14

  • nombre de scientifiques ont pu travailler sur des systèmes complexes, posant les bases de l’informatique moderne et donnant une avance aux États-Unis, en sachant que les probabilités de réussite du projet militaire étaient faibles ;
  • le système a constitué un réel levier de politique écono­mique en constituant une forme détournée de keynésianisme dans un pays le rejetant. Accessoirement, pour une US Air Force encore jeune (le service n’est devenu autonome qu’en 1947), il est hors de question de reconnaître l’inefficacité d’un système aussi coûteux ;
  • toujours pour l’USAF, le système constitue la démonstration concrète du rôle joué dans la défense du territoire américain – un facteur de légitimité et donc de pérennité. De même, le système justifie le maintien de plusieurs escadres, dotées de chasseurs – soit l’archétype de l’avion de combat ;
  • politiquement parlant, le système répond à l’angoisse, politi­que et sociale, de la guerre nucléaire. Objectivement, il y répond peu et mal – la triade nucléaire semble une meilleure réponse – mais SAGE est l’exemple même d’un système défensif ayant une valeur sémiotique, à l’égard de l’opinion interne mais également de l’opinion internationale, sovié­tique comprise.

15SAGE intègre, au demeurant, une série d’autres innovations aux conséquences directes sur le processus d’informationnalisation des armées, là aussi, dans les espaces fluides. L’apparition du système se produit alors que la défense aérienne connait une petite révolution avec l’apparition de systèmes de détection sur les effecteurs eux-mêmes. Le Spitfire britannique était guidé vers une zone donnée par la voix de l’opérateur du centre de contrôle aérien dans une logique dite GCI (Ground Controlled Interception) ; les yeux du pilote prenant ensuite le relais pour localiser précisément sa cible. Mais dès les années 1950, cette rationalité du killer mute vers le hunter-killer : on entre dans une logique de GCA (Ground Controlled Approach) où le volume d’espace aérien qu’un appareil peut fouiller est incomparablement plus impor­tant. Par ailleurs, le missile surface-air peut devenir une réalité [12]. Le gain de productivité militaire est radical mais n’est permis que par la miniaturisation. De fait, le radar n’est pas neuf mais son déploiement impose de disposer d’un espace pour l’installation d’un matériel par ailleurs gourmand en énergie – soit autant de facteurs qui limitent, jusque dans les années 1950, l’installation de radars à certains appareils de combat.

Figures de la fluidification des espaces aérospatiaux

16Dès les années 1950, le concept d’appareils de détection aérienne avancée capables de détecter des mouvements adverses et de diriger sur eux des intercepteurs trouve une concrétisation dans la marine améri­caine et l’USAF avec différentes versions de l’EC-121 Warning Star[13]. La logique diffère cependant de SAGE en ce sens que le système est naturellement mobile : contrairement au lourd réseau de défense aérien­ne, l’avion peut être projeté partout dans le monde pour y établir des bulles de transparence dans les espaces aériens. À la fin des années 1960, la conception de l’appareil de détection avancée E-3 Sentry AWACS (Airborne Warning and Control System) répond aux mêmes logiques en les radicalisant [14]. L’appareil, entré en service à partir de 1977, est un radar aéroporté dont les opérateurs dirigent la bataille aérienne. Si les ordres de tir donnés aux pilotes de chasseurs restent du ressort des contrôleurs aériens, qui agissent en fonction de règles d’engagement précises, le système procède également d’un certain degré d’automatisation. Une fois dotés d’une liaison de données – qui sont d’abord un des produits dérivés de la conception du NADGE [15] – le rôle de poste de commandement aérien peut être assuré avec des performances bien supérieures à celles de l’EC-121, avec une portée nettement supérieure, mais aussi avec une aptitude à détecter des appa­reils plus petits. Tout au long de son service, les performances radar de l’E-3 seront accrues, la recherche d’une granulométrie de détection toujours plus fine étant recherchée.

17Depuis les années 1990/2000, avec le déploiement de la liaison-16 (Link-16), les chasseurs subordonnés à l’AWACS transmettent automatiquement un certain nombre de données : niveaux de carburant, types d’armement et nombre de coups emportés, permettant aux opéra­teurs de prendre les décisions tactiques les plus adéquates. La liaison-16 permet également de transmettre les images radars de l’AWACS aux chasseurs : ces derniers peuvent ainsi couper leurs propres radars et, ainsi, mener des actions plus discrètes d’un point de vue électroma­gnétique. La généralisation de cette liaison de données à un nombre toujours plus grand de plateformes (aériennes, navales, terrestres) permet alors aux AWACS de jouer un rôle de poste de commandement aérien pour des missions de recherche et sauvetage, ou encore de défense aérienne/antimissile tactique, en permettant de partager les informations avec les batteries SAM ou des navires dotés de systèmes antiaériens/antimissiles. En service aux États-Unis (32 exemplaires), l’E-3 sera également acheté par l’OTAN (18), l’Arabie Saoudite (5), la Grande-Bretagne (7), la France (4) et le Japon [16]. D’autres types d’appa­reils seront également achetés par d’autres États, la gestion informa­tisée de la bataille aérienne devenant clairement une norme de dévelop­pement technostratégique perçue comme naturellement source d’effica­cité militaire – jusque dans la terminologie, les appareils étant qualifiés comme entant dans la catégorie des « multiplicateurs de force » [17].

18Au-delà de la stratégie aérienne, les rationalités de mise en réseau des forces se sont également déployées dans le champ de la stratégie navale – soit un autre domaine relevant des espaces fluides –, historiquement complexe [18]. Dans l’US Navy, dès la deuxième guerre mondiale, intervient une première innovation avec le CO (Central Opérations) qui permet de centraliser dans un seul compartiment d’un navire l’ensemble des informations provenant des capteurs et d’où pourront partir les ordres appropriés à l’ensemble des opérateurs d’armements. En l’occurrence, la centralisation des informations comme de leurs interprètes – les opérateurs – permet au commandant d’avoir la vision la plus complète possible d’une situation donnée [19]. Toujours aux États-Unis et également dès le milieu des années 1950, il s’agit de partager l’information recueillie par différents types de capteurs sur différents types de bâtiments, sachant que les flottes utili­sent des navires ayant chacun une spécialisation dans un type de com­bat donné (antiaérien, anti-sous-marins, le porte-avions constituant la principale arme antinavires). Les liaisons de données renvoient, ainsi, au partage de l’information. Mais elles permettent aussi à une flotte composée d’éléments disparates de bénéficier d’une unité de vue d’une situation donnée (common operating picture), laquelle autorise une unité d’action.

19Ce faisant, il s’agit bel et bien de diminuer les frictions découlant de la présence d’un grand nombre d’intervenants, tout en réduisant le risque de voir apparaître le brouillard de la guerre. In fine, dans le cas naval, il s’agit également d’optimiser les « bulles de protection » (anti­aérienne, anti-sous-marins) offertes par les uns et les autres. Cette logique commande non seulement la conception de liaisons de données toujours plus performantes – et sécurisées [20] – mais aussi de nouveaux types, intégrés, de systèmes de combat réifiant dans le domaine naval la philosophie derrière le système SAGE, avec cependant des perfor­mances et des ambitions nettement plus importantes. Ces systèmes s’appuient massivement sur l’informatique et, comme en stratégie aérienne, cherchent à prendre en compte la possibilité d’attaques de saturation par le biais de missiles antinavires. Pour ce faire, les systè­mes sont conçus pour intégrer l’ensemble des capteurs et effecteurs (missiles, canons), de manière à offrir aux opérateurs la vision la plus claire possible de leur environnement tactique.

20Dans le cas de l’Aegis, mis en service opérationnel dès les années 1980, le système intègre le radar SPY-1, extrêmement puissant, et des systèmes de défense terminale automatisés (canons Phalanx bénéficiant de leurs propres radars et optroniques de conduite de tir). Sur base de la situation tactique à un moment donné, le système offre également aux officiers des options d’actions, calculées en tenant compte des règles d’engagement. Afin de faire face à une attaque de saturation, le système de combat Aegis comporte également un mode totalement automatisé, permettant de tirer le bon type d’armement au moment le plus opportun, sans aucune intervention humaine. Le système, qui a évolué de façon incrémentale, équipe aujourd’hui la plupart des grands bâtiments de combat de surface américains mais aussi des marines étrangères. La puissance du radar comme celle du système de combat permet également à quelques navires dont les logiciels ont été adaptés, d’être engagés dans des missions antibalistiques ou antisatellites et, donc, d’investir différentes strates des espaces fluides. Si l’Aegis est l’idéal-typique, la plupart des puissances navales ont développé leur propre système de combat qui répondent tous à des logiques similaires.

La fluidification par la réticulation

21L’aboutissement de la logique de recherche de la plus grande conscience situationnelle dans les espaces fluides est la réticulation des plateformes opérant dans leurs différentes strates. De facto, elle est à l’œuvre depuis les années 1960 – bien avant, donc, la perception d’une RMA – avec les premières liaisons de données dans le domaine naval mais aussi aérien, le Link-1 connectant les centres radars du NADGE. La logique s’est, depuis lors, largement développée avec des systèmes comme le Link-11 et le Link-16 – le Link-22, successeur du premier, étant en cours de développement. Les conséquences de la conception des premiers systèmes de guerre réseaucentrée sur les modes de commandement et de contrôle sont donc aussi importantes que préco­ces. On constate qu’une première application aux espaces fluides du concept est surtout imposée par la rationalité propre de la dissuasion et de la stratégie nucléaire. La « révolution nucléaire » n’est donc pas uniquement liée aux armes et à leurs vecteurs ; à l’apparition d’une stratégie nucléaire ; à la dissuasion comme conception stratégique déterminante non plus de la paix mais bien de la survie des acteurs stratégiques ; et à une modification durable de leur comportement sur la scène internationale autant qu’à celle de l’ordre international. Elle est aussi l’incubateur de la RMA/Transformation. Et c’est peut-être parce que la stratégie nucléaire est une stratégie d’espaces fluides qu’elle s’accommode aussi bien de sa rencontre avec des logiques de réseaux alors naissantes, dans le contexte si particulier des années 1950-1960 et de l’apparition de la cybernétique [21].

22Le commandement et le contrôle prennent surtout leur sens – et sont politiquement légitimés – dans une optique défensive : pour que la dissuasion fonctionne, ses moyens doivent être crédibles et, donc, doivent pouvoir être protégés en permettant d’intercepter des frappes ennemies. Mais la vision reste très théorique du fait même de la nature de la guerre : l’ennemi cherchera toujours une voie de contournement. La gestion de la complexité au travers de l’informatique et la rationa­lisation d’une bataille dont les protagonistes peuvent être clairement identifiés – et, dans certaine mesure, la mise à distance des aspects humains de cette bataille – est facilitée par la nature fluide des environ­nements où elle est menée. Aussi, la perception de maîtrise est néces­sairement trompeuse, car elle découle surtout d’une représentation plus aisée d’une partie d’une situation donnée et de ses changements. Or, mieux voir – et donc mieux comprendre – n’implique pas nécessaire­ment de pouvoir mieux agir. Les premiers systèmes réseaucentrés répondent à des interrogations technico-tactiques – où est l’adversaire, quel est son volume ? – qui ne révèlent rien des intentions politiques, masquant derrière les représentations la possibilité d’une attaque acci­dentelle, mais aussi d’une ruse. Elles ne révèlent pas non plus quelle sera la stratégie adverse adoptée. À bien des égards, ces interrogations persistent toujours aujourd’hui.

23Il n’en demeure pas moins que la tentation d’appliquer aux envi­ronnements solides ce qui est perçu comme un facteur d’efficacité dans les environnements fluides ne tarde pas à apparaître. Dans la foulée du développement de SAGE, vient l’idée d’un commandement intégré des forces. Au cœur du projet de l’USAF pour les forces aériennes natio­nales, elle se voit projetée dans le domaine stratégique et global : le SACCS (SAC Control System) doit permettre de transmettre des ordres de lancement sécurisés et authentifiés à tous les vecteurs nucléaires, tout en gérant les ravitailleurs en vol nécessaire à l’accomplissement des missions des bombardiers. Au vrai, la vision est très largement antérieure au lancement de l’ARPANET reliant les plus gros ordina­teurs du pays, non comme on le lit fréquemment, afin d’offrir une résilience décisionnelle en cas d’attaque nucléaire mais pour partager les représentations et accroître les vitesses de calcul [22]. Concrètement, les origines du SACCS remontent à 1949 et au remplacement des communications téléphoniques entre les différentes bases du SAC par un système combinant télétypes, téléphones, radios UHF, jusqu’à une informatisation jugée nécessaire parce que le système initial était trop lent. Le système, intégrant des capacités de calcul, de représentation et de liaison de données et sera constamment modernisé, notamment par l’intégration, dès 1968 de liaisons par satellite. Six ans plus tôt, le SACCS reliait déjà 85 bases et son programme comptait plus d’un million de lignes dans un langage spécifique – le JOVIAL [23]. Le système sera remplacé en 1990.

24La philosophie du SACCS et de SAGE sera étendue à l’ensem­ble des forces américaines avec le WWMCCS (World-Wide Military Command and Control System), également opérationnel avant ARPANET (et nettement plus maillé…). Il restera en service jusqu’en 1996, lorsqu’il est remplacé par un système conceptuellement similaire, le Global Command and Control System (GCCS). Comme SAGE, le système est cependant foncièrement limité par les technologies de l’époque : son automatisation est limitée. L’épisode de l’USS Liberty, un navire-espion américain attaqué par les Israéliens en 1967 est ainsi lié aux failles du WWMCCS, les messages prioritaires ordonnant un dégagement rapide du bâtiment de la zone arrivant 13 heures après leur départ. Constamment modernisé notamment en fonction des leçons de l’incident, c’est un réseau global en soi : à la fin des années 1960, il permet, tant bien que mal, de faire travailler de concert 160 types d’ordinateurs utilisant 30 langages différents. L’ensemble fonctionne depuis 81 nodes d’où partent des communications cryptées vers les unités d’action (escadrons de l’USAF, navires, unités de l’Army et des Marines). Surtout, si SACCS opère encore essentiellement dans une logique d’espace fluide – il s’agit de gérer des appareils de combat – le WWMCCS et le GCCS prennent également en compte l’usage des forces terrestres. Ces réseaux ne sont pas les seuls. Le PACCS (Post Attack Command and Control System) par exemple a été conçu comme un réseau de communication incluant des avions comme des stations au sol et permettant au président américain de conserver la main sur les forces nucléaires avant, pendant et après une attaque nucléaire.

25Ces systèmes sont au cœur de la doctrine américaine de riposte graduée, qui doit donner des réponses fines et mesurées à chaque action adverse. Mais pour y parvenir, il faut contrôler ses propres forces – et empêcher une ouverture de feu par inadvertance – mais aussi savoir ce qu’il se passe. L’affaire est là nettement plus complexe. Elle nécessite de s’appuyer non plus sur une trace radar ayant un certain degré de probabilité d’effectivement être un avion ou un navire ennemi observé depuis une zone à l’abri des dangers ; mais bien sur l’observation humaine dans le feu des combats. Les risques inhérents à une mauvaise interprétation – surestimation ou sous-estimation – sont cette fois démultipliés par la nature même de l’environnement. On est, trente ans avant sa théorisation par l’amiral Cebrowski, en pleine guerre réseau­centrée [24]. D’une manière très intéressante, nombre de questionnements posés dans les années 1970 autour de ces systèmes seront les mêmes que ceux que l’on retrouvera dans la littérature des années 1990 ou 2000. On est également au cœur d’une guerre de techniciens : la centralisation des décisions aux États-Unis signe la fin de la capacité d’initiative des commandants de grandes unités et sacre le micromana­gement – soit, dans les deux cas, la fin d’une certaine forme d’art mili­taire. Le président Johnson n’est pas dans la figure de style, lorsqu’il ordonne que pas une bombe ne soit lancée sur le Vietnam sans son approbation : le WWMCCS lui permet de valider les propositions de plans de ciblage.

Opérer dans les espaces mixtes : la génération de l’effet politique

26Que le chaos et l’incertitude du champ de bataille soient maîtri­sables par l’intermédiaire électronique représenterait une véritable percée au regard de l’histoire de l’art de la guerre, à la charge effec­tivement révolutionnaire. Au mieux, cependant, il s’agit d’une percep­tion de maîtrise, nécessairement trompeuse, car elle découle surtout d’une représentation plus aisée d’une partie d’une situation donnée et de ses changements. C’est également une représentation matérielle, donc incomplète, de l’ennemi, dont les intentions ou le moral peuvent difficilement être représentés. Même s’ils l’étaient, une meilleure repré­sentation n’est nullement la garantie d’une prise de décision saine [25]. De même, l’irrationalité peut être feinte : la ruse est partie intégrante du paradoxe de la stratégie de Luttwak [26]. Dans pareil cadre, l’analogie trop souvent faite au jeu d’échec – l’un des premiers jeux de « stratégie » informatisés – est douteuse. Les adversaires y sont parfaitement symé­triques et l’on voit en temps réel la position et les mouvements des pièces selon des règles intangibles où la tricherie n’est pas admise, le tout sur un échiquier parfaitement délimité.

27Rien ne ressemble moins à la guerre que les échecs, même s’ils semblent a priori plus facilement assimilables aux opérations dans les espaces fluides, parce qu’elles sont soumises à des contraintes propres qui peuvent être plus facilement appréhendées (autonomie et endu­rance, charges utiles, nombre et qualité des armements, plafond, pro­fondeur d’immersion maximale, etc.). Si c’est vrai dans les espaces les plus fluides, il convient aussi de remarquer que ce n’est pas le cas dès que l’espace se solidifie pour l’une ou l’autre raison. À proximité du sol, les capacités d’un radar aéroporté sont réduites du fait des échos parasites que le système de traitement de données doit parvenir à éva­cuer, sous peine de rendre les écrans illisibles. En mer, c’est la même chose à proximité des côtes ou d’un détroit. L’espace sous-marin n’est pas homogène, sans même parler des fonds. Pour l’heure, une bonne partie de la vulnérabilité des systèmes spatiaux réside, d’un point de vue militaire, dans l’attaque des centres de contrôle situés au sol. À bien des égards, c’est également le cas en cyberstratégie, qu’il s’agisse d’attaquer câbles, fermes de serveurs, de soudoyer des opérateurs ou d’utiliser des armements à impulsion électromagnétique.

28En ce sens, il existe ainsi des « espaces mixtes », d’interface, et qui sont notamment ceux permettant aux forces opérant depuis les espaces fluides d’avoir une action effective sur les espaces solides – soit là où sont situés les décideurs politiques dont on cherche à sou­mettre la volonté. Un appareil d’attaque au sol ou un bâtiment de la marine lançant un missile de croisière n’opère ainsi pas seulement dans le confort tactique de l’espace fluide. Ainsi, la conversion en effets politiques de son action – dès lors que la frappe, lors d’une opération militaire n’est pas un but en soi mais un intermédiaire – dépendra de ce « combat d’interface ». Or, les contours de ces interfaces et de ces espaces mixtes ne sont pas totalement délimités. En effet, les espaces fluides ne sont pas exonérés d’une soumission à la deuxième loi de Fuller, selon laquelle chaque mesure appelle à une contre-mesure [27]. Au contraire même, l’usage de la guerre électronique aérienne apparaît de manière pratiquement concomitante aux systèmes de détection. Elle ne cessera ensuite de se raffiner et de se diversifier (leurrage, brouillage, intrusion, déception, etc.), jusqu’aux différentes techniques de furtivité. Cette dernière est également représentative du relativisme historique des débats autour de la RMA. Cette évolution vers la discrétion est également valable pour les domaines naval de surface et sous-marin. Derrière l’usage des contre-mesures comme de la guerre électronique, il y a ainsi la tentative d’une « solidification » des espaces fluides – aériens, navals et sous-marins, spatiaux, informationnels – que l’on cherche à rendre le plus opaque aux yeux électroniques.

Fluidifier le solide ?

29Si les prémisses de la guerre froide sont le champ de déploiement des rationalités de levée du brouillard de la guerre dans les espaces fluides par les réseaux, la guerre du Vietnam joue ce rôle pour les espaces solides. Au sol, les opérations s’orientent rapidement vers la recherche d’un contrôle des mouvements adverses dans une logique d’interdiction. Il s’agit alors de couper le ravitaillement du Viêt-Cong passant par la « piste » Ho-Chi-Minh, en fait, une multitude de pistes elles-mêmes situées dans une jungle dense. Pour ce faire, la « ligne McNamara » est construite à partir de mai 1967, sur la frontière avec le Nord-Vietnam, mais aussi le Laos, et de la mer de Chine méridionale à la Thaïlande [28]. Sur une partie longue de 30 km, c’est un barrage tactique impliquant une barrière surveillée par des hommes. Le plus gros du barrage est constitué de zones minées truffées de capteurs dont l’activation permet de localiser les infiltrations, permettant ensuite de prendre la décision adéquate, essentiellement l’engagement de forces aériennes. Les informations recueillies seraient transmises, via des avions-relais, sur la base de Nakhon Phanom pour être centralisées et traitées dans un Infiltration Surveillance Center (ISC) [29]. Les capteurs eux-mêmes, dont certains sont conçus pour se ficher dans le sol, d’autres devant rester accrochés à la canopée des arbres – sont largués par avion, et nombre d’entre eux ne sont que des adaptations des bouées acoustiques utilisées par l’US Navy dans la détection de sous-marins. Les capteurs peuvent tout aussi bien être sismiques que chimi­ques – les people sniffers détectant l’ammoniaque des urines –, infra­rouge, électromagnétiques ou acoustiques.

30Sur le papier, le système est la projection terrestre des logiques utilisées dans les espaces fluides. Dans la pratique, la centralisation de dizaine de milliers de capteurs – et non de quelques centaines – est un défi de taille. D’une part, le taux de fausses alarmes des capteurs est important. Une fois découverts, ils peuvent également être l’objet de tactiques de ruses de la part du Viêt-Cong (lâcher d’animaux, place­ment de seaux d’urine). D’autre part, le relais des signaux devient rapidement problématique : une fois le système pleinement opération­nel, nécessitant quatre orbites permanentes d’EC-121R [30], 80 %, au mieux, des émissions seront effectivement répercutées vers l’ISC. L’ensemble des informations est alors transmis à deux ordinateurs IBM 360 Model 65 qui permettent de représenter les capteurs activés sur une énorme carte murale – un type de représentation similaire à celle utilisée dans les centres de contrôle aérien du réseau SAGE. Quatre cent analystes sont affectés à l’ISC et peuvent décider d’engager des appareils de combat. Reste que la conduite de frappes aériennes selon cette logique est un exercice délicat : une fois sur zone, les chasseurs doivent effectivement trouver leur cible, le plus souvent en pleine jungle, de sorte que l’efficacité des frappes est très variable. Elles exigent préalablement le déploiement d’appareils de contrôle aérien avancés « marquant » les cibles au profit des appareils de combat, mais faisant ainsi perdre tout effet de surprise. C’est d’autant plus le cas que le Viêt-Cong et le Nord-Vietnam se sont adaptés, coordonnant des convois aux heures de moindre disponibilité des appareils américains, passant par la voie maritime ou opérant de nuit, forçant les États-Unis à développer leurs capacités en la matière [31].

31C’est un moment décisif dans l’histoire des opérations air-sol, avec la mise en œuvre des premiers dispositifs de combat nocturne – FLIR (Forward Looking Infra Red) et caméras TV à faible niveau de luminosité. Ces capteurs embarqués, s’ils ne sont alors pas encore généralisés, deviendront essentiels dans la conduite des opérations aériennes futures et seront considérés comme cardinaux dans la crédibi­lité d’une « révolution de la précision » en tant que composante de la RMA/Transformation. Cependant, la rationalité de la ligne McNamara sera également étendue à l’ensemble du Sud-Vietnam, des capteurs étant positionnés à la périphérie des bases américaines, mais aussi des principales voies de communication, devant ainsi permettre de réduire la probabilité d’attaques et d’embuscades. Neuf fois plus de capteurs seront utilisés pour ces missions que pour la campagne d’interdiction sur la frontière avec le Nord. On ne peut cependant résumer les efforts américains au Vietnam au seul déploiement de capteurs. Avec plus de 535 000 hommes engagés en 1968, les opérations ont surtout été centrées sur le ratissage des zones, à pieds ou en blindé, et un usage massif des formes plus classiques du renseignement et de la recon­naissance, très humainement intensive. Elle est également largement menée selon les canons de la guerre régulière, en dépit des appels à une bataille « pour les cœurs et les esprits », avec une focalisation sur la réussite d’opérations tactiques sur laquelle revient le colonel Harry Summers lorsqu’il rencontre, après la guerre, un général vietnamien. Lui indiquant que les États-Unis l’ont systématiquement emporté lors­qu’ils se sont trouvés confrontés aux Nord-Vietnamiens, son con­frère lui répondra qu’il avait raison, mais que là n’était pas la question [32].

32La guerre marque un tournant pour l’automatisation des opéra­tions de recueil de renseignement comme de frappe dans les espaces solides par l’intermédiaire des réseaux. De fait, en 1969, le général Westmoreland, qui a commandé les opérations au Vietnam de 1964 à 1968, peut donner à l’Association of the United States Army un discours qui aurait pu l’être 25 ans plus tard : « je vois des champs de bataille ou des zones de combat qui sont sous surveillance de presque tous les types, en temps réel ou presque réel, 24 heures sur 24. Je vois des champs de bataille où nous pouvons détruire tout ce que nous pouvons localiser, par communication instantanée et par l’application presque instantanée d’une puissance de feu hautement létale » [33]. La vision de Westmoreland va effectivement trouver des prolongements dans le domaine de la guerre régulière. L’expérience vietnamienne sert de matrice au programme Mystic Mission, qui vise à transposer au niveau de l’OTAN les rationalités de la ligne McNamara, testé en Floride en 1971 et en Allemagne en 1972. Le principe est toujours identique : des capteurs « abandonnés » doivent signaler le passage de forces ennemies, leurs informations étant transmises aux centres de commandement pour traitement, analyse et prise de décision. Le direc­teur de la recherche de défense américain peut ainsi indiquer en 1974 qu’« une série de développements techniques remarquables nous a amené au seuil de ce que je crois qui deviendra une vraie révolution dans la guerre conventionnelle » [34].

33Le paradoxe est que l’affaire est alors plus simple : dans le cadre d’une confrontation en Europe, il s’agit de distinguer des engins donc les caractéristiques sont à la fois connues et spécifiques. Un char T-64 ou T-72 a une masse et une signature thermique aussi bien qu’acous­tique incomparablement plus grandes que celle d’un camion ou d’un bus transportant des réfugiés fuyants l’invasion du pacte de Varsovie. La détection des cibles au milieu du « bruit » des mouvements dans un pays en guerre est alors bien plus simple qu’au Vietnam, où un camion pouvait tout aussi bien transporter du ravitaillement pour les Viêt-Cong que de l’aide humanitaire – sans même parler d’une faune bien plus diversifiée en Asie qu’en Europe. Dans pareil cadre, on pouvait envisa­ger un taux de fausses alarmes nettement plus réduit. De même, à l’abri de la dissuasion nucléaire, le réseau de capteurs pouvait être positionné, testé et amélioré à l’envi, durant des années, et non plus dans l’urgence d’une guerre en cours. L’enjeu, cependant, est toujours identique : face à la diversité des voies de passage potentielles des troupes du pacte de Varsovie en Allemagne de l’Ouest, il s’agit de déterminer les axes de progression et le volume des forces. Ce faisant, il devient possible de comprendre si des attaques de diversion sont menées, permettant de réagir de manière appropriée, en respectant le principe d’économie des forces. En retour, ce type de mode d’action permet de conserver des réserves qui peuvent être envoyées là où des percées n’auraient pas été détectées. Cette logique a fini par être validée d’un point de vue doctrinal en 1976, avec l’Active defense.

34La doctrine ne s’appuie pas que sur les développements liés aux réseaux de capteurs. Il s’agit également de moderniser les structures comme les équipements des forces armées américaines, notamment en équipant les blindés de leurs propres systèmes d’acquisition de cible, accroissant notamment leurs performances dans les opérations menées de nuit. Sur le terrain, l’Active defense implique de mener un combat retardateur sur les axes de pénétration ennemis, suivi de contre-offen­sives, tout en veillant à ce que les forces amies se couvrent mutuelle­ment en permanence. La doctrine entendant ainsi tirer parti de la récente expérience israélienne durant la guerre du Kippour, mais aussi des batailles de retardement allemandes face aux troupes soviétiques durant la deuxième guerre mondiale [35]. L’appoint des nouvelles techno­logies doit radicaliser l’efficience tactique observée dans les deux expériences [36]. Il s’agit alors de faire de la guerre conventionnelle le jeu d’échecs qu’elle n’était pas jusque-là. Mais ce jeu est rendu d’autant plus complexe que les forces des pays-membres de l’OTAN couvrent des secteurs géographiques bien déterminés en Allemagne de l’Ouest. Dès lors, il ne s’agit pas uniquement de mettre les capteurs en réseau ; il s’agit également que les forces se parlent en permanence. C’est à ce moment que l’acronyme « C3I » (Command, Control, Communica­tions, Intelligence) se généralise.

35Le terme « guerre de l’information apparaît en 1976, sous la plume de Thomas Rona, un analyste de Boeing [37]. Il définira vingt ans plus tard comme « la destruction, l’incapacitation et la corruption de l’infrastructure informationnelle ennemie » [38]. En 1976, Paul Dickson n’hésite pas à intituler un de ses ouvrages The Electronic Battlefield. Il ne s’agit pas seulement, selon lui, d’automatiser le recueil d’un rensei­gnement, devenu fractal par la multitude de capteurs employés, mais aussi d’automatiser la riposte, notamment par l’usage de mines « intel­ligentes », capables de déterminer si elles doivent exploser à proximité de tel ou tel véhicule. Pour l’auteur, cette évolution est rendue possible par les trois révolutions qu’il observe :

36

  • la révolution électronique, avec l’arrivée du transistor, la miniaturisation des composants, les caméras TV et IR et la généralisation de l’usage d’ordinateurs ;
  • les systèmes contrôlés à distance, qu’ils soient d’observation ou de tir ;
  • le développement de la bionique, ou plus exactement, selon le sens que l’auteur lui donne, de l’application aux capteurs de caractéristiques initialement animales [39].

37Les première et deuxième « révolutions » de Dickson vont occuper une place centrale dans la deuxième Offset strategy. Formel­lement lancée en 1977 par Harold Brown (alors secrétaire à la Défense) et William Perry (un futur secrétaire à la Défense), l’initiative a conduit à la conception de systèmes qui seront considérés comme centraux dans la future RMA/Transformation mais qui réifient, également, la logique, tactico-centrée, du « détection-traitement ». La supériorité quantitative du pacte de Varsovie sur l’OTAN et les forces américaines doit alors être vaincue par une supériorité qualitative. L’un des programmes-phares de cet effort est Assault Breaker[40]. Lancé par l’US Army et l’US Air Force en 1978, il combine une détection aéroportée des moyens blindés soviétiques et un traitement à distance de sécurité. Le radar Pave Mover devait ainsi pouvoir détecter les mouvements de véhicules au sol, déterminant les axes de pénétration ou zoo­mer sur une zone plus restreinte, produisant une imagerie synthétique permettant de détecter des cibles stationnaires. Initialement, il était question d’en doter des F-111. Ces derniers devaient transmettre les données à une station terrestre, le radar servant également pour la liaison de données.

38Les F-111 devant opérer sur la ligne de front et la portée du radar étant limitée à une centaine de kilomètres, la question se pose d’une détection dans la grande profondeur du dispositif ennemi. Le Tacit Blue, un monoréacteur très furtif littéralement construit autour du radar Pave Mover, devait ainsi être engagé au-dessus des pays pacte de Varsovie, utilisant également son radar pour transmettre les données, en temps réel, à des stations d’analyse au sol. Des petits bimoteurs de reconnaissance OV-1 Mohawk de l’US Army auraient également été dotés d’une version moins complexe du Pave Mover, complétant la toile de capteurs. Les analystes installés dans une station au sol doivent certes identifier les axes de pénétration adverses, mais activent égale­ment le lancement des frappes contre les blindés. Si les effecteurs sont diversifiés, un programme est révélateur des efforts menés. Les démonstrateurs de missiles T-16 et T-22 devaient pouvoir être tirés depuis des zones éloignées de la zone de bataille en direction des forces détectées par le Pave mover[41]. Au terme de leur vol balistique, ils larguent des sous-munitions à guidage terminal, qui se dirigent ensuite individuellement vers les blindés.

39Un autre vecteur, le missile de croisière NV-150 est également proposé, tout comme une variante à lancement aérien du missile Tomahawk, l’AGM-109 MRASM (Medium Range Air-Surface Missi­le), toujours porteur des mêmes sous-munitions. Ce véritable système de systèmes n’est finalement pas entré en service, mais plusieurs de ses composantes aboutissent bel et bien. Le radar Pave mover est finale­ment installé sur des avions E-8 J-STARS (Joint Surveillance Target Attack Radar System), dont un des prototypes est utilisé avec succès au cours de l’opération Desert Storm, en 1991. Par contre, la station au sol est abandonnée, les opérateurs étant installés à leurs consoles dans la cabine de l’E-8. Les missiles T-16 et T-22 sont abandonnés (tout comme l’AGM-109) mais l’Army poursuit ses efforts et met au point le MGM-140 ATACMS (Army Tactical Missile System), utilisé pour la première fois au combat en 1991. La fin de la guerre froide met un terme au projet de le doter de sous-munitions à guidage terminal, mais il est par contre doté de 950 ou 275 sous-munitions classiques ou d’une charge unitaire de 227 kg et a été largement exporté. Le développement du missile NV-150 se poursuivra jusque dans les années 1990, sous la désignation d’AGM-137. Surtout, les programmes de sous-munitions seront également maintenus.

40In fine, la logique à l’œuvre reste bien d’obtenir la plus grande transparence possible, jusqu’au niveau infra-tactique de la frappe sur un seul blindé. Face à l’incertitude d’une frappe effective, l’affaire devient une question de probabilités mathématiques : la saturation en sous-munitions des zones visées doit réduire au minimum l’hypothèse de voir des blindés ennemis ne pas être touchés. C’est une tentative de levée du brouillard de la guerre par la recherche d’un sur-anéantisse­ment, directement permis par les progrès de l’électronique [42]. Si le programme Assault Breaker sera une composante majeure de la deuxiè­me Offset strategy, elle ne sera pas la seule. Progrès de l’électronique, de l’informatique et de la miniaturisation faisant, on doit aux efforts lancés à la fin des années 1970 une série de développements, là aussi cardinaux pour la future RMA/Transformation. C’est le cas pour les travaux sur la furtivité, qui débouchent sur le démonstrateur Have Blue, puis sur le F-117 – dont le premier vol intervient en 1981 – et sur le futur bombardier B-2, dont le lancement du programme remonte à la fin des années 1970. In fine, si la furtivité ne permet pas de lever le brouillard de la guerre des forces l’utilisant, elle permet par contre d’épaissir celui de l’ennemi. Au-delà du formidable effort effectué dans le domaine des armes guidées de précision, le deuxième Offset permet également de mettre sur les rails le GPS (Global Positionning System).

41Il est d’ailleurs remarquable de constater que son développement est intrinsèquement lié aux espaces fluides et à la fluidification des espaces solides. L’un des plus ardents défenseurs – et l’un des pères – du concept, Francis X. Kane, est un colonel de l’US Air Force. Kane est également co-auteur avec Possony et Pournelle de l’ouvrage The Strategy of Technology, initialement paru en 1970, et qui constitue la formalisation la plus claire – mais aussi, certainement, la plus radicale – d’un déterminisme technologique sur les opérations militaires [43]. La mise en orbite des dix premiers satellites, entre 1978 et 1985, augurait de la possibilité de localiser précisément n’importe quelle unité dotée d’un récepteur. Mieux encore, l’utilisation de récepteurs GPS sur des missiles à longue portée permettait de les guider avec plus de précision, avec plus de facilité que n’importe quel autre dispositif existant jusque-là. De facto, la première utilisation de ce système dans cette fonction aura lieu durant Desert Storm, lorsqu’une trentaine de missiles AGM-86 dotés de charges conventionnelles seront tirés, d’abord dans le plus grand secret [44]. Là aussi la miniaturisation des composants électroniques jouera un rôle central [45].

42Les différentes évolutions examinées ne sont pas les seules. Les logiques strictement tactiques ont été pour partie abandonnées pour un angle opératif et la focalisation des planificateurs s’est portée, de la notion de reconnaissance, encore centrale dans les années 1980, à celle de la surveillance. C’est dans ce cadre qu’il faut replacer le développe­ment des drones – également des systèmes aériens. S’il en est encore très peu question à la fin des années 1980 [46], ils deviennent, dix ans plus tard, centraux dans la rhétorique américaine de la recherche de rensei­gnement. On observe alors une multiplication, rhéostatique en fonction de leur niveau d’engagement, des types de plateformes, qui remplacent les appareils de reconnaissance, du moins aux États-Unis. Cette transi­tion vers une rationalité de surveillance, si elle est en germe depuis la guerre du Vietnam, n’est pas stratégiquement neutre. La reconnaissance est, par nature, transitoire. Un avion ou une unité spécialisée captent une vision d’une cible et de sa position, qui est susceptible d’évoluer avec le temps, mais l’avion ou l’unité ne peuvent rester indéfiniment sur zone. Au contraire, l’idée de surveillance suggère la permanence et la persistance. Le comportement de chaque cible doit alors être perçu, si possible en temps réel. La philosophie du rapport à l’Autre passe alors d’une suite d’aperçus dont le coup d’œil du stratège permet de déduire la dynamique à un panoptique.

Fragmenter et réseaucentrer

43La mise en œuvre de ce panoptique doit permettre de « percer » définitivement le brouillard de la guerre, dès lors que « de Platon à l’OTAN, l’histoire du commandement dans la guerre consiste essentiel­lement en une quête sans fin de la certitude » [47]. C’est une métanarra­tion se nourrissant de ses imaginaires, nécessairement centrés sur les réseaux et le traitement informatique de volumes considérables d’infor­mations. Depuis les premiers travaux des années 1990 jusqu’aux débats actuels sur le big data, le leitmotiv de ce panoptique militairement significatif n’a pas changé. Il peut ainsi être bureaucratiquement légiti­mé, en vue de l’obtention de budgets nécessaires, une dimension de la problématique que l’on trouve tout au long de la lecture de l’ouvrage d’Owens [48]. Dans son optique, 90 % de ce qui est militairement signi­ficatif sur une zone donnée devait pouvoir être détecté en 2025. Mais cette vision est sans doute trop optimiste au vu des progrès effective­ment réalisés par les armées comme par les industriels. Ces derniers ne sont pourtant pas minces, la diversification des capteurs comme leur sensibilité s’étant ainsi considérablement accrue.

44Reste qu’il y a encore loin de la coupe aux lèvres, pour plusieurs raisons. La première tient à la dynamique du caractère de la guerre et à ses incidences sur la stratégie des moyens. Depuis la fin de la guerre froide, la majorité des conflits dans lesquelles des forces occidentales ont été engagées est irrégulière. Or, ces derniers sont caractérisés par un double phénomène de dispersion/disparition de l’adversaire. Issu des populations, il ne s’en distingue pas – il « disparaît » donc – et son comportement le rend potentiellement présent partout, rendant l’identi­fication à distance virtuellement impossible. Le général israélien Reuven Benkler évoquait ainsi à propos du Liban, durant la guerre de 2006, un « champ de bataille vide » où les populations vaquaient la plupart du temps à leurs pacifiques occupations. Mais, quelques heures par jour, certains habitants appuyaient le Hezbollah ou réalisaient des missions pour son compte. La conséquence tactique d’un tel mode d’action est qu’il faut parvenir à capter cette conversion et ne réussir à agir que lorsqu’elle est opérante.

45Cette rationalité est évidemment antinomique de celle des opéra­tions régulières, toujours très structurant pour la plupart des armées. Un imaginaire du conflit rêvé reste très vivace, parce que ses fondements renvoient à des cultures stratégiques le favorisant. Il voit des armées clairement identifiées s’engager dans des « campagnes » et s’opposer dans des « champs » de bataille avec des moyens lourds et donc aussi aisément détectables qu’identifiables. En ce sens, les travaux des années 1990 autour de l’ISR et des nouveaux capteurs croisent ceux des années 1970 et 1980 : à nombre d’égards, l’ennemi rêvé de la RMA est l’URSS. De même, la qualification, historiquement assez rapide, de la Chine en tant que peer competitor – soit un compétiteur de niveau égal sur la scène stratégique – semble réifier l’ennemi disparu, proro­geant ainsi la tentation régulière et technologique à laquelle inclinent les cultures stratégiques occidentales. À certains égards, les imaginaires napoléoniens rejoignent ceux de la guerre froide mais d’une manière méconnaissant fréquemment l’histoire ou les subtilités stratégiques. Les guerres napoléoniennes ont également été marquées par des phases irrégulières – la guerre péninsulaire, en Espagne, n’en étant que la plus connue – tout comme une nouvelle guerre mondiale aurait vu l’utilisa­tion d’attentats, l’usage massif de l’agit-prop, de groupes d’opposition armés ou encore des raids de forces spéciales sur les arrières ennemis. La détection/identification aurait été des plus difficiles, même dans un cadre majoritairement marqué par des phases de combat régulières.

46De facto, le problème est dans la disjonction entre la repré­sentation physique – le combattant ou le civil susceptible d’être com­battant – et ses intentions, là où la présence d’un blindé ennemi sur un territoire ami combine représentation et intention. Il s’agit donc de produire un renseignement qui soit suffisamment discriminant, ce qui n’est possible dans les conflits irréguliers qu’en se coupant de la chronostratégie brusquée à laquelle tend la RMA/Transformation. Il s’agit, en l’occurrence, d’observer un comportement suffisamment longtemps pour déterminer un tactical pattern et en déduire des inten­tions. Durant les opérations en Afghanistan, des hommes armés – une caractéristique courante dans le pays, même pour des civils – n’ont ainsi été considérés comme cibles légitimes qu’après avoir été observés durant plus de 30 minutes, alors qu’ils enterraient ce qui était mani­festement un IED (Improvised Explosive Device) sous une route. La logique ici à l’œuvre est cependant doublement problématique. D’une part, parce que la manœuvre dépend alors de règles d’engagement propres à chaque État-membre de la coalition, et qui est donc suscep­tible de déboucher sur des erreurs de ciblages. D’autre part, parce que les capteurs électro-optiques actuellement utilisés impliquent un « effet paille », selon lequel n’est observée que la zone, relativement étroite, où sont dirigés les capteurs.

47La résolution de cette question de « l’effet paille » par un panop­tique « absolu » a cependant été tentée, par l’intermédiaire informati­que. Il s’est alors agit de doter un drone de plusieurs systèmes optroni­ques, permettant, par traitement de données, de surveiller une zone de plusieurs dizaines de kilomètre carrés. Le système, baptisé Gorgon Stare devait permettre de suivre l’ensemble des mouvements perti­nents, les premières missions étant conduites en 2009. Mais la conca­ténation des données n’a jamais produit le résultat attendu. Sur l’image globale en résultant, des triangles noirs apparaissaient et se déplaçaient, sans que personne ne soit en mesure de corriger le bug. Une deuxième phase de Gorgon Stare, permettant de surveiller 100 km² a été testée dès 2014. L’Autonomous Real-Time Ground Ubiquitous Surveillance Imaging System (ARGUS-IS) produit une image, renouvelée en perma­nence, de 1,8 milliard de pixels, produite par 368 caméras. L’ensemble représente plusieurs terabytes de données par minute et implique ensuite une analyse approfondie. Au demeurant, il faut ajouter à ce renseignement par l’imagerie celui découlant d’autres sources, comme l’écoute des communications, notamment de téléphones cellulaires – lesquelles ne sont d’ailleurs pas l’apanage des seules forces occiden­tales, ni même des seules armées [49].

48Vu d’une perspective tactique, la représentation d’une zone d’opérations apparaît donc fragmentée, dépendante d’une multitude de capteurs. La progression d’une compagnie au sol peut ainsi impliquer un drone tactique, un drone à moyenne altitude, le pod de désignation d’un appareil de combat « couvrant » l’unité, en plus des éclaireurs de cette dernière ou encore d’unités effectuant des écoutes. Le comman­dant de compagnie se trouve donc dans l’obligation de jongler avec plusieurs facettes de la zone dans laquelle il opère et ce, avant même de prendre une quelconque décision. Mais cette fragmentation se double d’une réticulation, en particulier dès lors qu’il est question d’une pers­pective opérative. Les images prises par un drone MALE (Moyenne Altitude, Longue Endurance) ou une nacelle peuvent ainsi être trans­mises au commandant par l’intermédiaire d’une liaison ROVER (Remotely Operated Video Enhanced Receiver) et, dans le même temps, être relayées au commandement du bataillon, voire à des éche­lons supérieurs. Cette réticulation n’implique d’ailleurs pas que le renseignement, mais porte également sur les données des unités : leur localisation, éventuellement automatique mais aussi l’état des hommes ou encore les stocks de munitions.

49Au demeurant, cette logique de réticulation compensatoire de la fragmentation des sources de renseignement n’est pas historiquement neuve et a trouvé une première forme d’expression technologique avec la radio. Ce qui a fait l’originalité militaire du Blitzkrieg allemand ne réside ainsi pas tant dans la combinaison de chars et d’avions que dans celle de la radio. C’est l’usage de cette dernière qui a permis aux unités de pouvoir se coordonner sur de vastes espaces, accroissant la vitesse de leur adaptation, tout en pouvant commander rapidement des appuis du génie ou de l’artillerie. Cette logique est toujours à l’œuvre mais se voit démultipliée par le nombre d’intervenants du réseau, qu’ils soient humains (chefs de tous niveaux, subordonnés) ou non (capteurs). Les unités militaires d’aujourd’hui sont ainsi devenues des productrices d’informations itinérantes, mise en réseau dans des systèmes de forces plus importants, au risque que leur finalité devienne la génération d’informations et non plus la génération d’effets stratégico-politiques. Les armées, machines complexes et naturellement procédurières, voient ainsi leurs processus d’adaptation/modernisation passer par des empile­ments de pratiques aux ressorts techniques où il est facile d’oublier l’objectif. In fine, la question, en effet, demeure de savoir si les ratio­nalités développées ces quarante dernières années permettent effective-ment d’éclaircir le brouillard de la guerre en dépit d’espaces plus transparents.


Mots-clés éditeurs : guerre réseaucentrée, radars, stratégie des moyens, technologie, espaces fluides et solides

Date de mise en ligne : 08/06/2020

https://doi.org/10.3917/strat.123.0115

Notes

  • [1]
    Le concept a été utilisé pour la première fois par le futur général Becam - Becam, Lt-cl., « La manœuvre génétique », Forces Aériennes Françaises, n° 152, octobre 1959. Plus largement, voir Joseph Henrotin, La Stratégie génétique dans la stratégie des moyens, ISC, Paris, 2003.
  • [2]
    Laurent Henninger (entretien), « Le fluide et le solide », Défense & Sécurité Internationale, n° 89, février 2013.
  • [3]
    Jérôme de Lespinois, La Bataille d’Angleterre, juin-octobre 1940, Tallandier, Paris, 2011.
  • [4]
    Paul N. Edwards, The Closed World. Computers and the Politics of Discourse in Cold War America, The MIT Press, Cambridge, 1997.
  • [5]
    Paul E. Ceruzzi, Reckoners: The Prehistory of the Digital Computer, From Relays to the Stored Program Concept, 1939-1945, Greenwood Press, Westport, 1983.
  • [6]
    À titre de comparaison, le processeur AMD FX-8150 utilisé dans les PC de bureaux dépasse les 30 millions d’opérations par seconde.
  • [7]
    Life, « Pushbutton Defense for Air War », Life, vol. 6, n° 42, 1957, p. 62.
  • [8]
    Le centre était toutefois enterré à une profondeur de 210 m. Le complexe a été terminé en 1963 et est resté en service jusqu’en 2006.
  • [9]
    L’appareil était entré en service dans l’US Navy en 1953. L’US Air Force ne commandera ses propres appareils de détection aérienne avancé qu’un peu plus tard.
  • [10]
    Paul N. Edwards, op. cit.
  • [11]
    Pour une synthèse des débats en cours à l’époque, voir Jean-Philippe Baulon, L’Amérique vulnérable ? (1946-1976), Economica/ISC, Paris, 2009.
  • [12]
    Contrairement à la roquette, le missile est, par définition, guidé. Les premiers engins testés dès 1946 bénéficiaient d’un guidage depuis le sol, les mouvements du missile vers la cible s’effectuant via une télécommande par radio, l’homme assurant la computation information entre l’information (fournie par un radar au sol) et l’action à distance sur les gouvernes du missile. La solution, au demeurant inadaptée aux attaques par saturation et vulnérable au brouillage, s’est avéré nettement moins efficace que le guidage terminal du missile par radar ou par infrarouge.
  • [13]
    Avec cependant plusieurs limitations, liées à la capacité de traitement du signal. La détection d’appareils volant lentement ou à proximité du sol s’avérait ainsi délicate : William W. Momyer, Airpower in Three Wars, Air University Press, Maxwell, 2003.
  • [14]
    Notamment par le ravitaillement en vol, qui facilite les déploiements expédi­tionnaires.
  • [15]
    Le Link-1, développé dans les années 1950, permettait l’échange de données entre centres de contrôle aériens. La même logique sera à l’œuvre avec le BADGE (Base Air Defense Ground Environment) destiné aux bases japonaises.
  • [16]
    Quatre exemplaires d’une version modifiée.
  • [17]
    C’est le cas des systèmes Erieye suédois (en service ou sur le point de l’être en Suède, Pakistan, Brésil, Thaïlande, Émirats arabes unis) ; Phalcon israélien (Israël, Chili, Singapour, Italie) ; Wedgetail américain (Australie, Turquie, Corée du Sud) ; de l’E-2C/D Hawkeye (embarqué sur porte-avions et en service aux États-Unis, en France, au Japon, au Mexique, en Égypte) ; du KJ-2000 (Chine) ; du KJ-200 (Chine, Pakistan) ; du A-50 (Russie, Inde).
  • [18]
    Michael Palmer, Command at Sea: Naval Command and Control since the Sixteenth Century, Harvard University Press, Harvard, 2005.
  • [19]
    Joseph C. Wylie, Military Strategy. A General Theory of Power Control, Naval Institute Press, Annapolis, 2014.
  • [20]
    La question importe. Si les Britanniques avaient disposé de liaisons radio proté­gées durant la bataille du Jutland (1916), ils auraient gagné un temps précieux et, pro­bablement, la bataille elle-même. Toutefois, considérant qu’il existait un risque d’écou­te de la part de la flotte allemande, les instructions mentionnaient expressément l’em­ploi de signaux optiques, imposant donc que les navires soient à proximité.
  • [21]
    Céline Lafontaine, L’Empire cybernétique. De la machine à penser à la pensée-machine, Seuil, Paris, 2004.
  • [22]
    Le concept est mis sur le papier en 1962 pour être concrétisé en 1970. Ce qui importe est d’ailleurs plus le protocole TCP/IP et le travail par « paquets » que le réseau lui-même, qui utilise des lignes téléphoniques classiques naturellement vulnéra­bles aux impulsions électromagnétiques des opérations nucléaires.
  • [23]
    Paul N. Edwards, op. cit.
  • [24]
    Arthur K. Cebrowski, John J. Garstka, « Network-Centric Warfare: Its Origin and Future », US Naval Institute Proceedings, January 1998.
  • [25]
    David J. Betz, « The more you know, the less you understand: the problem with information warfare », The Journal of Strategic Studies, vol. 29, n° 3, June 2006.
  • [26]
    Edward N. Luttwak, Le Paradoxe de la stratégie, Odile Jacob, Paris, 1989.
  • [27]
    Olivier Entraygues, Le Stratège oublié. J.F.C. Fuller, 1913-1933, Brèches Éditions, Paris, 2014.
  • [28]
    Un premier projet, remontant à mars 1966, envisageait un barrage tactique classi­que composé de barbelés, de champs de mines et qui aurait été surveillé en perma­nence. L’armée a marqué son opposition au projet, au motif que les forces ainsi fixées n’auraient plus été disponibles pour des actions offensives.
  • [29]
    Thomas G. Mahnken, Technology and the American Way of War Since 1945, Columbia University Press, New York, 2008.
  • [30]
    On notera que ces efforts seront également à l’origine de la dronisation de petits appareils de tourisme, qui deviendront des QU-22B. Leur fiabilité sera cependant rapi­dement remise en question.
  • [31]
    Parfois jusqu’à l’extrême, comme les concepts de C-119 dotés de lampes à xénon et devant illuminer la jungle de nuit.
  • [32]
    Harry G. Summers, On Strategy. A Critical Analysis of the Vietnam War, Presidio Press, New York, 1982.
  • [33]
    Thomas G. Mahnken, p. 112.
  • [34]
    Ibidem.
  • [35]
    James F. Dunnigan, Raymond M. Macedonia, Getting it Right. American Military Reforms After Vietnam to the Persian Gulf and Beyond, William Morrow and Com­pany, New York, 1993.
  • [36]
    Et ce, en dépit de l’échec stratégique de l’Allemagne nazie pour la seconde. La possibilité d’un échec de l’Active defense est, de facto, assumée dans un contexte de guerre froide où l’engagement de forces conventionnelles n’est que l’un des barreaux sur l’échelle de la violence.
  • [37]
    Thomas Rona, Weapons System and Information at War, Boeing Aerospace Co., July 1976.
  • [38]
    Thomas Rona, « From Scorched Earth to Information Warfare » in Alan D. Campen, Douglas H. Dearth, Thomas Gooden (Eds.), Cyberwar: Security, Strategy and Conflict in the Information Age, AFCEA international Press, Halifax, 1996, p. 10.
  • [39]
    Ce sens est d’ailleurs historiquement le premier et remonte à un symposium mené par l’US Air Force en 1960.
  • [40]
    Mark Hewish, « Le programme Assault Breaker – une technologie d’avant-garde pour les armes à longue portée », Revue internationale de Défense, n° 9, 1982.
  • [41]
    Les missiles sont eux-mêmes des sous-versions du Lance et du Patriot. Ils auraient été lancés depuis des remorques, mais aussi depuis des F-16 ou des bom­bardiers B-52.
  • [42]
    La norme OTAN reconnaît un anéantissement des forces ennemies lorsqu’elles ont été réduites de 66 %. Or, la saturation des zones de bataille en sous-munitions ne laisserait que quelques pourcents de véhicules ennemis intacts.
  • [43]
    Stephan T. Possony, Jerry E. Pournelle, Francis X. Kane, The Strategy of Techno­logy, Electronic Edition, 1997, http ://www.webwrights.com.
  • [44]
    Joseph Henrotin, L’Airpower au xxie siècle. Enjeux et perspectives de la stratégie aérienne, Bruylant, Bruxelles, 2005.
  • [45]
    Les premiers récepteurs GPS avaient une masse de plus de 25 kg. Or, en 1991, elle passe à moins d’un kilo et demi.
  • [46]
    Les forces occidentales utilisent des drones depuis les années 1960, essentiel­lement comme systèmes d’observation d’artillerie. C’est en Israël que leur emploi se généralise, dès les années 1970, dans les missions de surveillance des frontières.
  • [47]
    Martin van Creveld, Command in War, Harvard University Press, Cambridge, 1985, p. 264.
  • [48]
    L’auteur est un ancien vice-président du comité des chefs d’états-majors améri­cain. William A. Owens, Lifting the Fog of War, Farrar Straus Giroux, New York, 2000.
  • [49]
    En 2006, le Hezbollah a ainsi été en mesure d’écouter les communications télé­phoniques des soldats israéliens.

Domaines

Sciences Humaines et Sociales

Sciences, techniques et médecine

Droit et Administration

bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Retrouvez Cairn.info sur

Avec le soutien de

18.97.9.175

Accès institutions

Rechercher

Toutes les institutions