Couverture de RES_178

Article de revue

Ce que les bases de données font à la vie privée

L'émergence d'un problème public dans l'Amérique des années 1960

Pages 21 à 53

Notes

  • [1]
    On pense au site Wikileaks qui a défrayé la chronique en 2012. Mais le récent rapport Norton (www.norton.com/cybercrimereport), par exemple, s’intéresse aux simples internautes et ses chiffres sont éloquents par leur ordre de grandeur : des centaines de millions d’internautes sont victimes de divers dégâts (virus, vols, usurpation d’identité…) dans le monde… (même si ces chiffres doivent être pris avec précaution, cette entreprise vend des outils censés protéger les internautes).
  • [2]
    Cet article sera suivi d’un second portant sur les années 1970 et explicitant la mise sur pied concomitante des bases de données, des réseaux de données et du commerce des données.
  • [3]
    Un récent numéro de la revue de l’IEEE, bien documenté par des historiens et d’anciens acteurs importants de l’époque, attribue de façon quasi unanime l’essor des systèmes de gestion des bases de données (DBMS) qui vont largement dominer le marché US et international dans les années 1970 et 1980, à la mise sur pied d’un groupe spécial ad hoc (Data Base Task Group) en 1969 chargé d’entraîner les grandes compagnies fabricantes (IBM, Honeywell, Sperry-Rand…), mais aussi ce que Campbell-Kelly appelle les « contractors » et autres, à se mettre d’accord sur un certain nombre de concepts permettant de construire solidement de telles bases de données.
  • [4]
    Cf. E. Dagiral, « Esquisse d’une sociologie historique des bases de données » (non publié). Notre travail s’inscrit et a bénéficié des réflexions du séminaire du groupe Basicom (notamment animé par P. Flichy, S. Parasie, A. Peerbaye, E. Dagiral). Que tous les participants (que nous ne pouvons pas tous citer) soient remerciés.
  • [5]
    Nous regardons ici la façon dont des acteurs divers (des sciences, des administrations) recueillent, produisent des informations qu’ils traitent sous forme de données numériques, une acception évidement réductrice du concept « information », comme L. Quéré l’a très bien montré (Quéré, 2000).
  • [6]
    Nous traduisons ici le concept de privacy par « vie privée », ce qui est réducteur comme nous aurons l’occasion de le montrer (notamment dans la partie 4).
  • [7]
    Cette dimension sera traitée dans un autre article. Des réflexions bien alimentées par un autre séminaire « Le Gouvernement et l’administration des techno-sciences à l’échelle globale (1945-2011) » du Centre Koyré, animé par S. Boudia, A. Dahan, J.-P. Gaudillière, N. Jas, D. Pestre et S. Topçu. Qu’ils en soient remerciés.
  • [8]
    Outre les deux références citées voir Geda (1979) et Rowe (1982). Croisement avec le Pool Minnesota, l’Institut für Demoscopie lié à l’université de Francfort, l’IFOP (Institut français d’opinion publique) en lien avec les Archives de France…
  • [9]
    Michigan Law Review, 1967, « Computers: The Use of Data Processing in Legal Research », 987-994. On notera sur cet exemple le couplage qui se développe entre ordinateurs et machines de photocomposition.
  • [10]
    Évidemment, un ordinateur dans un centre militaire sert d’abord à faire les calculs nécessités par les nouvelles armes, avions, missiles, mais il permet aussi de produire les fiches de paie et est utilisé dans la gestion du personnel.
  • [11]
    Pour plus de détails sur les projets logiciels en train d’émerger en tant que tels, voir, outre les deux historiens cités, les travaux de Hahn ou les souvenirs de Mc Gee (Mc Gee, 1981 ; Hahn, 1996).
  • [12]
    A. W. Macmahon, 1955, « Review », The American Political Science Review, vol. 49-3, pp. 857-863. Compte rendu des rapports détaillés de cinq universités (Chicago, Harvard, Ann Arbor-Michigan, North Carolina, Stanford) quant à l’état d’avancement des Behavioral Sciences en leur sein, conclusions d’enquêtes approfondies suscitées et financées par la Fondation.
  • [13]
    Voir les volumes 50-4 et 50-5 (1960) de The American Economic Review qui publient une série d’articles sur ces thèmes.
  • [14]
    Voir le dossier de The American Economic Review, vol. 52-2, de 1962.
  • [15]
    Un mouvement qui touche au même moment les pays d’Europe (Agar, 2003).
  • [16]
    Cf. Borko et Doyle (1964). Le projet de SDC s’intitule « Information Retrieval and Linguistics Project ».
  • [17]
    J. Becker, « Demonstrating Remote Retrieval by Computer at Library », ALA Bulletin, Vol. 58, No. 9 (October 1964), pp. 822-824 ; « Circulation and the Computer », ALA Bulletin, Vol. 58, No. 11 (December 1964), pp. 1007-1010 ; « System Analysis – prelude to library data processing », ALA Bulletin, Vol. 59, No. 4 (April 1965), pp. 293-296.
  • [18]
    Il conviendrait de poursuivre l’enquête du côté des banques et du secteur financier, univers peu présent dans les analyses de l’époque (que nous avons consultées), qu’elles émanent de sociologues, d’économistes, de juristes, etc.
  • [19]
    De nombreux travaux vont dans ce sens, à commencer par ceux de P. Baran, un expert de la Rand, en 1962, suivis de ceux de Licklider, mais ils restent essentiellement théoriques. Ils seront bientôt repris par les réseaux d’entreprises et dans les projets conduisant à Arpanet à la fin des années 1960. Voir entre autres Abbate (1998).
  • [20]
    Ces travaux des économistes au début des années 1960 vont aussi se traduire par le livre de F. Machlup qui révèle en 1962 pour la première fois la part majoritaire de l’activité aux États-Unis consacrée au traitement de l’information au sens large (Mattelart, 2001).
  • [21]
    En fait, cette loi FOIA vise essentiellement à corriger le paragraphe 3 de la procédure administrative dont la rédaction par trop générale et vague permettait aux administrations et agences des comportements jugés comme des abus de pouvoir quant à la non-divulgation de documents qu’elles détiennent.
  • [22]
    The New York Times, 20 juin 1964, cité in Westin.
  • [23]
    Plusieurs centaines d’articles paraissent sur le sujet dans de nombreux journaux (New York Times, Washington Post, Wall Street Journal, Newsweek, Forbes, Time, The New Republic, The New Yorker, Playboy, etc.).
  • [24]
    Notamment aux Premier, Cinquième, Neuvième et Quatorzième amendements. Cf. « Testimony Before House Special Subcommittee on Invasion of Privacy of The Committee on Government Operations », American Psychologist, nov. 1965, vol. 20, pp. 955-988.
  • [25]
    Bolt, Baranek et Newman, la même qui participe à la réalisation d’Arpanet un peu plus tard.
  • [26]
    Westin, op. cit. p. 326.
  • [27]
    Cf. l’exemple donné d’étudiants du MIT (projet MAC) qui pénètrent les données du gouvernement, et récupèrent notamment des informations d’un site du Strategic Air Command (Miller, 1969).
  • [28]
    Cf. Mattelart (2001), p. 65. Mais surtout les travaux de l’OCDE des années 1970 autour du « Free Flow of Information ».
  • [29]
    À suivre dans un prochain article. Un travail qui doit beaucoup au service de documentation du Latts : un grand merci à C. Quetier.

1Les données numériques sont au fondement de notre monde aujourd’hui. Tant par leur prolifération – présentée comme le résultat d’une vague « naturelle », inéluctable et qui prend des dimensions gigantesques – que par leur vulnérabilité qui se traduit par des taux croissants de cyber-délits, cyber-crimes, telle la divulgation massive de données confidentielles d’institutions ou d’individus [1]. Ces données n’existent essentiellement que par deux grands systèmes : les réseaux qui les font circuler et les bases de données qui permettent d’y accéder. Nous nous intéresserons ici à l’émergence de ces dernières, aux États-Unis dans les années 1960 en nous centrant sur la question émergente alors du respect de la vie privée et, plus précisément, de la protection des données personnelles [2]. Notre thèse est que la question des conséquences fâcheuses, pour les individus ou les organisations, du traitement de données (collecte, mise en mémoire, extraction, commercialisation) est posée publiquement avant même que les premières bases de données numériques et leur système de gestion ne soient définis et construits. Dans les années 1960, rares furent ceux qui ont pris au sérieux ces questions posées par l’automatisation des registres et des « banques de données » existantes sous forme papier ou cartes perforées. Nous nous proposons donc de regarder les outils et les pratiques ainsi que les politiques élaborées au cours du processus d’informatisation réalisé à marche forcée, faisant fi des traditions et principes déontologiques en vigueur, sous la poussée de toutes les forces professionnelles – agences gouvernementales, acteurs des sciences (dures et humaines) ou des firmes industrielles et/ou commerciales.

2De nombreux travaux d’historiens attribuent l’émergence des bases de données à des moments différents selon l’origine qu’ils prennent en considération : la création des grands logiciels-systèmes de gestion des bases de données au début des années 1970 – les DBMS ou Data Base Management System (IEEE, 2009) ; l’usage du terme « base de données » et la séparation, conceptuelle et pratique, entre les données d’un programme et les données à partir desquelles le programme s’exécute (Campbell-Kelly, 1964 ; Haig, 1997) ; la constitution des grandes banques de données numériques pour les militaires et diverses agences de l’État dans les années 1960 (Agar, 2003) ou le rôle des grands registres papier et mécanographiques des années 1930 (Gardey, 2008). Mais une chose est certaine : il y a un net écart temporel entre le début de la production en série des ordinateurs au milieu des années 1950 et la mise sur le marché de systèmes et/ou logiciels de gestion des bases de données dans les années 1970 [3]. Cet écart curieux, comme un vide en des temps de développement intensif de la technoscience informatique, nous semble lié à la question des sources regardées. Car, si nous faisons nôtre l’idée qu’un objet technique nouveau émerge à la croisée de plusieurs mondes sociaux [4], ceux qui sont impliqués dans le traitement (au sens très large) des données aux États-Unis des années 1960 semblent très nombreux, avec des lignes de force, des pratiques préexistantes, routinisées et l’on sait que saisir la multitude des intervenants dans une controverse publique reste un outil très efficace (Pestre, 2013). L’examen des principales revues des grandes associations de science sociale fait apparaître l’existence à côté de l’immense quantité d’informations qui sont publiques (notamment celles des sciences de la nature et de la documentation) de données « personnelles » ou « propriétaires », concernant une personne, une famille, une entreprise, une association [5]. Et ces données plus ou moins confidentielles vont être progressivement réutilisées, extraites de leur cadre initial et mélangées avec bien d’autres informations publiques dans des traitements toujours plus automatisés, des collections parfois commercialisées grâce aux nouveaux outils, l’ordinateur, ses dispositifs de stockage et les « banques de données » (le terme le plus utilisé à cette époque). Ce processus provoque bientôt un vaste débat public autour des atteintes à la vie privée (privacy[6]) qui se focalise dans la deuxième moitié des années 1960 autour de la création par l’exécutif d’une hyper-databank baptisée Centre national de données (NDC). Malgré la faible implication des forces « habituelles » de la critique (humanités, sciences sociales), la presse, certains universitaires et des acteurs de la « société civile » poussent le Congrès à multiplier les auditions publiques et à refuser année après année de voter le budget réclamé par l’exécutif pour mettre sur pied ce Centre. Un épisode dont les conséquences sont durables et les répercussions internationales nombreuses [7].

Histoire de la collecte et du traitement de données jusque dans les années 1960

3La collecte d’informations sur les individus ou sur les institutions existe depuis très longtemps, comme en témoignent les registres d’état civil paroissiaux puis tenus par les mairies. Des travaux d’historiens ont amplement montré le rôle des registres dans le fonctionnement des grandes compagnies ou dans les bureaux des sociétés (Yates, 2005 ; Gardey, 2008). Mais depuis l’entre-deux-guerres, les données sont là, désignées comme telles dans tous les compartiments de la société américaine : elles sont utilisées quotidiennement par les services statistiques et les administrations de l’État fédéral et des États américains (pour les divers services sociaux), les services d’information scientifiques et techniques – toutes les sciences, de la nature et de la société, ont élaboré depuis longtemps des systèmes de catalogage et de documentation, de circulation des revues et des livres. À ces mondes, il faut ajouter les milieux professionnels (des militaires aux économistes, des éditeurs aux politiques, des bibliothécaires aux urbanistes des très grandes métropoles, etc.). Sans prétendre à une quelconque exhaustivité, nous avons essayé de balayer, en nous appuyant sur leur principale revue professionnelle, un certain nombre de ces mondes (juristes, statisticiens, économistes, sciences politiques, « behavioral sciences », bibliothécaires et documentalistes, informaticiens, experts militaires, archivistes…) dans leur rapport à l’information, codée ou pas, stockée mais pas toujours accessible.

4Les années 1930 voient l’essor des données, particulièrement aux États-Unis, à la suite de la grande crise – par exemple pour comptabiliser le nombre de chômeurs afin notamment de les aider. Cela conduit à de nombreuses controverses, mais également à des avancées en termes de science statistique : c’est en effet à la fin des années 1930 que s’impose par exemple le principe des enquêtes par échantillonnage (Duncan et Shelder, 1978 ; Desrosières, 1996). Avec le développement du caractère empirique des sciences politiques et sociales se multiplient, dès les années 1940 et 1950, les enquêtes, les sondages et les réflexions sur leur contenu en termes de classification. L’exemple le plus frappant est celui des sciences politiques : les sondages électoraux et enquêtes d’opinion publique conduisent à la création du Centre Roper en 1946 qui collecte et conserve les données de ces sondages (Gallup, Crossley et Roper). La multiplication de ces travaux, la mise en cartes perforées de leurs données, le besoin de comparer, recouper, former des séries dans l’espace et le temps, d’y incorporer toutes sortes de résultats hors données publiques conduisent des chercheurs à proposer dès 1957 des centres-bibliothèques d’archivage de données, éventuellement gérés par les bibliothèques classiques (Lucci et Rokkan, 1957). Les enquêtes sont coûteuses, mal utilisées ou inaccessibles. « Un tel centre devrait maximiser l’usage des talents en sciences sociales, des fonds alloués ; il permettrait d’assurer la compatibilité entre collections de données, de développer les recherches transnationales, de favoriser la formation des étudiants et d’assurer la préservation et la conservation des données » (Lucci, 1957). Ces centres se multiplient (Columbia, Michigan, Berkeley), et l’université de Yale collecte à son tour les données des anthropologues. En 1959, Converse propose de construire « un réseau des archives de données pour les sciences sociales » et le centre Roper rassemble les données de 3 200 enquêtes provenant de 70 pays. Avec la création de l’ICPR (Inter-university Consortium for Political Research) par W. Miller en 1962, regroupant huit institutions, c’est la numérisation systématique des données historiques des recensements, enquêtes et élections qui est entreprise [8]. Un mouvement semblable, notamment chez les bibliothécaires et documentalistes spécialisés, de mise en cartes perforées des données concernant l’information de type bibliographique est très visible dans les sciences dures qui connaissent dès les années 1950 une explosion spectaculaire de leur documentation, du nombre des publications, des recherches de récupération d’informations. Les exemples de la chimie ou de la médecine sont connus : le CAS (Chemical Abstracts System) met sur pied, dans la deuxième moitié des années 1950, le premier projet abouti d’Abstracts and Indexing (A&I) et le National Library of Medecine lance en 1960-1961 ce qui va ressembler le plus à une base avec interrogation, MEDLARS (Neufeld et Cornog, 1986).

5La croissance des données économiques et sociales des organisations (les statistiques) n’a pas à être argumentée, c’est une évidence pour R. T. Bowman, qui a eu longtemps des responsabilités au sein du Census Bureau avant de diriger l’Office of Statistical Standards au sein du Bureau du Budget. Prêchant dès 1957 pour le développement des statistiques fédérales, il souligne le « besoin d’une intelligence quantitative » pour maintenir et développer le bien-être économique de la société. Et d’insister sur la nécessaire formation des hommes appelés à s’en occuper et sur la qualité de la publication des résultats « pour éviter autant que possible leur mésusage ou les incompréhensions ». Considérant que le système statistique des États-Unis est trop décentralisé, il préconise une plus grande intégration qui passe notamment par la révision des classifications vers un standard qui serait utilisé par toutes les Agences gouvernementales (Bowman, 1957).

Les bases de données juridiques

6Des projets qui utilisent ou prévoient d’utiliser des ordinateurs apparaissent dans la deuxième moitié des années 1950. Ils correspondent davantage à une automatisation de certaines tâches répétitives, au couplage de certaines fonctions mécanographiques, à la collecte d’informations en vue de leur rassemblement permettant des approches quantitatives nouvelles plutôt qu’une écriture de programmes immédiatement utilisables par un ordinateur. Nous le montrerons à travers des initiatives dans deux milieux : les juristes et le recensement. Prenons l’exemple emblématique du projet d’études quantitatives des arrêts de la Cour Suprême des États-Unis. Cette dernière, par ses rapports et ordonnances, juge de la validité des décisions, règles et lois prises ou votées par les gouvernements locaux, des États ou encore par le Congrès. Voilà qui intéresse tous les juristes des États-Unis. En mettant pour chaque cas les données factuelles des arrêts, sous forme de cartes perforées – des cartes qui peuvent être dupliquées aisément et expédiées à ceux qui en font la demande – le projet vise à « accumuler, pour la première fois, un corps de données dans une forme gérable et qui pourrait fournir la base à une série d’études des effets du droit sur le gouvernement des États-Unis ». Bien sûr, des études sur ce thème existent déjà, mais le caractère quantitatif des recherches permises par ce projet permettra de renouveler les questions concernant la régulation des politiques publiques. Le budget détaillé n’est à ce stade pas élaboré, mais une estimation chiffrée est produite : 25-40 000 $ sur trois ans (Horn, 1957). D’autres projets suivent rapidement, tant le secteur est demandeur d’accès aux jurisprudences des divers États et que la forme imprimée jusqu’alors utilisée, est lourde et coûteuse : on compte en 1961 quelque 2,2 millions de cas jugés dans l’ensemble des États avec un accroissement annuel de 25 000 cas nouveaux [9]. Avec un index de plus de deux millions d’entrées, l’idée du recours à un ordinateur vient sous la forme d’un projet commun IBM-ABA (Association du barreau) en lien avec l’Université de Pittsburgh en 1960, bientôt suivi par d’autres dans des lieux-organismes possédant un ordinateur comme le projet LITE (Legal Information Through Electronics) développé par le centre financier de l’Air Force [10].

Les données du recensement

7Un second exemple est fourni par le Census Bureau, la décennie se terminant avec une application de l’informatique civile importante, le recensement de 1960. En effet, la première acquisition purement civile d’un calculateur, un Univac, est réalisée en 1951 par une des plus grandes agences fédérales, le Census Bureau, chargé de procéder au recensement de la population tous les dix ans. Cet événement revêt toujours une haute visibilité politique puisqu’il détermine la répartition des élus au Congrès. Jusqu’au milieu des années 1950, les ordinateurs étaient de très grosses machines, construites une à une par des équipes associant en général des universitaires (mathématiques, physique, chimie, etc.), des ingénieurs industriels et des officiers supérieurs et ingénieurs militaires, les composantes du fameux complexe associant ces trois mondes depuis la guerre et surtout durant la guerre froide (Dahan et Pestre, 2004 ; Flammarion, 1988). Cette acquisition du Census se traduit par l’automatisation de certains calculs, mais surtout par l’invention et la mise au point (par le National Bureau of Standards) de nouvelles machines spécifiques adjointes au calculateur et permettant de faire faire automatiquement le travail d’entrée des données opéré jusqu’alors par 2 000 opérateurs(trices) de cartes perforées. Les formulaires, complétés par les 160 000 enquêteurs, sont photographiés sur microfilms, et les informations codées par un lecteur à tube cathodique. En conséquence, la production des résultats du recensement décennal 1960 est beaucoup plus rapide que les précédentes (gain de huit mois), moins coûteuse (économie de milliers d’opérateurs de saisie). Remarquons cependant que c’est la machine électronique adjacente, davantage que l’ordinateur qui en est l’acteur principal. Cette première n’est pas une surprise : elle est le fait d’une agence bien dotée et qui a déjà une longue expérience dans la mécanisation du traitement et des calculs des données (elle est à l’initiative du développement de la mécanographie avec Hollerith à la fin du XIXe siècle). Mais il faut surtout retenir que la nouvelle machine est utilisée avant tout pour piloter d’autres machines qui permettent d’automatiser la saisie des données, données qui sont ensuite utilisées de la même façon que du temps de la mécanographie. Les débats publics essentiels concernant ce recensement toucheront à l’introduction ou non de questions concernant la religion des recensés.

Des innovations multiples

8Les utilisateurs des ordinateurs impliqués dans les nombreux systèmes et programmes des projets militaires ou des machines qui sont installées un peu partout (entreprise, ministères, administrations…), créent des « clubs utilisateurs » (SHARE) qui mettent en commun des « programmes » pouvant être utilisés par diverses entreprises tels que les programmes de sortie-impression de rapports de General Electric ou ceux qui permettent la gestion des fiches de paie (Campbell-Kelly, 2004 ; Haig, 2009) [11]. Les entrées/sorties restent dominées par les cartes perforées et/ou bandes magnétiques sur lesquelles les données et les fichiers sont déposés les uns après les autres, sans trop de précaution, ni pour leur interrogation, ni pour leur sécurité. Le monde informatique reste conduit par la course aux technologies matérielles, celles qui permettent de fabriquer des machines toujours plus rapides et puissantes mais aussi plus légères et plus fiables. Cette course est dominée par le grand projet SAGE et ses caractéristiques spécifiques : système d’alerte et de riposte d’urgence, il implique « automatiquement » du temps réel, des ordinateurs reliés entre eux et à des capteurs éloignés (des machines communicantes). Le tout nécessite des programmes complexes conduisant à l’essor de Scientific Data Corporation (SDC) – une entreprise non commerciale issue de la Rand – creuset du développement du logiciel des années 1960 (Hughes, 1998 ; Campbell-Kelly, 2003). On insiste souvent sur la succession rapide d’ordinateurs toujours plus performants dans les années 1960 (IBM 7090, CDC 600, PDP8) mais les innovations importantes des années 1950 sont incrémentales comme les lecteurs de bandes magnétiques (200 bpi en 1957, soit l’équivalent de 70 000 cartes perforées) ou le développement du clavier (MIT à partir de 1965).

La recherche publique conquise par le traitement de données

9Il semble que les sciences sociales connaissent des mutations importantes au tournant des années 1950 et 1960, tant dans leur structuration, leur reconnaissance que dans leurs méthodes et leur approche des phénomènes sociaux. Si l’approche empirique n’est pas tout à fait nouvelle, elle paraît connaître une systématisation forte, un fait devant se traduire par des chiffres, des courbes et s’appuyer sur des données quantitatives. Cela se traduit par une croissance des enquêtes qui posent de façon systématique la question de leur dépouillement et de leur traitement, un empirisme qui se mue en pratique dominante, voire systématique et conduit à l’émergence de nouvelles revues comme American Behavioral Scientists. L’utilisation des statistiques, en se généralisant, conduit à des revendications de continuité, de série, d’année en année, de comparaison, de mise en perspectives des chiffres et données. Or une bonne part de ces recherches, observations, enquêtes, sont financées par les fondations (Ford, Carnegie), sous forme de projets ponctuels réalisés par des universitaires ou par des étudiants avec bourse à très court terme (un an en général) alors que les enquêtes nouvelles, par leur thème, leur visée, conduisent à des tâches plus lourdes, inaccessibles aux forces des chercheurs individuels.

10Cette mutation des sciences sociales encouragée par la NSF et la Fondation Ford [12] est également relayée par les grandes organisations professionnelles comme l’American Economic Association (AEA), l’American Statistical Association (ASA) ou l’American Library Association (ALA) qui connaissent une croissance nette dans ces années. Ainsi, l’ASA (les statisticiens), la plus ancienne, passe de 3 400 membres en 1945 à plus de 7 500 en 1961 avec des « chapitres » organisés dans 61 États, et des sous-sections de plus en plus nombreuses. Les associations les plus importantes (statisticiens, économistes) accueillent d’autres plus petites ou de nouvelles. Ainsi, l’American Association for Public Opinion Research ou Operations Research Association font partie de l’ASA (statisticiens), alors que c’est logiquement au sein des économistes qu’émerge l’American Marketing Association (Cochoy, 1999). Elles regroupent de façon croissante aux côtés des universitaires, notamment des grandes universités, des experts appartenant aux grandes agences des États, aux think tanks, à des entreprises (grandes en général). Les représentants de ces associations sont des interlocuteurs de plus en plus systématiques de l’exécutif, et notamment de l’entourage du Président, mais aussi à travers la structuration des sciences dures (National Academy of Science, National Science Fondation) et des sciences sociales (Social Science Research Council (SSRC), National Bureau of Economic Research). Bon nombre de leurs membres appartiennent à deux, voire plusieurs associations, ce qui favorise la circulation des idées, des pratiques, des théories, des outils mathématiques. Elles permettent aux nouvelles techniques mathématiques (recherche opérationnelle, théorie des jeux, aide à la décision, simulation développée notamment au sein de la Rand) de trouver un écho et d’être développées, comme le montre le cas de l’American Economic Review dès 1960 [13].

11Au début des années 1960, les sciences sociales obtiennent une reconnaissance importante. L’Office of Science & Technology (OST) créé en 1962 dans la suite des réorganisations de la technoscience américaine post-spoutnik est une instance importante qui répartit quelque 15 milliards de dollars consacrés à la R&D en 1964. 13,4 sont affectés aux trois principales agences du gouvernement : le département de la défense (DoD), l’agence de l’espace (NASA), l’agence atomique (AEC). Le directeur de l’OST annonce que le support financier fédéral ira aussi (« il faut étendre les horizons ») à un « secteur jusqu’alors pas soutenu correctement, les Behavioral Sciences, pleinement aussi importantes pour notre prospérité que les domaines traditionnels » (Wiesner, 1964). Les débats des économistes au sein de l’AEA (ici en 1962) font particulièrement ressortir leurs besoins de données pour instruire de nouveaux phénomènes, comme l’urbanisation galopante conduisant à la constitution de métropoles gigantesques, de plus en plus difficiles à gérer et qui donc nécessitent des enquêtes de plus en plus variées et nombreuses. Face aux difficultés, notamment en termes de financement, certains préconisent la mise sur pied d’un système national d’information et d’analyse des métropoles [14]. Évidemment, les entités institutionnelles dont nous venons de parler sont de grosses machines qui cachent bien des dissensions, et ne laissent voir, à travers notre focale, que les tendances générales.

12La collecte de données connaît une mutation, comme le montrent les chiffres de financement d’enquêtes du gouvernement fédéral – en croissance de 23 % entre 1961 et 1963 – qui correspondent également à l’essor concomitant de l’équipement informatique des agences publiques : à titre d’exemple, pour la seule Air Force, un expert de la Rand assure que le nombre de computers passe de 350 en 1963 à 700 en 1966 (Ware, 1966). Les secteurs administratifs ne sont pas en reste, particulièrement la Police : l’État de New York lance en 1964 un plan « State Identification and Intelligence System » destiné à rassembler les informations provenant de 3 600 sources (départements de police, bureaux de procureur, cours de justice) équipées d’ordinateurs (Westin, 1967) [15]. Une nouvelle pratique se met en place : l’élaboration de programmes permettant de traduire les données d’une agence dans des formats utilisables par une autre, ce que certains appellent « machine-to-machine reporting » (Olsen Hearings cité par Westin, 1967). Cette évolution est due notamment au fait que les registres, les fichiers, les sources de données prennent de plus en plus systématiquement la forme de données électroniques utilisables par des machines, des données distinctes de celles des programmes, et elle ouvre une phase de mécanisation du traitement de données. Cette automatisation prend diverses appellations selon les milieux et les acteurs : « electronic data processing » chez IBM ; « automated data processing » ou « integrated data processing » dans les grandes entreprises (Haig, 2001) ; « information retrieval » du côté de la documentation scientifique et des bibliothèques. Les perspectives d’automatisation rendues possibles par l’utilisation des nouvelles machines vont bien au-delà de l’information pour toucher l’organisation du travail et les chaînes de production. Ainsi, dans un rapport de la Rand, R. Bellman souligne combien l’essor des ordinateurs et leur emploi généralisé va toucher tous les secteurs de la société et représente « un des plus sérieux problèmes pour la stabilité économique et politique dans les temps présents » (Bellman, 1964). À terme, précise-t-il, la seule activité épargnée par cette lame de fond est le service aux personnes.

Vers la création d’un « Centre national des données »

Les préoccupations du monde académique

13En juin 1964, la nouvelle revue American Behavioral Scientist consacre un numéro complet au problème de la récupération et de l’extraction de données d’une « banque de données ». Ce volume est introduit par des spécialistes de la science des bibliothèques, H. Borko et L. Doyle, tous deux engagés dans un programme de recherche de la Scientific Data Corporation [16]. À leurs yeux, la période marquée par un état léthargique du traitement de données et par la focalisation sur le développement matériel des ordinateurs, est en train de s’achever. Une nouvelle ère s’ouvre, celle de la science de l’information, cette « science » interdisciplinaire associant toujours plus étroitement spécialistes des bibliothèques, logiciens, linguistes, ingénieurs, mathématiciens et « behavioral scientists », etc. – tous ceux qui pensent que l’ordinateur n’est pas uniquement voué au calcul mais aussi au traitement de l’information. Mais pour le faire correctement, il faut « penser » la recherche d’information comme un processus global : il faut collecter l’information, l’analyser, l’indexer, l’enregistrer, et la rendre disponible, sous forme de diffusion ou par une interaction question-réponse. Ces articles sont dominés par le traitement de données issu de la bibliographie mais certains articles traitent également de la question de la conservation, sous une forme automatiquement traitable, des données archivées (Bisco, 1964). Un seul papier, de la plume d’un sociologue de l’Université de Chicago, P. Ennis, introduit une distinction nouvelle entre deux types de données : celles relevant de la littérature au sens large, qui sont publiques, et les « données qui sont des sources pour les sciences sociales » (enquêtes, rapports statistiques, enregistrement de votes), qui posent des questions de respect de règles de confidentialité par rapport à leur organisation et à leur usage.

14Du côté de l’American Library Association (ALA), les réserves sont plus nettes. Non seulement les spécialistes se tiennent à distance de la proposition de Lucci et Rokkan de faire gérer par les bibliothèques les paquets de cartes perforées, mais ils regardent de haut les nouvelles idées de recherche sémantique, les tentatives d’interrogation par mot, s’opposant à l’automatisation de la rédaction de fiches ou de la recherche, ce qu’ils considèrent comme leur vrai savoir-faire nécessitant culture et expérience. Toutefois, les pressions semblent importantes, venant notamment de la Bibliothèque du Congrès et dès 1963, des articles dans la revue de l’ALA vantent les mérites du traitement de données et préparent une importante exposition, New York World’s Fair, qui consacre en 1964, semble-t-il pour la première fois, un pavillon dédié spécifiquement à la science des bibliothèques enrichie des nouvelles techniques [17].

15L’idée d’utiliser un ordinateur pour gérer des fichiers par lots (batch mode), est reprise un peu partout et très rapidement dans le monde économique. Dans les grandes entreprises qui s’équipent massivement et rapidement en nouvelles machines – au risque du suréquipement (Haig, 2001) –, des recommandations concernant le passage de la mécanographie aux ordinateurs sont publiées dans des revues comme le Journal of the Society for Industrial and Applied Mathematics dès le milieu des années 1950 (Clippinger et al., 1954) et bientôt suivies par des enquêtes-programmes, notamment pour les ventes et le marketing. Mais le souci majeur des « Hommes-systèmes » (pour reprendre l’expression de T. Haig) semble se focaliser sur une approche systémique, censée donner les « bonnes » informations à la direction générale de l’entreprise (Haig, 2001). Les méfiances côté entreprises sont peu nombreuses sinon pour considérer que l’automatisation du traitement de données donnera, par les croisements possibles, davantage de possibilités aux administrations de « fouiller » dans les données (dans le cadre de poursuite antitrust, par exemple). Autre critique largement exprimée, la multiplication et le volume des enquêtes publiques, relevés par ALA Bulletin ou Management Review : l’exemple-phare est l’enquête adressée aux entreprises productrices de gaz par la Commission fédérale de l’Énergie et qui compte 429 pages ! (Freed, 1962 ; Wessel, 1965).

Les bases de données des organismes de crédit

16Dans le domaine du commerce, le crédit pour la consommation connaît aux États-Unis des débuts des années 1960 une croissance très forte liée à l’urbanisation galopante et à une forte augmentation de la mobilité [18]. Des agences de crédit (Credit Bureau) se créent un peu partout pour répondre à la demande, de la part des organismes prêteurs, de renseignements concernant la solvabilité des emprunteurs. Ces officines de renseignement créent des fiches dossiers (bientôt transformés en fichiers) sur les individus à partir de sources d’information diverses : examens systématiques des faits divers des journaux, décisions de justice (divorce, faillite, escroquerie), enquêtes de voisinage. Ancrées au départ sur des espaces locaux, ces entreprises sont sollicitées très vite sur des aires géographiques de plus en plus étendues (afin de répondre à la mobilité des populations), ce qui les pousse à se regrouper. Ce secteur s’industrialise rapidement, prospère et prend une extension géographique spectaculaire avec la constitution dès 1965 d’entreprises d’envergure nationale à New York et en Californie. Cette croissance s’effectue au détriment de toute rigueur (les informations sont vendues et contribuent à la prospérité de ces officines) et de toute déontologie : ainsi la chaîne de télévision CBS News démontre en direct à des millions de téléspectateurs combien il est aisé d’obtenir des données confidentielles sur des citoyens en se faisant passer pour un organisme prêteur.

17Cette extension géographique de circulation de l’information est rendue possible par l’association de diverses techniques qui connaissent des développements rapides. Pour les officines de crédit, les liens se font d’abord au niveau régional, avec la mise en commun de machines (qui restent très coûteuses), grâce à des accès à distance et des bureaux reliés en réseau, puis, au niveau national avec le couplage des ordinateurs de l’Associated Credits avec les compagnies de télécommunications. On trouve cette mise en relation de bureaux distants également entre bibliothèques qui transmettent par télécommunication les résultats de la recherche effectuée par l’ordinateur ou encore dans le projet RIRA (Reports & Information Retrieval Activities) reliant 360 procureurs répartis dans 34 bureaux à 300 collègues installés à Washington. Ces nouvelles formes de traitement de l’information doivent beaucoup au développement, depuis le début des années 1960, de techniques nouvelles liées aux ordinateurs : le temps partagé (time-sharing) permettant de partager la machine entre plusieurs utilisateurs en même temps, souvent à distance (pas trop éloignés) grâce à de nouveaux dispositifs (« télétype », équipement de couplage de communication), sans qu’il soit encore possible de lier des ordinateurs directement entre eux [19]. D’où l’association des officines avec des entreprises comme International Telegraph & Telephone, ou Western Union, mais pas le Bell System, interdit d’accès au marché informatique depuis 1956. Des applications nouvelles comme les premiers systèmes d’interrogation « en ligne » ou les services informatiques « à la tâche » (vendus par un nombre croissant de très grandes entreprises d’informatique et/ou de télécommunications) offrent l’accès à un ordinateur à des prix sans commune mesure avec celui des machines, ce qui donne un accès informatique à de nombreuses petites et moyennes entreprises ou à de grandes entreprises ayant des bureaux locaux ou régionaux dispersés sur le territoire. D’ailleurs, les experts prévoient en cette fin de décennie 1960 la distribution des services et applications informatiques, le traitement des données, sous la forme de services publics analogues au service téléphonique, tout cela avant même la réalisation du premier lien Arpanet. C. Holt recense pour 1969 quelque 132 services en temps partagé commerciaux et 115 systèmes d’ordinateurs TS reliés en exploitation (Holt, 1970).

Les bases de données de l’administration fédérale

18Au sein des organes de l’exécutif fédéral, les utilisations informatiques se multiplient. En ce milieu des années 1960, le professeur d’économie de l’Université Yale, R. Ruggles, remet au Social Sciences Research Council et au directeur du bureau du Budget un rapport, fruit des études, enquêtes, rencontres avec les divers services statistiques des ministères et agences conduites par son comité depuis 1962. C’est la réponse à la commande que lui avait passée le SSRC au début des années 1960 suite aux recommandations émises par l’AEA en 1959 concernant la sauvegarde et la réutilisation des données (Rapport Ruggles, 1965) [20]. Son objet : réfléchir à la rationalisation – notamment grâce à l’utilisation des ordinateurs – des nombreuses études et enquêtes statistiques et sociales réalisées (avec souvent des redondances) par les diverses agences fédérales et qui servent à instruire les décisions présidentielles ou celles de l’exécutif des États. Le rapport préconise la mise sur pied d’un Centre fédéral de données, censé regrouper et traiter les données récupérées par les diverses agences (du Bureau du Census à la sécurité sociale en passant par le ministère du Travail), en respectant les nécessaires précautions liées au caractère confidentiel de certaines informations. Le comité est critique envers l’Office of Statistical Standards, en charge de l’uniformisation des codes et classifications et qui cherche, entre autres, à identifier toutes les informations concernant une personne par un numéro unique (le numéro de sécurité sociale). Un OSS qui semble « débordé ». La tâche est en effet énorme : sur la suggestion du rapport Ruggles, une enquête sur les données lisibles par machines détenues par les agences fédérales et conduite par le Budget et les Archives nationales américaines parle de 28 agences fédérales, 600 corps de données, cent millions de cartes perforées et 30 000 bandes magnétiques. La décentralisation et l’éparpillement de ces collectes les rendent pour l’essentiel non réutilisables.

19L’Exécutif, en la personne du directeur de l’Office of Statistical Standards, réagit promptement en confiant à un expert du think tank Ressource for the Future, Edgar S. Dunn Jr., une nouvelle étude permettant de faire des propositions concrètes et notamment une évaluation chiffrée d’un tel centre de données. Le futur National Data Center (NDC) devrait, selon Dunn, au terme de 3 à 5 ans avoir collecté et traité quelque 20 000 bandes magnétiques avec un coût estimé entre 3 et 3,5 millions de dollars (Rapport Dunn, 1965). Ce rapport est réexaminé par un nouveau comité placé sous la présidence de Carl Kaysen, économiste de renom, alors président de l’Institute for Advanced Studies de Princeton qui remet ses conclusions en octobre 1966. Modifiant le précédent, il préconise que Bureau du Census et futur National Data Center soient placés communément sous l’autorité d’un directeur du Federal Statistical System rattaché à l’Executive Office of the President. Malgré la multiplication de prises de position allant dans le même sens, le congrès tarde à ratifier les propositions de l’exécutif. En parallèle, le Président Johnson, tout en reconnaissant les conflits réels entre « droit public à connaître et droit des individus à avoir quelque contrôle sur le flux d’informations personnelles détenues par le gouvernement », signe en 1966 le Freedom of Information Act (FOIA) qui établit la liberté de circulation des informations. Celle-ci est toutefois limitée par un nouveau droit d’accès statutaire aux informations détenues par les administrations [21].

L’émergence d’un débat public sur la fragilisation de la vie privée (1964-1967)

20Nous n’avons guère trouvé de prises de position touchant aux questions de confidentialité des données dans les revues examinées avant les années 1960. Cela semble tenir aux traditions bien ancrées dans les procédures des Agences gouvernementales, dont le Census Bureau est le modèle. À cela, il convient d’ajouter l’importance dans la tradition états-unienne de la gestion par jurisprudence. C’est d’ailleurs une décision de la Cour Suprême en 1961 qui provoque une réflexion dans The American Statistician. Les questionnaires du Census, remplis et complétés par les compagnies privées, donnaient lieu depuis quelques années à des copies conservées par ces dernières. Or la Cour décide que ces copies, considérées tacitement comme confidentielles, tant par l’Administration que par les compagnies, peuvent être versées, voire exigées comme pièces dans le cadre d’un procès (une poursuite antitrust en l’occurrence). Cela produit un certain émoi chez les statisticiens qui considéraient que c’était le système statistique fédéral tout entier qui se voyait mis en péril. Une telle décision risquait en effet de casser la confiance établie de longue date entre le Census et les entreprises. Ce différent finit par être tranché directement par le Président Kennedy qui annula la décision de la Cour Suprême (Corcoran, 1963). Il s’est agi là de l’un des rares rappels que les données des sciences sociales sont aussi des grandeurs liées aux rapports sociaux, et qu’elles ne sont rien sans la confiance. Autre exemple, le Dr Hamming, un informaticien des Bell Telephone Laboratories, se demande à ce titre « comment être sûr que toutes les données collectées par la Sécurité sociale, les impôts, les compagnies d’assurance… et mises en machine serviront bien les individus ? » (Hamming, 1962).

21Les premières critiques et inquiétudes proviendront de la presse et de deux livres publiés en 1964 – The Naked Society, de Vance Packard et The Invaders of Privacy, de Myron Brenton. Moins connus que les ouvrages de Mc Luhan ou de Clarke qui popularisent peu avant la venue d’un monde numérique nouveau et enthousiasmant, ces deux livres connaissent un succès de librairie certain. Comme les titres des ouvrages le suggèrent, ces prises de position traitent des menaces engendrées par les nouvelles machines et les nombreux dispositifs inventés à cette époque en termes d’atteinte à la vie privée. Cette même année 1964 voit The New York Times révéler l’une des premières ventes de données [22]. Au même moment, une enquête est lancée par le sénateur Ervin – le responsable de la commission Justice du Sénat –, à la suite de plaintes d’employés du gouvernement, qui se plaignent de la multiplication des expérimentations psychologiques utilisant des machines nouvelles se transformant en systèmes d’évaluation (détecteurs de mensonges, Polygraph). Cette enquête sera suivie en 1965 par des auditions parlementaires organisées, en coopération avec le sénateur Ervin, par le député démocrate C. E. Gallagher. Mais rapidement Gallagher élargit l’ordre des questions à l’ensemble des atteintes à la vie privée, y compris autour du thème de l’informatique et de la vie privée. La liste des contributeurs aux auditions s’élargit : sont invités, entre autres, les auteurs des trois rapports (Ruggles, Dunn, Kaysen), des représentants de l’exécutif, les responsables de diverses agences, des universitaires, des responsables de grandes entreprises directement concernées (IBM, Rand Sperry, Credit Data Corp.), le directeur de l’Atomic Energy Committee, des experts (Paul Baran, Rand), des membres de la « société civile », ainsi que des représentants d’associations (Gallagher, 1965). Ces auditions rendent publiques des réalités jusqu’alors cachées ou peu connues, que couvrent largement les médias nationaux ou locaux [23]. Cette démarche se fait au nom de la notion de « vie privée » (Privacy), une notion juridique ancienne aux États-Unis visant à protéger l’individualité des citoyens et des collectifs par rapport aux gouvernements des États et surtout de l’État fédéral [24]. Dès lors, tous les débats autour de la multiplication de dispositifs nouveaux permettant la surveillance des populations au rôle social attribué aux nouveaux tests psychologiques et aux bases de données et autres projets et programmes informatiques sont conduits systématiquement sous l’angle de la « vie privée », sans qu’un consensus ne s’établisse sur la définition juridique cette notion.

Les réflexions fondatrices d’Alan Westin

22Mais le débat ne devient pleinement public, nous semble-t-il, qu’avec le livre du juriste Alan F. Westin, Privacy and Freedom, publié en 1967, un des ouvrages les plus cités jusqu’à aujourd’hui sur ces questions. Selon lui, l’essor des technologies et la production de masse des « gadgets » électroniques change assez radicalement la donne quant à la vie en société : les technologies de l’écoute et de la surveillance optique (micros et appareils photo miniaturisés) ; celles cherchant à fouiller les « données » psychologiques et/ou inconscientes (les détecteurs de mensonges et Polygraph) ; les technologies permettant l’extraction et la divulgation d’informations numériques concernant les individus et les entreprises. Les années d’après guerre sont évidemment un temps particulièrement marqué par la suspicion, la crainte de l’espionnage. Les figures de Big Brother et de James Bond sont omniprésentes. La démarche de Westin qui rapporte une très grande quantité d’enquêtes, d’investigations précises et très bien documentées peut être qualifiée d’anthropologique. De plus, la qualité du livre tient à sa confection collective. Il est le résultat abouti d’une enquête lancée dès 1959 à l’initiative du comité « Science et Loi » de l’Association du barreau de la ville de New York sur le modèle d’une étude analogue visant, dix ans plus tôt, l’énergie atomique. Multipliant les échanges tant avec diverses disciplines scientifiques qu’avec de nombreux barreaux traditionnels, ce comité s’intéresse, au-delà des questions juridiques, « aux relations entre l’homme, la science et la société » comme le précise Oscar M. Ruebhausen, président du comité Science et Loi (Westin, 1967). Cette réflexion se transforme en étude plus formelle en 1962 avec le soutien de la Fondation Carnegie et la constitution d’un groupe d’étude sous la direction du professeur (Public Law and Government) de Columbia University Alan F. Westin. Des moyens financiers et humains importants sont mobilisés : une quarantaine de consultants et/ou universitaires, une conférence nationale organisée en 1964 et diverses études spécifiques telle celle conduite en 1963 par la firme de consulting BBN sur les nouvelles technologies [25].

23Westin résume la propension croissante à la surveillance à six tendances fortes : la collecte systématique d’information et la conservation des enregistrements et des documents ; le développement des systèmes (publics et privés) d’investigation dont la fonction est d’amasser des dossiers personnels sur des millions de personnes ; l’automatisation générale de la collecte des dossiers accélérée par l’arrivée des ordinateurs ; la multiplication des programmes publics d’enquêtes conduisant à l’accumulation de toujours plus de données personnelles ; les développements de la science informatique qui conduit au partage croissant des données ; l’entrée dans une nouvelle ère caractérisée par le remplacement progressif de tous les échanges financiers par des transactions traitées via le traitement de données. Cette partie de l’ouvrage est autant prémonitoire que basée sur des exemples concrets réels – il s’agit d’un processus tendanciel qui n’en est qu’à ses tout débuts – ses conclusions n’en sont pas moins fortes : 1) la surveillance des transactions par enregistrements et stockage des documents – apanage depuis des siècles des systèmes autoritaires européens et que la jeune République américaine avait rejetée sur la base de ses principes libertaires – est maintenant installée aux États-Unis comme sous-produit de l’automatisation du traitement des données électroniques et numériques développée aux fins des services sociaux et des services publics ; 2) on ne peut stopper le processus d’informatisation : citant le professeur du MIT R. M. Fano comparant ce processus aux fleuves coulant vers la mer : « Tout ce qu’on peut faire, c’est construire des barrages, des aqueducs, contrôler les flux [26]. »

24Si le livre de Westin est important, c’est qu’il met sur la scène publique la plus large des questions de fond. Abondamment discuté dans le monde universitaire et dans les allées du pouvoir, Westin se fait aussi le porte-parole, au sein du monde savant, de la presse et de nombreuses voix qui n’appartiennent pas à l’élite de Washington, New York ou de la Californie. Il désigne trois groupes décisifs pour le changement en cours : les informaticiens (des fabricants de machines, programmeurs aux utilisateurs) ; les experts (ceux des administrations et agences d’État ou ceux des think tanks et autres institutions spécialisées) ; les chercheurs en sciences sociales. Tous ces acteurs sont enthousiastes pour s’emparer des nouvelles machines et accroître leur effectivité, pour créer toujours plus de données qui servent à gérer, à accroître le savoir, à aider à prendre des décisions, à conseiller le prince, mais aussi à faire du commerce des données, d’ensembles de fichiers vendus entre agences des gouvernements et entreprises privées, dont il donne une palette d’exemples dans les deux sens.

25Ce débat est lié à l’intrication croissante des deux logiques qui président au recueil et au traitement de données par la puissance publique : le registre et l’enquête (Desrosières, 1993, 2005). En outre, jusqu’alors, les données étaient collectées par des agences fédérales ou locales et traitées aux fins de publication de résultats sous forme agrégée (statistiques, tableaux, courbes). Le respect de la confidentialité était donc de principe et indissociable de la fabrication des résultats statistiques eux-mêmes. Bien évidemment, les échanges entre agences ou entre une agence et un utilisateur extérieur (entreprise, chercheur en science sociale…) existaient avant l’arrivée des ordinateurs. Ils s’effectuaient manuellement, ce qui laissait une réelle place à l’application des règles déontologiques ou légales. L’automatisation du traitement des données par les ordinateurs fait voler en éclats ces restrictions de la pratique, sans que ne soit posée la question de les remplacer par d’autres procédures et réduit donc le principe du respect de la confidentialité à une affirmation formelle.

Comment informaticiens et chercheurs réagissent au débat

Les auditions du Congrès

26Face aux critiques, le Congrès multiplie les auditions. Devant l’entêtement des statisticiens et administrateurs à refuser de reconsidérer leur proposition, un comité spécial de la Chambre des représentants assure que « rien ne sera entrepris pour mettre en place une banque de données nationale avant que la protection de la vie privée ne soit complètement explorée et garantie de la façon la plus large possible auprès des citoyens dont les archives personnelles alimenteraient une telle base » (House Committee, 1968). D’ailleurs, le débat ne traverse pas les chambres selon les clivages traditionnels, mais produit plutôt l’inverse, un consensus vague d’attente pour des raisons tout à fait opposées (Laughlin, 1968).

27En revanche, nous n’avons trouvé qu’assez peu de réactions immédiates qui prennent le débat au sérieux du côté des acteurs tant des experts, des informaticiens que des universitaires et notamment de ceux des sciences sociales dont on s’attendrait à les voir enrichir le débat. Du côté des experts, P. Baran qui représente la Rand souligne à quel point les nouvelles machines changent la donne et combien les « banques de données » mélangeant informations personnelles et publiques sont susceptibles d’avoir un impact. Lors de son audition, il multiplie les points de vue arrêtés : c’est dès la conception des machines qu’il faut se poser les problèmes ; aucune mesure de sécurité technologique ou administrative ne peut assurer l’intégrité et la protection des données dans un système ; il ne croit guère aux pistes invoquées pour assurer la sécurité et surtout pas à la régulation étatique – ce type d’agence recrute des personnels hautement qualifiés à leur lancement mais les renouvelle au bout d’un certain temps par des experts venant de l’industrie contrôlée ; il s’étonne du peu de travaux trouvés concernant la sécurité des ordinateurs ; il souligne également les transformations des télécommunications. Autre exemple, il explique qu’à partir des données enregistrées de la compagnie American Air Lines (système SABRE) et avec une petite équipe d’experts, on peut reconstituer la liste des passagers d’un vol, avec qui ils voyageaient – Baran appelle cela « inferential relational retrieval » (Baran, 1966). Un abord distancié… qui peut être perçu comme cynique, confirmé par un autre expert de la Rand, W. H. Ware. Ce dernier avait expliqué aux responsables de la Rand dans une note classifiée : « Parce la capacité de l’ordinateur à accepter et à corréler de l’information issue de fichiers ou de banques de données très grandes existera, cela rendra possible une surveillance personnelle et sociale par une agence élue pour le faire. La profondeur de la surveillance pourrait surpasser la simple intrusion dans la vie privée » (Ware, 1965). Le problème de la protection des données personnelles s’avérerait plus complexe que celui du secret militaire car il impliquait de nouvelles classifications en fonction de la sensibilité de l’information (Ware, 1967).

Les hésitations des sciences sociales

28On ne devait relever que très peu d’échos du côté des sciences sociales, malgré le rôle incontournable joué par les économistes, les behavioral scientists, les statisticiens ou les sciences politiques. Elles ont toutes une orientation majoritaire vers une démarche empirique, ce qui se traduit par la croissance continue de données accessibles et la possibilité pour les universitaires, pour leurs étudiants ou pour tous ceux (experts divers) qui en font la demande, d’accéder à toutes les sources, nationales ou locales, celles du gouvernement, des agences ministérielles ou des enquêtes et recensements réalisées par le Bureau du Census. Deux réactions nous semblent significatives. La première est due à deux sociologues, Saywer et Schechter. À leurs yeux, l’intérêt d’un National Data Center est évident, souhaitable. Mais, compte tenu du fait que les chercheurs en sciences sociales sont à l’origine du projet de création d’un tel centre, ils exhortent leurs collègues à prendre leurs responsabilités : « Maintenant, il est temps pour les chercheurs en sciences sociales de reconnaître pleinement la menace potentielle à la vie privée, d’envisager les protections possibles et d’agir pour assurer leurs créations. » Et de conclure : « Il est particulièrement important, toutefois, que des standards complets de protection de la vie privée soient établis avant que le centre n’entre en exploitation » (Sawyer et Schechter, 1968).

29Le second article est dû à un juriste de renom, Arthur R. Miller, professeur à Harvard, qui reprend son témoignage fait lors des auditions de 1966 en systématisant ses réflexions, en élargissant les sources de mise en danger de la privacy et en donnant, avec l’aide d’étudiants, une somme impressionnante de références (Miller, 1969). Sans en refuser la création, il souligne tous les dangers d’un National Data Center : en distinguant les pratiques réelles d’agences anciennes (Census) ou plus récentes et certaines pratiques non encadrées ; en quoi la mise en base numérique des informations et leur traitement change la nature même des informations conservées jusqu’alors sous forme de registres papiers ou d’enregistrements mécanographiques. Mais, de plus, les nouveaux traitements et services d’information (TS) introduisent de nouveaux dangers quand à la sécurité des données et à la confidentialité : possibilité pour un utilisateur d’accéder, par une erreur de la machine ou de la programmation, aux données d’un autre utilisateur, possibilité pour un utilisateur performant et malveillant de pénétrer dans les registres d’un autre [27]. « L’ordinateur doit être considéré comme un réseau de communications », affirme-t-il (Miller, 1968). Apparaissent enfin des réflexions méthodologiques quant à la sécurité et la protection dans une « société basée sur l’information » et une première recherche d’une structure légale (les pistes conduisent au droit de propriété, aux trusts de l’information, au législatif ou à la régulation de l’Administration fédérale). Pour Miller, il faut « équilibrer l’intérêt de l’efficacité (incarné par le National Data Center), et, plus généralement, le besoin se fait sentir d’« une perspective large quant à la régulation des flux d’informations ». C’est une thématique qui va devenir centrale dans les années suivantes [28].

Les informaticiens lancent le débat public

30Du côté des informaticiens les inquiétudes du grand public reçoivent un accueil plus sérieux. Dès juin 1969, la revue des principales compagnies informatiques, regroupées dans l’Association for Computing Manufactory (ACM) publie un Computing Surveys qui se présente comme un regard national sur le secteur informatique à travers deux enquêtes centrales plus ou moins contradictoires. Ces papiers sont importants, tant par la qualité reconnue des auteurs que par le fait qu’ils représentent une prise de position publique de la profession et une critique « ouverte » de l’exécutif. En cette fin des années 1960, il y a maintenant un grand nombre de « systèmes multi-plate-forme, en ligne et en temps partagé » dans les mondes académiques et commerciaux et l’on va à grands pas vers une infrastructure publique (analogue aux chemins de fer ou au téléphone). Les réseaux actuels souffrent d’un manque de garanties par rapport à la protection des données sensibles. « Mais le bénéfice de l’automatisation des grandes banques de données est si grand que la pression de nombreux milieux va dans le sens de l’injonction à l’informatisation. » La question de la vie privée menace la crédibilité de l’industrie informatique qui ne peut se développer sans la confiance du public. Se référant au sénateur Erwin, Hoffman assure que « la menace concernant la vie privée vient des motivations des dirigeants politiques, de l’ingénuité des manageurs et de la négligence des acteurs techniques ». Une industrie qui se sent trop peu concernée (Hoffman, 1969). Et d’énumérer les nombreuses pistes de travail dont la plupart vont constituer la matière des travaux du Data Base Task Group mis sur pied en 1969. Mais c’est surtout la connexion des bases de données et des systèmes en temps partagé qui devient cruciale : « Les systèmes en temps partagé s’appuient beaucoup sur la possibilité de stocker des volumes importants de programmes et de données. Sans ces fichiers, le temps partagé n’est pas possible » (Dorn, 1969). Un déplacement pour l’industrie informatique aussi : le magazine Think publié par IBM consacre son numéro de mai-juin 1969 à la vie privée avec des articles des juristes et des économistes experts les plus en vue (Westin, Ruggles et Miller) et en octobre, l’American Computing Machinery organise le premier symposium sur l’optimisation des systèmes de communication de données, au cours duquel plusieurs interventions posent la question de la régulation, voire de l’autorégulation de l’industrie informatique et/ou des communications (Grenier, 1969).

Conclusion

31Ainsi, à l’orée des années 1970, des registres de données, des pools de fichiers, des banques de données pouvant contenir des quantités énormes de données, des informations sur des millions d’individus, de familles, sur des milliers d’entreprises, existent ou sont en cours de déploiement à un rythme accéléré. Une question épineuse posée frontalement dès avant le développement des réseaux de masse contemporains. Ce récit permet de mettre en évidence, pensons-nous, des questions et des phénomènes attribués à des périodes bien postérieures.

32Particulièrement valorisés dans les innovations les plus récentes (Internet, téléphones portables), les utilisateurs sont déjà là en cette décennie 1960. Provenant de milieux scientifiques, industriels et/ou administratifs (de l’échelon fédéral à celui des municipalités), ils s’emparent progressivement des nouvelles machines (mécanographiques et progressivement des ordinateurs et des systèmes de communication couplés).

33Ces innovations se développent dans un monde où des choses existent (registres, collections-archives de cartes perforées). Les règles, les façons de faire qui sont en place, notamment pour le respect des principes déontologiques concernant le traitement des données privées deviennent caduques. L’automatisation très rapide, poussée par la très grande majorité des acteurs, qu’ils soient du secteur public ou privé, crée un vide.

34Ce vide est cependant relatif, car dès cette époque apparaît ce que l’on attribue souvent plutôt aux années 1980, des acteurs de la « société civile », portés fortement sur la place publique par une presse, par des médias qui ne semblent pas complètement verrouillés. On peut même souligner combien A. Westin pose la question des effets politiques de l’innovation technique, à savoir que la protection, le respect de la Privacy, individuelle et collective, est au cœur du fonctionnement de la démocratie : son long développement sur les divers niveaux de régulation possible – constitutionnel, législatif et/ou juridique (jurisprudence) – en témoigne, tout comme sa mise en évidence du développement croissant de la société de surveillance.

35Enfin, dernier point quelque peu surprenant : l’essor très précoce des pratiques de commercialisation des registres, dans les deux sens : des administrations vendant leurs banques de données à des entreprises et achetant les fichiers des officines de crédit ou d’associations municipales gérant des populations immigrées.

36Le débat public, bien oublié, est suffisamment vif pour qu’il se traduise par un blocage systématique de l’Exécutif par le Congrès pendant une décennie, par des dizaines d’auditions, par de très nombreux articles et colloques scientifiques, puis par des lois dans la plupart des pays avancés durant les années 1970 [29].

Bibliographie

Références

  • ABBATE J., 1999, Inventing the Internet, Cambridge (Mass), MIT Press.
  • AGAR J., 2003, The Government Machine: a revolutionary history of the computer, The MIT Press, Cambridge (Mass.)
  • BARAN P., 1966, « Testimony of Paul Baran, computer expert with the Rand Corporation in House Hearings on the Computer and Invasion of Privacy », 119-135.
  • BARAN P., 1968, « On the Future Computer Era: Modification of the American Character and the Role of the Engineer or A Little Caution in the Haste to Number », Rand P-3780, Santa Monica (Cal).
  • BELLMAN R., 1964, « Science, technology and the automation explosion », Rand, Note P-2908.
  • BENNETT C. J., 1992, Regulating Privacy. Data Protection and Public Policy in Europe and the United States, Cornell University Press.
  • BISCO R. L. (1964), « Information Retrieval from Data Archives: The ICPR System », in Borko et Doyle (1964).
  • BORKO et DOYLE (Eds.), 1964, « Information Retrieval in the social sciences: Problems, Programs and Proposals », American Behavioral Scientist, vol. 7, n° 10, pp. 1-70 ; « The Changing Horizon of Information Storage and Retrieval », American Behavioral Scientist, vol. 7, n° 10, pp. 3-10.
  • BOWMAN R. T., 1957, « Improvement of Federal Statistics », The American Statistician, vol. 11, n° 2, pp. 18-21.
  • CAMPBELL-KELLY M., 2003, From Airlines Reservations to Sonic the Hedgedog, Cambridge (Mass.), MIT Press.
  • CERUZZI P. E., 1998, A History of Modern Computing. (2d Ed.), Cambridge (Mass.), MIT Press.
  • CLIPPINGER R.F., B. DIMSDALE, J. H. LEVIN, 1954, « Automatic Digital Computers in Industrial Research », Journal of the Society for Industrial and Applied Mathematics, vol. 2-1, 2, 3.
  • COCHOY F., 1999, Une histoire du marketing, Paris, La Découverte.
  • CORCORAN T. F., 1963, « On the Confidential Status of Census Reports », The American Statistician, vol. 17, n° 3, pp. 33-40.
  • DAHAN A., D. PESTRE (Eds.), 2003, Les Sciences dans et pour la guerre. Paris, EHESS.
  • DESROSIÈRES A., 1993, La politique des grands nombres. Histoire de la raison statistique, Paris, La Découverte.
  • DESROSIÈRES A., 2005, « Enquêtes versus registres administratifs : les deux sources de la statistique. », Genèses, vol. 58, pp. 4-27.
  • DORN W. S., 1969, « Editor’s Preview », Computer Surveys, vol. 1, n° 2, pp. 81-86.
  • DUNCAN J. W. et W. C. Shelton, 1978, Revolution in United States Government Statistics. 1926-1976, US Department of Commerce/Office of Federal Statistical Policy and Standards.
  • EDWARDS P., 2010, The Vast Machine: Computer, Climate Data, and the Politics of Global Warming, Cambridge.
  • Federal Communications Commission (FCC), 1966, « In the Matter of Regulatory and Policy Problems Presented by the Interdependance of Computer and Communication Services and Facilities », Docket n° 16979.
  • FLAMM K., 1988, Creating the Computer. Government, Industry & High Technology, Washington, the Brookings Institution.
  • FLICHY P., 2001, L’imaginaire Internet, Paris, La Découverte.
  • FREED R. N. 1962, « Your Computer… », Management Review, sept. 1962.
  • GALLAGHER E. G., 1965, « Why House Hearings on Invasion of Privacy », American Psychologist, vol. 20, pp. 881-882.
  • GARDEY D., 2008, Écrire, calculer, classer, Paris, La Découverte.
  • GEDA C. L., 1979, « Social Science Data Archives » The American Archivist, 42-2, pp. 148-166.
  • GRENIER E. J. Jr, 1969, « Computer and Privacy: A Proposal for Self-Regulation », Proceeding of the First ACM Symposium on Problems in the Optimization of Data Communication Systems. pp. 231-269.
  • HAHN T. B., 1996, « Pioneers of the Online Age », Information Processing & Management, vol. 32, n° 1, pp. 33-48.
  • HAIGH T., 1997, « A Veritable Bucket of Facts »: Origins of the Data Base Management System, 1960-1980.
  • HAIGH T., 2001, « Inventing Information Systems: The Systems Men and the Computer, 1950-1968. », Business History Review, vol. 75, n° 1, pp. 15-61.
  • HAMMING R. W., 1962, « Man and the Computer », Symposium of American Association for the Advancement of Science.
  • HOFFMAN L. J., 1969, « Computers and Privacy: A Survey », Computing Survey, vol. 1, n° 2, pp. 85-103.
  • HOLT C. C., 1970, « A System of Information Centers for Research and Decision Making », The American Economic Review, vol. 60, n° 2, pp. 149-165.
  • HORN R. A., 1957, « A Quantitative Study of Judicial Review », Political Research, Organization and Design: PROD, vol. 1, n° 1, pp. 27-30. PROD devient American Behavioral Scientist en 1960.
  • House Committee on Government Operations, privacy and the national data bank concept, 1968, H.R. rept. no. 1842, 90th cong., 2d sess. 14.
  • HUGHES T. P., 1998, Rescuing Prometheus, New York, Vintage Books.
  • IEEE, 2009, IEEE Annals of the History of Computing, 2009, vol. 31, n° 4, avec des articles de C. Bachman, T. J. Bergin, R. L. Brueck, B. Grad, T. Haigh, J. M. Kruntorad, J. M. Maguire, T. M. Nies, R. L. Patrick, O. Stevens Jr.
  • LAUGHLIN S. K. Jr., 1968, Michigan Law Review, vol. 66, n° 5, pp. 1064-1075.
  • LUCCI Y., 1957, « A center for Survey Research Materials », Political Research, Organization and Design : PROD, vol. 2, n° 1, pp. 3-7.
  • LUCCI Y., S. ROKKAN, 1957, A Library Center of Survey Research Data, New York, Columbia University.
  • MCGEE W. C., 1981, « Data base Technology », IBM Journal of Research & Development, vol. 25, N° 5.
  • MATTELART A., 2001, Histoire de la société de l’information, Paris, La Découverte.
  • MILLER A. R., 1969, « Personal Privacy in the Computer Age: The Challenge of a New Technology in an Information-Oriented Society », Michigan Law Review, vol. 67, n° 6, pp. 1089-1246.
  • NEUFELD M. L. et M. CORNOG (1986), « Database History: From Dinosaurs to Compact Discs », Journal of the American Society of Information Science, vol. 37, n° 4, pp. 183-190.
  • OLSEN A., 1964, Hearings, cité par Westin (1967, p. 309).
  • PESTRE D., 2013, À contre-science. Politiques et savoirs des sociétés contemporaines, Paris, Seuil.
  • QUERE L., 2000, « Au juste, qu’est-ce que l’information ? », Réseaux, vol. 18, n° 100, pp. 331-357.
  • Rapport Dunn, 1965 (déc.), Review of proposal for a national data center. Statistical Evaluation Report n° 6, U.S. Bureau of Budget/OSS.
  • Rapport Kaysen, 1966 (Oct.), Report of the Task Force on the Storage of and Access to Government Statistics, Bureau of the Budget.
  • Rapport Ruggles, 1965, Social Science Research Council, Report of the Committee on the Preservation and Use of Economic Data to the Social Sciences Research Council.
  • ROWE J. S., 1982, « Expanding Social Science Reference Service to Meet the Needs of Patrons More Adequately », Social Science Reference Service, 1982, pp. 327-333.
  • RULE J., D. MACADAM, L. STEARNS, D. UGLOW, 1980, The Politics of Privacy: Planning for Personal Data Systems as Powerful Technologies, New York, Elsevier.
  • SAWYER J., H. SCHECHTER, 1968, « Computers, Privacy, and the National Data Center: the Responsibility of Social Scientists », American Psychologist, vol. 23, pp. 810-818.
  • WARE W. H., 1965, « Future Computer Technology and its Impact », Rand, note P-3279 (declassified).
  • WARE W. H., 1967, « Security and Privacy in Computer Systems », Rand, note P. 3544.
  • WIESNER J. B., 1964, « Federal Research and Development : Policies and Prospects », American Psychologist, vol. 19, n° 2, pp. 90-101.
  • WESTIN A. F., 1967, Privacy and Freedom, New York, Atheneum.
  • WESSEL M. R., 1965, « Legal Protection of Computer Programs », Harvard Business Review, vol. 43, 97-106.
  • YATES J., 2005, Structuring the Information Age: Life Insurance and Technology in he Twentieth Century, The John Hopkins Univ. Press.

Notes

  • [1]
    On pense au site Wikileaks qui a défrayé la chronique en 2012. Mais le récent rapport Norton (www.norton.com/cybercrimereport), par exemple, s’intéresse aux simples internautes et ses chiffres sont éloquents par leur ordre de grandeur : des centaines de millions d’internautes sont victimes de divers dégâts (virus, vols, usurpation d’identité…) dans le monde… (même si ces chiffres doivent être pris avec précaution, cette entreprise vend des outils censés protéger les internautes).
  • [2]
    Cet article sera suivi d’un second portant sur les années 1970 et explicitant la mise sur pied concomitante des bases de données, des réseaux de données et du commerce des données.
  • [3]
    Un récent numéro de la revue de l’IEEE, bien documenté par des historiens et d’anciens acteurs importants de l’époque, attribue de façon quasi unanime l’essor des systèmes de gestion des bases de données (DBMS) qui vont largement dominer le marché US et international dans les années 1970 et 1980, à la mise sur pied d’un groupe spécial ad hoc (Data Base Task Group) en 1969 chargé d’entraîner les grandes compagnies fabricantes (IBM, Honeywell, Sperry-Rand…), mais aussi ce que Campbell-Kelly appelle les « contractors » et autres, à se mettre d’accord sur un certain nombre de concepts permettant de construire solidement de telles bases de données.
  • [4]
    Cf. E. Dagiral, « Esquisse d’une sociologie historique des bases de données » (non publié). Notre travail s’inscrit et a bénéficié des réflexions du séminaire du groupe Basicom (notamment animé par P. Flichy, S. Parasie, A. Peerbaye, E. Dagiral). Que tous les participants (que nous ne pouvons pas tous citer) soient remerciés.
  • [5]
    Nous regardons ici la façon dont des acteurs divers (des sciences, des administrations) recueillent, produisent des informations qu’ils traitent sous forme de données numériques, une acception évidement réductrice du concept « information », comme L. Quéré l’a très bien montré (Quéré, 2000).
  • [6]
    Nous traduisons ici le concept de privacy par « vie privée », ce qui est réducteur comme nous aurons l’occasion de le montrer (notamment dans la partie 4).
  • [7]
    Cette dimension sera traitée dans un autre article. Des réflexions bien alimentées par un autre séminaire « Le Gouvernement et l’administration des techno-sciences à l’échelle globale (1945-2011) » du Centre Koyré, animé par S. Boudia, A. Dahan, J.-P. Gaudillière, N. Jas, D. Pestre et S. Topçu. Qu’ils en soient remerciés.
  • [8]
    Outre les deux références citées voir Geda (1979) et Rowe (1982). Croisement avec le Pool Minnesota, l’Institut für Demoscopie lié à l’université de Francfort, l’IFOP (Institut français d’opinion publique) en lien avec les Archives de France…
  • [9]
    Michigan Law Review, 1967, « Computers: The Use of Data Processing in Legal Research », 987-994. On notera sur cet exemple le couplage qui se développe entre ordinateurs et machines de photocomposition.
  • [10]
    Évidemment, un ordinateur dans un centre militaire sert d’abord à faire les calculs nécessités par les nouvelles armes, avions, missiles, mais il permet aussi de produire les fiches de paie et est utilisé dans la gestion du personnel.
  • [11]
    Pour plus de détails sur les projets logiciels en train d’émerger en tant que tels, voir, outre les deux historiens cités, les travaux de Hahn ou les souvenirs de Mc Gee (Mc Gee, 1981 ; Hahn, 1996).
  • [12]
    A. W. Macmahon, 1955, « Review », The American Political Science Review, vol. 49-3, pp. 857-863. Compte rendu des rapports détaillés de cinq universités (Chicago, Harvard, Ann Arbor-Michigan, North Carolina, Stanford) quant à l’état d’avancement des Behavioral Sciences en leur sein, conclusions d’enquêtes approfondies suscitées et financées par la Fondation.
  • [13]
    Voir les volumes 50-4 et 50-5 (1960) de The American Economic Review qui publient une série d’articles sur ces thèmes.
  • [14]
    Voir le dossier de The American Economic Review, vol. 52-2, de 1962.
  • [15]
    Un mouvement qui touche au même moment les pays d’Europe (Agar, 2003).
  • [16]
    Cf. Borko et Doyle (1964). Le projet de SDC s’intitule « Information Retrieval and Linguistics Project ».
  • [17]
    J. Becker, « Demonstrating Remote Retrieval by Computer at Library », ALA Bulletin, Vol. 58, No. 9 (October 1964), pp. 822-824 ; « Circulation and the Computer », ALA Bulletin, Vol. 58, No. 11 (December 1964), pp. 1007-1010 ; « System Analysis – prelude to library data processing », ALA Bulletin, Vol. 59, No. 4 (April 1965), pp. 293-296.
  • [18]
    Il conviendrait de poursuivre l’enquête du côté des banques et du secteur financier, univers peu présent dans les analyses de l’époque (que nous avons consultées), qu’elles émanent de sociologues, d’économistes, de juristes, etc.
  • [19]
    De nombreux travaux vont dans ce sens, à commencer par ceux de P. Baran, un expert de la Rand, en 1962, suivis de ceux de Licklider, mais ils restent essentiellement théoriques. Ils seront bientôt repris par les réseaux d’entreprises et dans les projets conduisant à Arpanet à la fin des années 1960. Voir entre autres Abbate (1998).
  • [20]
    Ces travaux des économistes au début des années 1960 vont aussi se traduire par le livre de F. Machlup qui révèle en 1962 pour la première fois la part majoritaire de l’activité aux États-Unis consacrée au traitement de l’information au sens large (Mattelart, 2001).
  • [21]
    En fait, cette loi FOIA vise essentiellement à corriger le paragraphe 3 de la procédure administrative dont la rédaction par trop générale et vague permettait aux administrations et agences des comportements jugés comme des abus de pouvoir quant à la non-divulgation de documents qu’elles détiennent.
  • [22]
    The New York Times, 20 juin 1964, cité in Westin.
  • [23]
    Plusieurs centaines d’articles paraissent sur le sujet dans de nombreux journaux (New York Times, Washington Post, Wall Street Journal, Newsweek, Forbes, Time, The New Republic, The New Yorker, Playboy, etc.).
  • [24]
    Notamment aux Premier, Cinquième, Neuvième et Quatorzième amendements. Cf. « Testimony Before House Special Subcommittee on Invasion of Privacy of The Committee on Government Operations », American Psychologist, nov. 1965, vol. 20, pp. 955-988.
  • [25]
    Bolt, Baranek et Newman, la même qui participe à la réalisation d’Arpanet un peu plus tard.
  • [26]
    Westin, op. cit. p. 326.
  • [27]
    Cf. l’exemple donné d’étudiants du MIT (projet MAC) qui pénètrent les données du gouvernement, et récupèrent notamment des informations d’un site du Strategic Air Command (Miller, 1969).
  • [28]
    Cf. Mattelart (2001), p. 65. Mais surtout les travaux de l’OCDE des années 1970 autour du « Free Flow of Information ».
  • [29]
    À suivre dans un prochain article. Un travail qui doit beaucoup au service de documentation du Latts : un grand merci à C. Quetier.
bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Avec le soutien de

Retrouvez Cairn.info sur

18.97.14.86

Accès institutions

Rechercher

Toutes les institutions