Couverture de PE_122

Article de revue

Internet, sociétés civiles et gouvernements : cohabitation ou choc des cultures ?

Pages 263 à 275

Notes

  • [1]
    Ces idées ont été largement popularisées par John Perry Barlow dans sa « Déclaration d’indépendance du cyberespace » : « Ô gouvernements du monde industriel, géants fatigués de chair et d’acier, je viens du cyberespace, la nouvelle demeure de l’esprit. Au nom de l’avenir, je vous demande, vestiges du passé, de nous laisser seuls. Vous n’êtes plus les bienvenus parmi nous. Vous n’avez point de souveraineté là où nous nous rassemblons. » Et d’affirmer : pour les cybercitoyens, « l’identité ne s’ancre pas dans un corps, nous ne pouvons donc, comme vous, faire régner l’ordre par la force. Notre gouvernance, c’est notre conviction, naîtra de l’éthique, de l’intérêt individuel éclairé et du bien commun. » Cyber Right Electronic List, 8 février 1996, disponible sur <https://projects.eff.org/~barlow/Declaration-Final.html>.
  • [2]
    L. Lessig, Code and Other Laws of Cyberspace, New York, Basic Books, 1999, p. 6.
  • [3]
    Voir, entre autres : M. Castells, La Galaxie Internet, Paris, Fayard, 2001 ; L. Lessig, L’Avenir des idées : le sort des biens communs à l’heure des réseaux numériques, Lyon, Presses universitaires de Lyon, 2005 ; M. Mueller, Ruling the Root: Internet Governance and the Taming of Cyberspace, Cambridge, MA, MIT Press, 2002 ; B.D. Loader (dir.), The Governance of Cyberspace, Londres, Routledge, 1997 ; S.J. Drucker et G. Gumpert, Real Law and Virtual Space: Regulation in Cyberspace, Cresskill, NJ, Hampton Press, 1999 ; F. Cairncross, The Death of Distance: How the Communication Revolution is Changing our Lives, Cambridge, MA, Harvard Business School Press, 1997 ; W. Kleinwächter, Global Governance in the Information Age, Aarhus, The Centre for Internet Research, 2001.
  • [4]
    La réalité est plus complexe, dans la mesure où tous les serveurs racines obtiennent leurs données auprès d’un superserveur racine « caché », géré par la société VeriSign, dans le cadre d’un contrat avec le département du Commerce des États-Unis ; toute modification des entrées dans ce superserveur doit être approuvée par le département du Commerce qui contrôle donc les entrées de l’ensemble des serveurs racines.
  • [5]
    A. Toffler, Les nouveaux pouvoirs : savoir, richesse et violence à la veille du xxie siècle, Paris, Fayard, 1991, p. 20-21.
  • [6]
    Commission des Nations unies sur la gouvernance mondiale, Our Global Neighbourhood: The Report of the Commission on Global Governance, Oxford, New York, Oxford University Press, 1995.
  • [7]
    OCDE, La Gouvernance au xxie siècle, Paris, 2002.

1Internet et sa gouvernance pourraient bien devenir l’objet de débats majeurs ces prochaines années. Plus de 2 milliards d’êtres humains sont aujourd’hui connectés. Chaque année, plusieurs milliers de milliards de dollars sont échangés lors de transactions commerciales en ligne, alors que la Toile est devenue une ressource stratégique dans les luttes de pouvoir nationales et internationales. Des acteurs politiques majeurs comme le G8, les Nations unies, la Commission européenne, l’Organisation de coopération et de développement économiques (OCDE), le Conseil de l’Europe, le groupe de Shanghai, l’IBSA (Inde, Brésil, Afrique du Sud), l’Union internationale des télécommunications (UIT), l’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO), l’Organisation mondiale de la propriété intellectuelle (OMPI), l’Organisation mondiale du commerce (OMC) ont investi l’univers du Web, jusque-là dominé par des organisations privées non gouvernementales comme l’Internet Corporation for Assigned Names and Numbers (ICANN), les Regional Internet Registries (RIR), l’Internet Engineering Task Force (IETF), l’Internet Society (ISOC), le World Wide Web Consortium (W3C), l’Institute of Electrical and Electronic Engineers (IEEE), etc.

2En même temps que se développe un écosystème Internet mondial, où un nombre croissant d’acteurs intervient à des niveaux de plus en plus variés, se fait jour un choc des cultures politiques opposant pratiques traditionnelles du xxe siècle (intergouvernementalité) et pratiques innovantes du xxie siècle (pluralité des acteurs), qui va bien au-delà du conflit mondial entre démocraties et régimes autoritaires qui a dominé les dernières décennies.

3En termes simples, l’alternative est la suivante : poursuivre sur la voie d’un Internet libre et ouvert, celui qui a historiquement favorisé l’innovation, la croissance économique, le développement social et la liberté de communication ; ou prendre un virage à 180 degrés et faire le choix d’un Internet réglementé, limité, censuré et fragmenté, les politiques nationales et les intérêts commerciaux des entreprises restreignant ou étouffant les droits et libertés individuels.

4Le Web a investi toutes les sphères de notre vie. Nombre de problématiques de politique publique faisant l’objet de lois (Droits de l’homme, sécurité nationale, protection de la propriété intellectuelle, concurrence, liberté d’expression, respect de la vie privée, etc.) se retrouvent donc combinées à des problématiques technologiques liées à Internet comme les noms de domaine, les adresses IP, les serveurs racines ou les protocoles. Cela crée inévitablement un choc des cultures politiques. Traditionnellement, les choix politiques sont faits par les pouvoirs publics (dans certains cas après consultation d’acteurs non gouvernementaux) dans le cadre d’un processus descendant, partiellement fermé, fondé sur des accords entre décideurs et sanctionné par un vote à la majorité. Les pratiques ayant cours sur Internet résultent, elles, de l’engagement de divers acteurs dans un processus ouvert, transparent et ascendant et traduisent un consensus global dans lequel la décision finale n’incombe pas aux pouvoirs publics.

5Si son apparition remonte aux années 1960, Internet est resté absent pendant de nombreuses années du débat politique mondial. Le mythe des débuts – le « réseau des réseaux » constituerait un « espace virtuel » distinct du « monde réel » – a nourri l’illusion selon laquelle des politiques spécifiques seraient inutiles, le respect de la « netiquette » constituant une règle suffisante [1].

6Internet a certes élargi le champ des libertés individuelles et créé de nouvelles opportunités économiques, mais il ne s’est jamais affranchi des législations nationales et internationales. Il a aboli les barrières spatio-temporelles, rendu possible l’innovation sans permission préalable et transformé ses utilisateurs en acteurs à l’échelle mondiale ; mais la liberté sur le Net n’a jamais signifié la liberté de dérober de l’argent ou de nuire à autrui. Ce qui était illégal hors ligne n’est pas devenu légal en ligne. Cependant, Internet a développé un sous-système de réglementation propre, fondé sur des codes, protocoles, normes, règles et principes techniques et se situant plus ou moins hors du champ des réglementations étatiques.

7La Toile se distingue ainsi nettement des technologies de communication antérieures. Tandis que l’invention du télégraphe au xixe siècle ou celle de la radiodiffusion au xxe siècle avaient été suivies de l’adoption de lois sur la télécommunication et la radiodiffusion et par la négociation de traités comme la Convention télégraphique internationale de 1875 ou la Convention de Genève sur l’emploi de la radiodiffusion de 1936, aucun pays n’a adopté de loi Internet ni proposé de Convention internationale relative à Internet. Le terme de « gouvernance d’Internet », forgé au milieu des années 1990, désignait à l’origine un mécanisme de gouvernement « sans gouvernements ».

8On considérait alors que les mécanismes d’autoréglementation suffisaient à gérer le réseau Internet en pleine expansion. Et le système a plutôt bien fonctionné tant que la communauté des internautes restait restreinte et ne s’aventurait pas sur le terrain des grandes controverses politiques. Il garantissait la stabilité requise par le réseau et la flexibilité nécessaire à l’innovation.

Choix technologiques et décisions politiques : une interaction réciproque

9Aux débuts d’Internet, ces deux systèmes distincts (législations découlant de politiques publiques dans le monde réel et codification fondée sur des normes techniques dans l’espace virtuel) n’entretenaient que peu de liens, pour ne pas dire aucun. L’« internetisation » progressive de presque toutes les sphères de la vie quotidienne, alors que le nombre d’internautes passait du million au milliard, a changé la donne. Il est peu à peu devenu clair que codes et normes techniques d’Internet avaient des répercussions politiques, économiques et sociales débordant largement le petit monde des geeks et autres aficionados du Web. Le développement de cette infrastructure mondiale a créé un nouvel environnement où s’inscrivent maintenant de nombreuses questions ayant trait aux politiques publiques. L’imbrication de plus en plus étroite entre technologie, économie et politique interdit désormais d’établir une distinction franche entre « réglementation politique » (par les législateurs) et « réglementation technologique » (par les concepteurs de codes).

10Dans Code and Other Laws of Cyberspace (1999), le juriste Lawrence Lessig estime que « dans le monde réel, nous identifions la manière dont le droit réglemente – par des constitutions, statuts et autres codes juridiques. Dans le cyberespace, il nous faut comprendre comment le code réglemente, comment les logiciels et les équipements informatiques qui font du cyberespace ce qu’il est en définissent les règles de fonctionnement. » Et il poursuit : « Ce code représente à la fois une menace et un espoir majeurs pour les idéaux libéraux et libertaires. Nous pouvons construire, structurer ou coder le cyberespace de manière à protéger les valeurs fondamentales à nos yeux, ou bien nous pouvons le construire, le structurer ou le coder de manière à faire disparaître ces valeurs. Le moyen terme n’existe pas. Tout choix entraîne nécessairement une forme de construction. Le code ne se découvre pas, il se produit, et c’est nous qui le produisons [2]. »

11L. Lessig nous fait prendre conscience du fait que le mode traditionnel de prise de décisions, qui soumet les problématiques politiques à un cadre législatif national et international, est à son tour inscrit dans un ensemble de codes et de normes techniques. À l’instar des lois de la physique, la structure d’Internet détermine l’espace dans lequel les politiques publiques peuvent être élaborées et appliquées. Mais alors que les lois de la physique ne sont pas le fait de l’homme, la structure du cyberespace est déterminée par des individus et des institutions. Avec les précédentes lois sur la télécommunication et la radiodiffusion, la réglementation par les pouvoirs publics décidait de ce qui était techniquement permis et de ce qui ne l’était pas. Développer un système de communication particulier ou utiliser une fréquence libre hors législation en vigueur était illégal. Les ingénieurs veillaient à innover dans les limites de la loi. Internet change la donne, rendant possible l’« innovation sans permission préalable ». Jon Postel n’a pas demandé s’il était légal d’utiliser des noms plutôt que des chiffres pour identifier les ordinateurs. Et ni Larry Page ni Marc Zuckerberg n’ont demandé la permission de lancer un moteur de recherche ou un réseau social.

12Internet est fondamentalement un réseau de réseaux privés. Sa structure sans frontières, décentralisée, en réseau ouvert, se distingue de la structure « hiérarchisée » de la radiodiffusion et de la télécommunication. Tout internaute est à la fois émetteur et destinataire (« principe de bout en bout »). Il n’existe pas d’« autorité centrale ». La Toile et sa gouvernance sont décentralisées. De multiples groupes de concepteurs, fournisseurs et utilisateurs de services Internet gèrent des parts de cette grande infrastructure et communiquent, coordonnent et collaborent, informellement et formellement, partageant droits, devoirs et responsabilités.

13En théorie, tout réseau, parmi les centaines de milliers de réseaux qui constituent aujourd’hui Internet, pourrait faire l’objet d’une réglementation à part. Mais la valeur du Web réside dans le fait que chacun des réseaux recourt aux mêmes protocoles et codes techniques, permettant ainsi à chaque utilisateur de communiquer en temps réel avec 2 milliards d’autres internautes dans le monde et d’échanger librement textes, messages vocaux, vidéos, images et tout autre contenu disponible au format numérique. La loi de Metcalfe nous apprend que la valeur d’un réseau est proportionnelle au carré du nombre de ses utilisateurs. Autrement dit, la valeur d’Internet se chiffre en multipliant 2 milliards par 2 milliards, ce qui correspond au nombre de communications possibles sur la Toile.

14Toute politique, toute réglementation relative à Internet doit reconnaître son caractère mondial et le rôle joué par les acteurs non gouvernementaux. Mais à la question de savoir quels politiques et cadres réglementaires mondiaux doivent être développés pour garantir à la fois stabilité et flexibilité répond une large gamme de visions. Les prises de position radicales, dans un sens comme dans l’autre, et les intérêts divergents entre groupes impliqués, ou même en leur sein, rendent la situation complexe. Les concepts d’autoréglementation issus du secteur privé s’opposent frontalement aux aspirations à une forte réglementation par les pouvoirs publics, tandis qu’un large éventail de conceptions mixtes et de positions en faveur d’une corégulation s’intercale entre ces deux extrêmes [3].

15Internet est une infrastructure immatérielle. Il fonctionne certes à partir de réseaux et de serveurs physiques, géographiquement localisables et soumis à des législations nationales spécifiques ; mais les fichiers de zone des domaines de premier niveau (top level domain, TLD) dans les serveurs racines, les protocoles Internet permettant la communication entre réseaux et serveurs et les noms de domaine qui constituent en quelque sorte le « territoire du cyberespace », sur lequel de grandes sociétés comme « Ebay.com » ou « Google.com » ont fondé leurs « empires », constituent autant de ressources virtuelles sans « nationalité », ne pouvant être directement rattachées à un « lieu réel [4] ».

16Ces ressources ne sont pas seulement créatrices d’opportunités, elles sont aussi pratiquement « illimitées ». S’il ne peut exister qu’environ 4,3 milliards d’adresses IPv4, le passage à la version IPv6 nous assure de disposer d’un stock quasiment inépuisable d’identifiants numériques, permettant l’adressage de milliers et de milliers de milliards de sujets et d’objets. Les noms de domaines eux aussi, y compris de premier niveau, constituent dans une certaine mesure une ressource illimitée. Aucune barrière technologique n’interdirait qu’on ait, en lieu et place des 286 TLD existant en 2012, des milliers, voire plus encore, de TLD.

17Voilà une autre différence majeure avec les technologies antérieures : toutes les ressources de l’âge industriel – pétrole, minerais, charbon, fréquences radio, positions sur l’orbite géostationnaire – sont des ressources limitées, rattachables à un territoire contrôlé par un État déterminé. Internet est une ressource sans limites et ne se rattache pas à un territoire national. En matière de gestion, d’allocation et de gouvernance des ressources, la notion de différence entre ressources limitées et ressources illimitées est déterminante. La gestion des premières cherche à garantir leur répartition libre et équitable, dans le respect des intérêts nationaux. Celle des secondes, leur mise à disposition en temps réel pour tout individu en ayant besoin.

18Mais toutes les innovations technologiques ne résolvent pas les questions de responsabilité, d’imputabilité et de légitimité. Le législateur tire sa légitimité d’élections démocratiques. D’où vient celle des concepteurs de codes et des fournisseurs de services ? À qui rendent-ils compte ? La conception des codes est-elle transparente ? Quel est le rôle dévolu aux milliards d’internautes dans l’élaboration des politiques, codes et lois sur Internet ?

19Les élections sont une source de légitimité importante, mais il en existe d’autres. La légitimité peut se fonder sur des connaissances spécifiques, une expertise prouvée, une reconnaissance mondiale, l’acceptation par le marché, un lien privilégié avec des communautés locales, etc. Dans le monde d’aujourd’hui, la « chaîne de représentation » dans les démocraties représentatives, la distance qui sépare l’« intrant » (le vote des citoyens) du « produit » (une politique gouvernementale), ne cesse de s’allonger. Même dans les sociétés démocratiques, de plus en plus d’individus ne se sentent plus représentés de manière satisfaisante quand il s’agit de débattre de sujets précis comme Internet. Comment affirmer que le fonctionnaire engagé dans une négociation à l’Organisation des Nations unies (ONU) sur la réglementation de la propriété intellectuelle, du respect de la vie privée et des contenus parle réellement « au nom de la communauté nationale des internautes » s’il n’appartient pas à cette communauté ? Or, celle-ci a des opinions particulières sur ces problématiques délicates, au niveau national comme au niveau international, et est souvent en désaccord avec son propre gouvernement démocratiquement élu.

20Il n’est pas surprenant qu’Internet ait suscité un débat autour de la démocratie participative, de concepts comme la démocratie « liquide » ou « fluide ». Les internautes participent à l’adoption des politiques au sein de l’ICANN, de l’IETF, des RIR et d’autres organismes, qui ont mis en place des processus (policy development process, PDP) transparents et ascendants, permettant de recueillir les commentaires du public dans des périodes données, d’élaborer des avant-projets, d’organiser des consultations ouvertes, et des mécanismes de révision ; ils ne se satisfont alors plus de la place qui leur est laissée dans les négociations des organisations intergouvernementales autour des problématiques du Web.

21La démocratie représentative a ses mérites mais aussi ses limites, surtout lorsqu’elle est confrontée à des problématiques d’une complexité croissante et de portée mondiale. Une approche pleinement en phase avec le xxie siècle doit explorer les deux voies et trouver un juste équilibre entre la culture politique d’Internet et la tradition législative. Ces deux cultures correspondent à deux formes d’organisation sociale, aux statuts juridiques différents: d’un côté des hiérarchies, des États souverains, organisés en « Nations unies » ; de l’autre, des réseaux, des groupes non gouvernementaux issus du secteur privé, de la société civile et de la communauté technologique, organisés en « Groupes d’utilisateurs unis ». Les uns et les autres sont confrontés à des problématiques similaires, mais les abordent de manière différente.

tableau im1

22Ces différences ne sont pas nécessairement synonymes de conflits. À l’ère de l’information, il ne saurait être question de séparer « monde réel » et « espace virtuel ». Sans le second, le premier ne pourrait produire la valeur ajoutée que garantit la Toile qui, inversement, a besoin du monde réel pour exploiter son potentiel. Toute communication virtuelle entre cybercitoyens est émise et reçue par un citoyen réel. Une « grande collaboration » entre les deux univers s’impose donc pour une cohabitation fructueuse.

Une cohabitation constructive

23Nous approchons ainsi de la problématique centrale de la « gouvernance à l’ère de l’information » : le passage du modèle « leadership d’un acteur » au modèle « collaboration entre une pluralité d’acteurs ». L’interdépendance du « cyberespace sans frontières » et du « monde réel partagé par des frontières » appelle un mécanisme de gouvernance renforcée, conciliant réglementation par les pouvoirs publics et codification technologique.

24Une approche unilatérale serait stérile. Il ne s’agit ni d’élargir au « monde technologique » le système de réglementation descendante – des pouvoirs publics vers les citoyens –, ni de le remplacer par l’autoréglementation ascendante non gouvernementale pratiquée par le secteur privé et la société civile. La question n’est pas celle du « leadership », de la « substitution », du « qui l’emportera » : il s’agit de combiner les forces des différents acteurs dans un mécanisme de gouvernance renforcée. Les États-nations doivent apprendre à partager le pouvoir avec des acteurs non gouvernementaux, et les réseaux mondiaux accepter d’évoluer dans un environnement politique et législatif déterminé par des États souverains. Les gouvernements doivent comprendre que la légitimité issue d’élections démocratiques nationales se double aujourd’hui d’une responsabilité internationale plus large vis-à-vis d’une communauté de dimension mondiale. Parallèlement, il reste aux réseaux mondiaux à faire la preuve de leur légitimité, à démontrer qu’ils comprennent que droits et libertés sont liés à des devoirs et à des responsabilités. Il faut donc tout à la fois renforcer le niveau d’« harmonisation des législations à l’échelle mondiale » entre États souverains et améliorer les mécanismes d’autoréglementation des réseaux non gouvernementaux, puis assurer une interaction productive entre les deux dimensions.

25Ce n’est pas le statut juridique d’un acteur qui constitue le critère déterminant, mais ce qu’il est : il doit se montrer pertinent, efficace, responsable, prévisible, juste, équilibré, inclusif, réaliste, et empêcher que ne s’instaure une « responsabilité hégémonique » sur de larges zones. Il faut que les différents intervenants cohabitent constructivement et que soient élaborés des modèles innovants de « cogouvernance » où chaque intervenant conçoit son action dans un mécanisme de communication, de coordination et de collaboration à multiples niveaux et à multiples acteurs.

26Il n’existe pas de solution universelle. La faiblesse d’un des partenaires dans une zone donnée peut être compensée par la force de l’autre, et réciproquement. Politiques et réglementations étant de plus en plus ciblées vers des problématiques spécifiques, chaque question relative à Internet appelle un modèle de gouvernance ad hoc, correspondant à ses spécificités.

27Le débat sur la « gouvernance », ou la « gouvernance mondiale », à l’ère de l’information n’est pas nouveau en science politique. Dès 1976, Daniel Bell observait dans son livre Vers la société postindustrielle que « l’échelon de l’État-nation [était] trop petit pour répondre aux grands enjeux de l’existence et trop grand pour les petits enjeux », et il en concluait que la réponse ne devait être un renforcement ni de la centralisation ni de la décentralisation, mais une diffusion simultanée des activités de gouvernance dans de multiples directions. Certaines fonctions « pourraient se déplacer vers le niveau supragouvernemental ou transnational. D’autres, incomber à des acteurs locaux. D’autres activités de gouvernance enfin reviendraient au secteur privé. »

28Dans Les nouveaux pouvoirs (1990), Alvin Toffler va plus loin : « En ce moment, toute la structure de pouvoir qui maintenait une certaine unité mondiale se désintègre sous nos yeux […]. » Il estime que l’avènement d’un nouveau pouvoir « n’est pas seulement un transfert du pouvoir, mais bel et bien sa transformation [5] ». Joseph Nye illustrera cette vision par une matrice représentant « la possible diffusion des activités, qui s’éloignent des pouvoirs publics centraux en un mouvement vertical, menant vers d’autres niveaux de pouvoirs publics, et en un mouvement horizontal, menant vers les marchés ainsi que vers les acteurs privés hors marchés, c’est-à-dire le tiers secteur ».

29La Commission des Nations unies sur la gouvernance mondiale a repris cette idée en 1995, tentant de définir dans le rapport Our Global Neighbourhood le concept de gouvernance : « La gouvernance est la somme de toutes les pratiques des individus et institutions, publiques et privées, pour gérer leurs affaires communes. Il s’agit d’un processus continu, permettant éventuellement de concilier des intérêts contradictoires ou divergents et de mener une action coopérative. Il réunit des institutions officielles et des régimes dotés de pouvoirs exécutoires, aussi bien que des accords informels que les individus et les institutions acceptent ou perçoivent comme étant de leur intérêt [6]. »

30En 2001, le Forum de l’OCDE pour l’avenir conclut ainsi une série de conférences : « Tout d’abord, tant dans le secteur public que dans le secteur privé, les formes de gouvernance héritées du passé perdent chaque jour un peu plus de leur efficacité. Deuxièmement, les nouvelles formes de gouvernance dont on devrait avoir besoin au cours des toutes prochaines décennies feront intervenir un plus large éventail d’acteurs. Troisièmement […], deux des principaux piliers sur lesquels s’appuient les systèmes actuels de gouvernance – la répartition généralement permanente et immuable des pouvoirs qui est inscrite dans les structures et les statuts de nombreux organismes, et la tendance à conférer le pouvoir d’initiative exclusivement à ceux qui occupent des positions élevées dans la hiérarchie – paraissent devoir subir des changements fondamentaux [7]. »

31Dix ans ont passé, et les théories sont soumises à l’épreuve du réel. Le concept de gouvernance d’Internet par une pluralité d’acteurs n’est pas encore défini. Les mises en application et les analyses universitaires restent rares, alors que fleurissent les opinions à courte vue et les théories peu convaincantes sur ce que devrait et pourrait apporter la pluralité des acteurs. Inductif, ce concept est né de la nécessité de trouver des réponses à des questions concrètes et il reflète le bouleversement en cours de la répartition des pouvoirs. Mais l’évolution ne fait pas que des heureux : nous sommes bien au cœur d’une lutte dont l’enjeu est la redistribution du pouvoir d’élaborer les politiques et de prendre les décisions. Cette lutte de pouvoir est des plus complexes, sans lignes de front clairement définies. L’opposition entre démocraties et dictatures n’a plus cours, la lutte oppose plusieurs factions au sein des gouvernements démocratiques, plusieurs groupes du secteur privé et de la société civile. Multidimensionnelle, elle voit s’affronter des parties ayant chacune sa propre vision de ce qui est à amender et à améliorer dans l’Internet actuel.

32La pureté des intentions ne change rien à l’affaire. Les pouvoirs publics réclament plus de contrôles pour préserver la sécurité nationale. Les forces de l’ordre plus de surveillance pour combattre la cybercriminalité. Les détenteurs de droits plus de réglementation pour mettre un terme à la piraterie. Les propriétaires de marques plus de limitations pour protéger leurs marques déposées. La société civile plus de droits individuels pour sauvegarder la liberté, etc. – autant d’arguments légitimes. Mais à vouloir trop vite en finir avec les « aspects négatifs », on risque de perdre le bébé avec l’eau du bain et de passer d’un Internet ouvert et libre à un réseau fermé et censuré. Trouver le juste équilibre entre intérêts contradictoires des pouvoirs publics, des entreprises et de la société civile requiert un réel talent diplomatique de partenaires très différents.

33Ce qui fait la complexité du problème, c’est l’impossibilité de segmenter Internet. Le monde réel est un tout, Internet aussi, et tout changement en A aura des répercussions en B, C et D, et réciproquement. L’écosystème de gouvernance d’Internet est un mécanisme à plusieurs niveaux, exigeant la coopération de l’ensemble des parties. Et nombreuses sont ces différentes parties, gouvernementales et non gouvernementales, qui gèrent, réglementent, organisent, contrôlent, supervisent et développent des zones de la Toile. Il ne peut exister d’autorité unique, responsable d’Internet dans sa totalité. Ce fonctionnement est déroutant pour ceux qui sont habitués aux structures de pouvoir classiques et hiérarchisées. Mais la recentralisation, la renationalisation et la reréglementation qu’impliquerait le recours à une autorité unique constitueraient-elles un réel progrès ?

34À acteurs différents, conceptions différentes de ce que serait une amélioration de la gouvernance d’Internet : pour les uns, ce serait la mise en place d’une nouvelle organisation intergouvernementale centralisée ; pour les autres, le renforcement du modèle de gouvernance décentralisée à acteurs multiples. « Inutile de réparer ce qui n’est pas défectueux », répondait Vint Cerf voilà des années. On ne saurait mieux dire. Une analyse objective nous montre qu’Internet, pris dans sa globalité, n’est pas défectueux. Il a ses faiblesses, présente des risques et donne hélas aux « méchants » les mêmes chances qu’aux « gentils ». Mais Internet fonctionne et s’est montré capable d’absorber une croissance remarquable, passant de 2 millions à 2 milliards d’utilisateurs en 20 ans sans difficultés majeures.

En avant, cahin-caha

35Avec Internet, personne ne sait vraiment de quoi demain sera fait. Voici 20 ans, les moteurs de recherche nous étaient inconnus, comme voici 15 ans YouTube ou il y a dix ans les réseaux sociaux. Il y a cinq ans, l’informatique en nuage naissait à peine. Qui sait ce qui nous attend en 2017 ou 2022 ?

36Invité à la conférence de l’ICANN à San Francisco, en mars 2011, l’ancien président Bill Clinton a décrit le développement de la gouvernance d’Internet comme une « progression cahin-caha ». Avancer cahin-caha n’est pas grave, a-t-il expliqué, tant que l’on continue de progresser.

37La communauté Internet pourra continuer à progresser tant bien que mal en 2012 si elle parvient à répondre à trois questions.

38

  1. Comment maintenir sur le Web un équilibre entre des valeurs contradictoires comme la sécurité, le droit de propriété, la liberté et le respect de la vie privée, dans et entre des systèmes politiques variés, caractérisés par des cultures, des traditions et des héritages historiques différents ?
  2. Comment mettre en place une nouvelle relation entre institutions gouvernementales et non gouvernementales qui ne se fonde pas sur une hiérarchie, mais sur une collaboration mutuelle entre pairs, et prenne en compte les rôles et responsabilités de chacun des acteurs ?
  3. Comment concilier l’approche traditionnelle des politiques publiques, centralisée, fermée et descendante, qui est celle des pouvoirs publics nationaux et des organismes intergouvernementaux, avec les mécanismes ouverts, transparents et ascendants auxquels recourent les organisations du Web non gouvernementales pour gérer et continuer à développer les ressources et infrastructures du réseau dans une perspective critique ?

39Les réponses à ces trois questions varieront d’un acteur à l’autre, d’un lieu à l’autre, selon qu’elles émaneront de pouvoirs publics, d’entreprises privées, d’organisations de la société civile ou de la communauté technologique, de l’Occident, du monde arabe, de la Chine, du Brésil, de l’Inde ou de l’Afrique. Le consensus n’est pas de ce monde, mais nous utilisons tous le même Internet. Nous n’avons donc d’autre choix que de bâtir des ponts et de nouer un dialogue constructif. Cela ne se fera pas en un jour. Un proverbe chinois nous enseigne que la plus longue des marches commence par un premier pas. La longue marche d’Internet a débuté voilà des années ; il nous faut maintenant faire un nouveau pas en avant, et non en arrière.

Notes

  • [1]
    Ces idées ont été largement popularisées par John Perry Barlow dans sa « Déclaration d’indépendance du cyberespace » : « Ô gouvernements du monde industriel, géants fatigués de chair et d’acier, je viens du cyberespace, la nouvelle demeure de l’esprit. Au nom de l’avenir, je vous demande, vestiges du passé, de nous laisser seuls. Vous n’êtes plus les bienvenus parmi nous. Vous n’avez point de souveraineté là où nous nous rassemblons. » Et d’affirmer : pour les cybercitoyens, « l’identité ne s’ancre pas dans un corps, nous ne pouvons donc, comme vous, faire régner l’ordre par la force. Notre gouvernance, c’est notre conviction, naîtra de l’éthique, de l’intérêt individuel éclairé et du bien commun. » Cyber Right Electronic List, 8 février 1996, disponible sur <https://projects.eff.org/~barlow/Declaration-Final.html>.
  • [2]
    L. Lessig, Code and Other Laws of Cyberspace, New York, Basic Books, 1999, p. 6.
  • [3]
    Voir, entre autres : M. Castells, La Galaxie Internet, Paris, Fayard, 2001 ; L. Lessig, L’Avenir des idées : le sort des biens communs à l’heure des réseaux numériques, Lyon, Presses universitaires de Lyon, 2005 ; M. Mueller, Ruling the Root: Internet Governance and the Taming of Cyberspace, Cambridge, MA, MIT Press, 2002 ; B.D. Loader (dir.), The Governance of Cyberspace, Londres, Routledge, 1997 ; S.J. Drucker et G. Gumpert, Real Law and Virtual Space: Regulation in Cyberspace, Cresskill, NJ, Hampton Press, 1999 ; F. Cairncross, The Death of Distance: How the Communication Revolution is Changing our Lives, Cambridge, MA, Harvard Business School Press, 1997 ; W. Kleinwächter, Global Governance in the Information Age, Aarhus, The Centre for Internet Research, 2001.
  • [4]
    La réalité est plus complexe, dans la mesure où tous les serveurs racines obtiennent leurs données auprès d’un superserveur racine « caché », géré par la société VeriSign, dans le cadre d’un contrat avec le département du Commerce des États-Unis ; toute modification des entrées dans ce superserveur doit être approuvée par le département du Commerce qui contrôle donc les entrées de l’ensemble des serveurs racines.
  • [5]
    A. Toffler, Les nouveaux pouvoirs : savoir, richesse et violence à la veille du xxie siècle, Paris, Fayard, 1991, p. 20-21.
  • [6]
    Commission des Nations unies sur la gouvernance mondiale, Our Global Neighbourhood: The Report of the Commission on Global Governance, Oxford, New York, Oxford University Press, 1995.
  • [7]
    OCDE, La Gouvernance au xxie siècle, Paris, 2002.
bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Avec le soutien de

Retrouvez Cairn.info sur

18.97.9.170

Accès institutions

Rechercher

Toutes les institutions