Notes
-
[1]
« Napster, "le monstre" des labels menacé de fermeture », Le Monde 11 avril 2001, http://www.lemonde.fr/article/10,5987,3236-172298-,00.html
-
[2]
Voir sur ce point l’excellente synthèse Peer to Peer, D’Reilly & Associates (2001), http://www.oreilly.com/catalog/peertopeer/chapter/ch01.html
-
[3]
« P2P plans could create speedier Net » News.com, 27 juin 2001, http://news.cnet.com/news/0-1004-200-6394693.html
-
[4]
"Safe keeping" The Economist Technology Quaterly (septembre 2001), http://www.economist.com/science/tq/displayStory.cfm ?story_id=779564
-
[5]
« Come together, right now, over P2P », Salon.com, 14 décembre 2000, http://www.salon.com/tech/feature/2000/12/14/popular_power/index.html
-
[6]
"Just Compensation", par Larry Lessig, The Industry Standard, 9 avril 2001, http://cyberlaw.stanford.edu/lessig/content/is/0,1902,23401,00.html
-
[7]
"Hardwiring Copyright" dossier de News.com, http://news.cnet.com/news/0-l005-201-5211420-0.html
-
[8]
« Gestion des droits numériques : états des lieux à Bruxelles », Cyberpouvoirs, 5 mars 2002, http://www.techandco.com/cyber/getarticle.asp ?ID=59
-
[9]
Voir sur ce point le chapitre "Innovation from the internet" dans The Future of Ideas : The Fate of the Commons in a Connected World par Lawrence Lessig, Random House (2001).
-
[10]
« La taxe sur les ordinateurs a vécu » Libération 17 janvier 2001, http://www.liberation.fr/multi/actu/20010115/20010117mero.html
-
[11]
« RIAA Wants to Hack Your PC » par Declan McCullagh, Wired.com, 15 octobre 2001, http://www.wired.com/news/conflict/0.2100.47552.00.html
-
[12]
Ce qui fait dire à Lessig à propos de Dimitri Sklyarov, ce programmeur russe arrêté pour avoir développé un logiciel permettant de lire les livres électroniques d’Adobe : « M. Sklyarov se morfond encore en prison et se demande sans doute comment une société de liberté peut emprisonner celui qui écrit un programme légal dans son pays, simplement parce qu’il vient aux Etats Unis donner une conférence sur les failles des systèmes de cryptages. »
« Jail Time in the Digital Age » par Lawrence Lessig à propos du DMCA (Digital Millenium Copyright Act) dans le New York Times du 30 juillet 2001, http://www.nytimes.com/2001/07/30/opinion/30LESS.html -
[13]
Pirates, Prophets and Pioneers par Debora Spar, professeur à la Harvard Business School, Random House (2001).
-
[14]
Rethinking the design of the internet : The end to end arguments vs. the brave new world par David D. Clark et Marjory S. Blumenthal, 25th Telecommunications Policy Research Conference (2000), http://www.tprc.org/abstracts00/rethinking.pdf
-
[15]
Etude Media Metrix (2001), http://www.ecommercetimes.com/perl/story/10m.html
-
[16]
« Fracture à haut débit » par Bernard Benhamou, Libération du 27 février 2001, http://www.liberation.fr/quotidien/debats/fevrier01/20010227c.html, voir aussi le dossier « Les Business Models du Broadband » dans Wired (mai 2001) http://www.wired.com/wired/archive/9.05/broadband.html
-
[17]
Christian Pierret, secrétaire d’Etat à l’Industrie déclarait le 23 octobre 2001 : « L’ADSL ne sera pas un produit grand public à 300 F/mois. Il doit s’établir à un niveau de l’ordre de 200 F/mois comme en Allemagne (…) », http://www.intemet.gouv.fr/francais/frame-actualite.html#pierret231001
-
[18]
Telecosm : How Infinite Bandwidth Will Revolutionize Our World, George Gilder, Free Press (2000).
-
[19]
"Michael Powell : The Great Deregulator", Washington Post, 18 juin 2001, http://www.washtech.com/news/regulation/10574-1.html
-
[20]
The Digital Divide : Facing a Crisis or Creating a Myth ? dirigé par Benjamin Compaine, MIT Press (2001),
-
[21]
Etude de l’OCDE sur la fracture numérique, http://www.oecd.org/dsti/sti/prod/Digital_divide.pdf
-
[22]
« Intelligence artificielle : la fin des certitudes », Le Monde Interactif, 10 octobre 2001/ http://interactif.lemonde.fr/ article/0,5611,2858-6552-229508-0,FF.html, lire aussi sur ces sujets HAL’s Legacy) : 2001’s Computer as Dream and Reality par David G. Stork et Arthur Charles Clarke, MIT Press (1998).
-
[23]
The Invisible Computer par Donald Norman, MIT Press (1999)/ http://mitpress.mit.edu/books/NORVP/interview.html
-
[24]
Voir l’étude du SESSI Les Français se hâtent lentement sur l’internet (août 2001) http://www.industrie.gouv.fr/biblioth/docu/4pages/pdf/4p152.pdf
-
[25]
La Galaxie internet par Manuel Castells, Fayard (2002).
-
[26]
« Le réseau en quête d’espace infini », Libération 18 mai 2001, http://www.liberation.fr/multi/actu/20010514/20010518venza.html
-
[27]
« Will W3C mean dollar signs ? », News.com, 5 octobre 2001, http://news.cnet.com/news/0-1005-200-7412848.html
-
[28]
"A Smarter Web", MIT Technology Review, novembre 2001 http://www.techreview.com/magazine/nov01/frauenfelderall.asp
-
[29]
Cf. Etude du Children Partnership, Les nouvelles frontières de la fracture numérique, http://www.childrenspartnership.org/pub/low_income/introduction.html
-
[30]
Cf. schéma sur la structure du web réalisé par le laboratoire de Recherche d’IBM à Almaden, http://www.almaden.ibm.com/cs/k53/www9.final/ aussi commenté dans Libération (17 mai 2000), http://www.Iiberation.fr/multi/actu/20000515/20000517.html
-
[31]
Republic.com par Cass Sunstein, Princeton University Press (2001).
-
[32]
Cicéron (106-43 avant Jésus-Christ) in Pro T. Annio Milone, http://www.ancientlanguages.org/claslattexts/cicero/promilone1.html
-
[33]
« Internet Vulnerable to Terrorists, Experts Wam », Washington Post, 28 septembre 2001, http://www.washtech.com/news/netarch/12763-1.html
-
[34]
« Govt. Tech Security Officials Visit Key Net Facility », Washington Post, 13 novembre 2001, http://www.washtech.com/news/netarch/13672-1.html
-
[35]
« Internet protocol proposal raises privacy concerns », News.com, 14 octobre 1999, http://news.cnet.com/news/0-16334-200-852235.html
-
[36]
Carnivore désormais renommé DCS 1000 est un logiciel qui permet d’écouter l’ensemble des échanges des internautes avec leur fournisseur d’accès internet. Longtemps refusé aux Etats-Unis, ce système a été adopté massivement par les FAI américains après les attentats du 11 septembre 2001.
-
[37]
« Disconnect the dots », entretiens paru dans le Washington Post le 17 septembre 2001, http://www.washtech.com/news/regulation/12516-l.html
-
[38]
Article du San Jose Mercury News sur le Passeport créé par Microsoft, http://www.siliconvalley.com/docs/news/depth/passpt071501.htm
-
[39]
Il est à noter que les brevets logiciels ont été les invités inattendus de la campagne présidentielle. En l’espace de quelques semaines ce sujet qui était réservé aux spécialistes de la propriété intellectuelle est devenu le point de ralliement de l’ensemble des candidats à la présidentielle. (Cf. CyberPouvoirs, mars 2002, http://www.techandco.com/cyber/getarticle.asp ?ID=59
-
[40]
« Microsoft Resisting Licensing of Its Code », article du New York Times du 4 décembre 2001, http://www.nytimes.com/2001/12/04/technology/ebusiness/04SOFT.html
-
[41]
Voir les articles du Washington Post du 18 janvier 2002 : « Wording of Microsoft Deal Too Loose, Analyses Say », http://www.washtech.com/news/regulation/14736-1.html et de News.com : « States use source code to press Microsoft du 7 décembre 2001 », http://news.com.com/2100-1001-276733.html
-
[42]
« Gouvernements du monde industriel, vous géants fatigués de chair et d’acier, je viens de l’internet, le nouveau domicile de l’esprit. Au nom du futur, je vous demande à vous du passé de nous laisser tranquilles. Vous n’êtes pas les bienvenus parmi nous. Vous n’avez pas de souveraineté où nous nous rassemblons. » Déclaration d’indépendance du Cyberespace par John P. Barlow, cofondateur de l’Electronic Frontier Foundation, le 9 février 1996, http://www.eff.org/~barlow/Declaration-Final.html
-
[43]
« Quand le gouvernement se retire, ce n’est pas comme si rien ne prenait sa place. Le paradis ne l’emporte pas. Ce n’est pas comme si les intérêts privés n’avaient pas leur propre motivation, leur finalité qu’ils poursuivront alors. Appuyer sur le bouton « antigouvernement » ne nous téléportera pas dans un éden. Quand les intérêts du gouvernement s’effacent, d’autres intérêts les remplacent. Savons-nous ce que sont ces intérêts ? Sommes-nous certains qu’ils sont meilleurs ? » extrait de Code and other laws of Cyberspace, p. 220, L. Lessig, Basic Books (1999).
-
[44]
Ibid.
-
[45]
"In the Next Chapter, Is Technology an Ally ?" New York Times, 27 septembre 2001, http://www.nytimes.com/2001/09/27/technology/circuits/27TECH.html
-
[46]
Rapport de Jean-François Abramatic, Le développement technique de l’internet, (1999), http://mission-dti.inria.fr
-
[47]
« Les termes inégaux des échanges électroniques » par Philippe Quéau, Le Monde Diplomatique, février 1999, http://www.monde-diplomatique.fr/1999/02/QUEAU/11618.html
-
[48]
« Les connexions européennes, américaines et internationales, en général, sont bien sûr particulièrement importantes puisque l’internet est une infrastructure mondiale. La jeunesse de l’offre de services sur le territoire national rend les termes de l’échange défavorables pour les fournisseurs d’accès nationaux… Des efforts additionnels sont cependant indispensables pour permettre à la communauté nationale de disposer d’un environnement comparable à celui de ses pairs à travers le monde. Enfin, les connexions européennes présentent, à leur échelle, des caractéristiques d’insuffisance en termes de densité d’interconnexions. » Extrait du rapport Abramatic Le développement technique de l’internet, (1999).
« Les réseaux constituent la nouvelle morphologie sociale de nos sociétés, et la logique de la mise en réseau détermine largement les processus de production, d’expérience, de pouvoir et de culture... Ce qui est nouveau aujourd’hui c’est le fait que les technologies de l’information fournissent la base de son extension à la société tout entière. »
L’évolution de l’architecture de l’internet
2L’internet connaît une période de mutations profondes, certaines sont visibles par l’ensemble des citoyens, d’autres ont lieu sans qu’ils en soient informés. Ces évolutions technologiques, juridiques et économiques se conjuguent pour réorganiser le réseau et avec lui des pans entiers des échanges citoyens. L’architecture des systèmes d’information est, au même titre que celle de nos villes, porteuse d’un message politique. Mais ce message n’est pour l’instant discuté que par une poignée d’experts et d’acteurs industriels. Si nous pensons que l’internet deviendra l’un des lieux d’exercice de la citoyenneté, nous devons créer les conditions d’une prise de conscience des enjeux de la société de l’information. Ce sont les conséquences politiques des changements de l’architecture de l’internet qui seront abordées ici.
L’après Napster
3Les changements de l’architecture de l’internet ne sont plus le seul fait des techniciens chargés de gérer le fonctionnement du réseau. Désormais, les décisions juridiques et industrielles peuvent avoir des conséquences profondes sur les fondements de l’internet. A ce titre le procès Napster constitue un précédent important. Ce procès a trop souvent été perçu comme celui du piratage musical rendu possible par le logiciel Napster. Paradoxalement, les conséquences de ce procès en dehors de la sphère musicale (et peut-être même en dehors de la sphère de la propriété intellectuelle) pourraient être encore plus importantes. Face au « monstre » Napster (comme l’avait qualifié le juge Patel [1]), les « majors » de l’édition musicale ont mené (et remporté) la bataille juridique pour faire cesser les activités de cette société. Mais au-delà du sort réservé à Napster, c’est le principe des échanges de pair à pair (ou peer ta peer [2]) et l’ensemble des innovations technologiques de ce secteur qui ont été remis en cause.
4Une partie importante des technologies les plus novatrices de l’internet pourrait ainsi être bloquée par la menace de poursuites. C’est le cas de certains outils de « pair à pair » permettant d’améliorer la diffusion des contenus [3], de nouveaux systèmes d’archivage généralisé de l’internet [4] ou de nouveaux outils coopératifs pour les chercheurs [5]. L’évolution de l’internet pourrait subir un ralentissement important du fait de l’incertitude juridique pesant sur les concepteurs de ces logiciels. A ce titre, la décapitation juridique de Napster est un signe préoccupant pour le devenir de l’internet.
5Si le primat des industriels des technologies sur l’évolution de l’internet était incontesté dans les premiers temps, il n’en est plus de même aujourd’hui. Les groupes de communication prennent désormais une part active dans l’orientation des technologies du réseau. Face à cette véritable reprise en main de l’internet, le juriste Lawrence Lessig s’interroge sur la légitimité du pouvoir qu’exercent ces « majors » sur l’internet :
« Les dinosaures doivent mourir. Un marché vraiment libre les laisserait mourir et le Congrès pourrait favoriser cette évolution en votant des lois pour s’assurer que les artistes sont rémunérés, sans livrer l’internet aux mains des seuls majors… En d’autres mots : établir une compensation [pour les auteurs] sans octroyer un contrôle...» [6].
7En effet, pour la première fois dans l’histoire de la propriété intellectuelle, le contrôle total de la diffusion des œuvres est désormais technologiquement possible [7] (en particulier avec les technologies de gestion numériques des droits ou DRM [8]). Avec ce contrôle, c’est la circulation des idées et des innovations qui pourrait être placée sous tutelle [9]. En lieu et place d’un contrôle de la diffusion des œuvres, il aurait pu être question d’un reversement d’une taxe à l’instar de celles qui furent pratiquées sur les autres supports d’enregistrement. Ces taxes refusées par l’ensemble des acteurs industriels impliquées dans les systèmes de DRM. A ce propos on notera qu’en France, la simple évocation d’une action de l’Etat pour s’assurer d’une rémunération des auteurs sur l’internet a suscité une véritable tempête [10]. Plus récemment, la RIAA (Recording Industry Association of America) a même souhaité inscrire la surveillance de l’ensemble des disques durs dans les nouvelles mesures antiterroristes aux Etats-Unis [11]. Au même moment aux Etats-Unis, les nouvelles lois antipiratage criminalisent [12] l’ensemble des développements logiciels autour des technologies de protection des œuvres.
8Un véritable « étau juridico-technologique » se met en place pour infléchir le cours des innovations de l’internet au bénéfice d’un seul secteur industriel. L’internet qui a permis de libérer des zones de créativités et d’innovations, pourrait bientôt suivant le pronostic de Debora Spar [13] se réduire au champ clos d’anciens pirates et pionniers devenus vénaux qui protégeraient leurs monopoles sur les technologies.
La broadcastisation ou « télévisualisation » de l’internet
9L’une des caractéristiques majeures de l’internet est le fait que l’« intelligence » est située à l’extrémité des mailles du réseau et non dans le réseau lui même (à l’opposé de réseaux comme celui du Minitel). C’est le principe dit du end to end [14]. Or l’un des changements fondamentaux de l’internet sera lié au passage d’une architecture d’échange à une architecture de diffusion. Nous pourrions ainsi assister à une « télévisualisation » ou braadcastisation de l’internet. En effet, l’évolution des systèmes à haut débit se fait sur un mode asymétrique. Les technologies d’accès rapides (comme la câble ou ADSL) ont en commun d’offrir un débit important vers les abonnés mais une « voie de retour » nettement plus lente. Ce qui signifie à terme le rétablissement de la notion d’un émetteur privilégié et de nombreux récepteurs passifs transformés en téléspectateurs / consommateurs. Cette interprétation représente clairement un contresens dans l’évolution de l’internet. Contresens qui se vérifie dans l’ensemble des choix industriels qui convergent vers une représentation « passive » des internautes. Et si pour l’essentiel, les infrastructures de transport de l’internet sont symétriques, le fait que le segment final devienne asymétrique constitue un frein considérable pour l’ensemble des technologies d’échanges. De plus, dans les solutions de connexion à haut débit proposées aux particuliers en France, la possibilité d’établir son propre serveur est en général absente ou surtaxée. Or l’expérience récente de Napster montre qu’à défaut de produire des contenus spécifiques, les internautes peuvent échanger des informations (ce qui est à l’origine même de la création et du succès de l’internet).
10Et là encore, c’est une architecture de contrôle qui risque de se mettre en place. En effet, sur ces réseaux à haut débit, il devient technologiquement possible d’établir un système de contrôle pyramidal comme ce fut le cas pour la télévision. Ce contrôle par un nombre limité d’acteurs industriels portera sur la diffusion en raison des coûts élevés de la bande passante nécessaire. Ces coûts qui contrairement à la diffusion télévisuelle augmentent avec le nombre de spectateurs/internautes. Quant à la création de programmes interactifs « riches » mélangeant images, textes et sons, elle est encore réservée à des studios professionnels. L’ensemble est renforcé par le contrôle technologique lié à la propriété intellectuelle, voire par un contrôle politique rendu possible par la réduction du nombre de sources d’informations. Ainsi aux Etats-Unis, 4 sites totalisent déjà 50 % du temps passé sur le web [15].
11Par ailleurs, les systèmes d’accès rapides remettent en cause l’idée d’un réseau égalitaire [16] par leur distribution géographique (urbaine ou périurbaine) et leur distribution sociologique [17]. A l’opposé du discours qui ferait de ces technologies une opportunité pour la démocratisation de l’internet, ces systèmes pourraient devenir des facteurs d’exclusion et d’amplification de la fracture numérique.
12Si la question des accès publics à l’internet devient un volet important de l’action des Etats, le plus souvent seule la problématique de la bande passante descendante est envisagée. A terme, une véritable réflexion sur l’« écologie » de la bande passante (ascendante et descendante) devra être menée en intégrant haut et bas débit. Ce terme de « bas débit » définit la ligne téléphonique classique d’une manière vaguement péjorative dans le discours des opérateurs. Le téléphone est pourtant (et pour de nombreuses années encore) le mode d’accès dominant à l’internet tant en France que dans l’ensemble des pays développés.
13Et contrairement à la vision « équipementière » du futurologue George Gilder [18], le progrès ne sera pas seulement lié à la montée en puissance de la bande passante mais bien à l’évolution des usages des réseaux. Plus que la capacité de transmission, c’est la capacité d’appropriation et de participation qui constituera le moteur des innovations sociales des réseaux.
Au-delà de la fracture numérique
14La fracture sociologique de l’internet perdure et s’il fallait se convaincre du caractère « politique » de la fracture numérique, le récent discours de Michael Powell [19], le nouveau patron ultra-libéral de la FCC (Federal Communications Commission) est édifiant : « la fracture numérique c’est comme la fracture des Mercedes, j’aimerais en avoir une, mais je n’en ai pas les moyens… » (sic). Il convient de noter que ces déclarations se produisent au moment où les budgets gouvernementaux américains pour la réduction de cette fracture connaissent des diminutions drastiques.
15Force est de constater qu’entre exhortations industrielles et « laisser faire », les acteurs des technologies créent des marchés de niche en excluant (ce qui est encore le cas pour la micro-informatique) une part considérable des populations des pays riches. Dans son ouvrage sur la fracture numérique, Benjamin Compaine [20] fait le pari d’une simplification prochaine des technologies qui n’est pas encore à l’ordre du jour. En effet, une étude récente de l’OCDE [21] démontre que dans l’état actuel des technologies, il ne faut pas compter sur une « massification » de l’internet au-delà de 65% de foyers connectés. La complexité des technologies qui sous-tendent l’utilisation des micro-ordinateurs (le système d’exploitation et l’environnement symbolique de l’interface utilisateur) est encore telle qu’elle exclut de fait une part importante des citoyens.
16Les paris des industriels des technologies présentent aussi le risque (comme pour la technologie WAP, voire l’UMTS) de n’être pas adoptés par les utilisateurs visés. Comme l’ont montré les études récentes sur l’utilisation de logiciels de téléchargement de musique sur l/internet, l’ergonomie reste l/un des critères d/adoption majeurs. Ainsi les héritiers de Napster, qui restent d/une utilisation plus complexe et plus lente, n/ont pas encore réussi à séduire le même nombre d/utilisateurs. Quant aux technologies qui permettront d/interpréter plus finement les actions ou le langage des utilisateurs, elles ne sont à l’évidence pas encore arrivées à maturité [22]. Si la suprématie des micro-ordinateurs PC comme « machine à tout faire » est remise en question par les spécialistes de l’ergonomie [23], la diversification et la simplification des terminaux posent encore de nombreux problèmes économiques et technologiques non résolus.
17La France quant à elle se tient encore à « bonne » distance de l’internet tant par la pratique que par la réflexion. Les technologies y évoluent encore en vase clos auprès d’une minorité de citoyens. Ce vase clos (ou ce noyau dur) est visible en filigrane de la récente étude du SESSI [24]. A l’opposé un noyau de réfractaires s/est créé et la posture à adopter devra tenir compte des particularités culturelles qui ont motivé ces réticences. Plus qu’un savoir faire purement technique, c/est la culture de ces technologies et des médias qu/il faut désormais diffuser. Miser sur une maîtrise citoyenne qui ne viendrait que de la maîtrise technique est aussi aléatoire qu’espérer en un effet autocatalytique de l/internet. Cet effet qui semble pour l/instant limité en France à une minorité techno-instruite. Et cela ne peut se faire en pensant que l/accèsàl/internet est une fin en soi mais bien en développant cette culture de l’internet dans les segments de population les moins touchés. Il y a à cela au moins deux raisons ; d’une part éviter que l’endogamie des internautes français ne se traduise à terme par un appauvrissement des contenus et un ralentissement des innovations, et d’autre part éviter que les décisions cruciales qui affecteront durablement l’internet ne soient prises en dehors de toute intervention des internautes français et européens. Pour les responsables politiques, l’autre difficulté face à la fracture numérique vient du fait qu’il ne suffit pas d/être connecté à l’internet pour espérer en retirer des bénéfices. Ainsi que le rappelle le sociologue Manuel Castells, sans un environnement socioculturel qui aide à la maîtrise de l’information, l’outil internet pourrait devenir un amplificateur d’inégalités, tout particulièrement dans le domaine scolaire [25].
Les risques de fragmentation de l’internet
18Parallèlement à la fracture numérique et son mécanisme d’exclusion, d’autres transformations de l’internet rendent son futur politique incertain. A l’intérieur même de l’internet se dessinent plusieurs formes de fragmentations, en effet, les réseaux permettent à la fois la globalisation et la fragmentation des sociétés. La part relative que prendront ces deux évolutions ne relèvera pas d’une « nature intrinsèque » de l’internet ou d’une forme de déterminisme technologique mais bien de choix politiques.
Fragmentation technologique
19L’une des évolutions fondamentales de l’internet concerne l’un de ses protocoles majeurs avec le passage d’IPv4 à IPv6. Le nouveau protocole permettra de repousser les limites actuelles du nombre d’adresses IP etilautorisera la discrimination des flux en fonction de leurs contenus. Les réseaux achemineront alors plus rapidement les flux prioritaires audio ou vidéo [26]. A l’inverse, les flux textes seront acheminés plus lentement. Un clivage commencera alors à s’établir au sein du réseau entre les contenus à haute valeur ajoutée et le reste des informations. Les contenus prioritaires, opportunément qualifiés de rich media, ne sont pour l’instant accessibles qu’à la fraction la plus solvable des internautes et ils nécessitent pour leurs concepteurs des moyens techniques importants. Cette évolution progressive des standards de l’internet semble aller de pair avec la maturité économique et technologique du réseau, mais elle est aussi révélatrice d’une autre forme de fragmentation, économique cette fois. C’est la professionnalisation de la conception des contenus qui est désormais à l’ordre du jour. Ainsi, les organismes qui définissent les standards du web ont fait l’objet de vives controverses lorsqu’ils ont envisagé d’y inclure des standards payants [27].
20Une autre évolution fondamentale des standards concernera l’organisation des contenus du web avec la migration progressive vers le langage XML (eXtensible Mark Up Language). Ce langage qui va remplacer progressivement HTML pour la conception des pages web, se veut une réponse à l’absence de structure du web actuel. En effet, avec l’explosion en volume du web, organiser et structurer les informations devient une priorité. Un « web sémantique » [28] devient nécessaire à mesure que la faible structuration (certains disent la faible intelligence) du web devient une limite à son fonctionnement. Le langage XML devra permettre aux concepteurs de pages web de structurer leurs documents en fonction de la nature des contenus. L’une des conséquences de cette évolution est qu’il deviendra nécessaire d’acquérir des compétences plus importantes pour structurer les documents et faire en sorte qu’ils apparaissent correctement dans les moteurs de recherche. Et s’il est encore relativement simple de maîtriser les outils de conception de page web, le fait de structurer l’information lors de sa création (analyser un document, extraire des mots-clés, organiser un thésaurus) représente un travail important et restera encore longtemps au-delà des capacités des logiciels d’analyse sémantique les plus performants. Si le langage XML doit permettre un meilleur fonctionnement des moteurs de recherche, ils pourraient aussi finir par occulter les pages les plus anciennes réalisées en HTML par des non-professionnels. Cela pourrait accroître le déséquilibre déjà visible entre les pôles commerciaux et non commerciaux de l’internet et favoriser la « déréliction » des pages personnelles.
… Et risques politiques
21En plus des risques technologiques qui pourraient limiter et modeler le type d’échanges, la nature des contenus disponibles sur l’internet devient aussi un facteur d’exclusion. Cette fragmentation des contenus n’est pas une perspective lointaine, mais une réalité déjà perceptible. Les contenus de l’internet sont encore massivement orientés vers les populations les plus aisées et les familles aux plus faibles revenus ne peuvent le plus souvent pas trouver de contenus et services qui leur soient destinés [29]. De plus, le langage utilisé sur l’internet est encore trop souvent conçu par des cadres technophiles… pour des cadres technophiles. En effet, l’évolution actuelle de l’internet maintient artificiellement ce caractère « technophile » de la fraction des citoyens connectés, les utilisateurs néophytes ayant de plus en plus de difficultés à maîtriser le langage et les services de l’internet.
22L’autre caractéristique fondamentale de l’architecture des réseaux qui pourrait être remise en cause est sa plasticité. La forme d’organisation en réseau possède en effet l’avantage de permettre des recombinaisons permanentes. A mesure que s’installeront ces phénomènes de « rigidification » et de fragmentation de l’internet, ces recombinaisons deviendront de plus en plus difficiles. On risque d’aboutir à une fragmentation de l’internet en îlots multiples. Ces îlots et ces archipels pourront être auto-alimentés au risque d’isoler définitivement des pans entiers de l’internet [30]. Cette fragmentation de l’internet pourrait entraîner, à terme, une véritable stagnation des échanges entre les îlots ainsi créés. Elle présentera aussi le risque de restreindre la diversité des contenus et des usages de ces réseaux.
23Ce qui fait dire au constitutionnaliste Cass Sunstein que la radicalisation des opinions politiques exprimées sur l’internet, la « polarisation de groupe », pourrait s’accentuer à mesure que cette fragmentation deviendra une réalité. Les utilisateurs de ces îlots pourraient alors n’entrer en contact qu’avec des personnes et des idées qu’ils connaissent déjà et devenir de plus en plus imperméables aux idées qui ne leur sont pas familières :
« En premier lieu les citoyens doivent être mis en contact avec des sujets qu’ils n’ont pas choisis par avance. Les rencontres non prévues, non planifiées sont un élément central de la démocratie elle-même. De telles rencontres concernent souvent des opinions et des sujets que les citoyens n’ont pas recherchés et que peut-être ils trouvent dérangeants. Ces rencontres sont importantes en partie pour se prémunir contre les risques de fragmentation ou d’extrémisme qui sont le résultat prévisible d’une situation dans laquelle des personnes ayants les mêmes opinions n’échangent qu’entre elles. Je ne suggère pas que les gouvernements devraient forcer les citoyens à être soumis à des choses qu’ils souhaitent éviter. Mais je prétends que, dans une démocratie digne de ce nom, les citoyens sont souvent mis en contact avec des idées et des thèmes qu’ils n’ont pas spécifiquement choisis. » [31]
Inter arma enim silent leges : en temps de guerre la loi se tait [32]
25Si les autorités américaines s’interrogent désormais sur les fragilités de l’internet face au cyberterrorisme, elles s’interrogent beaucoup moins sur les risques « long terme » face aux mutations de l’architecture du réseau. Ainsi l’on note qu’une attaque des 13 serveurs racines des noms de domaine ou root servers pourrait entraîner une panne généralisée de l’internet aux conséquences incalculables [33]. L’ICANN, qui assure la gouvernance des noms de domaines, vient d’ailleurs de modifier son programme de travail pour se concentrer sur la sécurité de fonctionnement de l’internet [34].
26Aux Etats-Unis, la crise liée aux attentats du 11 septembre, en permettant aux agences de renseignement de rendre plus efficaces les mesures de surveillance des individus, risque aussi d’accélérer les changements dans l’architecture de l’internet. Les modifications technologiques de l’internet qui se dessinent aujourd’hui risquent donc d’être définitives. Ainsi, il y a quelques mois aux Etats-Unis, l’IETF (internet Engineering Task Force) refusait dans un geste éminemment politique de donner suite à la requête du FBI [35] visant à modifier l’architecture du réseau pour permette lamiseen place d’un système d’écoute sur l’internet. Mais depuis les attentats du Il septembre, ce sont les réticences des fournisseurs d’accès américains qui ont été balayées vis-à-vis du système d’écoute Carnivore [36]. Et les rares voix qui en appellent à l’équilibre entre sécurité et liberté sur l’internet sont désormais marginalisées. Mais plus généralement ce sont les lentes avancées sur le front de la sensibilisation des citoyens qui sont remises en cause. Il convient aussi d’analyser les mesures qui seront prises pour sécuriser l’internet en fonction de ces critères. Si les conséquences de ces mesures sont encore difficiles à mesurer, leur impact sur les échanges pourrait être considérable.
27Comme l’a rappelé Manuel Castells après ces attentats, c’est par un réseau que l’on peut combattre un autre réseau [37]. Plus globalement, c’est la connaissance du fonctionnement et des technologies des réseaux qui permettra aux Etats de maîtriser les risques politiques liés aux réseaux.
Régulation et actions des Etats : d’une « impossibilité »à une nécessité
28La régulation de l’internet est à la fois plus cruciale et plus complexe que celle des autres secteurs industriels. Ainsi à la différence d’IBM qui fut longtemps poursuivi pour avoir exercé un monopole sur le secteur des ordinateurs mainframe, les acteurs majeurs de l’internet comme Microsoft peuvent désormais exercer une position dominante dans l’ensemble des secteurs économiques. La rapidité (au moins dans les premiers temps) de la réaction du département de la Justice américain témoigne de la prise en compte par les autorités américaines du caractère transversal de l’action du géant logiciel. En plus des secteurs économiques traditionnels, les technologies de l’internet permettent à Microsoft d’imprimer sa marque dans des domaines qui relevaient jusque-là des prérogatives régaliennes des Etats. Ce qui faisait dire avec une ironie teintée d’amertume à Jason Catlett : « Microsoft ressemble étrangement à un gouvernement : créant des passeports, contrôlant les identités, imposant des taxes sur les transactions … Placer Microsoft au centre du commerce électronique est une idée aussi attirante que transformer le Triangle des Bermudes en terminal aérien… » [38]
29La puissance publique devra, tout particulièrement en Europe, veiller au respect de la concurrence et promouvoir des standards ouverts en particulier lorsqu’il est question des systèmes qui devront gérer l’internet lui-même. En effet, à l’issue de son procès, Microsoft est libre de se consacrer à sa priorité et combattre les seuls concurrents qui puissent encore menacer sa domination dans le secteur des systèmes d’exploitation : Linux et les logiciels libres. La communauté qui développe ces logiciels libres est d’ailleurs à l’origine des standards ouverts qui ont façonné l’histoire de l’internet. Et elle est directement menacée par l’étau juridico-technologique mis en place autour de la création sur l’internet. L’une des mesures qui pourrait « geler » son développement concerne les brevets logiciels. En effet, ces brevets pourraient favoriser une « judiciarisation » massive des logiciels et bloquer durablement les innovations dans le secteur des logiciels libres [39]. L’accès au code des applications devient à la fois l’enjeu des conflits industriels et l’outil régulatif qui permet de rééquilibrer les chances des acteurs en présence. Il est d’ailleurs intéressant de remarquer que les mesures antitrusts envisagées pour contraindre Microsoft (tant en Europe [40] qu’aux Etats-Unis [41]) ne sont plus liées à une éventuelle fragmentation de la société (dont les effets ne seraient pas nécessairement ceux que les autorités antitrust envisageaient au départ) mais reposent désormais sur une « publicisation » partielle ou totale du code source des logiciels incriminés.
30Mais si aux Etats-Unis les partisans d’une action des Etats sur l’internet commencent à se faire entendre, l’issue du débat est encore incertaine. En effet, attaquer le dogme du « zéro-Etat sur internet », c’est prendre le risque d’essuyer les feux croisés des politiciens ultra-libéraux et d’une communauté d’internautes américains pour laquelle le rôle de l’Etat ne peut être que néfaste. Alors même que c’est de l’Etat américain (en l’occurrence du Congrès) que proviennent les lois qui auront la plus grande influence sur l’évolution de l’internet : celle sur le copyright. Ainsi à la naïveté de John Perry Barlow dans sa Déclaration d’indépendance du Cyberespace en 1996 [42] répond aujourd’hui le pragmatisme de Lawrence Lessig pour qui rien ne prouve que les décisions prises « spontanément » par les acteurs industriels dans le domaine de l’internet bénéficieront aux citoyens [43].
31Notre situation en Europe semble s’inscrire à l’opposé : si les tenants d’une action de l’Etat ne se heurtent pas aux mêmes réticences de principe (ou en tout cas pas avec la même intensité), les connaissances des enjeux liés à l’architecture de l’internet demeurent le fait d’une infime fraction des responsables politiques. C’est la maîtrise de l’environnement technique et surtout de l’évolution de l’internet qui constituera la base des principales actions politiques dans le domaine de la société de l’information. Et s’il est maintenant évident que les technologies évoluent à un rythme infiniment plus rapide que celui des législateurs pour les intégrer a posteriori, le fait de les intégrer dans une réflexion a priori comme le propose Lawrence Lessig [44] exigera une réactivité et une formation plus grande des juristes qui sont, dit-il, des « traditionalistes réactifs [45]». Il n’est pas interdit de penser désormais que cette réactivité des juristes et des législateurs sera la garante d’une architecture qui est devenue l’une des principales ressources publiques de la société de l’information. L’un des objectifs majeurs de la régulation des codes techniques devra être la préservation de l’architecture d’échange de l’internet. Cela ne sera possible que si nous réussissons à rendre « visibles » par l’ensemble des citoyens les enjeux de cette architecture immatérielle de l’internet.
Conclusion : préserver les principes fondateurs de l’internet
32Les enjeux liésà l’architecture de l’internet sont souvent perçus comme essentiellement techniques. Ainsi dans l’abondante littérature sur l’internet en France, le rapport le plus politique a été étrangement celui qui fut perçu comme le plus technique, sans doute en raison de son titre : « Le développement technique de l’internet » [46]. Jean-François Abramatic, président du W3 Consortium, y décrit les risques de polarisation des infrastructures de transport des réseaux vers les Etats-Unis, risques qui ont fait l’objet d’analyses critiques [47]. Parmi ses recommandations, la nécessaire consolidation des « dorsales » intra-européennes [48] revêt aujourd’hui une importance stratégique considérable en terme de souveraineté des Etats mais aussi pour la fiabilité des réseaux européens en temps de crise. Favoriser ces rééquilibrages en Europe et éviter le recours systématique à des technologies qui portent en elles de nouveaux déséquilibres seront des objectifs politiques majeurs pour les responsables de la société de l’information. Les technologies ne pourront plus être analysées isolément en fonction des seuls bénéfices immédiats mais devront aussi être estimées en fonction de leur impact sur l’architecture générale de l’internet. Il faudra veiller en particulier à ce que ces technologies ne remettent pas en question les bases qui ont permis le développement d’un réseau d’échange. Le fait de revenir ne serait-ce que partiellement ou localement sur cette architecture pourrait avoir à terme de lourdes conséquences sur le devenir du réseau.
33En effet, pour maîtriser ces évolutions, il sera nécessaire de comprendre les mécanismes internes des technologies et leurs répercussions sur l’économie, la politique et la citoyenneté. Il s’agit de comprendre les réseaux pour éviter des dérives comme celles liées à la « clientélisation »à outrance de l’internet. En plus de l’espace que constituent ces réseaux, les citoyens devront s’en approprier les règles. Et le cours des évolutions actuelles ne pourra être modifié que si les décisions publiques s’appuient sur une information et un débat avec les citoyens/internautes. Ce n’est que depuis ce socle de légitimité que les acteurs publics pourront agir et informer les citoyens pour préserver les principes fondateurs de l’internet.
34Saurons-nous former de nouveaux responsables et dépasserons nous le stade de l’internet perçu comme un élément cosmétique dans la communication politique ? Le risque principal est de ne pas créer ces pôles de compétences assez rapidement et de laisser alors le soin aux acteurs industriels de réécrire à leur seul bénéfice la Constitution de la société de l’information. En effet, cette Constitution existe même si elle n’est pas encore discutée par les citoyens. Elle réside dans l’ensemble des codes qui gèrent le fonctionnement du réseau et définissent le cadre général des échanges entre les citoyens en réseau. Dans le même temps, nous devrons concevoir les bases d’une théorie politique des réseaux et en intégrer les principes dans cette Constitution de la société de l’information. Mais ces conditions ne seront réunies que si nous développons au sein des structures publiques une véritable maîtrise des conséquences politiques des choix technologiques.
35L’effort de formation des citoyens sera considérable. Mais si nous souhaitons que l’internet soit porteur d’innovations sociales et qu’il ne se réduise pas à une vitrine accessible aux seuls techno-instruits, nous ne pourrons en faire l’économie. Et le véritable développement des outils en ligne pour les citoyens ne sera possible qu’à partir du moment où les usagers pourront à la fois s’en saisir et participer à leur évolution. Mais là encore, ces actions ne pourront être menées que si elles sont précédées d’une sensibilisation de l’ensemble des citoyens et des législateurs.
Notes
-
[1]
« Napster, "le monstre" des labels menacé de fermeture », Le Monde 11 avril 2001, http://www.lemonde.fr/article/10,5987,3236-172298-,00.html
-
[2]
Voir sur ce point l’excellente synthèse Peer to Peer, D’Reilly & Associates (2001), http://www.oreilly.com/catalog/peertopeer/chapter/ch01.html
-
[3]
« P2P plans could create speedier Net » News.com, 27 juin 2001, http://news.cnet.com/news/0-1004-200-6394693.html
-
[4]
"Safe keeping" The Economist Technology Quaterly (septembre 2001), http://www.economist.com/science/tq/displayStory.cfm ?story_id=779564
-
[5]
« Come together, right now, over P2P », Salon.com, 14 décembre 2000, http://www.salon.com/tech/feature/2000/12/14/popular_power/index.html
-
[6]
"Just Compensation", par Larry Lessig, The Industry Standard, 9 avril 2001, http://cyberlaw.stanford.edu/lessig/content/is/0,1902,23401,00.html
-
[7]
"Hardwiring Copyright" dossier de News.com, http://news.cnet.com/news/0-l005-201-5211420-0.html
-
[8]
« Gestion des droits numériques : états des lieux à Bruxelles », Cyberpouvoirs, 5 mars 2002, http://www.techandco.com/cyber/getarticle.asp ?ID=59
-
[9]
Voir sur ce point le chapitre "Innovation from the internet" dans The Future of Ideas : The Fate of the Commons in a Connected World par Lawrence Lessig, Random House (2001).
-
[10]
« La taxe sur les ordinateurs a vécu » Libération 17 janvier 2001, http://www.liberation.fr/multi/actu/20010115/20010117mero.html
-
[11]
« RIAA Wants to Hack Your PC » par Declan McCullagh, Wired.com, 15 octobre 2001, http://www.wired.com/news/conflict/0.2100.47552.00.html
-
[12]
Ce qui fait dire à Lessig à propos de Dimitri Sklyarov, ce programmeur russe arrêté pour avoir développé un logiciel permettant de lire les livres électroniques d’Adobe : « M. Sklyarov se morfond encore en prison et se demande sans doute comment une société de liberté peut emprisonner celui qui écrit un programme légal dans son pays, simplement parce qu’il vient aux Etats Unis donner une conférence sur les failles des systèmes de cryptages. »
« Jail Time in the Digital Age » par Lawrence Lessig à propos du DMCA (Digital Millenium Copyright Act) dans le New York Times du 30 juillet 2001, http://www.nytimes.com/2001/07/30/opinion/30LESS.html -
[13]
Pirates, Prophets and Pioneers par Debora Spar, professeur à la Harvard Business School, Random House (2001).
-
[14]
Rethinking the design of the internet : The end to end arguments vs. the brave new world par David D. Clark et Marjory S. Blumenthal, 25th Telecommunications Policy Research Conference (2000), http://www.tprc.org/abstracts00/rethinking.pdf
-
[15]
Etude Media Metrix (2001), http://www.ecommercetimes.com/perl/story/10m.html
-
[16]
« Fracture à haut débit » par Bernard Benhamou, Libération du 27 février 2001, http://www.liberation.fr/quotidien/debats/fevrier01/20010227c.html, voir aussi le dossier « Les Business Models du Broadband » dans Wired (mai 2001) http://www.wired.com/wired/archive/9.05/broadband.html
-
[17]
Christian Pierret, secrétaire d’Etat à l’Industrie déclarait le 23 octobre 2001 : « L’ADSL ne sera pas un produit grand public à 300 F/mois. Il doit s’établir à un niveau de l’ordre de 200 F/mois comme en Allemagne (…) », http://www.intemet.gouv.fr/francais/frame-actualite.html#pierret231001
-
[18]
Telecosm : How Infinite Bandwidth Will Revolutionize Our World, George Gilder, Free Press (2000).
-
[19]
"Michael Powell : The Great Deregulator", Washington Post, 18 juin 2001, http://www.washtech.com/news/regulation/10574-1.html
-
[20]
The Digital Divide : Facing a Crisis or Creating a Myth ? dirigé par Benjamin Compaine, MIT Press (2001),
-
[21]
Etude de l’OCDE sur la fracture numérique, http://www.oecd.org/dsti/sti/prod/Digital_divide.pdf
-
[22]
« Intelligence artificielle : la fin des certitudes », Le Monde Interactif, 10 octobre 2001/ http://interactif.lemonde.fr/ article/0,5611,2858-6552-229508-0,FF.html, lire aussi sur ces sujets HAL’s Legacy) : 2001’s Computer as Dream and Reality par David G. Stork et Arthur Charles Clarke, MIT Press (1998).
-
[23]
The Invisible Computer par Donald Norman, MIT Press (1999)/ http://mitpress.mit.edu/books/NORVP/interview.html
-
[24]
Voir l’étude du SESSI Les Français se hâtent lentement sur l’internet (août 2001) http://www.industrie.gouv.fr/biblioth/docu/4pages/pdf/4p152.pdf
-
[25]
La Galaxie internet par Manuel Castells, Fayard (2002).
-
[26]
« Le réseau en quête d’espace infini », Libération 18 mai 2001, http://www.liberation.fr/multi/actu/20010514/20010518venza.html
-
[27]
« Will W3C mean dollar signs ? », News.com, 5 octobre 2001, http://news.cnet.com/news/0-1005-200-7412848.html
-
[28]
"A Smarter Web", MIT Technology Review, novembre 2001 http://www.techreview.com/magazine/nov01/frauenfelderall.asp
-
[29]
Cf. Etude du Children Partnership, Les nouvelles frontières de la fracture numérique, http://www.childrenspartnership.org/pub/low_income/introduction.html
-
[30]
Cf. schéma sur la structure du web réalisé par le laboratoire de Recherche d’IBM à Almaden, http://www.almaden.ibm.com/cs/k53/www9.final/ aussi commenté dans Libération (17 mai 2000), http://www.Iiberation.fr/multi/actu/20000515/20000517.html
-
[31]
Republic.com par Cass Sunstein, Princeton University Press (2001).
-
[32]
Cicéron (106-43 avant Jésus-Christ) in Pro T. Annio Milone, http://www.ancientlanguages.org/claslattexts/cicero/promilone1.html
-
[33]
« Internet Vulnerable to Terrorists, Experts Wam », Washington Post, 28 septembre 2001, http://www.washtech.com/news/netarch/12763-1.html
-
[34]
« Govt. Tech Security Officials Visit Key Net Facility », Washington Post, 13 novembre 2001, http://www.washtech.com/news/netarch/13672-1.html
-
[35]
« Internet protocol proposal raises privacy concerns », News.com, 14 octobre 1999, http://news.cnet.com/news/0-16334-200-852235.html
-
[36]
Carnivore désormais renommé DCS 1000 est un logiciel qui permet d’écouter l’ensemble des échanges des internautes avec leur fournisseur d’accès internet. Longtemps refusé aux Etats-Unis, ce système a été adopté massivement par les FAI américains après les attentats du 11 septembre 2001.
-
[37]
« Disconnect the dots », entretiens paru dans le Washington Post le 17 septembre 2001, http://www.washtech.com/news/regulation/12516-l.html
-
[38]
Article du San Jose Mercury News sur le Passeport créé par Microsoft, http://www.siliconvalley.com/docs/news/depth/passpt071501.htm
-
[39]
Il est à noter que les brevets logiciels ont été les invités inattendus de la campagne présidentielle. En l’espace de quelques semaines ce sujet qui était réservé aux spécialistes de la propriété intellectuelle est devenu le point de ralliement de l’ensemble des candidats à la présidentielle. (Cf. CyberPouvoirs, mars 2002, http://www.techandco.com/cyber/getarticle.asp ?ID=59
-
[40]
« Microsoft Resisting Licensing of Its Code », article du New York Times du 4 décembre 2001, http://www.nytimes.com/2001/12/04/technology/ebusiness/04SOFT.html
-
[41]
Voir les articles du Washington Post du 18 janvier 2002 : « Wording of Microsoft Deal Too Loose, Analyses Say », http://www.washtech.com/news/regulation/14736-1.html et de News.com : « States use source code to press Microsoft du 7 décembre 2001 », http://news.com.com/2100-1001-276733.html
-
[42]
« Gouvernements du monde industriel, vous géants fatigués de chair et d’acier, je viens de l’internet, le nouveau domicile de l’esprit. Au nom du futur, je vous demande à vous du passé de nous laisser tranquilles. Vous n’êtes pas les bienvenus parmi nous. Vous n’avez pas de souveraineté où nous nous rassemblons. » Déclaration d’indépendance du Cyberespace par John P. Barlow, cofondateur de l’Electronic Frontier Foundation, le 9 février 1996, http://www.eff.org/~barlow/Declaration-Final.html
-
[43]
« Quand le gouvernement se retire, ce n’est pas comme si rien ne prenait sa place. Le paradis ne l’emporte pas. Ce n’est pas comme si les intérêts privés n’avaient pas leur propre motivation, leur finalité qu’ils poursuivront alors. Appuyer sur le bouton « antigouvernement » ne nous téléportera pas dans un éden. Quand les intérêts du gouvernement s’effacent, d’autres intérêts les remplacent. Savons-nous ce que sont ces intérêts ? Sommes-nous certains qu’ils sont meilleurs ? » extrait de Code and other laws of Cyberspace, p. 220, L. Lessig, Basic Books (1999).
-
[44]
Ibid.
-
[45]
"In the Next Chapter, Is Technology an Ally ?" New York Times, 27 septembre 2001, http://www.nytimes.com/2001/09/27/technology/circuits/27TECH.html
-
[46]
Rapport de Jean-François Abramatic, Le développement technique de l’internet, (1999), http://mission-dti.inria.fr
-
[47]
« Les termes inégaux des échanges électroniques » par Philippe Quéau, Le Monde Diplomatique, février 1999, http://www.monde-diplomatique.fr/1999/02/QUEAU/11618.html
-
[48]
« Les connexions européennes, américaines et internationales, en général, sont bien sûr particulièrement importantes puisque l’internet est une infrastructure mondiale. La jeunesse de l’offre de services sur le territoire national rend les termes de l’échange défavorables pour les fournisseurs d’accès nationaux… Des efforts additionnels sont cependant indispensables pour permettre à la communauté nationale de disposer d’un environnement comparable à celui de ses pairs à travers le monde. Enfin, les connexions européennes présentent, à leur échelle, des caractéristiques d’insuffisance en termes de densité d’interconnexions. » Extrait du rapport Abramatic Le développement technique de l’internet, (1999).