1Nous n’avons guère de traditions pour penser ensemble technique et politique. Les anciens ont eu tendance à les disqualifier comme artefacts et illusions. Les modernes ont réussi ce tour de force de leur attribuer le même caractère indiscutable qu’aux faits scientifiques, à cette science déjà faite (Latour), qui pourtant s’appuyait en permanence sur ces artefacts que sont les laboratoires et les appareillages scientifiques. Dès+ lors, les techniques n’ont plus été traitées politiquement que sur le mode de la nécessité, parfois même de la fatalité. Leur justification n’était pas de ce monde, et surtout pas du monde de la politique. C’est ainsi que s’est constituée comme le dit Ulrich Beck, cette sphère de la « sub-politique » où toutes les décisions importantes en recherche ou en technologies se déroulent hors des espaces de débat démocratique. Il la situe aussi dans les conseils d’administration des grandes firmes, qui sont eux aussi soustraits à tout débat politique alors que leurs actes affectent toujours plus de citoyens. Certains, comme Habermas, avaient élargi cette critique pour montrer la différence des raisons en jeu, entre la raison dialogique de l’espace public et la raison instrumentale de la technique. À sa suite, nombreuses ont été les théories critiques qui ont voulu démontrer comment la technique détruisait l’autonomie (Illich) et qui ont lancé les anathèmes contre la technoscience. Il est vrai que les rares théories que les sciences humaines pouvaient opposer à ces visions critiques a priori étaient souvent organisées autour d’une notion de système technique (Daumas) qui avait largement tendance à renforcer cette vision de la « technique maître » (Latour, 1992).
2Lawrence Lessig (1998) fait partie de ceux qui permettent de sortir de cette vision fatale en réintroduisant les choix possibles parmi les architectures techniques. Toute architecture (pour lui, le code du réseau, car c’était le terrain de sa démonstration) est selon lui le résultat d’un arbitrage entre plusieurs modes de régulation : la loi (la règle), le marché, la norme, la technique. La technique peut avoir des évolutions propres mais elles ne se cristallisent en architectures qu’à la condition de trouver des compromis avec les autres modes de régulation, qu’elle a tendance à déstabiliser en permanence. En montrant comment les réseaux installés dans deux universités peuvent différer radicalement par la nature même des compromis trouvés entre tous ces modes de régulation, il nous affranchit de toute soumission vis à vis des diktats supposés de l’informatique (on connaît l’alibi parfait : « c’est la faute à l’informatique » qui signe la toute puissance du dispositif dans les imaginaires, très loin de la réalité). Dès lors que l’espace s’ouvre pour des choix techniques non prédéterminés, la politique peut enfin reprendre ses droits, c’est-à-dire le débat, pour composer le monde commun qui convient. Il n’est plus possible de prendre pour acquis les effets des monopoles tels que les ont constitués IBM puis Microsoft, et aujourd’hui Google, ou comme tentent de le faire les opérateurs de télécoms (actuellement, en 2007, la fatalité qui nous est servie comme exigence politique indiscutable – ce qui est une contradiction dans les termes – c’est la fibre optique à domicile). On peut cependant comprendre aisément que ces supposées lois du marché finissent par conduire au monopole du plus fort. On comprend moins pourquoi dans les laboratoires publics eux-mêmes, se constituent des effets de « monopole cognitif », qui sont pour une part des « dépendances de sentier » mais pas uniquement, pour empêcher tout pluralisme des orientations de recherche. C’est ce qui s’est passé depuis dix ans à propos des architectures peer to peer qui ont été totalement négligées par les laboratoires académiques, tout à leur recherche de puissance maximale des serveurs puisque seule l’architecture client-serveur semblait permettre un contrôle satisfaisant des dispositifs. Aucune recherche sérieuse sur le P2P ne fut conduite avant 2003 en France, après plusieurs années d’innovation radicale dans les réseaux informels (mais avec l’aide des mêmes chercheurs en informatique à leurs heures perdues !). De même, la polarisation sur le micro-ordinateur (qui avait eu du mal à s’imposer face aux mainframes jusqu’en 1988 comme base de tous les systèmes), fait oublier la puissance de diffusion du téléphone portable, terminal populaire par excellence, car construit sur des traditions d’usages largement partagées (Boullier, 2001).
3Une fois remise à sa place la technique, il redevient possible de débattre de tous les choix sans exception, en refusant par principe tous les arguments d’autorité qui prétendent qu’il n’y a pas d’autres solutions, que les choix sont évidents, que c’est une loi de la technique. S’il existe une loi dans le domaine des TIC en particulier, c’est bien qu’il n’existe aucune loi quant à l’orientation future de ses développements, si ce n’est la loi de Moore, qui continue à se vérifier au moins jusqu’en 2015 d’après l’auteur lui-même (le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans). Il reste cependant à inventer les procédures, les espaces politiques qui permettraient ces débats, en prenant en compte l’hétérogénéité des savoirs en présence et la nécessité de sortir des rails des questions qui se posent trop spontanément.
Le modèle de la boussole cosmopolitique
4Pour penser cette réouverture des débats avec les sciences et les techniques, nous avons produit un modèle relativement simple, et donc réducteur, à partir des travaux d’Isabelle Stengers et de Bruno Latour (dans le cadre de la revue Cosmopolitiques). La première a fort bien théorisé la prise en compte nécessaire de l’incertitude qui constitue le cadre non seulement de l’activité scientifique mais de toutes nos activités contemporaines. Bruno Latour de son côté a cherché à penser le modernisme comme processus systématique de détachement, vis-à-vis du cosmos (l’effet laboratoire), des traditions, de la culture (pour produire des faits bien distincts des valeurs). En croisant ces deux axes, à la mode d’un carré sémiotique, nous produisons ainsi ce que nous avons appelé une « boussole » car elle nous permet de nous orienter dans ce monde où chacun a le sentiment de perdre prise, de perdre pied, dès lors que la flèche du progrès n’oriente plus nos visions de l’avenir. Ce qui nous permet de trouver une place pour les politiques contrastées selon que l’on refuse ou non l’incertitude, selon que l’on poursuit ou non le détachement engagé avec le modernisme.
5Le tableau proposé ne doit pas conduire à considérer qu’« une seule solution » s’impose désormais, car la particularité des cosmopolitiques est de permettre la reprise des avantages des politiques précédentes qui continuent à co-exister.
6Cette ouverture s’inscrit dans la filiation déjà évoquée de Lessig mais aussi dans celle des principes pluralistes fondés par Walzer dans ses sphères de justice, ou encore de la pragmatique pluraliste des régimes d’action proposée par Thévenot. À la différence des précédentes, elle veut rendre compte à la fois des évolutions historiques et des placements de ces positions dans un espace politique pluraliste. Nous ne reconstituons pas ici toutes les activités nécessaires pour faire tenir ces politiques, ni même leurs forces respectives dans l’orientation actuelle du monde, mais nous cherchons à montrer que tous ces possibles techniques sont portés par des (et porteurs de) politiques qui combinent attachements/détachement et certitudes/incertitude. Les possibles techniques sont présents, il ne s’agit pas de les imaginer, leur poids politique est cependant très différent. De plus, insistons dès maintenant pour souligner qu’il n’existe pas de fin au débat démocratique pour trouver la « vie bonne » car nous pouvons sans cesse re-parcourir chaque architecture pour voir en son sein des choix de plus en plus précis encore possibles, en s’aidant à nouveau des axes proposés : c’est le cas des architectures peer to peer par exemple qui s’opposent certes ensemble au client/ serveur notamment (mais pas seulement) mais qui peuvent ensuite être elles mêmes soumises à débat tant leurs architectures internes sont variées.
Les architectures d’Internet
Les architectures d’Internet
7La tradition informatique pourrait être représentée historiquement par les gros calculateurs qui ont tout dominé jusqu’à l’arrivée de la micro informatique à partir de 1980. Les terminaux précédant cette époque étaient totalement asservis à des machines qui centralisaient les données et les puissances de calcul, réseaux dédiés, privés, sur la base de lignes louées à plein temps. Les réseaux étaient dépendants de la connexion entres ces machines qui donneront naissance à Arpanet, sur des bases de complémentarité pour la sécurité et non de distribution de ressources. En France, à partir de 1981, le Minitel reprend une architecture similaire, mais appuyée sur Transpac, et celle-ci pouvait prétendre jusqu’en 1988 constituer le futur de la « télématique ». Notons qu’une autre architecture à base de paquets avait été proposée avec le projet Cyclades mais délibérément stoppée en 1978, car trop ouvert (on disait aussi « ‘instable », ce qui deviendra une qualité par la suite !) pour être compatible avec le monopole (comme le dit la revue Code source de l’Inria : http://www.inria.fr/40ans/codesource/pdf/codesource11.pdf
8Mais, à partir de 1988, naît par exemple Compuserve qui peut s’appuyer sur des terminaux devenus autonomes grâce à leurs capacités de calcul, les micro-ordinateurs : leur connexion en réseau modifie les équilibres dans le sens d’une plus grande distribution des ressources. Pourtant, c’est une architecture client-serveur qui va s’installer, dans la mesure où les applications et les données doivent être localisées pour que les autres machines puissent y accéder. Nous passons donc d’une grande asymétrie à une asymétrie diffuse, qui permet de se détacher des grands centres de calcul, certes, mais qui reste fondée sur des centres qui mettent à disposition des données pour les autres. C’est ici que l’on peut identifier les certitudes, dans le fait qu’un centre reste identifiable, y compris légalement, comme on peut le voir pour le Web et les fournisseurs d’accès Internet (FAI).
9Or, avec le peer-to-peer, qui se fait connaître à partir de 1999, aucun centre n’est plus identifiable : toutes les machines mettent à disposition des autres leurs ressources, données ou logicielles, pour devenir fournisseurs temporaires selon les demandes. Le terme peer dit bien qu’on a rétabli la parité entre les machines (nous verrons que c’est en fait plus compliqué que cela) et que l’on a prolongé le détachement vis-à-vis des grands centres et des références qui était déjà le mouvement amorcé par l’architecture client-serveur. Mais dans le même temps, on en a augmenté l’incertitude, puisque toute machine peut devenir serveur à tour de rôle sans avoir à être spécialisée dans cette fonction. L’augmentation des débits est une condition pour que cette architecture fonctionne et notamment une plus grande symétrie entre débits ascendants et descendants (ce qui n’est pas la politique des fournisseurs d’accès actuels au domicile, y compris pour la FTTH (Fiber to The Home), qui comporte aussi de l’asymétrie de débit). Les questions de symétrie et d’asymétrie sont des questions essentiellement politiques, car dès lors qu’on produit ce qu’on appellerait classiquement des inégalités, on fait un choix délibéré en hiérarchisant certains accès ou certaines machines.
10Or, tout cela a-t-il été débattu quelque part ? Inutile, direz vous, puisque, spontanément, naissent des correctifs, et l’on finit par se laisser porter par un évolutionnisme implicite, qui permettrait la survie de ceux qui s’adaptent parmi toutes les solutions d’architecture proposées. Il n’en reste pas moins que cet optimiste naturaliste conduit au laisser-faire et à la délégation des pouvoirs à des entités non répertoriées comme politiques, telles le W3C, qui, dans tous les cas, ne parviennent pas à réguler les émergences d’architectures nouvelles. Internet est en effet devenu un milieu, au sens simondonien, où les innovations peuvent se générer sans planification, avec un mode d’essai/erreur dans un chantier à ciel ouvert qui raccourcit énormément le cycle de conception. Mais on mesure alors encore plus le décalage des politiques publiques dans ce domaine qui restent figées sur les architectures anciennes et qui orientent les financements vers des impasses déjà reconnues par tous ceux qui sont attentifs aux signaux faibles et à la vitalité du milieu Internet. Le problème n’est donc pas de vouloir à tout prix réduire l’incertitude en termes d’architectures ou de réduire la fermentation constante observée sur Internet, mais d’admettre au contraire cette incertitude et surtout de ne pas prétendre piloter des politiques techniques sur la base d’architectures prétendues fatales, indiscutables, alors qu’elles sont contestées et dépassées par d’autres rapidement. Or, ce fut le cas pour le peer to peer : les laboratoires académiques et industriels n’ont pas pris ce modèle d’architecture au sérieux avant 2003, malgré ce que certains pionniers d’Internet demandaient, tel Louis Pouzin (déjà créateur du projet Cyclades évoqué précédemment et considéré comme le père des technologies, les datagrammes, utilisées ensuite pour le protocole TCP-IP qui est à la base de l’Internet actuel). Cette politique repose sur le refus de l’incertitude générée par des réseaux de plus en plus ouverts et l’on sent bien que toutes les décisions politiques reviennent à cela : on cherche alors à préserver ce qui est souvent devenu une rente de situation, ou encore un blocage cognitif face à une rupture paradigmatique, ou enfin une dépendance de sentier créée par les investissements considérables déjà effectués, sur le plan des machines ou des humains, et qui obligent à rester dans le même rail pour des raisons de coûts.
11Le tableau ne propose pas de quatrième piste. On peut cependant noter que l’intégration des trois postures précédentes est en cours. Ainsi les « web services » reportent une grande partie du calcul à nouveau sur les serveurs et non plus sur le terminal client. De même, les grids, les architectures de calcul parallèle de masse, permettent de mettre en réseau des milliers d’ordinateurs mais selon un programme de travail centralisé et contrôlé. Cette distribution de la puissance de calcul peut ainsi être détournée de la voie politique du peer to peer pour en faire une forme de fédération qui possède un vrai leadership. Notons que cette organisation est alors provisoire. On récupère ainsi à la fois les attachements et les références que l’on avait perdus dans le peer to peer mais on les rend adaptables aux situations et aux coopérations les plus précaires, comme le veut l’impératif d’incertitude.
Le peer to peer lui-même pluriel
12Mais l’intérêt de ce petit modèle de la boussole cosmopolitique, c’est qu’il n’arrête pas l’histoire, c’est-à-dire qu’il restitue sa continuité et sa persistance au débat politique. Le peer-to-peer lui-même est objet de débats qui s’orientent selon les mêmes axes car il est lui aussi l’objet de politiques plurielles qui méritent aussi discussions voire controverses. On pourrait donc dire, si l’on ne craignait le pédantisme et l’analogie abusive, que le modèle de notre boussole est fractal !
13Le peer to peer a en effet connu déjà plusieurs versions qui se sont succédées mais aussi sont restées en concurrence. C’est en effet souvent le cas dans les innovations comme l’ont largement montré Akrich, Callon et Latour dans tous leurs travaux : le récit rétrospectif de ces innovations tend à la linéarité organisée en faveur du vainqueur et à l’oubli des controverses et des incertitudes qui existaient à une époque donnée. Remettre les architectures techniques en politique suppose de prendre au sérieux toutes les controverses et de ne pas oublier les solutions qui ont pu paraître abandonnées car ce sont elles qui pourront être gagnantes un peu plus tard. En 6 ans, 4 architectures de peer to peer ont ainsi émergé.
14Il est assez significatif que l’on ait quasiment oublié désormais que Napster, pionnier du peer to peer, fonctionnait sur la base d’un serveur qui référençait les ressources distribuées sur les autres machines. C’est d’ailleurs ce qui a provoqué sa perte, à la suite de procès retentissants, puisqu’il était aisé de lui attribuer la responsabilité des téléchargements illégaux qu’il rendait possible en indexant les sources. C’est donc un prolongement d’un impératif de références et de certitudes que l’on retrouve au cœur même de cette architecture pourtant productrice d’incertitude et de détachement si on la compare aux architectures client-serveur par exemple. Mais elle est vite concurrencée et remplacée par une architecture nettement plus détachée de tout centre et de toute référence, celle qui s’installe avec eDonkey (2000), Kazaa (2001) et eMule (2002). À noter que certains de ces systèmes sont encore opérationnels en 2007, comme eMule, à la différence de Napster. Mais Kazaa fut aussi la cible des majors du disque, et malgré certaines victoires devant les tribunaux, finit par disparaître de fait. De même eMule a vu certains serveurs saisis par la justice mais sans effet véritable puisque le protocole Kademlia permet de se passer de ces serveurs. Tous ces systèmes restent cependant porteurs de stabilité et de certitudes pour l’échange car les ressources sont identifiables en permanence : c’est d’ailleurs le seul moyen de récupérer des films ou de la musique plus ancienne, qui ne fait pas l’objet d’un buzz. La mise à disposition de sa machine est en effet permanente dès que l’on ouvre l’application, même si l’on peut choisir ce que l’on met à disposition pour le téléchargement par d’autres pairs.
15Cette stabilité relative qui fournit malgré tout quelques certitudes, ne se retrouve plus avec Bit Torrent, qui apparaît en 2002 : les torrents de données en question sont disponibles à un débit largement supérieur aux systèmes précédents parce que la machine qui télécharge (client qui download) devient aussitôt fournisseur du même contenu (serveur qui upload). Cet effet d’accélération ne fonctionne que sur certains contenus largement partagés à un moment donné car ensuite les demandes diminuant, les torrents peuvent être carrément taris. Ce qui produit un effet d’incertitude indéniable car dès lors que l’attention des internautes faiblit sur un sujet, les sources (seeds) se raréfient et il devient quasiment impossible de trouver les sources plus anciennes de quelques mois. Pour localiser les torrents, il est de toute façon nécessaire de faire appel à des sites qui les référencent, sans les fournir (ex. : Mininova). La question de l’orientation (Boullier et Ghitalla) reste en effet fondamentale même lorsqu’une politique d’incertitude maximale est apparemment assumée. L’architecture dissocie dans ce cas complètement la circulation des infos et les sites d’orientation et de référencement ; ce qui évite aussi de nombreux problèmes légaux.
16Enfin, en 2003 apparaît Waste, qui reste dans une logique peer to peer mais qui réduit le détachement vis-à-vis des références, non pas en recréant un serveur mais en organisant une communauté réduite (50 personnes maximum), qui entre eux peuvent tout s’échanger en toute transparence car leurs échanges sont cryptés et donc totalement invisibles de l’extérieur. À un centre serveur s’est donc substitué, là aussi, un collectif à géométrie variable mais restreint (la devise de l’un des sites vaut son pesant de déclaration politique : « échange 200 000 inconnus contre un baril de potes ! »). Les différents avantages de chacune des architectures sont cumulés mais au prix d’un repli sur des attachements plus fermés et non dans le détachement général qui prévalait pour les réseaux P2P ouverts. Dans cette architecture, ce ne sont plus les machines qui sont les centres mais des nodes dont le statut informatique ne permet pas de les attacher à une adresse IP.
17Ainsi, les solutions P2P sont elles mêmes plurielles, débattues, combattues, améliorées, abandonnées, etc. Aucune loi d’évolution sur ce plan. Et aucun principe légal a priori non plus. Il est possible de reprendre chacune de ces architectures pour voir comment leur naissance combine les trois autres modes de régulation proposés par Lawrence Lessig : la règle (les majors attaquent en justice et la loi évolue à travers ces procès), la norme (les utilisateurs s’affranchissent ou non de certaines régulations et sont capables de se normaliser, en fermant ou en ouvrant leurs groupes selon les circonstances), le marché (plusieurs architectures P2P valorisent ceux qui fournissent des données et pénalisent ceux qui profitent seulement des ressources disponibles – les leechers – sans rien donner en échange : les premiers bénéficient de flux plus actifs selon la cote qu’ils obtiennent, ce qui est un mécanisme de valorisation calculée de la contribution de chacun, qui équivaut à une rémunération). Et tous les protocoles réalisent en permanence un arbitrage entre ces modes de régulation pour corriger les défauts des précédents tout en réexploitant leurs atouts, selon les visées des utilisateurs concernés.
Politiques d’orientation et de navigation
18Dans cette offre foisonnante et dans ces architectures évolutives, l’enjeu de l’orientation est revenu à plusieurs reprises. Ce n’est pas un hasard si la firme qui a fait le bond le plus spectaculaire en dix ans, au point de donner parfois l’image d’un monopole, est un moteur de recherches, Google. Sa puissance lui permet maintenant d’agréger tous les services qu’elle souhaite, comme dans toute logique d’acteur de l’intermédiation qui devient point de passage obligé (PPO). Là encore, plusieurs politiques d’orientation sont possibles. Et la question n’est pas de réaliser un moteur européen contre le Google américain, car, comme on le voit, cette politique-là est la vieille politique des états-nations qui ne sait pas prendre pied dans les débats d’architecture. Dès lors, Quaero s’est réduit comme peau de chagrin à un programme français, malgré toutes les qualités du moteur d’Exalead. La question était bien de politiser l’architecture technique elle-même et de sortir du modèle Google radicalement et non de le copier pour l’européaniser. Si l’on produit la boussole de ces modes d’orientation, on fait apparaître l’espace politique qui existe pour produire de nouvelles offres originales et surtout politiquement porteuses d’autres modèles de « l’être-ensemble ».
19Le grand projet qui a mobilisé les labos depuis 1995 environ fut le modèle du Web sémantique proposé par Tim Berners-Lee, considéré comme le créateur du Web lui-même. Les efforts engloutis dans cette seule politique d’architecture d’orientation sont sans commune mesure avec les autres, notamment sur le plan académique. Le principe repose sur une forme d’extension de ce qui est produit dans certains milieux professionnels (médicaux, le DSM, ou l’aéronautique) et dans les bibliothèques (la classification Dewey) : toute information produite sur le Web et donc tout site, doit renvoyer à une référence et une seule, elle-même renseignée par son auteur et conforme à une classification standard qui décrit le monde in extenso en catégories stables, fermées, aux frontières nettes. Ce modèle ne fonctionne dans les milieux décrits qu’au prix de corrections (ainsi pour la classification Dewey) et de contournements pour les cas : l’art de cataloguer repose dès lors lui aussi sur une casuistique qui en fait un travail d’experts, rendant son extension impossible à tout le public du Web, il ne fallut pas longtemps pour l’admettre. Mais le principe lui-même consiste bien à supposer que les désignations du monde ont des correspondances bi-univoques dans le monde et que le langage est producteur d’étiquettes qu’il suffirait d’inventorier et de ranger dans des champs conceptuels qui s’autodéfinissent. Or, le langage produit de l’impropriété par définition, et la langue produit du malentendu et de l’arbitraire (Gagnepain). Mais il serait conforme à la tradition et à la recherche de certitudes de s’appuyer sur des autorités pour réduire ces ambiguïtés, ces impropriétés et ces malentendus. Les autorités, qui sont calculées sur le Web comme étant les sites auxquels il est fait référence le plus souvent (en dehors des moteurs), sont des modes d’orientation qui organisent l’attachement à des référents stables, supposés hors du monde, puisque pouvant se soustraire aux débats constants sur les façons de nommer le monde lui-même. Tout dépend donc du pouvoir disciplinaire de ces autorités et l’on sait maintenant que non seulement le Web ne fonctionne pas sur ces bases disciplinaires mais qui plus est, les ontologies (car c’est d’elles dont il s’agit) ne fonctionnent que de façon restreinte dans les milieux fermés et stables (d’où les échecs répétés de tous les dispositifs de Knowledge Management fondés sur ce principe). J’avais critiqué cette vision dès 1998 dans une tribune de Libération reprise dans mon ouvrage de 1999, en montrant que les « indexations subjectives » fonctionnaient beaucoup mieux dans les situations d’informations ordinaires et qu’il était plus sage d’envisager leur extension dans le cas du Web. C’est ce qui s’est passé avec le développement de la navigation sociale et de tous les systèmes de social tagging, que l’on connaît sur Flickr et sur del.ic.ious notamment. Mais, même si tous les indices d’une autre politique d’orientation étaient déjà présents au même moment, avant d’en venir à ce point, reconstituons toutes les autres politiques possibles.
20La politique que l’on dirait « moderne » sur ce plan est celle qui organise le détachement vis-à-vis des grandes autorités, des références qui étaient religieuses et qui sont devenues scientifiques. La hiérarchie des références n’est plus celle d’une supposée ontologie hors contexte, mais celle des ventes et des réputations organisées par les portails marchands et des agrégateurs de contenus. Tout se passe comme si la publicisation devenait le critère intrinsèque des classements et des rapprochements : mais il se trouve que cette publication des savoirs et des informations de tous types prétend être monopolisée par les grands intermédiaires marchands qui organisaient déjà la musique ou l’édition en général mais qui veulent prendre pied sur Internet avec les mêmes modèles. Celui qui oriente n’est plus le spécialiste du domaine mais celui qui vend le produit. Ce peut être aussi celui qui diffuse, mais dans ce cas, il est lui-même rémunéré par la publicité, qui est la forme de dérivation la plus étonnante de notre impératif démocratique de publicisation. C’est le cas lorsqu’il devient plus aisé de retrouver les références d’un auteur par le site de la FNAC ou d’Amazon que par certains serveurs d’information scientifique par exemple.
21Ce mouvement ne peut se produire qu’au prix d’une raréfaction des informations ; ce qui était déjà le cas pour les modèles savants et autorisés de la tradition, mais qui va à l’encontre de l’énorme production non référencée générée sur le Web. Dès lors, le respect des droits de propriété intellectuelle fonctionne comme un système d’enclosures (Moulier-Boutang) qui vise à exclure tout un pan de la production de tout le travail d’orientation. Les intermédiaires marchands prétendent faire dériver leur pouvoir de cette intermédiation au service des auteurs (dont ils captent la parole de façon souvent incontrôlée). Ce processus a été mis en place par iTunes pour la musique avec utilisation des systèmes de DRM (Digital Right Management) à l’extrême. Ce qui revient vraiment à fermer les frontières de l’offre au profit de quelques fournisseurs (mais S. Jobs a dû reconnaître dès début 2007 que la bataille des DRM était de toutes façons perdue).
22Ce processus de prise de pouvoir des intermédiaires se constituant en point de passage obligé (PPO) est exactement celui qui a permis avec beaucoup plus de succès à Google d’occuper la position de boussole pour toutes les recherches. Sa position est encore plus intéressante car il n’a pas à proposer d’enclosures puisqu’il prétend tout référencer. Mais il le fait avec son propre algorithme PageRank, qui prend en compte les liens et le trafic mais aussi d’autres critères toujours conservés secrets. D’autres réponses clairement identifiées comme commerciales sont aussi proposées et elles donnent lieu à paiement auprès de Google. Mais le Page Rank est devenu tellement puissant dans l’orientation de millions d’internautes (sur le Web) que son caractère secret et privé finit par poser problème : voilà typiquement une architecture vitale qui se trouve soustraite à la discussion politique, et qui fait apparaître ou disparaître des entités selon des critères non validés. D’autant que rares sont les internautes qui vont prolonger leur consultation d’une liste, par ailleurs fort traditionnelle dans son format sémiotique, au-delà de la seconde page. Les réputations finissent ainsi par être construites par les instruments de calcul de la réputation elle-même, ce qui est un processus classiquement autoréférentiel que l’on trouve pour la mesure d’audience par exemple. Mais tout cela installe des certitudes, et avant tout celle-ci : Google fait exister ou non le Web accessible. Google a l’avantage de garder prise sur le Web non référencé, non clôturé, tout en produisant une clôture de fait, mais jamais reconnue, puisqu’elle est naturalisée comme un outil transparent traitant toute l’information disponible. En effet, la prétention au détachement vis-à-vis des autorités et des communautés de référence qui porte le modèle marchand moderne d’orientation dans les contenus ne fonctionne qu’en produisant de nouvelles certitudes, de nouvelles garanties, celles des fournisseurs de contenus qui y deviennent autorités de substitution.
23Or, l’effervescence de création de contenus de tous types sur le Web ne peut plus être maîtrisée par personne. C’est au contraire la désorientation qui semble valorisée puisqu’il s’agit alors de profiter des effets d’opportunité créés par cette abondance de biens et de ressources, non organisés a priori ni certifiées par personne. Ce qui angoissait le tenant des politiques traditionnelles et modernes est au contraire ce qui attire le tenant d’une politique relativiste : pouvoir « surfer » sans cadre prédéfini et arpenter un univers incertain, totalement détaché de tous repères et références. Cet engagement que nous avons qualifié d’opportuniste (qui pourrait s’apparenter au régime de l’exploration proposé par Nicolas Auray) tend alors à valoriser ce qui est saillant par le seul fait de la réputation créée par cet effet médiatique amplifié et ouvert. Mais peuvent alors se construire des connexions imprévues selon les lois de « serendipity » qui gouvernent les comportements de recherche dans un tel univers. C’est le seul comportement qui permette d’ailleurs de survivre, sinon la désorientation devient très coûteuse (Boullier, Ghitalla). C’est aussi grâce à cette seule vertu de mise en relation sans centre, que l’architecture peer to peer a pu gagner en visibilité et en intérêt. S’orienter dans ce monde n’est plus une question d’autorités ou de centres de ressources contrôlant des contenus mais de mise à disposition la plus large possible, parmi lesquelles on finit par trouver ce que l’on cherche…ou que l’on ne cherchait pas vraiment, car là n’est plus la posture dominante.
24Cette politique relativiste est devenue insupportable pour les majors qui veulent contrôler les contenus mais aussi pour les internautes les plus démunis de ressources qui ne peuvent que se perdre dans ce maquis. Il est dès lors aisé de présenter les politiques modernes d’enclosures et de rareté comme les seuls moyens de restituer de l’orientation. Il existe en fait une quatrième politique d’orientation déjà en place qui correspond exactement à ce que nous avons appelé « indexation subjective » : la navigation sociale (Dieberger, Dourish et al.), le social tagging et les folksonomies, mises en œuvre sur Flickr ou sur del.ic.ious par exemple. Comme nous l’avons montré en étudiant les stratégies d’orientation des internautes, le monde qu’ils arpentent n’est pas constitué de significations pures et de concepts détachés de leur expérience propre. C’est en permanence un entrecroisement entre cette expérience, les liens sociaux qu’elle manifeste, les saillances sémiotiques des données consultées, et leurs propriétés sémantiques, qui leur permet de sélectionner les points cardinaux de leur vision du monde. Dès lors, « cafetière » n’a aucun sens intrinsèque ou « sens littéral » comme on dit, mais vient toujours attaché avec le contexte de la fête des mères par exemple, de l’expérience du supermarché habituel, avec le conseil d’une amie sur la meilleure marque ou le souvenir des publicités aperçues même malgré soi. Cette combinaison de critères inscrit l’utilisateur dans un programme d’action et toute connaissance est action (car elle est prise de connaissance qui suppose précisément des « prises », au sens de Chateauraynaud et de Norman). La mise en place des profils, des géoréférencements fournit ainsi des outils essentiels pour autoriser des stratégies d’orientation plus proches des modalités de la connaissance pratique en action, qui, en fait, est aussi celle qui gouverne l’activité des scientifiques dès qu’on prend le temps de les observer (Latour).
25La mise en évidence de ces débats entre architectures n’est pas pour autant close par une présentation qui contraindrait à des choix radicaux entre les unes ou les autres. C’est un compromis ou plutôt une composition pour employer le terme de Callon parlant des marchés qui doit être effectuée entre ces architectures. Et plus encore, au sein de chacune d’entre elles, et par exemple, celle de la navigation sociale, le travail de repérage des variations doit encore être fait avec la même méthode de la boussole : plusieurs sites proposent des formes de navigation sociale fort différentes et les réseaux sociaux qui se sont développés sur le Web sont bien différents entre eux.
L’archive comme geste politique
26L’archivage fait l’objet des mêmes débats quant aux formats à adopter et les positions les plus opposées s’affrontent pendant que d’autres mettent déjà en place des politiques opérationnelles. Car l’archivage d’un média aussi éphémère que le Web n’a rien à voir avec celui qui traite le support papier : il se rapprocherait plus du support des flux télé par exemple mais ne connaît pas le versioning ni les auteurs, ce que l’on trouvera dans toute la production télévisuelle classique. Il n’est pas possible de faire ici le lien avec les enjeux des politiques de mémoire de toute société (Stiegler), pour montrer leur caractère essentiel dans la constitution d’un univers supposé partagé, d’une fiction vraie qui fonctionne comme un dogme (Legendre), et qui permet de verrouiller le fonctionnement institutionnel. Dès lors que les institutions elles-mêmes font reposer leur existence et leur histoire sur des supports numériques par définition réinscriptibles et instables, elles doivent définir une politique qui permettra de dire l’origine et les fondements malgré l’incessante variation. L’archive est toujours une archéologie et un archaïsme, car elle touche aux fondements : ce qui fait fondement dans le cas des institutions n’est pas nécessairement le « contenu » même du mythe mais la supposée garantie que peut apporter le mode de transmission, dans la chaîne de construction du dogme. Et le débat sur les politiques des techniques mêmes de l’archive est essentiel pour constituer les fondements du dogme qui ne sera opératoire qu’à la condition que ces choix d’architectures disparaissent de la conscience même de ceux qui s’appuieront ensuite sur ces archives. Problème que connaissent bien tous les historiens mais qui n’est pas seulement affaire de discipline scientifique mais bien de fondations techniques d’un supposé « tout », d’un être-ensemble. Cette méconnaissance des fondations techniques est au cœur même de l’efficace des dogmes ou de l’idéologie, comme le disait Lefort.
27Pour le Web, tout le monde admet le caractère incertain d’une telle opération d’archivage dès lors que les frontières du document sont instables : archiver des versions ? Des liens ? Les forums qui sont associés ? Uniquement les documents qui sont mis à disposition ? Le caractère dynamique des sites ? Le Web profond des bases de données ? etc. Toutes ces limites ont été débattues. Le choix du dépôt légal, comme c’est le cas en France, complique encore l’affaire puisqu’il vient exploiter un modèle ancien qui suppose un auteur et un original dans un univers où tout cela a perdu son sens, d’autant plus lorsqu’on souhaite qu’il soit national, à partir de critères territoriaux que la toile n’a fait que dissoudre systématiquement. Cependant, une fois toutes ces limites et ces stéréotypes admis ou ignorés, il reste un débat sur les politiques de la mémoire qui sont en cause dans les modalités de cet archivage. Qui décide de ce qu’on garde et de ce qu’on oublie, voilà qui devient crucial et qui doit être couplé en permanence au choix de ce que l’on sélectionne.
28Nous pouvons identifier quatre politiques d’archive. Du côté des certitudes, se trouvent les politiques de sélection selon des principes explicites :
- une sélection par des experts, comme le faisaient les bibliothécaires par exemple, avec un travail d’indexation éventuel, par un travail essentiellement manuel. Ce qui supposerait soit de confier le travail à des documentalistes spécialisés, soit de faire confiance à des spécialistes par domaine, en nous demandant bien comment désigner les spécialistes du porno qui continue à faire 60 % des consultations de sites sur le Web ! Le risque de l’archivage savant et politiquement correct est à peu près inévitable pour contourner les « cultures vulgaires » présentes massivement sur le Web.
- une sélection laissée au marché des réputations sur le Web, celle qu’exploite et construit à la fois un moteur comme Google. Le choix français semble en partie reposer sur ce modèle en combinant le nombre de visiteurs, les liens, la fréquence des mises à jour. On le voit bien, le Web fait entièrement partie de cette économie de l’opinion (Orléan) qui attribue les valeurs aux sites qui ont su construire leurs réputations (les autorités ou les hubs). Un dépôt volontaire doit corriger certains excès éventuels de cette méthode qui peut être en grande partie automatisée.
29D’autres politiques admettent en revanche l’incertitude constitutive du Web. Deux approches sont possibles sur ce plan :
- l’archive totale, tel Internet Archive démarré en 1996, ou, plus étonnant, KulturarW3, de la bibliothèque royale de Suède. Ce modèle fonctionne comme si l’exhaustivité était possible, alors que le deep web et ses bases de données resteront toujours difficiles d’accès, mais il correspond en cela à la posture de l’incertitude assumée, aucune indexation, aucune sélection n’étant possible, de façon assez analogue au Web actuel. Cette proposition semble en contradiction avec toute analyse élémentaire du travail de la mémoire qui suppose oubli (Lenay) et ne peut en aucun cas être résumé à un stockage. Mais elle est significative de ce que la puissance des machines numériques permet d’imaginer : une traçabilité totale, une explicitation totale, une immédiateté totale et désormais une conservation totale. C’est à la fois la traduction politique directe de la puissance informatique mais aussi son orientation tautologique pourrait on dire, en ce sens qu’elle permet d’éviter de questionner ce qu’est la mémoire et ce qu’est une politique de la mémoire, puisque la technique le permet, de la même façon que le Web sémantique évite de s’interroger sur ce qu’est le langage et pourquoi il est si intrinsèquement producteur d’ambiguïtés en le réduisant pour les besoins de la cause technique à un étiquetage. Mais c’est aussi une façon d’admettre honnêtement le désarroi devant le phénomène proliférant qu’est le Web, qui déstabilise toutes les politiques certaines qui prétendraient le mettre en ordre en séparant bien vite le bon grain de l’ivraie.
- s’appuyer sur le travail quotidien d’arpentage (Ghitalla) et de repérage effectué par les internautes ordinaires. Leur activité peut être identifiée de deux façons :
- à travers ses résultats, à savoir des agrégats (Kleinberg) dont on peut produire la topologie (« Tarent », F. Ghitalla, UTC-RTGI) (non plus des réputations mais des ensembles regroupant autorités et sites périphériques). Les domaines pertinents ne sont plus définis a priori ni la valeur de référence des sites, ce sont les liens entre les sites qui décrivent topologiquement cette valeur et constituent dès lors la base d’archivage d’un « domaine », historiquement cohérent (certes provisoire mais qui suppose un peu de temps pour se constituer).
- à travers les traces laissées par chacun dans le cadre d’une navigation sociale : l’ensemble qui fait sens et qui, à ce titre, mérite donc d’être archivé, est défini par les effets de contagion créés par les internautes qui mettent leurs parcours à disposition des autres. Le dépôt volontaire porterait alors sur des collections de parcours qui gardent des liens. L’incertitude demeure mais elle est tempérée par ces attaches qui évitent l’effet de désorientation de l’exhaustivité et qui admettent le travail de réagencement constitutif de la mémoire. La mise en commun des bookmarks à travers del.ic.ious constitue un des maillons de ce principe d’archivage, qui prend certes en compte une forme de réputation car les sites qui émergent sont alors ceux qui sont les plus partagés mais aussi une forme d’organisation à partir des regroupements effectués et du tagging de ces sites, selon des principes non définis par des autorités mais par des communautés. Une politique d’archivage de ce type n’est plus dès lors une politique centralisée mais nécessairement une politique d’assistance au travail des communautés (les plus informelles, d’ailleurs) pour garder trace de leurs activités et s’orienter. C’est alors une politique d’empowerment (Sen) fort différente de celles des états centraux produisant une nouvelle magistrature sociale de l’archive comme pour les politiques de la ville en France (Donzelot).
30Cette mise en perspective des politiques des architectures techniques d’Internet pourrait s’appliquer à bien d’autres domaines, comme celui de la gestion des adresses, celui de la sécurité, celui de la politique linguistique sur Internet, celui des réseaux physiques, ou celui de la propriété du code (logiciel libre) par exemple, qui sont tous à la fois techniques et politiques. Il est urgent de prendre ces questions à bras le corps car la subpolitique que constituent ces choix d’architectures se déroule loin de toutes les sphères supposées représentatives, dans des comités de normalisation, dans des instances de régulation de statut fort vague vis-à-vis des institutions politiques actuelles (cf. le W3C), et plus souvent encore dans des décisions de conseils d’administration et de programmes de développement de très grandes firmes qui formatent les techniques mises à disposition voire imposées de fait aux utilisateurs, états compris. On mesure mieux à travers cette description des choix techniques à faire à quel point les débats des sommets mondiaux de l’information passent le plus souvent à côté des questions clés d’infrastructures en en restant à ce qui fait le lieu supposé commun de la politique (libertés individuelles, droits de l’homme, fracture numérique). Décidément, la « subpolitique » de Beck fonctionne à plein et décrédibilise chaque jour un peu plus les gouvernements nationaux aussi bien que les instances internationales officielles.
Des modèles économiques en désarroi
31On peut en avoir la preuve lorsqu’il s’agit de discuter de façon encore plus cruciale des modèles économiques qui pourraient gouverner la diffusion des contenus sur le Web. Les grandes résolutions et les lois adoptées sont à peu près aussitôt démenties par les pratiques, elles-mêmes appuyées sur la puissance des techniques notamment pour le piratage. Pourtant, il est possible de rendre compte de ces débats entre visions des marchés pour montrer là aussi un éventail ordonné des choix en lice.
32Mais au préalable, il est nécessaire de profiter des recommandations fournies par Michel Callon dans son ouvrage « The Laws of the Markets ». Cette nouvelle tradition de sociologie économique permet de donner « chair » à la théorie des conventions. Parler « du marché » n’a plus aucune pertinence et continue d’alimenter les modèles classiques et néo-classiques qui n’ont plus de prise sur le monde. Toute étude empirique sérieuse permet de montrer comment chaque marché, pour chaque bien, possède ses propres formes de composition entre règle et marché, entre routines implicites et accords explicites, etc. Le cas des marchés au poisson est devenu un classique sur ce plan mais il serait nécessaire de faire le même travail pour les supports des TIC, pour les contenus qui sont diffusés. Dès lors, toute tentative de proposer un modèle de marché pour tous les biens est vouée à l’échec. Il sera nécessaire de parler du marché de la musique, de celui du cinéma, de celui de la télévision ou du marché du livre, etc. au cas par cas, et c’est à cette condition que l’on pourra prendre en compte (et le terme importe) chacune des médiations qui font tenir chaque marché (et un programmeur de télévision n’a pas les mêmes contraintes ni le même mode d’action qu’un éditeur par exemple). Les supports techniques traditionnels sont différents et ce n’est pas parce que l’on parle de convergence numérique que l’on peut négliger tous ces maillons qui ont constitué des traditions spécifiques. De même, la règle commune du droit d’auteur possède en fait de nombreuses spécificités selon qu’elle s’applique à chacun de ces biens, à chacun de ces contenus. Et rien ne sert de tout mêler si l’on veut parvenir à adapter ces principes. C’est aussi le cas pour les consommateurs qui admettent plus facilement de payer pour certains biens comme le cinéma alors qu’ils ont été formatés dans des habitudes de gratuité par la télévision en France (mais ce n’est pas le cas dans la plupart des autres pays).
33Dès lors, l’affrontement résumé à licence globale vs rente des droits d’auteur est particulièrement réducteur : il ferme les choix politiques parce qu’il ne permet pas de mettre en évidence les autres choix déjà présents, les autres « architectures de marché », pourrait-on dire, déjà observables, mais encore plus parce qu’il unifie abusivement des biens pourtant fort différents sous le prétexte qu’ils seraient « culturels » ou plus exactement soumis au droit d’auteur (au-delà de la propriété intellectuelle). Sans parler de la diversité complète des règles nationales, les seules que le politique peut prétendre réguler, dans un domaine où les majors et les Telcos sont transnationaux et la circulation des biens quasiment sans frontière sur les réseaux. Les techniques ont changé les conditions d’exercice du marché et il faut réinventer les règles radicalement et non espérer les maintenir contre vents et marées.
34Les politiques possibles dans chacun des domaines pourraient être présentées ainsi, sachant qu’il conviendrait précisément de les étudier marché par marché, bien par bien.
35Le modèle traditionnel du droit d’auteur est présenté comme le point d’appui de tous les fournisseurs de contenus, que sont les artistes, les créateurs en général et de tous ceux qui sont dans la chaîne de production de valeurs de chaque bien. Il n’est jamais indiqué qu’il s’agit d’un modèle de la rente, un modèle fort bien adapté à l’ancien régime et qui fait effectivement figure d’ancien régime de la « publication » des biens culturels. Les porte-paroles des auteurs sont d’ailleurs pris en charge par les majors, fournisseurs des contenus, qui pourtant ne les rémunèrent pas aussi généreusement qu’ils les défendent aujourd’hui. C’est pourquoi d’autres auteurs ont adopté d’autres positions politiques face au problème posé par les piratages, nous le verrons. Notons cependant que toute une partie des travaux de recherche a consisté à inventer des dispositifs dits de DRM, visant non seulement à faire payer les contenus par le public avec précision mais à les empêcher de les dupliquer sur d’autres supports. Et c’est à ce moment que la machine s’est enrayée : d’une part toutes ces techniques sont contournées régulièrement par les pirates, et d’autre part la protection finit par empêcher même la jouissance du bien sur d’autres supports personnels pour celui qui les acquiert, ce qu’on appelle la copie privée ou même l’écoute sur un autre support. Cette punition des publics les plus coopératifs, ceux qui payent, constitue un coup de force aussi violent que les enclosures. Mais il s’est retourné contre ses auteurs et début 2007 Steve Jobs annonçait que les DRM n’avaient plus aucune chance de survie, alors que sa firme Apple, avait tout fait pour maintenir un contrôle très strict sur l’usage de son iPod leader du marché et créer la captivité de l’utilisateur, exactement comme l’avait fait Microsoft avec son système Windows.
36Face à cela, et devant les risques de condamnation devant les tribunaux d’utilisateurs de bonne foi, alors que les gros pirates trouveraient toujours les techniques pour contourner les règles et les blocages techniques, une autre politique a été proposée ( et violemment combattue par les majors), celle de la licence globale. Politique aussi fondée sur une régulation forte et une volonté de garder des certitudes mais politique qui conduit à sortir du commerce bien par bien en étendant les modèles des abonnements à la consommation de contenus. Cette abstraction exprimée par le terme « global » correspond bien à la convergence numérique qui produit une forme d’équivalence générale entre tous les biens. En ce sens, elle est moderne car le lien avec les auteurs est coupé, les œuvres sont indifférenciées. Mais elle correspond à un glissement très clair depuis le marché des biens vers le marché des publics : ceux qui savent gérer des fichiers clients et les capter par une offre diversifiée seront les plus forts dans un tel contexte. Car cela suppose une vraie compétence. Or, ce sont les majors des télécoms qui possèdent au mieux cette expérience dans ce secteur, voire certains opérateurs de médias par abonnement (Canal + en France ou les télévisions câblées américaines). La bataille n’est donc pas seulement entre principes, elle est entre acteurs, elle traduit un glissement du centre de gravité et une mise en dépendance de l’industrie des contenus vis-à-vis des diffuseurs, un peu comme la grande distribution avait déjà pu le faire en France pour les produits de grande consommation. Certains auteurs et certains politiques peuvent aussi soutenir ce principe, qui par certains côtés, ressemble à la redevance télé mais qui oublie que pour rémunérer correctement les artistes en fonction de la consommation réelle de chaque bien particulier, il faudra toute une architecture technique : elle existe déjà en partie, c’est l’audience mais ici utilisée dans le cadre d’abonnements. À partir de ce moment, seuls les experts de l’intermédiation (L. Gille) capables de gérer de grands fichiers clients (à travers des CRM notamment, systèmes de Consumer Relationship Management), pourront prendre la tête de ce modèle économique.
37Pourtant, ce qui continue à faire fonctionner la plus grande partie du Web reste la publicité. Ce troisième modèle économique ne se préoccupe plus du lien maintenu avec les auteurs ni avec les clients. Il rompt les amarres de toute certitude et agrège des mesures d’audience variées pour fournir aux annonceurs publicitaires des repères pour fixer des tarifs. Certes, actuellement, les médias reversent une partie de ce qu’ils touchent aux auteurs des contenus sous forme de droits d’auteur ou contribuent à la production des biens culturels en question, mais leur attention n’est plus fixée sur les contenus eux-mêmes ni sur les clients précisément mais seulement sur leur effet de masse. On comprend dès lors que dans ce monde, dans cette politique, la technologie de la mesure d’audience soit essentielle. J’ai montré ailleurs (Boullier, 2004) qu’elle était devenue le « mode de production » de la valeur essentielle dans « l’économie d’opinion » (Orléan). Mais désormais ce sont les enjeux de réputation qui constituent les épreuves clés (Boltanski et Thévenot) pour exister ou disparaître. Dès lors, l’incertitude n’est plus une contrainte, elle devient une chance, détachée de tout autre repère, voire de toute autre valeur que celle créée par l’événement, quelque soit la nature de l’événement, du moment qu’il peut créer un pic d’attention. Et ce modèle a installé la gratuité comme valeur suprême sur Internet, alors qu’elle était à l’origine issue du monde des biens communs produits dans le cadre de la communauté scientifique, puisque Internet était issu de ce monde. Cette prolongation, traduction ou trahison de la gratuité par le régime publicitaire a ouvert la voie à toutes les actions des pirates contre le régime traditionnel des droits d’auteur. Les pirates peuvent se prétendre dès lors légitimes en arguant que tous les biens doivent être à disposition de tous, quitte d’ailleurs à accepter la publicité comme seul mode réaliste de rémunération. Cette alliance de la gratuité publicitaire et du piratage est rarement mise en avant mais elle indique bien comment certaines majors tentent de gagner sur tous les terrains, en utilisant les canaux publicitaires sur tous les supports tout en voulant garder la main mise sur les biens culturels. Le désordre profond qui en résulte indique bien que ce régime ne peut guère durer mais en même temps il signale que les ressorts de ce désordre (la publicité omniprésente et les évolutions techniques constantes qui sapent tous les modèles de contrôle) sont bien ancrés désormais dans la culture dominante de l’Internet.
38Il est pourtant possible d’observer la présence d’autres modèles et d’autres arbitrages. Chaque domaine voit l’émergence d’innovations spécifiques pour la diffusion des contenus permettant des rémunérations originales pour les auteurs. Des groupes comme Radiohead ont défrayé la chronique en offrant certains morceaux de leur futur album aux internautes qui pouvaient choisir le prix qu’ils acceptaient de mettre pour le télécharger. On ne peut dire encore si ce genre d’opérations vaut plus que le buzz qu’elle a permis de créer de façon à focaliser l’attention sur la sortie de leur album, opération marketing à coût très faible bien connue de tout le marketing viral. Mais l’expérience fait réfléchir car l’intermédiation est remise en cause radicalement à travers de multiples opérations. Dans l’édition par exemple, ce sont les modèles de Creative Commons, lancés par L. Lessig qui prennent petit à petit une place non négligeable. L’important dans ce dispositif est précisément le pluralisme des termes juridiques de la licence qui est intrinsèque au modèle Creative Commons : obligation de citer l’auteur, interdiction d’usage commercial, interdiction de travaux dérivés, ou autorisation de travaux dérivés s’ils sont eux-mêmes sous Creative Commons. Cette architecture juridique permet ensuite des modèles économiques fort variés, elle n’empêche pas la plupart des solutions évoquées précédemment (à part l’enclosure des majors), mais elle ouvre à nouveau le débat pour restituer leur parole aux auteurs d’une part et pour explorer les modes de composition du monde commun d’autre part. Cette filiation clairement pragmatique à la Dewey n’a pas encore donné lieu à des modèles économiques stabilisés. Les questions de rémunération restent à définir mais au moins les possibles sont- ils élargis, en dehors des sempiternels débats entre la gratuité et la propriété. Distinguer les questions de droit des questions de rémunération peut déjà aider à voir plus clair et accepter de ne composer ces mondes qu’un par un, domaine par domaine, sans prétendre avoir réponse à tout, serait le pas supplémentaire pour ouvrir véritablement le débat. De ce point de vue, nous retiendrons aussi le modèle de Benkler (2006) qui sépare les domaines de contrôle :
- Contrôle physique (contrôle existant actuellement sur Internet mais de façon paradoxale puisqu’aucune appropriation n’est possible, même si les bruits de ce genre de tentative par Google, à partir de son projet de Googlephone, peuvent faire craindre le pire !)
- Contrôle logiciel (absence de contrôle actuellement mais la puissance de Microsoft fait craindre souvent une tentative de capture du contrôle)
- Contrôle des contenus (actuellement libres et contrôlés à la fois).
39Les exemples classiques des modes de production du logiciel libre permettent de constater que la forme coopérative et l’absence de prédation des droits des développeurs ne se traduit pas nécessairement par la gratuité : les licences GNU-GPL ont des variantes nombreuses et de nombreuses sociétés ont pu construire leur activité économique sur le logiciel libre. Il serait alors possible de reprendre cet exemple et de mettre en boussole aussi les divers modes de production du libre. Wikipédia, au sein du Web et sur la base de productions de contenu, constitue de son côté un modèle de production coopérative de contenus totalement hors marché, alors que la qualité de ses contenus, certes contestée régulièrement, continue à s’améliorer en même temps que ses procédures de contrôle interne. Cette expérience a changé radicalement la place des autorités sur le Web et a ouvert de ce fait une nouvelle politique d’architecture de production des biens, conçus ici délibérément dans une optique de biens communs non marchands.
40Pour montrer la diversité des thèmes qui devraient encore être traités pour parvenir à faire cette carte des choix politiques d’architecture sur Internet, notons par ailleurs qu’il serait nécessaire de faire une place spécifique à la question des noms de domaine et à leur commercialisation : en effet, l’ICANN (Internet Corporation for assigned names and numbers) confie leur gestion à des entités diverses selon les domaines : l’AFNIC pour domaine.fr, à but non lucratif, ou Verisign pour le domaine.com et.net qui sont internationaux mais gérés de fait par une société privée californienne. La construction d’un bien commun comme les noms de domaine, qui font aussi effet d’architecture durable sur tout le système, procède ainsi de modèles très divers, sans qu’aucun espace politique ne permette d’en discuter.
Conclusion
41Lorsque nous dressons cette boussole des choix politiques possibles sur les architectures techniques, il apparaît évident que les grands discours à vocation générale ont surtout vocation à rester impuissants ou à donner le change pour des gouvernements qui sont totalement dépossédés de leurs prérogatives. Il serait trop aisé de s’en réjouir et de vanter les mérites de l’autoorganisation auto-organisation d’un milieu qui s’auto génère. Mais qui dans le même temps ne cesse de réclamer des arbitrages et qui surtout échappe de fait aux débats publics, puisque la prolifération des initiatives et des innovations met tout le monde dans la posture d’une course pour rattraper son retard, selon ce principe de la « tyrannie du retard » (Boullier, 1983) qui sert de leit-motiv à ceux qui n’ont plus de capacité à élaborer leur vision. Il manque clairement des instances et des procédures pour faire entrer en politique ces débats d’architecture. Il est vrai qu’il s’agit d’un domaine spécifique et que l’on pourrait considérer qu’avec le W3C et l’ICANN, toutes les procédures et principes trouvent leur espace de construction et de débat. Or, sans revenir sur leur mode d’organisation souvent sujet à controverse, il est impossible de considérer que ces instances, dites techniques, sont de véritables espaces politiques, encore moins démocratiques. Rassurons nous cependant, des instances politiques et techniques n’existent-t-elles pas ? Par exemple toutes les organisations de normalisation comme l’ISO ? Certes, mais là aussi leur mode de fonctionnement permet de soustraire les décisions non seulement aux débats publics (« ce sera toujours trop technique ») mais aussi aux gouvernements (par le biais des experts placés par chaque gouvernement qui sont en fait toujours membres d’une entreprise ou d’une autre, souvent internationale !). Mais alors, pourrait-on dire en désespoir de cause, s’il s’agit de commerce, qu’il est toujours possible de faire appel aux instances internationales telles que l’OMC ? Chacun a pu observer le degré de blocage de ces institutions mais indépendamment de cela, les questions d’architecture technique y apparaissent rarement concernant l’Internet, tant il semble admis que la régulation se passe en dehors de ces instances. Le vide institutionnel proprement politique est donc important et permet de faire jouer toutes les influences, de faire varier toutes les politiques nationales malgré leur inefficacité, au gré des conjonctures électorales. Composer des arènes politiques spécifiques à l’Internet (et non seulement des hautes autorités qui deviendraient trop vite des polices) constitue un vaste chantier (cf. le travail de Vox Internet de Françoise Massit-Folléa). Cela supposera de faire le bilan douloureux de la place réelle des états nations, désormais bien incapables de gérer des questions aussi réticulaires, mais à condition d’abord, à tous les échelons, de vaincre cet à priori tenace selon lequel les électrons ou les tuyaux ne font pas de politique. C’est ce que nous espérons avoir contribué à contester.
Références
- Akrich Madeleine, Callon Michel et Latour Bruno, À quoi tient le succès des innovations ? L’art de l’intéressement. Gérer et comprendre, Annales des Mines, n°11, Juin 1988.
- Auray, N., 2005 : Une autre façon de penser le lien entre technique et politique. Le réagencement de l’activité autour de l’exploration, (http://ses.enst.fr/auray/Aurayexplo.pdf Document de travail, dans le cadre du programme GSPM-EHESS, Politiques du proche coordonné par Laurent Thévenot)
- Beck Ulrich, La société du risque, Paris, Aubier, 2001, (1re édition, 1988).
- Beck Ulrich, The brave new world of work, Cambridge: Polity Press, 2000.
- Beck Ulrich, The reinvention of politics, Cambridge: Polity Press, 1997.
- Benkler Yochai, The wealth of networks : How Social Production Transforms Markets and Freedom: New Haven and London: Yale University Press, 2006.
- Bessy Christian et Francis Châteauraynaud, Experts et faussaires. Une sociologie de la perception, Paris, Métailié, 1995.
- Boltanski Luc et Chiapello, Eve, Le nouvel esprit du capitalisme, Paris, Gallimard (NRF), 1999.
- Boltanski Luc et Thévenot Laurent, De la justification. Les économies de la grandeur, Gallimard (NRF), Paris, 1991, 485 p.
- Boullier Dominique et Charlier Catherine, À chacun son Internet. Enquête sur des usagers ordinaires, in Réseaux, 86 (1997) pp. 159-181.
- Boullier Dominique, L’urbanité numérique. Essai sur la troisième ville en 2100, L’Harmattan, Paris, 1999.
- Boullier Dominique et Franck Ghitalla, Le Web ou l’utopie d’un espace documentaire, I3, Information, Interaction, Intelligence, vol. 4, n°1, 2004, pp. 173-189.
- Boullier Dominique, Les conventions pour une appropriation durable des TIC. Utiliser un ordinateur et conduire une voiture, Sociologie du Travail, 3/2001, pp. 369-387.
- Callon Michel (éd. 1998), The Laws of the Markets, Oxford, Basil Blackwell.
- Callon Michel, Pierre Lascoumes, Pierre et Barthe Yannick, Agir dans un monde incertain. Essai sur la démocratie technique, Paris, Le Seuil, 2001.
- Daumas Maurice, Histoire générale des techniques (3 vol.), Paris, PUF, 1996 (coll. Quadrige).
- Dewey John, Le public et ses problèmes, Paris, Farrago, Publications de l’Université de Pau, 2003 (1re édition, 1932).
- Dieberger A., Dourish P., Hôôk K., Resnick P. and Wexeblat A., 2000, Social Navigation, Techniques for Building Mode Usable Systems, Interactions, vol. VII, n°6, 36-45.
- Donzelot Jacques, Faire société. La politique de la ville aux États-Unis et en France, Paris, Le Seuil, 2003.
- Gagnepain Jean, Leçons d’introduction à la théorie de la médiation, in Anthropo-logiques n° 5, Coll. BCILL, Louvain-la-Neuve, Peeters, 1994.
- Ghitalla Franck, Boullier Dominique, Gkouskou-Giannakou Pergia, Le Douarin Laurence, Neau Aurélie, L’outre lecture. Manipuler, (s’)approprier, interpréter le web, Paris, BPI, 2003.
- Gille Laurent et Mathonnet Philippe, L’intermédiation électronique, Paris, Sirius, Commissariat au Plan et Ministère des Entreprises, 1994.
- Goldhaber Michael H. (1992), The Attention Society Release 1.0, (26 March), No 3, E. Dyson (ed.), New York, EDventure Holdings, pp. 1-20.
- Habermas Jüurgen, La technique et la science comme idéologie, Paris, Gallimard, 1973.
- Illich Ivan, La convivialité, Paris, Le Seuil (Points), 1973.
- Kleinberg Jon., Lawrence Steve, The Structure Of The Web, Science, vol. 294, 30, november, 2001.
- Latour Bruno, Changer la société. Refaire de la sociologie, Paris, La Découverte, 2006.
- Latour Bruno, Une sociologie sans objet ? Remarques sur l’interobjectivité, in Sociologie du travail, n° 4, pp. 587-607, 1994.
- Latour Bruno, La science en action, Paris, La Découverte, 1990.
- Latour Bruno, Nous n’avons jamais été modernes. Essai d’anthropologie symétrique, Paris, La Découverte, 1992.
- Lefort Claude, Les formes de l’histoire. Essais d’anthropologie politique, Paris, Gallimard, 1978.
- Legendre Pierre, L’amour du censeur. Essai sur l’ordre dogmatique, Paris, Éditions du Seuil, 1974.
- Lenay Charles et Havelange Véronique, (éd. 1999), Mémoire des Techniques et Techniques de la mémoire, Erès, revue Technologies, Idéologies, Pratiques, volume XIII, n°2.
- Lessig Lawrence, Code and other laws in cyberspace, Basic Books, 1999.
- Moulier-Boutang Yann, Le capitalisme cognitif, Paris, Éditions Amsterdam, 20087.
- Norman Donald A., The invisible computer. Why good products can fail, the personal computer is so complex and information appliances are the solution, Cambridge(MA), The MIT Press, 1998.
- Orlean André, Le pouvoir de la finance, 1999, Paris, Ed. Odile Jacob.
- Ribot Théodule, Psychologie de l’attention, Paris, Felix Alcan, 1889.
- Sen Amartya, Repenser l’inégalité, Paris, Le Seuil.
- Stengers Isabelle, Cosmopolitiques, Paris, La Découverte / Les empêcheurs de penser en rond, 1996-1997 (7 tomes).
- Stiegler Bernard, La technique et le temps, Paris, Galilée, 3 tomes, 1994-2001.
- Thevenot Laurent, L’action au pluriel. Sociologie des régimes d’engagement, Paris, La Découverte, 2006.
- Walzer Michael, Sphères de justice. Une défense du pluralisme et de la démocratie, Paris, Le Seuil, 1997 (1re édition : 1983).