Notes
-
[1]
Le terme ISO est polysémique puisqu’il désigne aussi bien l’organisation internationale (International Organization for Standardization) au sein de laquelle sont adoptés les standards que les normes elles-mêmes. Créée en 1946, à la suite de la Fédération internationale des associations nationales de normalisation, l’ISO présente une structure fédérative regroupant les agences nationales de 148 pays. Le nombre impressionnant de normes publiées (13 700 depuis 1947) tend à attester de l’importance de ces dispositions pour les secteurs économiques concernés.
-
[2]
La typographie a sans doute été l’un des premiers objets techniques normalisés, le processus étant amorcé dès le 16e siècle à l’échelle européenne. Sur ce point, voir Jérôme Peignot, De l’écriture à la typographie, Paris, Gallimard, 1967 (NRF Idées). L’essor du télégraphe, des machines à écrire et des micro-ordinateurs a accéléré ce mouvement de normalisation typographique au 20e siècle, sous l’impulsion d’organisations aussi diverses que l’Union internationale des télégraphes, l’International Standard Organization, le consortium Unicode, et même, plus récemment pour des signes comme @, le consortium W3C. Pour une analyse de ce mouvement contemporain de normalisation typographique, voir les travaux de Jacques André : « Caractères, codage et normalisation. De Chappe à Unicode », Document numérique, Éd. Lavoisier + Hermès, 6 (3-4), 2002, p. 13-49 ; « Petite histoire des signes de correction typographique », Cahiers Gutenberg, 31, décembre 1998, p. 45-59 ; « Histoire d’&oelig, histoire dd’@ ,ou des rumeurs typographiques et de leurs enseignements », Didapro, Actes en ligne des premières journées francophones de didactique des progiciels, 10 et 11 juillet 2003, INRP/GEDIAPS, mise en ligne : octobre 2003.
-
[3]
David Bach, « International Cooperation and the Logic of Networks : Europe and the Global System for Mobile Communications (GSM) », BRIE working paper 139, E-conomy Project, working paper 14, juillet 2000 ; François-Xavier Dudouet, Ioana Manolescu, Benjamin Nguyen, Pierre Senellart, « Sociological Analysis of the W3C Standardization Process : XML Warehouse Meets Sociology », article soumis à la Conférence annuelle du W3C, Tokyo, septembre 2005.
-
[4]
Franck Cochoy, « The Work of Globalization : How Standardization May Impact the Management of Work », dans Jean-Claude Barbier, Elize Van Zyl (eds), The Impact of Globalization on the World of Work, Paris, L’Harmattan, 2002, p. 83-96.
-
[5]
Gilles Allaire, « Les normes comme ressources », communication au colloque « Instruments d’action publique et technologies de gouvernement », 21 décembre 2004 ; Marie-France Garcia, « Le marché de l’excellence : le classement des grands crus à l’épreuve de la mondialisation », Genèses, 56, septembre 2004, p. 72-96.
-
[6]
Delphine Mercier, « Heurts et malheurs de la certification : le cas de la norme ISO 9002 appliquée dans un centre de tri postal », dans Salvatore Maugeri (dir.), Délits de gestion, Paris, La Dispute, 2001, p. 31-50 ; Delphine Mercier, Corinne Tanguy, « Entre homogénéisation par les normes et logiques différenciées : la production d’oranges en Argentine et en Uruguay », Économie et sociétés, Série socio-économie du travail, 25, 2005, p. 751-774. Franck Cochoy « Normalisation et démocratie technique. Histoire, enjeux et tendances », communication au colloque « Instruments d’action publique et technologies de gouvernement », 21 décembre 2004.
-
[7]
Jacques Pernollet, « Le processus d’élaboration des normes techniques aux plans national, communautaire et international », Les Petites Affiches, 18, 11 février 1998, p. 12-14.
-
[8]
Franck Cochoy, Jean-Pierre Garel, Gilbert de Terssac, « Comment l’écrit travaille l’organisation : le cas des normes ISO 9000 », Revue française de sociologie, 39 (4), décembre 1998, p. 673-699 ; Denis Segrestin, « L’entreprise à l’épreuve des normes de marché. Les paradoxes des nouveaux standards de gestion dans l’industrie », Revue française de sociologie, 38 (3), juillet 1997, p. 553-585, et Les chantiers du manager, Paris, Armand Colin, 2005.
-
[9]
Franck Cochoy : « De l’AFNOR à NF ou la progressive marchandisation de la normalisation industrielle », Réseaux, 18 (102), 2000, p. 63-89.
-
[10]
Pour une bonne synthèse de l’évolution des travaux sur la politique étrangère, cf. Valérie M. Hudson, « Foreign Policy Analysis : Actor-specific Theory and the Ground of International Relations », Foreign Policy Analysis, 1 (1), mars 2005, p. 1-30.
-
[11]
Léa Gauthier (traduction), L’imaginaire des mondes exilés. Entretien avec Arjun Appadurai, <http:// www. mouvement. net>, novembre 2003.
-
[12]
James Rosenau, Ernst-Otto Czempiel, Governance Without Government, Cambridge, Cambridge University Press, 1992 ; Raw Rhodes, « The New Governance : Governing Without Government », Political Studies, 44 (4), 1996, p. 652-667 ; Oliver E. Williamson, The Mechanism of Governance, Oxford, Oxford University Press, 1996.
-
[13]
John Braithwaite, Peter Drahos, Global Business Regulation, Cambridge, Cambridge University Press, 2000.
-
[14]
Pour une revue de la littérature économique sur la standardisation, cf. Carmen Matutes, Pierre Regibeau, « A Selective Review of the Economics of Standardization : Entry Deterrence, Technological Progress and International Competition », European Journal of Political Economy, 12, 1996, p. 183-209.
-
[15]
On entend par externalité les effets qu’induit le comportement d’un agent économique sur celui d’autres agents. Pour une discussion approfondie de la notion d’externalité en économie, cf. Dominique Henriet, « Économie publique », Encyclopedia universalis, 10e éd., 2005, chapitre « Externalités ». Appliqué à la standardisation, le raisonnement selon lequel l’intervention de l’État se justifie par la production d’externalités positives (hausse de la qualité, de la sécurité, etc.) est particulièrement bien illustré par Charles B. Blankart, Gunther Knieps, « State and Standards », Public Choice, 77, 1993, p. 39-52. Pour une approche moins modélisée de ce type d’analyse, on peut aussi se reporter à Kenneth Abbott, Duncan Snidal, « International Standards and International Governance », Journal of European Public Policy, 8 (3), 2001, p. 345-370.
-
[16]
George Akerlof, « The Market for “Lemmons” : Quality Uncertainty and the Market Mechanism », Quarterly Journal of Economics, 84, 1970, p. 488-500. Dans ce très célèbre article, Akerlof démontre, en prenant l’exemple du marché des voitures d’occasion, que l’incertitude sur la qualité a des incidences importantes sur les comportements de vente et d’achat. L’individu qui vend une voiture d’occasion a plus intérêt à le faire s’il est peu ou moyennement satisfait de sa qualité. Dans le cas contraire, il en demandera un bon prix et n’hésitera pas à la retirer du marché s’il ne trouve pas acquéreur à ce prix, de sorte qu’il en usera jusqu’au bout. L’acheteur qui se base sur le prix en essayant de le tirer au plus bas a donc beaucoup plus de chance d’acheter une « voiture pourrie », et il aura donc aussi tendance à se méfier d’un prix bas s’il recherche la qualité. C’est pourquoi, dans une hypothèse d’exigence de qualité, le bien qui aura le plus de chances d’être échangé est le bien de qualité moyenne à un prix moyen. Il n’y a donc pas d’équilibre du marché par les prix.
-
[17]
C’est ce que suggère par exemple Bernard Baudry : « Dans la relation de sous-traitance, les signaux visibles concernent les procédures d’assurance-qualité qui tendent à se généraliser progressivement » (Bernard Baudry, « De la confiance dans la relation d’emploi ou de sous-traitance », Sociologie du travail, 26 (1), 1994, p. 43-61, dont p. 52).
-
[18]
Jean Tirole, Jean-Jacques Laffont, A Theory of Incentives in Regulation and Procurement, Chicago, MIT Press, 1993.
-
[19]
Pour une approche relativement claire de ce débat, cf. Stéphane Saussier, M’hand Fares, « Théorie des coûts de transaction versus théorie des contrats incomplets : quelles divergences ? », Revue française d’économie, 2-3, janvier 2002, p. 193-230.
-
[20]
Pour une analyse beaucoup plus détaillée de ces questions, cf. Stanley M. Besen, Joseph Farrell, « Choosing How to Compete : Strategies and Tactics in Standardization », Journal of Economic Perspectives, 8 (2), 1994, p. 117-131.
-
[21]
Pour une revue de ces problèmes et les solutions apportées par les théories économiques, on pourra utilement se référer à Jean-Luc Gaffard, Économie industrielle et de l’innovation, Paris, Dalloz, 1999.
-
[22]
Laurent Thévenot, « Les investissements de formes », Cahiers du CEE, 29, Paris, PUF, 1985, p. 21-72.
-
[23]
Cf. à titre d’exemple, François Eymard-Duvernay, « Conventions de qualité et formes de coordination », Revue économique, 40 (2), mars 1989, p. 329-359.
-
[24]
L’OCDE a déjà souligné ce phénomène à propos des TIC : « Dans une grande diversité de situations, une norme finit par dominer le marché, mais dans la plupart des circonstances, ce n’est pas la meilleure norme » (OCDE, La dimension économique des normes en matière de technologies de l’information, Paris, OCDE, 1991).
-
[25]
Marie-Anne Frison-Roche, « Le contrat et la responsabilité : consentements, pouvoirs et régulation économique », Revue trimestrielle de droit civil, 97 (1), 1998, p. 43-56.
-
[26]
Magali Lanord Farinelli, « La norme technique : une source du droit légitime ? », Revue française de droit administratif, 4, juillet-août 2005, p. 738-752, dont p. 746.
-
[27]
92/46/CEE du 16 juin 1992.
-
[28]
Ibid.
-
[29]
Olivier Borraz, « Les normes : instruments dépolitisés de l’action publique », dans Pierre Lascoumes, Patrick Le Galès (dir.), Gouverner par les instruments, Paris, Presses de Sciences Po, 2004, p. 123-161. Sur le travail spécifique de lobbying auprès de la Commission européenne relatif aux standards techniques, cf. particulièrement Marc Austin, Helen Milner, « Strategies of European Standardization », Journal of European Public Policy, 8 (3), 2001, p. 411-431.
-
[30]
Pierre Bourdieu, « Esprit d’État : Genèse et structures du champ bureaucratique », Actes de la recherche en sciences sociales, 96-97, 1993, p. 49-62.
-
[31]
Émile Durkheim, De la division du travail social, Paris, PUF, 1973.
-
[32]
Nils Brunsson, Bengt Jacobsson et al., A World of Standards, Oxford, Oxford University Press, 2000.
-
[33]
François-Xavier Dudouet, « Le contrôle international des drogues », thèse de doctorat en science politique sous la direction de Guillaume Devin, Paris, Université Paris X-Nanterre, 2002.
-
[34]
Cf., par exemple, Jürgen Kleinemeyer, « Standardisation as a Tool for Strategic Management », dans Wilfried Hesser (ed.), From Company Standardisation to European Standardization, Hambourg, Universität der Bundeswehr, 1995.
-
[35]
Bernard Baudry, L’économie des relations interentreprises, Paris, La Découverte, 2005 (Repères).
-
[36]
Kristina Tamm Hallström évoque, d’ailleurs, très clairement, comment l’IASB entretient des liens étroits avec les instances de l’Union européenne pour « faire passer » ses standards.
-
[37]
Cf. ici encore Nils Brunsson, Bengt Jacobsson, A World of Standards, op. cit.
-
[38]
Jacint Jordana, David Levi-Faur (eds), The Politics of Regulation. Institutions and Regulatory Reforms for the Age of Governance, Cheltenham, Edward Elgar, 2004 (The CRC Series on Competition, Regulation and Development).
-
[39]
Mark Thatcher, « The Commission and National Governments as Partners : EC Regulatory Expension in Telecommunications, 1979-2000 », Journal of European Public Policy, 8 (4), 2001, p. 558-584.
-
[40]
Thibault Daudigeos, « La RSE : un nouveau front pionnier pour les instituts nationaux de normalisation : Comparaison des travaux de normalisation français et anglais », Instruments d’action publique et technologie de gouvernement, colloque de la Section d’études internationales de l’AFSP, Paris, Sciences Po, 20 et 21 décembre 2004.
-
[41]
Comme le suggère Roger Pouivet, « pour qu’il y ait isomorphie, il faut et il suffit que l’on puisse projeter une structure sur l’autre indépendamment de l’identité de leurs éléments. […] C’est à un critère négatif qu’il faut avoir recours pour définir l’isomorphie : sont isomorphes deux structures que rien n’empêche de se substituer à l’autre. […] Les considérations d’identité ne peuvent apparaître qu’après cette projection et comme une exigence supplémentaire » (Roger Pouivet (dir.), Lire Goodman, Combas, Éd. de l’éclat, 1992, p. 125-127).
-
[42]
Kristina Tamm Hallström, « In Quest of Authority and Power : Standardization Organizations at Work », papier présenté au Scancor Workshop « Transnational regulation and the transformation of states », Stanford University, California, 22-23 Juin 2001: disponible sur le site du « Scandinavian Consortium for Organizational Research » : <http:// www. scancor. uib. no>.
-
[43]
<http:// www. iso. ch/ iso/ fr/ aboutiso/ introduction/ index. html>, décembre 2003. Cette manière de se présenter n’est pas propre à l’ISO, on la retrouve dans des organisations plus spécifiquement inter-gouvernementales comme l’Union internationale des télécommunications (UIT) : « L’UIT, dont le siège est à Genève, est une organisation du système des Nations unies au sein de laquelle les États et le secteur privé coordonnent les réseaux et les services mondiaux de télécommunications » (http:// www. itu. int/ home/ index. fr. html, avril 2005).
-
[44]
François-Xavier Dudouet, Ioana Manolescu, Benjamin Nguyen, Pierre Senellart, art. cité.
-
[45]
John M. Stopford, Susan Strange, Rival States, Rival Firms. Competition for World Market Shares, Cambridge, Cambridge University Press, 1991.
-
[46]
Jean-Christophe Graz, « Quand les normes font loi : Topologie intégrée et processus différenciés de la normalisation internationale », Études Internationales, 35 (2), juin 2004, p. 233-260.
-
[47]
Jean-Christophe Graz, ibid. Cette analyse en termes de marchandisation de la normalisation a été développée, dans un cadre national, par Franck Cochoy, « De l’AFNOR à NF ou la progressive marchandisation de la normalisation industrielle », Réseaux, 18 (102), 2000, p. 63-89.
-
[48]
Jean-Christophe Graz, op. cit., p. 237.
-
[49]
Jean-Christophe Graz, ibid., p. 237.
-
[50]
Pour une synthèse claire des développements historiques de ce débat, voir notamment Richard Swedberg, Une histoire de la sociologie économique, Paris, Desclée de Brouwer, 1994, et Philippe Steiner, La sociologie économique, Paris, La Découverte, 1999 (Repères).
-
[51]
Joseph Schumpeter, Capitalisme, socialisme et démocratie, Paris, Payot, 1951.
-
[52]
Notons que des économistes ont tenté de raffiner cette théorie. Selon Philippe Aghion, par exemple, le facteur déterminant pour inciter à l’innovation une firme installée est le rapport entre la rente avant l’innovation et après l’innovation. La concurrence sur le marché des biens peut réduire suffisamment la rente avant l’innovation pour inciter à développer une innovation et ainsi tenter d’échapper à la concurrence. Cf. Philippe Aghion, « Une estimation empirique de la relation entre innovation et concurrence sur le marché des biens », dans Jean-Philippe Touffut (dir.), Institutions et innovation. De la recherche aux systèmes sociaux d’innovation, Paris, Albin Michel, 2002 (Bibliothèque Économie), p. 253-285.
-
[53]
Une présentation de cette enquête a été faite par l’auteur à Marseille le 10 décembre 2004 dans le cadre du séminaire « Analyse des controverses dans les débats publics », dirigé par Francis Chateauraynaud, Jean-Michel Fourniau et Guillaume Hollard.
-
[54]
Sans inscrire notre réflexion dans une épistémologie hégélienne, nous revenons à sa définition de la propriété, que nous pensons être très aboutie : G. W. Friedrich Hegel, Principes de la philosophie du droit, Paris, GF Flammarion, 1999, p. 120-134.
-
[55]
Alexandre Mallard, « L’écriture des normes », Réseaux, 18 (102), 2000, p. 37-61.
-
[56]
Jack Goody, La raison graphique. La domestication de la pensée sauvage, Paris, Les Éditions de Minuit, 1997 (Le sens commun).
-
[57]
On pense notamment au refus du gouvernement britannique d’agréer une alliance entre IBM et British Telecom. Cette alliance aurait eu pour effet d’imposer de facto au Royaume-Uni les normes du fabricant américain et d’handicaper les entreprises nationales : cf. Jack Goody, ibid.
-
[58]
Cf. « La normalisation en matière de technologies de l’information et de la communication (TIC) » : ACI en cours sous la responsabilité scientifique de Guillaume Devin.
-
[59]
Tel est le cas de Microsoft, qui est, jusqu’à ce jour, parvenu à des accords financiers avec ses concurrents américains pour mettre fin aux procédures judiciaires.
-
[60]
Il s’agit des fameuses normes comptables IFRS entrées en vigueur en 2005. Sur ce domaine de normalisation, cf. notamment Beth Simmons, « The International Politics of Harmonization : The Case of Capital Market Regulation », International Organization, 55 (3), automne 2001, p. 589-620, et Sebastian Botzem, « Transnational Expert-Driven Standardization : Accountancy Governance from a Professional Point of View », communication au congrès de l’ECPR, atelier « Transnational Private Governance in the Global Political Economy », Grenade, avril 2005.
-
[61]
Cf. Société des Nations, Actes de la Conférence pour la limitation de la fabrication des stupéfiants, Genève, 27 mai-13 juillet 1931 : Volume I et II C.509.M.214.1931.XI.
-
[62]
Institués par les conventions de 1925 et 1931, le Comité central permanent (CCP) et l’Organe de contrôle (OC) étaient des collèges d’experts, non représentatifs des États, chargés de surveiller et contrôler l’offre mondiale des drogues. Les États sont, en vertus des conventions, tenus de déclarer toutes les quantités produites, échangées, stockées, saisies ou détruites. Les chiffres ainsi obtenus sont analysés en fonction des besoins médicaux mondiaux, afin de s’assurer qu’aucune quantité n’ait été détournée vers des fins illégitimes. Les deux organes ont fusionné en 1968 pour former l’Organe international de contrôle des stupéfiants (OICS). Pour plus de simplicité, nous appelons ces trois institutions les organismes de contrôle.
-
[63]
Pour une histoire institutionnelle du GSM, se reporter au site de l’association GSM : <http:// www. gsmworld. com>.
-
[64]
Entre autres, « 3G Mobile Licensing Policy : From GSM to IMT-2000. A Comparative Analysis », disponible sur le site de l’IUT : <http:// www. iut. int/ osg/ spu/ ni/ 3g/ casestudies/ gsm-final. doc>.
-
[65]
Pour plus de détails, voir Jacques Pelkmans, « The GSM Standard : Explaining a Success Story », Journal of European Public Policy, 8 (3), 2001, p. 432-453.
-
[66]
On verra notamment sur ces enjeux politico-économiques : David Bach, International Cooperation and the Logic of Networks : Europe and the Global System for Mobile Communications (GSM), BRIE Working Paper 139, E-conomy Projectä Working Paper 14, juillet 2000.
-
[67]
Commission of the European Communities, Towards a Dynamic European Economy : Green Paper on the Development of the Common Market for Telecommunications Services and Equipment, COM (87) 290 (Brussels : CEC, 30 juin 1987).
-
[68]
Observatoire politico-économique des structures du capitalisme, Éric Grémont, « La restructuration du marché européen des télécoms », <http:// www. opesc. org>.
-
[69]
Max Weber, L’éthique protestante et l’esprit du capitalisme, Paris, Plon, 1964, p. 14.
-
[70]
Robert Carvais, « Comment la technique devient une science ? De l’usage des classifications de normes techniques : l’exemple de l’ordonnancement raisonné des règles de l’art de bâtir au 18e siècle », dans Jérôme Bourdieu, Martin Bruegel, Alessandro Stanziani, Nomenclatures et classifications : approches historiques, enjeux économiques. Actes du colloque organisé à l’École normale supérieure de Cachan les 19-20 juin 2003, Dijon, INRA, novembre 2004.
-
[71]
Des versions antérieures de ce texte ont été discutées lors du colloque de l’Association française de science politique « Les politiques publiques internationales » tenu à Paris en avril 2005 et lors de l’atelier « Économie politique » du Congrès des associations francophones de science politique tenu à Lausanne en novembre 2005. Les auteurs remercient particulièrement pour leurs commentaires Jean-Christophe Graz, André Mach, David Dumoulin, Annie Lamanthe et Anne Branciard.
1Les normes techniques, dont les normes ISO [1] sont certainement les plus connues, sont des standards de production qui ont pour but d’améliorer la qualité, la sécurité ou la compatibilité des biens et des services. D’abord développée pour rendre compatibles les objets de communication [2], la normalisation s’est généralisée au cours du vingtième siècle. Elle touche aujourd’hui la plupart des domaines d’activité économique, des nouvelles technologies de l’information et de la communication [3] au management de la qualité [4], en passant par les territoires ou les méthodes de production agricole [5], ou les objets aussi usuels que les chariots de supermarché [6]. De fait, si la normalisation passe souvent pour un travail obscur et complexe engageant les quelques initiés des domaines concernés, elle n’en demeure pas moins un véritable enjeu des relations économiques mondiales. Normaliser est devenu une activité fondamentalement internationale, comme en témoigne le faible pourcentage (10 % seulement) des normes d’origine spécifiquement française publiées par l’AFNOR chaque année [7].
2Les politiques de normalisation mettent en relation une multitude d’acteurs publics et privés : organisations internationales, administrations nationales, agences, centres de recherche, entreprises, associations, etc. Si l’on veut pouvoir tenir de bout en bout l’analyse des politiques de normalisation et de leurs effets, la chaîne est longue et appelle des collaborations nationales et internationales, tout autant que des comparaisons entre les objets appréhendés par ces politiques. Les sociologues français ont pour l’instant principalement saisi les effets sur l’organisation du travail de l’adoption de normes de qualité et de la certification ISO en la matière [8]. S’ils s’accordent généralement aujourd’hui sur la nécessité de mieux comprendre les pratiques de négociation et de production des normes, peu d’entre eux en ont fait un véritable objet d’étude, sinon dans un cadre national [9]. La compréhension des politiques internationales de normalisation reste un immense chantier, déjà balisé, comme nous le verrons, par quelques études pionnières.
3Quel peut être l’effet de ce genre de travail sociologique sur des analyses de relations internationales en termes de politiques publiques ? Envisager l’existence de politiques publiques internationales n’est pas chose évidente en soi, si ce n’est dans le champ désormais stabilisé des analyses de politique étrangère, qui, bien qu’elles aient à intégrer une multitude d’acteurs [10], peuvent se justifier par la monopolisation durable par les États d’un certain nombre de prérogatives juridiques. Ces prérogatives permettent d’entretenir conceptuellement la séparation entre un ordre politique interne et un ordre de relations extérieures, dont la tangibilité est beaucoup moins nette dans d’autres sphères d’activités. Pour étudier ces autres sphères, il faut rompre avec ce type de raisonnement. Comme le fait remarquer l’anthropologue indien Arjun Appadurai au fil de ses réflexions sur la mondialisation, les théories qui s’appuient sur une stabilité spatiale, territoriale, associée à une économie, une société et à une subjectivité, passent à côté des questions de circulation des personnes, des images et des discours [11]. Mondialiser la production d’objets suppose en effet de circuler et de s’appuyer sur des arbitrages politiques compris au sens large du terme. Il nous faut donc accepter un postulat, en un sens post-weberien, de l’existence de « politiques de normalisation » qui seraient le fait de réseaux d’acteurs mobiles, aux appartenances institutionnelles hétérogènes, capables de produire et diffuser les normes et impliquant les autorités publiques en tant que ressource d’arbitrage et de sanction parmi d’autres. Les tentatives de conceptualisation en termes de gouvernance globale [12] ou de modes de régulation [13] ont déjà souligné ce point. Néanmoins, ces analyses sous-estiment souvent, faute d’investigations empiriques, la place de la normalisation dans les processus d’innovation et la structuration des marchés.
4Notre démarche va consister précisément à envisager ces politiques à partir d’une compréhension du lien entre processus d’innovation, travail de normalisation et structuration des marchés. Nous essaierons de jeter un pont original entre la sociologie de l’innovation et l’économie politique de Schumpeter. Afin de mieux comprendre les raisons d’un tel programme de recherche, nous commencerons par une discussion des entrées traditionnellement mobilisées pour analyser les politiques internationales de normalisation : dynamiques compétitives, hiérarchie des normes, configurations d’acteurs. Puis, nous définirons en détail notre cadre d’analyse centré sur le travail d’appropriation et de monopolisation des formats d’objet, dont nous donnerons une illustration empirique encore inaboutie à propos du GSM.
Intérêts et limites des entrées classiques
5Pour analyser la normalisation, trois entrées principales ont été jusqu’ici proposées : l’entrée par les dynamiques compétitives, l’entrée par les normes et l’entrée par les acteurs régulateurs.
L’entrée par les dynamiques compétitives
6Les approches économiques ont fortement insisté sur les interdépendances entre firmes et la dimension stratégique de la standardisation dans leur compétition [14]. Selon ces approches, les normes ou standards techniques s’imposent par le marché, par les avantages compétitifs qu’ils procurent aux entreprises innovatrices. L’intervention publique n’est bien souvent justifiée, conformément aux théories du public choice, que dans la mesure où elle soutient des investissements qui produisent des externalités positives sur le marché [15].
7Plus globalement, la standardisation est comprise comme un outil de différenciation et de distinction. La microéconomie industrielle a en effet depuis longtemps entrepris une révision du modèle néo-classique d’ajustement par les prix. Tout l’enjeu de ces démarches de révision depuis une trentaine d’années est d’intégrer la problématique des asymétries d’information sur le marché développé par Akerlof [16]. Les plus proches du modèle walrasien, comme Gary Becker, ont donc intégré au modèle néo-classique une théorie du signal selon laquelle les agents économiques, en situation d’incertitude, réagissent à des signaux tels que labels, marques, ou, sur le marché du travail, diplômes, qualifications, expériences accumulées, etc., d’où l’importance des normes de qualité [17]. En matière de production de l’innovation, Tirole et Laffont [18] ont plus récemment théorisé les incitations à coopérer dans les situations de « cascades informationnelles » où les fortes incertitudes brouillent la lisibilité des signaux sur le marché et inclinent à un certain mimétisme des choix stratégiques. La question de l’intérêt à coopérer avec et/ou à intégrer un concurrent est évidemment une question centrale de l’économie industrielle. Elle se structure depuis quelques années à partir d’un débat entre la théorie des contrats incomplets et la théorie des coûts de transaction, dont la complexité théorique va croissant [19]. Plus généralement, les économistes contemporains s’accordent sur le fait qu’étant donné les indications données sur les options stratégiques possibles en matière d’investissement en recherche et développement, le choix d’investir ou pas dans ces activités ou dans l’achat de brevet est dépendant des barrières à l’entrée et de la situation de concurrence [20]. Schématiquement, en matière d’innovation, l’investisseur potentiel se trouve soit dans une situation de quasi-monopole (tel Microsoft), soit de coopération entre firmes (ce qui nous renvoie aux problématiques d’intégration potentielle dans une situation de contrats complets ou incomplets), soit dans une situation de course aux brevets impliquant un mécanisme d’enchères (généralement modélisé par la théorie des jeux) [21].
8Cette approche par les dynamiques compétitives présente l’intérêt de chercher à modéliser les stratégies d’entreprise et de comprendre la normalisation comme l’une des variables-clés de la compétition industrielle. Néanmoins, en centrant l’analyse sur la firme conçue comme entité homogène, elle permet difficilement de comprendre deux éléments essentiels de la normalisation. D’une part, les porte-paroles qui négocient des normes techniques pour le compte des entreprises vivent généralement dans une tension entre la recherche d’avantages compétitifs et la dynamique propre de la qualification des objets que ce travail suppose. La critique des théories économiques néo-classiques développée par l’économie des conventions est le plus souvent nourrie sur ce point par la réflexion menée par Laurent Thévenot relative aux investissements de forme [22]. Par cette notion, Thévenot désigne l’ensemble des moyens (standards, conventions, nomenclatures, etc.) par lesquels les acteurs investissent pour représenter leur travail et coordonner du même coup leurs activités. L’intérêt de la critique conventionnaliste est qu’elle met particulièrement l’accent sur la dimension de coordination que recouvre l’activité de normalisation [23]. D’autre part, la lecture par les dynamiques compétitives, dans la mesure où elle ne prend pas en compte cette dimension de coordination, explique difficilement la formation des compromis aboutissant à l’adoption de solutions qui devraient apparaître comme largement sous-optimales au regard de la théorie [24]. En quoi une firme X tirerait-elle avantage d’une telle solution, si ce n’est à faire partie d’un club ou d’un oligopole ? C’est donc beaucoup plus vers cette hypothèse qu’il faut s’orienter que vers celle d’un marché structuré par des entités individuelles en compétition.
L’entrée par la hiérarchie des normes
9L’approche juridique dominante est caractérisée par une réflexion sur le statut de la norme technique dans l’arsenal du droit positif. Si, pendant longtemps, les normes techniques se sont développées parallèlement au droit, pour devenir progressivement une source du droit, leur multiplication, ces dernières années, conduit certains juristes à se demander si l’on n’assiste pas à un envahissement du « droit » par la « norme » [25]. Au cœur de cette interrogation réside la question de l’origine des normes et de leur légitimité à organiser la vie des citoyens, notamment sur les plans sanitaire, sécuritaire et environnemental. Le problème principal soulevé par les normes techniques du point de vue juridique est qu’elles sont souvent produites par un petit nombre d’acteurs privés ou semi-privés qui ne peuvent légitimement décider au nom de l’intérêt général. Le problème se pose de la même manière, quoique dans une moindre ampleur, au sein d’un secteur d’activité considéré. Une norme peut avoir pour effet de retirer du marché certains produits au « risque d’assurer le diktat de quelques grandes sociétés industrielles » [26]. Tel était le cas de l’application de la directive européenne sur le lait cru [27], qui risquait non seulement de faire disparaître des produits du patrimoine alimentaire, mais tout aussi sûrement les petits producteurs. Le risque ainsi perçu ne concerne pas seulement les citoyens et les acteurs économiques courant le risque d’être exclus d’un marché, mais bien le droit lui-même, qui, en s’appuyant sur des sources « lobbystiques », serait menacé de perdre et son objectivité et sa légitimité [28].
10Les travaux sur les groupes d’intérêt ou les politiques publiques ont évidemment établi depuis bien longtemps que nombre d’acteurs, sans être des représentants du peuple ou des agents de l’État, élaborent et déploient des formes d’action publique, dont la standardisation peut apparaître à première vue comme une forme dépolitisée [29]. Pierre Bourdieu expliquait, quant à lui, que les États modernes occidentaux sont détenteurs de cet espèce de méta-capital donnant pouvoir sur tous les autres et que le capital juridique en est une forme objectivée et codifiée. Selon ce type d’analyse, le travail de normalisation doit nécessairement, à un moment ou un autre, s’appuyer sur l’autorité étatique (ou plus précisément sur ce capital symbolique dont parle Pierre Bourdieu) pour s’imposer à tous [30]. La diffusion des normes techniques s’appuie évidemment, d’une manière ou d’une autre, sur le relais des États (par la répression des fraudes, la certification, le soutien des promoteurs au sein d’organisations internationales ou supranationales, etc.). De même que, comme le disait Durkheim, « tout n’est pas contractuel dans le contrat » [31], tout n’est pas strictement conventionnel dans la normalisation technique.
11Parce qu’ils en sont peut-être plus conscients que les juristes, les sociologues et les politistes sont donc moins inquiets des évolutions normatives en cours. Se départissent-ils pour autant si facilement d’un mode de raisonnement consistant à analyser la production normative à partir de ses modes de stipulation, plutôt que par leurs modalités empiriques de construction ? Dans l’ouvrage A World of Standards [32], les chercheurs du SCORE proposent une typologie des normes distinguant le standard, la norm, et la directive. Si on met de côté la norm, qui, dans les sciences sociales anglo-saxonnes, désigne plutôt des communautés de valeurs d’origine diffuse (ce que nous appellerions mœurs, ou normes communautaires ou traditionnelles), on retrouve dans la caractérisation de la directive et du standard l’exacte mise en forme de l’opposition des juristes sur l’origine de la norme technique et son caractère volontaire. Alors que la directive d’inspiration publique a valeur d’obligation et s’impose aux acteurs concernés, le standard, produit par la société civile, est volontaire et n’a pas force d’obligation. Le standard aurait cet avantage par rapport à la directive qu’il laisserait l’acteur libre d’entrer ou non dans l’espace de régulation qu’il définit. Il en tirerait une part substantielle de sa légitimité, puisque l’acteur serait à tout moment libre d’accepter ou de refuser le standard, selon un modèle philosophique contractualiste qui permet d’entretenir l’opposition entre régulation étatique et régulation privée.
12On peut opposer au moins trois critiques majeures à cette typologie. Premièrement, la force d’obligation d’une règle, que ce soit un standard ou une directive, ne peut se fonder uniquement sur le degré de contrainte prévu par les producteurs, contrairement à ce que continuent de croire les tenants du positivisme juridique. Le droit international est émaillé de dispositions qui n’ont jamais été respectées ou de normes enfreintes chaque jour. Si les textes sur les drogues sont aussi bien respectés, cela n’est pas attribuable à la valeur juridique de leurs dispositions, mais à la structure politico-économique particulière de l’offre licite des drogues [33]. De même, le fait que la plupart des standards soient des règles soumises à l’acceptation volontaire ne signifie pas qu’elles soient, a priori, faiblement contraignantes. L’acceptation volontaire n’est pas synonyme de libre arbitre, ni forcément d’une adhésion rationnelle, établie sur la base d’un calcul coût/bénéfice. Les raisons qui poussent des acteurs à adopter une norme relèvent parfois du simple réflexe de « faire comme tout le monde » ou encore de la conviction que la norme adoptée est effectivement une garantie d’amélioration, mais plus sûrement de la nécessité économique de « se mettre à la norme », soit pour suivre l’évolution, soit pour bénéficier d’un instrument de légitimation dans la redéfinition d’une stratégie d’entreprise [34]. Deuxièmement, l’absence de contrainte objective de type juridique n’implique pas, comme nous l’avons souligné précédemment, l’absence de toute contrainte, notamment de nature hiérarchique. Il suffira d’évoquer les demandes faites par les entreprises à leurs fournisseurs pour être en conformité avec telle ou telle norme pour comprendre que la contrainte n’a pas besoin d’être juridique pour se déployer dans toute son ampleur. Des rapports de domination informelle peuvent amplement suffire, tout spécialement quand ils sont de nature économique. L’économiste Bernard Baudry propose d’ailleurs le terme de quasi-intégration pour définir ce type de relation [35]. Troisièmement, la distinction entre directive et standard n’est, dans les faits, pas si évidente, comme en témoignent les interrogations des juristes : les deux tendent à s’interpénétrer fréquemment et à s’appeler mutuellement, notamment quand le standard devient source de droit, voire s’immisce dans les flous et les lacunes du droit positif. L’un des exemples les plus manifestes est certainement celui des nouvelles règles de comptabilité (IFRS) que les entreprises ont dû adopter en 2005 selon le règlement européen (CE) n° 1606/2002. Ces règles qui ont valeur d’obligation sont la reprise assumée comme telle des standards proposés par l’International Accounting Standards Board (IASB) [36]. En ce cas, la distinction entre standard et directive n’est absolument pas opérationnelle pour déterminer la nature de la spécification. Inversement, le travail de standardisation peut venir en aval d’un dispositif juridique. On peut citer à cet égard l’harmonisation des pratiques en matière de contrôle des drogues sur le plan national. L’efficacité des conventions internationales sur les drogues reposent, en effet, en grande partie sur des savoir-faire pratiques homogénéisés (nomenclatures statistiques, pureté des produits, organisation administrative de contrôle) qui ont été diffusés en dehors de toutes contraintes juridiques et qui relèvent de ce fait de la définition du standard que proposent les auteurs de A World of Standard.
13Envisager les normes d’après leur source (autorité publique ou arène privée ou semi-privée), leur force de contrainte juridique, ou encore le caractère volontaire ou non de leur adoption relève plus d’une distinction idéologique que d’un examen sérieux des raisons pour lesquelles une norme est adoptée, diffusée et mise en œuvre. Ontologiquement, il est difficile de penser un fait institutionnel, quel qu’il soit, exclusivement à partir d’une stipulation ; il faut aussi comprendre le processus social par lequel il se construit. L’approche en termes de hiérarchie des normes ou de cohérence du droit pose des questions intéressantes sur le statut de la norme technique au regard des sources légitimes du droit et du fonctionnement démocratique, mais ne nous en apprend guère sur les processus de normalisation et les raisons de leur essor.
L’entrée par les acteurs régulateurs
14Contrairement aux juristes, les chercheurs du SCORE ne se sont pas limités à éprouver une typologie des normes et à discuter de la légitimité des normes techniques. Ils ont aussi cherché à comprendre le processus de construction des normes techniques par l’existence d’une véritable entreprise internationale de régulation, qui, sans être homogène, ni organisée autour d’un centre, n’en est pas moins source de coordination sociale [37]. D’autres travaux, comme ceux de Jacint Jordana et de David Lévy-Faur [38] ont ainsi essayé de rendre compte chacun à leur manière de la diffusion mondiale du modèle des agences nationales de régulation dans certains secteurs-clés. En Europe, la question des itinéraires professionnels des membres des agences et de leur degré de dépendance à l’égard des autorités politiques est travaillée depuis quelques années par Mark Thatcher [39] à propos des télécommunications. Thibault Daudigeos [40], quant à lui, compare les débats et les processus de décision à propos de la RSE dans les agences françaises (AFNOR) et anglaise (BSI).
15Notons qu’à l’exception des travaux de Kristina Tamm Hallström et de Jean-Christophe Graz (infra), l’entrée par les acteurs a le plus souvent été appréhendée de façon comparative, à partir de contextes nationaux de régulation. Cette approche par les contextes nationaux de régulation a le mérite de prendre en compte la persistance de différences, tant en ce qui concerne la saisie des objets que les types de prescriptions qui les visent. Rendre isomorphe ne signifie pas rendre similaire [41], contrairement à ce qu’une vulgate de l’homogénéisation exprime parfois. Dans la mesure où le travail de normalisation consiste précisément à organiser la substituabilité et/ou la compatibilité des objets, les considérations d’identité des objets ne sont pas toujours posées comme une exigence. La démarche comparative a donc toute sa pertinence. Mais elle ne doit pas faire perdre de vue que la configuration des acteurs régulateurs est une configuration internationale très complexe, marquée par une forte inflation des agences de standardisation et une rude compétition entre elles [42]. Il n’en demeure pas moins que l’élaboration et l’adoption des standards se font dans un cadre institutionnel relativement limité et regroupant un nombre restreint d’acteurs, que l’on retrouve bien souvent d’une agence à une autre. L’examen de ces agences et des individus qui les font vivre est très révélatrice de cette interpénétration des sphères publiques et privées.
16L’ISO est certainement la plus emblématique de ces agences de standardisation, notamment en raison du nombre de secteurs économiques couverts, qui en fait l’agence la plus généraliste en la matière. La structure institutionnelle de l’ISO est très intéressante. Sont membres de l’organisation et participent de ce fait à l’adoption des standards, non les États en tant que tels, mais les agences nationales de normalisation. Nous sommes donc dès le départ dans une situation hybride où les États ne sont pas directement représentés, mais dont les frontières politiques servent à désigner les membres. Lorsqu’on s’intéresse ensuite au statut juridique des agences nationales, certaines sont des confédérations privées d’acteurs économiques, comme aux États-Unis, d’autres sont des administrations publiques au sens plein du terme, d’autres encore sont des organismes mixtes, comme l’AFNOR en France, où représentants de l’État côtoient représentants des associations professionnelles. Cette structure hybride est particulièrement bien reflétée dans la définition que l’ISO donne d’elle-même :
« L’ISO occupe néanmoins une position privilégiée entre les secteurs public et privé. La raison tient à ce que l’ISO compte dans ses membres de nombreux instituts faisant partie de la structure gouvernementale de leur pays ou mandatés par leur gouvernement et d’autres organismes issus exclusivement du secteur privé, établis par des partenariats d’associations industrielles au niveau national. […] L’adoption des normes est réalisée par des accords consensuels entre les délégations nationales représentant tous les partenaires économiques concernés – les fournisseurs, utilisateurs, responsables gouvernementaux de réglementation et d’autres groupes d’intérêt, tels que les consommateurs. » [43]
18L’imbrication des intérêts et des outils « publics » et « privés » se retrouve dans la plupart des processus de régulation internationale engageant des secteurs économiques ; soit que, dans les arènes inter-gouvernementales, les représentants des États s’appuient sur les desiderata de l’industrie, soit que les autorités publiques se contentent d’apporter un soutien logistique, ou juste une considération bienveillante, aux entreprises représentées dans les arènes de normalisation non étatiques. En outre, la mobilité des individus participant au travail de normalisation vient renforcer la difficulté à distinguer clairement ce qui relève de l’intérêt privé de ce qui appartiendrait à l’intérêt général. Entre autres exemples, on peut évoquer les transferts de certains hauts fonctionnaires du contrôle international des drogues vers l’industrie pharmaceutique, ou l’appartenance successive, voire simultanée, de certains normalisateurs en matière de TIC à des grandes entreprises d’informatiques et à des instituts de recherche publics [44]. Cette confusion entre intérêts privés et intérêt(s) public(s), marquée notamment par l’hétérogénéité institutionnelle des acteurs, est une caractéristique dominante de cet objet d’étude. Loin de représenter uniquement des accords formels entre entreprises d’un même secteur, les normes techniques engagent les États, sollicitent l’autorité gouvernementale et s’appuient parfois sur des associations de consommateurs. Les agences de normalisation sont le plus souvent des institutions hybrides tant dans leur nature que dans leur composition, dont il est difficile à première vue de savoir si elle relève de l’association privée ou d’une administration publique.
19Toutefois, cette manière de voir reste insatisfaisante, car elle ne fait que prolonger l’opposition public/privé au nom d’une dualité d’intérêt, relevant plus de la déclaration d’intention que des choses telles qu’elles se passent. Au cœur des processus d’internationalisation de la production, ce qui relève des intérêts publics et des intérêts privés tend à se confondre, la santé des entreprises étant souvent associée à celle de la nation. Les travaux de Susan Strange et John Stopford [45] ont exemplairement insisté sur ce point.
20C’est la raison pour laquelle l’entrée néo-institutionnelle du SCORE tend à être quelque peu remise en question par certains, qui envisagent l’opportunité d’avoir recours à des outils d’analyse plus fins des acteurs qui font les normes (rule-makers). Face à la difficulté de délimiter les champs d’intervention et l’environnement institutionnel des normalisateurs, Kristina Tamm Hallström, par exemple, tente de mêler la conduite d’une démarche plus anthropologique, le recours à la sociologie des réseaux – pour mieux cerner les espaces d’intervention des acteurs et leurs relations – et les théories de Pierre Bourdieu – pour articuler représentations des acteurs, structures de l’espace social et rapports de pouvoir. Jean-Christophe Graz, dans un travail récent [46], a fortement explicité l’idée que les normes sont produites par une forme hybride d’autorité à l’échelle mondiale. L’une de ses thèses principales est que « l’univers de la normalisation internationale est lui-même en proie à un antagonisme profond, qui oppose les partisans d’une socialisation des normes internationales à ceux d’une mondialisation des normes marchandes » (ce qui invite à considérer les approches juridiques et néo-institutionnelles comme l’expression d’un débat sur la « bonne normalisation ») [47]. Les premiers cherchent à renforcer les cadres formels de normalisation tels que l’ISO en leur transférant les compétences universelles de la loi républicaine, les seconds, à l’offensive actuellement, cherchent à faire voler en éclat les cadres formels au profit des normes sectorielles, définies principalement par les opérateurs de marché. Graz observe notamment une opposition entre Europe et États-Unis de ce point de vue. La normalisation européenne serait fortement institutionnalisée, proche de l’autorité étatique, alors que la normalisation américaine reposerait sur ces centaines d’organismes privés de nature sectorielle. Longtemps, les standards américains valaient de facto normes internationales. Ce n’est plus le cas aujourd’hui. En revanche, on assiste à une configuration inverse dans les procédures de certification. Là où, en Europe, la mise en conformité est laissée à la responsabilité des entreprises, elle fait l’objet d’un encadrement beaucoup plus étroit de la part de l’État aux États-Unis. L’opposition États-Unis/Europe « a pour toile de fond des systèmes juridiques opposés, la mise en concurrence de leur politique industrielle et des désaccords profonds sur le rôle respectif des acteurs privés et des pouvoirs publics dans l’élaboration et l’adoption des normes » [48]. Jean-Christophe Graz remarque par ailleurs la montée en puissance de ce qu’il appelle les normes de consortiums, qui « seraient développées en privé par les industriels pour résoudre un problème donné » [49].
21Au terme de cette revue de littérature, on mesure mieux l’écart persistant entre deux approches de la normalisation. La première la pense comme un moyen de distinguer l’offre sur un marché : la normalisation est une ressource stratégique pour gagner des avantages compétitifs ou choisir un produit, selon que l’on se place du point de vue du producteur ou du consommateur. La deuxième cherche à caractériser la normalisation comme un mode de coordination et de régulation plus ou moins dépendant de l’autorité publique : la normalisation est une entreprise de prescription socialisée et institutionnalisée. Ce sont évidemment deux lectures du marché qui s’opposent assez traditionnellement : l’une est centrée sur l’équilibre de l’échange, tandis que l’autre entend rendre compte de l’encastrement social des relations marchandes [50]. Dans cette deuxième perspective, on voit bien que l’opposition public-privé doit être dépassée. Ce qui se joue aujourd’hui est un épisode de lutte pour l’autorité à définir la norme. Quel que soit le cadre de négociation de la norme, les liens entre entrepreneurs et autorités publiques existent toujours à un moment donné. C’est donc bien que le processus d’innovation est dynamique et mobilise des ressources diverses selon des séquences difficilement maîtrisables. Il reste donc à revenir à une compréhension des dynamiques économiques et sociales de l’innovation, et à lier conceptuellement les processus d’innovation et de régulation. C’est ce que nous allons désormais entreprendre.
Penser la régulation à partir de l’innovation
22Nous allons maintenant essayer de tirer les conséquences de nos observations préliminaires, et renverser la perspective. S’il convient, comme nous l’avons dit, de comprendre la normalisation comme un investissement de forme et d’analyser concrètement l’activité des rule-makers, il faut aussi prendre au sérieux les interdépendances et les contraintes qu’elles génèrent. C’est vers l’hypothèse d’une coordination inscrite dans des formes de monopolisation qu’il faudrait se diriger. Il reste à la spécifier. Pour cela, nous présenterons d’abord les théories de Schumpeter relatives à la dynamique économique des processus d’innovation. Puis, nous reviendrons sur les apports de certaines analyses contemporaines de l’innovation pour traiter un point aveugle de l’approche schumpeterienne. Nous en viendrons enfin à la présentation d’un nouveau cadre d’analyse basé sur une typologie des parcours de monopolisation des formats d’objet.
Schumpeter : le lien entre innovation et monopolisation
23Bien en amont des débats économiques sur les standards, Joseph Schumpeter, dans Capitalisme, socialisme et démocratie [51], développait ce qui pourrait aujourd’hui être relu comme une critique des modèles d’économie néo-classiques. Schumpeter considérait en effet que, dans la réalité capitaliste, le type de compétition qui compte n’est pas la compétition par les prix, mais une compétition (autant latente qu’effective) par les nouveaux produits ou les nouveaux processus de production. La performance d’un mécanisme de création-affectation des ressources devrait donc, selon lui, faire l’objet d’une étude longitudinale. Il le résume ainsi : « Dans le cas général de l’oligopole, il n’existe en fait aucun équilibre déterminé et la possibilité apparaît d’une série indéfinie de marches et de contre-marches, d’un état de guerre perpétuel entre firmes concurrentes. » Il faudrait donc dynamiser l’analyse en observant les processus de destruction créatrice, à travers un modèle séquentiel de description des pratiques monopolistiques. L’innovation requiert en effet d’engager des montants de ressources non négligeables et ne peut être choisie que s’il y a un retour sur investissement conséquent. Or, une imitation immédiate des nouveaux produits et des nouveaux processus de la firme innovatrice par d’autres firmes, comme cela devrait se produire dans un contexte de concurrence parfaite, où l’information que constitue l’innovation serait librement appropriable, éliminerait un tel retour sur investissement et l’éventualité de cette imitation éliminerait donc toute incitation à innover. Dès lors, seule une firme en situation de monopole trouverait l’innovation attractive. Entre la concurrence (parfaite) et le monopole, c’est donc ce dernier, sous toutes ses formes (y compris bien sûr le brevet), qui convient à l’innovation, du point de vue de l’incitation [52]. L’intérêt à innover tient donc à la capacité à s’approprier le bénéfice d’exploitation de l’innovation. C’est là un point majeur de divergence théorique avec les approches précédemment présentées, qui postulent au contraire l’intérêt à chercher un avantage compétitif en situation de concurrence.
24Ce que ne voit pas Schumpeter, malgré tout, c’est que la régulation de la concurrence n’opère pas seulement par des moyens juridiques habituels d’appropriation, mais aussi par une série d’investissements de forme qui permettent des modes de qualification communs des objets. La monopolisation n’intervient donc pas, ou pas seulement, sur la production des objets, mais aussi sur leur qualification. Nous comprenons précisément le processus de normalisation comme un processus de qualification économique des objets, ou de requalification des formats d’objets, qui a des incidences sur la structuration du marché.
La norme comme format approprié
25À la suite de Thévenot et Callon, Rémi Barbier a proposé récemment, à propos d’une enquête récente sur l’évolution du traitement des boues d’épuration en France [53], un cadre d’analyse en termes de format qui nous semble prometteur, dans la mesure où il permet de saisir de façon pragmatique la complexité des jeux d’acteurs à l’œuvre dans la qualification technique des objets. Suivant une démarche de « fétichisme méthodologique », qui consiste à centrer la démarche d’analyse sur les objets traités, il essaie de mettre en évidence, à la suite de Callon et Latour, le fait que la qualification des objets s’opère à travers des relations de prescription et des épreuves successives. L’évolution des relations et des épreuves tend ainsi à faire évoluer la configuration des acteurs centraux dans le processus de qualification, que Barbier nomme des « propriétaires de format ». Dans le cas des boues d’épuration, il définit le format d’origine comme un format pragmatique, où l’élu local, considéré ici comme le propriétaire du format, met en relation la station d’épuration et l’agriculteur appelé à rendre service en épandant les boues dont on ne sait trop quoi faire, qualifiées d’engrais naturels. Il montre en quoi la tangibilité des indices de nuisances écologiques de la pratique de l’épandage (animaux malades, odeurs, etc.) a ensuite conduit à la réalisation d’analyses biologiques conduisant à la qualification des boues comme « déchets toxiques » et à un format de type précaution-abstention porté par les agences d’environnement au nom de l’intérêt de l’agriculteur et des populations locales, jusqu’à ce que les administrations européennes définissent des épreuves caractérisées par des normes de seuils et de traçabilité permettant de passer à un format de « boue agro-compatible » garanti par le respect d’une réglementation forte. L’objet « boue d’épuration » a ainsi été requalifié par la norme.
26Le cadre d’analyse de cette sociologie de l’innovation est donc triplement intéressant. D’une part, il permet d’entrer dans les problèmes de qualification des objets en partant des objets eux-mêmes et en suivant leurs modes de requalification. D’autre part, il permet de dépasser un schéma intentionnaliste séquentiel de type mise sur agenda-mise en œuvre-évaluation, en montrant en quoi ces processus de requalification résultent d’épreuves empiriques le plus souvent inattendues. Ceci permet de prendre en charge le caractère non prédictible d’un processus de normalisation. Enfin, il permet de mettre en évidence les effets de déplacement des configurations d’acteurs impliquées dans ces activités et la tendance constante à la monopolisation de la qualification des objets par un type d’acteur dominant.
27Néanmoins, le concept de propriétaire de format mis en avant par Barbier risque d’introduire une confusion pour penser nos problèmes, dans la mesure où son appréhension immédiate pourrait induire une lecture en termes de droits exclusifs d’exploitation. Pourtant, si l’on pense la propriété à la fois comme saisie, mise en forme, désignation et usage d’un objet [54] matériel ou immatériel, on peut concevoir la norme comme modalité d’appropriation collective d’un format d’objet. Comme nous l’avons dit, la notion d’investissement de forme permet de comprendre à la fois les opérations de saisie et de mise en forme des objets produits. Pour dépasser une lecture utilitariste ou fonctionnaliste de la norme, il convient en effet de prendre au sérieux, comme le fait Alexandre Mallard [55], le fait que la normalisation s’appuie sur un processus d’écriture. La normalisation produit des objets opérationnels, car elle se construit à partir de l’analyse du travail réalisé. C’est vraiment ce passage à l’écriture des procédures qui constitue le cœur du travail. Celui qui écrit et celui qui pratique négocient fortement les éléments de cette procédure. « Car l’écriture n’est pas un simple enregistrement phonographique de la parole, dans des conditions sociales et technologiques qui peuvent varier, l’écriture favorise des formes spéciales d’activité linguistique et développe certaines manières de poser et résoudre les problèmes : la liste, la formule et le tableau jouent à cet égard un rôle décisif » [56]. Il faut comprendre que ce passage à l’écriture est un acte qui permet la domestication de savoirs tacites, non visibles. L’écriture est un véritable révélateur des savoirs en acte qui sont autant de modes de résolution de problèmes.
28Mais le travail d’appropriation suppose plus qu’un processus d’écriture. Il suppose aussi une opération de désignation, qui consiste à référer la relation d’un groupe à un objet ou un réseau d’objets. Il est intéressant de noter ici que cette référence peut, soit remonter de l’objet vers le groupe, soit l’inverse. Dans le premier cas, c’est par exemple l’invention d’un langage nommé Unicode, qui va produire le nom du consortium qui le définit. Dans le deuxième cas, c’est par exemple le Groupe spécial mobile, qui va donner son nom au procédé de transmission hertzienne de la voix (le GSM). On peut d’ailleurs noter que le processus de désignation est itératif, puisque le GSM devient, dans le cours du processus d’internationalisation du consortium, le Global System for Mobile telecommunication. Ce processus de désignation confère à l’activité de normalisation sa capacité à établir une frontière sociale entre ceux qui se livrent à une pratique légitime ou illégitime, ou bien tout simplement entre ceux qui peuvent ou non, doivent ou non se livrer à une pratique spécifique. C’est dans ce dernier cas que la dimension sociale de la norme technique trouve toute sa signification. Elle est particulièrement évidente dans le cas des normes dites « qualité », qui visent à organiser très directement le travail des employés. Tout comme le taylorisme, la normalisation de l’organisation du travail ne tend pas seulement à conformer des pratiques, mais aussi à désigner ceux des individus qui doivent se livrer à telles pratiques et ceux qui se livreront à telles autres.
29Au terme de ce processus de désignation, l’appropriation d’un format d’objet ne signifie pas nécessairement l’exclusivité des droits au bénéfice d’exploitation, comme c’est le cas pour le brevet. Elle a néanmoins de fortes incidences sur la compétition économique dans la mesure où l’accord impose des mises en forme, des désignations et des usages qui excluent de facto les alternatives. Au regard des dynamiques de compétition entre firmes, les frontières entre la norme et le brevet sont donc extrêmement ténues et surtout, l’une n’exclut pas les autres. Une technologie particulière, garantie par un brevet, procure, si elle devient une norme, une véritable position de monopole à ceux qui la possèdent. Toutefois, cette tendance est actuellement contrebalancée, pour les technologies complexes, par la nécessité de rendre compatibles les objets ou les réseaux d’objets entre eux et de sauvegarder, dans les États qui en ont les moyens, une industrie compétitive dans le secteur. D’où deux tendances centripètes dans la négociation des normes entre, d’une part, le souci d’augmenter les chances de profit et, d’autre part, l’exigence d’aboutir à la norme pour limiter les risques de perte. Cette tension autour de la production des normes peut s’avérer particulièrement éclairante pour comprendre la manière dont s’organise le marché [57]. C’est un effet de concurrence entre ceux qui sont dans le monopole et ceux qui ne le sont pas. Cela ne signifie pas que le marché a une structure monopolistique, mais que toute innovation repose sur un processus de monopolisation de format, qui peut en affronter un autre, comme le montrent les fréquentes compétitions entre formats d’un continent à l’autre, voire sur un même marché.
30Montons à présent d’un niveau et intéressons-nous à un secteur d’activité dans son ensemble. Le monde des TIC est caractérisé par la coexistence de normes qui, à chaque fois, désignent des communautés de producteurs et/ou d’utilisateurs distincts quand des modalités d’intercommunicabilité n’ont pas été développées. Ce fut le cas sur les normes téléphoniques MIC entre l’Europe et les États-Unis, entre Apple et IBM, ou plus récemment Windows/Linux. Dans le cas des logiciels libres, l’appropriation de la norme est offerte à tous, c’est-à-dire que tous ceux qui en ont les compétences peuvent l’utiliser pour développer un programme. Mais, dans ce cas de figure, les bénéfices que l’on peut tirer sont très faibles. Dans le cas des logiciels propriétaires, même limité à un consortium, l’exploitation de la norme est exclusive. Les chances de profit sont en revanche bien plus importantes.
31Mais qui sont donc les acteurs qui participent à l’élaboration de la norme ? Nos premiers éléments d’enquête montrent que la compétence technique est un facteur de sélection évident, mais qu’il n’est pas le seul. Il en est trois autres qui sont incontournables : l’intérêt à participer à un processus de normalisation (que ce soit pour le voir aboutir ou échouer), les moyens qui sont nécessaires pour y participer, le choix de l’arène de normalisation. En matière de normalisation d’Internet, il apparaît clairement que les individus qui dominent les échanges sont ceux qui ont les moyens de consacrer du temps à ce travail, c’est-à-dire ceux qui sont payés pour cela ou qui prennent sur leur temps libre. Il n’est alors pas très surprenant de constater que les dominants sont généralement les experts commandités par de grands groupes industriels [58]. Enfin, le dernier facteur, et non des moindres, est la composition de l’arène de normalisation. Plus celle-ci est ouverte, plus le produit de la coordination, s’il aboutit, aura de chance de se diffuser. Plus celle-ci est fermée, plus facile l’accord pourra être trouvé, mais plus délicat sera son imposition. Dans le dernier cas, il sera nécessaire soit de trouver un relais auprès des autorités publiques qui ont la capacité d’imposer le format, soit de s’en remettre à la compétition économique. D’où des stratégies différenciées des productions de normes qui passent par différents types d’instances de normalisation : consortiums privés, organismes inter-gouvernementaux, agences sectorielles de caractère national, régional, ou mondial. Dans chaque cas, ce qui est en jeu, ce sont les modalités d’appropriation de la norme : entre qui va-t-elle être décidée et, par voie de conséquence, entre qui vont être partagés les profits qui pourront en découler, et sur quelle étendue géographique va-t-elle s’imposer ? Il convient de préciser que l’ensemble des participants à l’élaboration d’une norme n’en seront pas forcément les bénéficiaires directs. On peut citer, à titre d’exemple, la construction des normes internationales en matière de contrôle des drogues. Si la quasi-totalité des pays ont participé à l’adoption des conventions, seuls les représentants d’une petite minorité d’entre eux ont durablement travaillé à leur élaboration et ont permis aux acteurs économiques de leur pays d’en tirer des bénéfices directs. Il convient donc de bien faire la différence entre les appropriations globales du fait de la participation, même passive, et l’appropriation effective du format. Contrôler un processus de normalisation est donc essentiel pour qui veut s’approprier le format. Ce contrôle accompagne ou favorise la monopolisation de l’offre, c’est-à-dire des logiques de captation/protection d’un marché. C’est précisément ce lien entre monopolisation d’un format et logique monopolistique dans le processus d’innovation que Schumpeter ne voyait pas.
Trois types de monopolisation des formats dans les processus de normalisation internationale
32Est-il intéressant de travailler sur cette hypothèse de monopolisation des formats ? Si l’on relit Schumpeter avec cette entrée, le premier élément est que toute situation de compétition où des formats d’objet ne sont pas monopolisés est soit une situation où l’innovation est faible, soit une situation où l’imitation est forte, ce qui pose problème aux innovateurs. Le cas de la confection du prêt-à-porter est ici exemplaire. Le fait que les entreprises qui innovent par leur stylisme soient immédiatement copiées leur pose des problèmes. Seules les matières ou les procédés sont brevetables. Les patrons des vêtements sont beaucoup plus difficilement appropriables par le travail de mise en forme et de désignation que nous avons décrit. Ceci explique que la désignation s’opère par la marque, qui, contrairement à la norme, est individuelle ; d’où la compétition par les marques et les entreprises de protection de ces marques. Le débat sur le renforcement de la lutte contre la contrefaçon dans le contexte de l’application de l’accord de l’OMC sur le textile indique assez bien les désagréments causés par une situation de format d’objet non monopolisable. Voilà une compétition dans laquelle les postulats de la compétition individuelle et du signalement sur le marché fonctionnent à plein ! Est-ce un phénomène si fréquent ? Cela reste à prouver.
33Néanmoins, il ne faudrait pas renvoyer le balancier à l’autre extrême. Nous faisons bien la différence entre monopolisation des formats d’objet et monopolisation de la production ou de l’offre. L’hypothèse de monopolisation n’offre pas de point d’entrée empirique général. Il ne s’agit pas de dire qu’il y a monopole du format et qu’il faut l’identifier, mais que, logiquement, on devrait voir émerger, à un moment ou un autre d’un processus d’innovation, des parcours de monopolisation des formats, qui seront plus ou moins longs, plus ou moins complexes, plus ou moins réversibles au regard des épreuves et des garanties qu’ils offrent. Pour soutenir un processus d’innovation, en effet, il ne suffit pas de développer un objet original : il faut opérer un transfert de capital capable de soutenir l’investissement. Ce transfert s’opère soit à partir d’une position dominante, soit par la conversion de capitaux. Dans les deux cas, la monopolisation de la qualification des objets limite le risque financier.
34En reprenant le cadre d’analyse en termes d’appropriation de format, nous faisons l’hypothèse que la normalisation peut se comprendre à partir de trois types bien distincts de monopolisation des formats d’objet.
35Le premier type de monopolisation des formats d’objets est caractérisé par l’imposition d’un standard par la seule force de la puissance économique et commerciale. Cela nous semble être possible dans les cas où une entreprise mène une politique d’innovation très ambitieuse, sur un créneau très porteur, en intégrant très rapidement tous les concurrents potentiels, ou en les excluant par des droits d’exploitation de brevets prohibitifs, ou en négociant avec eux sa position dominante [59].
36Le meilleur exemple de ce type de monopolisation est offert par Microsoft. Les épreuves de ce type de format sont constituées par des actualisations permanentes des objets produits et les garanties qu’elles offrent sont des garanties de compatibilité universelle entre les différents postes de travail et les versions successives des logiciels. Les politiques de sanction qui ont visé Microsoft n’interviennent que pour éviter les abus de position dominante qui sont liés à la monopolisation du format, mais n’ont aucun effet sur le format de logiciel en lui-même. Les seuls formats concurrents, comme Linux, sont le fait d’une minorité d’informaticiens qui cherchent une alternative au monopole par la coopération et l’absence de propriété intellectuelle, mais qui ne peuvent évidemment rivaliser avec la puissance de diffusion de Microsoft.
37Le second type de monopolisation des formats d’objet est celui qui résulte d’une négociation entre firmes concurrentes, soit dans le cadre d’accords de coopération, soit dans le cadre d’organisations non gouvernementales de type ISO. Comme nous l’avons montré, ce type d’accord est recherché pour limiter le risque économique que constitue un effort d’innovation volontariste et unilatéral, c’est-à-dire le plus souvent dans les domaines d’activité caractérisés par une concurrence forte et où la spécialisation sur un créneau unique d’innovation est aléatoire, ou encore dans des secteurs ou l’intercommunicabilité est essentielle (TIC). Ce type de monopolisation de format résulte le plus souvent de négociations très âpres, qui peuvent conduire à des processus de fusion-acquisition des firmes, ou à tout autre type d’intégration verticale, mais aussi à des ententes commerciales, comme ce fut le cas par le passé de manière tout à fait officielle. Le fait que les firmes aient intérêt à négocier ne signifie pas qu’elles le fassent sans recours à un moment ou un autre à l’autorité publique, comme le montre d’ailleurs la conversion en règlement par l’Union européenne des normes comptables adoptées par l’International Accounting Standards Board (IASB) [60]. Enfin, l’examen concret des processus de normalisation comme des individus y participant montre que nous sommes moins en face de modèles alternatifs de régulation que dans une compétition limitée à une petite élite pour l’initiative de la règle et le contrôle des ressources de l’État (à commencer par les ressources réglementaires et législatives). De fait, l’opposition entre régulation par les standards (secteur privé) et régulation publique relève plus d’une distinction idéologique que d’une différence de nature. Le fait que les normes techniques se prêtent moins à un contrôle central ou qu’elles se diversifient n’implique pas forcément la disparition de concentrations économiques. On peut au contraire faire l’hypothèse inverse. La nouvelle structure de l’IASB est, par exemple, une tentative de monopolisation réussie, puisqu’elle substitue à une structure assez lourde, composée d’agences nationales, une petite élite qui ne rend de comptes qu’à elle-même. Mais, inversement, cette autonomie, parce qu’elle n’est pas garantie par les autorités publiques et parce qu’elle ne s’insère pas de droit dans une architecture institutionnelle pérenne, peut devenir la source du déclin de l’IASB. C’est peut-être l’une des raisons pour lesquelles l’IASB tente de rester en relations étroites aussi bien avec des organismes régionaux comme l’Union européenne que les agences nationales de normalisation ou encore l’ISO.
38Le troisième type de monopolisation des formats est celui qui résulte d’initiatives intergouvernementales de définition du bon format des choses. C’est typiquement ce qu’on appelle communément une politique de réglementation internationale. Le secteur du médicament, et la réglementation soutenue par l’agence européenne du médicament, nous paraît relever de ce troisième type. Dans certains cas, la réglementation peut elle-même être le vecteur d’une monopolisation de la production. Les drogues constituent ici un bon exemple. Le processus de définition/désignation, qui structure la politique des drogues destinées à des fins médicales, a supporté, depuis ses débuts dans les années 1920, une dynamique monopolistique de l’offre. Le principe qui soutient cette politique s’appuie sur une limitation directe de la production et sur une surveillance étroite des échanges internationaux, si bien qu’aucun pays n’est libre de fabriquer les quantités de drogues qu’il désire, chacun devant se soumettre à un plan d’ensemble géré par une instance supranationale. Au-delà du précédent historique que constitue cette régulation à l’échelle de la planète, il est un fait que toute économie planifiée repose nécessairement sur une répartition du marché entre les différents intervenants. Cette répartition fit, durant les années 1920-1930, l’objet d’une entente directe entre les entreprises européennes, qui constituèrent, avec l’aval de leurs gouvernements respectifs, des cartels de la cocaïne et des opiacés. Il convient de préciser que ces ententes, intégrées à un projet de convention de la Société des nations en vue de limiter l’offre des drogues, faillirent être avalisées par le droit international en 1931 [61]. Bien que non intégrées explicitement au système de contrôle, ces ententes continuèrent à fonctionner jusqu’à la deuxième guerre mondiale. Si rien ne dit qu’elles ont perduré après le conflit, les chiffres de production, publiés chaque années par les organismes de contrôle [62], font clairement apparaître une structure oligopolistique de l’offre, au profit des États-Unis, du Royaume-Uni et de la France. Ces trois pays totalisent, sur la période 1929-1999, 55 % de la fabrication de morphine et 56 % de celle de codéine. Or, cette concentration, loin de diminuer dans le temps, tend à se renforcer puisque, sur la période 1991-1999, elle atteint respectivement 73 % et 70 % de la fabrication mondiale. S’il est difficile de prouver que cet oligopole est le fruit d’une entente entre les États concernés, il n’est pas non plus uniquement le fruit du libre jeu entre l’offre et la demande ou de la conséquence implicite des textes. Lorsqu’on observe les individus qui ont participé à l’élaboration et à la gestion du contrôle international des drogues, aussi bien au niveau des assemblées représentatives des États que des fonctionnaires internationaux ou des organismes de contrôle, on remarque une sur-représentation des Américains, des Britanniques et des Français. À titre d’indication, ces trois nationalités ont occupé à elles seules 49 % des postes de présidents et de vice-présidents au sein des organismes de contrôle. La lecture des archives confirme, ensuite, qu’ils avaient une conscience aiguë des enjeux économiques couverts par leurs fonctions et qu’ils défendaient les intérêts de leurs pays. La structure oligopolistique de l’offre des drogues s’appuie donc sur une structure oligarchique des instances internationales de contrôle. Or, il apparaît que l’efficacité du contrôle international des drogues résulte en grande partie de l’existence de cette double structure monopolistique, à la fois économique et politique.
39L’intérêt de cette typologie des parcours tient au fait qu’elle n’enferme pas la normalisation dans des sphères de régulation. Chaque processus d’innovation a sa singularité. Si l’on veut dynamiser l’analyse, il faut donc à la fois caractériser les types d’innovation dont il s’agit et la façon dont le processus d’innovation bifurque d’un type de parcours à un autre. Prenons l’exemple de la norme GSM. Comme innovation, elle relève des nouveaux objets de communication, des nouvelles méthodes de transport (nouvelle technique de transport de la voix par réseau hertzien), des nouveaux marchés et d’un nouveau type d’organisation en suivant deux des trois types de parcours de monopolisation : appropriation collective d’un format et réglementation de la concurrence.
Le cas du GSM
40Le GSM est une norme de téléphonie mobile développée par les Européens au cours des années 1980 et qui s’est peu à peu imposée à l’ensemble du monde, exception faite des États-Unis et du Japon [63]. Au début des années 1980, il existait en Europe plusieurs réseaux de téléphonie cellulaire qui coexistaient les uns à côté des autres : NMT 450 en Scandinavie et au Benelux, TACS au Royaume-Uni, C-Netz en Allemagne de l’Ouest, Radiocom 2000 en France ou RTMI/RTMS en Italie. Cette technologie mobile dite de première génération était confrontée à deux problèmes majeurs : elle ne pouvait supporter qu’un nombre d’usagers très faible et ne permettait pas l’interopérabilité entre les différents réseaux.
41Par ailleurs, les observateurs économiques prévoyaient une forte augmentation de la demande en matière de téléphonie mobile à laquelle la technologie cellulaire ne pouvait répondre, notamment pour des questions de débit. Il aurait été nécessaire de développer le réseau, chose trop peu rentable sur des marchés nationaux ou sub-régionaux trop étriqués.
42L’idée de développer une norme pan-européenne de téléphonie mobile prit naissance au sein de la Conférence européenne des postes et communications à l’initiative des Français et des Allemands. La CEPT est une organisation inter-gouvernementale indépendante des CEE qui regroupait les administrations publiques en charge des télécoms de 26 pays d’Europe à l’époque. Un Groupe spécial mobile fut créé, en son sein, en 1982, afin de mettre au point les spécifications techniques nécessaires à la création d’un réseau de téléphonie mobile pan-européen capable d’accueillir des millions d’utilisateurs. La norme européenne devait permettre d’importantes économies d’échelle (notamment par le partage international de la bande passante) et surtout offrir un marché qui ne soit plus limité à une petite poignée d’utilisateurs privilégiés [64]. Les raisons du développement d’une norme européenne, plutôt que des normes nationales, demeurent encore assez obscures. La plupart des documents consultés avancent l’idée que le développement de la téléphonie de deuxième génération aurait été trop peu rentable pour les opérateurs nationaux. Cet argument est loin d’être irrecevable, mais on peut aussi envisager la volonté de certains opérateurs de sortir de leur frontière nationale par l’instauration d’une norme commune.
43Formé à l’extérieur du cadre communautaire, le projet GSM reçut dès 1984 l’appui de la Commission européenne [65]. La création d’un grand marché européen de la téléphonie mobile ne pouvait que séduire une Commission alors soucieuse de trouver des réalisations concrètes au projet de l’Acte unique. L’entrée de la Commission dans le processus de normalisation n’est que la première étape d’une dynamique de multiplication des acteurs et des espaces de normalisation qui va caractériser le parcours du GSM. Dès 1986, sur la pression des Allemands et Français, la norme GSM prend un caractère intergouvernemental par la décision du sommet des chefs d’État d’entériner le projet GSM comme future norme européenne de la téléphonie deuxième génération. Le résultat de cette décision fut une recommandation et une directive adoptées dès l’année suivante. Outre les spécifications techniques qu’elles mettaient en place, elles symbolisèrent le transfert d’autorité sur le processus de négociation de la CEPT à la Commission européenne. Les travaux du Groupe spécial mobile de la CEPT avaient été fortement ralentis par le conflit qui opposaient les équipementiers téléphoniques européens. Les Scandinaves, menés par Nokia et Ericsson, défendaient la technologie de la bande étroite (narrow band), tandis que l’Allemand AEG et le Français Alcatel promouvaient la technologie de la bande large (wide band). Cette opposition technologique manifestait bien évidemment deux orientations industrielles distinctes. Le choix de l’une sur l’autre aurait octroyé à ses promoteurs un avantage compétitif décisif. L’irréductibilité des positions constatée lors de la réunion de la CEPT tenue à Madeire en février 1987 consacra le déclin de cette institution dans le processus d’élaboration de la norme GSM. Déjà, une cellule permanente GSM, ayant son siège à Paris, avait été créée fin 1986, pour servir d’alternative aux blocages de la CEPT [66].
44Le même type de problème se posait au niveau des opérateurs de téléphonie. La création d’un grand marché européen du mobile impliquait la naissance d’opérateurs agissant sur plusieurs espaces nationaux et la fin des monopoles nationaux. C’est notamment ce à quoi appelait la Commission européenne dans son Green Paper de 1987 en encourageant l’exploitation du réseau GSM par l’ouverture de la concurrence entre équipementiers et opérateurs [67]. Là encore, la menace de voir des opérateurs particulièrement puissants occuper l’ensemble du marché au détriment d’opérateurs plus petits n’était pas à négliger.
45La production d’une norme commune dépassait le simple enjeu technologique et impliquait une réorganisation profonde du secteur des télécoms en Europe. Dans ce contexte, il était nécessaire de garantir à chacun, et notamment aux plus petits, la possibilité de survivre dans le grand marché. Ce fut la Commission européenne qui profita de ces blocages pour reprendre l’initiative et amener l’ensemble des acteurs à un compromis considéré par beaucoup comme le véritable acte de naissance du GSM : le protocole d’accord du 7 septembre 1987 (Memorandum of Understanding : MoU).
46Concernant les équipementiers, la technologie à bande étroite fut privilégiée, ce qui donna un net avantage à Ericsson et Nokia, sans pour autant abandonner la bande large, qui permit à Alcatel et Siemens de rester dans la course. Sur le plan de l’accès au réseau et de l’ouverture de la concurrence parmi les opérateurs, la garantie donnée aux États et donc aux opérateurs historiques (tels que les PTT) fut celle du système de licence par lequel chaque gouvernement pouvait contrôler sur son territoire les bénéficiaires de la norme. C’était en fait sans compter sur la privatisation du secteur, qui allait permettre à n’importe quel opérateur d’acquérir une licence par simple rachat d’une société détentrice. Ces critères auront d’ailleurs une importance considérable dans les grandes manœuvres de la fin des années 1990 et dans les avis rendus par la Commission européenne sur la libre concurrence.
47Signé par les PTT de 13 pays, le MoU accueillait les signatures de deux acteurs privés, ce qui constituait un précédent : Cellnet et Racal. La présence de Racal parmi les premiers signataires du protocole mérite d’être soulignée, car c’est de cet équipementier que va naître Vodaphone, aujourd’hui première entreprise de téléphonie mobile au monde. La présence de ces deux opérateurs privés est intéressante à un autre titre : elle marque le passage d’une régulation intergouvernementale des télécommunications à une régulation plus ouverte où des acteurs hétérogènes se côtoient sur un pied d’égalité juridique. Le leadership de la Commission européenne dans le processus de normalisation s’accentua encore en 1988 avec la création de l’European Telecomunication Standards Institution, qu’elle avait appelé de ses vœux dans le Green Paper de 1987. Les compétences de la CEPT dans l’élaboration de la norme GSM furent transférées au nouvel organisme, marquant ainsi symboliquement le passage d’un parcours de production de format de type intergouvernemental à un parcours de type hybride. L’ETSI est, dès ses origines, un organisme hybride qui regroupe l’ensemble des acteurs intervenant dans la question des télécoms, du fabricant de téléphone au consommateur en passant par les administrations publiques, mais dont les votes s’effectuent par nationalité, obligeant ainsi les acteurs d’un même pays à s’entendre préalablement. Bien qu’indépendante juridiquement des CEE, les travaux de l’ETSI furent fortement influencés par la Commission européenne, venant ainsi confirmer que les parcours d’appropriation des formats sont loin d’être uniformes et homogènes.
48La technologie GSM devint une réalité en 1991 avec le premier appel d’un téléphone portable vers un téléphone fixe effectué dans un laboratoire finlandais. Dès l’année suivante, le Danemark, la Finlande, la France, l’Allemagne, l’Italie, le Portugal et la Suède lançaient les premiers réseaux GSM dans leurs pays. Très vite, des opérateurs privés apparurent un peu partout, intervenant comme Vodaphone dans plusieurs pays. La norme GSM associée aux directives européennes en matière de télécommunication créait les conditions d’un vaste marché unique sur lequel l’ensemble des opérateurs pouvaient entrer en concurrence les uns avec les autres au bénéfice du consommateur. Cette vision quelque peu idyllique doit cependant être nuancée par les constats que l’on peut faire sur la structuration du marché européen quelques 15 ans plus tard [68].
49Si on étudie la distribution des licences GSM entre les différents opérateurs, on remarquera que six opérateurs seulement totalisent 45 % des licences distribuées, tandis qu’ils sont quarante-et-un à se partager les 60 % restant. Ainsi, sur 20 pays européens, Vodaphone totalise 12 licences, France Telecom 9 licences, Deutsche Telekom 7 licences, les scandinaves TeleSonera et Tele2 respectivement 5 et 6 licences, l’espagnol Telefonica 4 licences. Encore est-il utile de préciser que toutes les licences ne se valent pas ; posséder une licence GSM en France ou en Allemagne pèse autrement plus lourd sur le plan économique qu’une licence au Luxembourg. Si les monopoles nationaux sur la téléphonie ont bien disparu, ils ont laissé la place à une structure oligopolistique de l’offre à l’échelle européenne, comme le montre le graphe suivant.
Degré de centralité des opérateurs au regard des parts des licences GSM détenues dans les différents pays d’Europe
Degré de centralité des opérateurs au regard des parts des licences GSM détenues dans les différents pays d’Europe
50Le cas du GSM esquissé ici nous permet de donner une illustration du lien entre innovation, régulation et structuration des marchés. Il impose des investigations empiriques plus poussées sur la dynamique du travail de normalisation en tant que tel. Il montre néanmoins qu’il serait difficile de définir a priori le cadre pertinent de la régulation, ou de postuler une situation de concurrence pure sur le marché de la téléphonie mobile. Au contraire, l’imposition progressive de la technologie GSM est marquée par des parcours de monopolisation de type appropriation collective et réglementation de la concurrence. Ce dernier parcours génère des contraintes réglementaires, mais, comme le débat et les contentieux relatifs aux pratiques d’entente entre opérateurs l’ont bien montré dans le cas français, la réglementation ne remet pas fondamentalement en cause la structuration oligopolistique de l’offre.
51* *
52Les processus de normalisation internationale restent un domaine encore faiblement étudié par la science politique, alors même que ses effets concrets prennent de plus en plus de place dans la vie quotidienne des citoyens, même si cette place est occultée par la technicité des objets. Phénomène de mondialisation par excellence, la standardisation internationale engage des acteurs et des institutions extrêmement hétérogènes qui rendent inopérantes les grilles de lecture classiques en terme de régulation publique ou privée. Bien que les analyses économiques aient tendance à masquer les jeux de pouvoir qui organisent le monde de la standardisation, elles ont le mérite de rappeler que les normes techniques constituent des enjeux importants pour les entreprises, pour ne pas dire vitaux. Mais, alors que l’analyse dominante des économistes se concentre sur l’utilité de la norme en situation de compétition et d’asymétrie d’information, ne faut-il pas déplacer le regard et s’intéresser aux pratiques et aux trajectoires des entreprises qui contribuent à élaborer et adopter les standards ? De ce point de vue, la saisie des motifs pour lesquels une entreprise participe à un processus de normalisation devient déterminante. Dans une perspective schumpétérienne, qui place l’innovation au cœur de la dynamique du capitalisme, on comprendra que la maîtrise des processus d’innovation et donc de normalisation est un objectif vital pour toute entreprise. Or, nous dit Schumpeter, seules des pratiques monopolistiques ou en phase de le devenir créent les conditions favorables à une politique d’innovation. C’est afin de compléter la pensée de Schumpeter, qui est aveugle sur les standards, que nous proposons une approche de la standardisation en termes de parcours de monopolisation des formats : parcours qui, s’ils sont menés à leurs termes, doivent garantir par la norme édictée l’appropriation du format et les bénéfices matériels tirés de son exploitation industrielle. Cette réflexion programmatique doit encore trouver des approfondissements empiriques, qui sont actuellement en cours dans l’étude que nous menons sur la standardisation en matière de TIC. Ce type d’approche offre, néanmoins, plusieurs avantages pour examiner les processus de standardisation. Il neutralise tout d’abord les débats sur la nature de la norme et leur bien fondé au profit d’une étude des raisons de leur existence. Il met ensuite l’accent sur les acteurs et les jeux de pouvoir qui président à l’adoption d’une norme. Enfin, il permet d’inscrire la normalisation dans le cadre plus large de la réflexion sur le capitalisme, au point que l’on puisse considérer la normalisation comme un trait spécifique du capitalisme moderne occidental.
53Pour reprendre l’expression de Weber, « si le capitalisme au sens large a existé de tout temps et en tout lieu, c’est en Occident qu’il a trouvé sa plus grande extension et connu des types, des formes, des tendances qui n’ont jamais vu le jour ailleurs » [69]. On peut faire le même commentaire sur cette alliance de la technicité et du droit – par ailleurs, deux traits spécifiques qui servent à Weber pour définir le capitalisme moderne occidental – que sont les normes techniques. Nulle part ailleurs qu’en Occident avant le 19e siècle, il n’a été développé autant d’efforts pour normaliser, comme l’illustre le cas de la typographie, ou encore celui des méthodes de construction [70]. La normalisation ne serait-elle pas un trait spécifique du capitalisme moderne occidental ? [71]
Notes
-
[1]
Le terme ISO est polysémique puisqu’il désigne aussi bien l’organisation internationale (International Organization for Standardization) au sein de laquelle sont adoptés les standards que les normes elles-mêmes. Créée en 1946, à la suite de la Fédération internationale des associations nationales de normalisation, l’ISO présente une structure fédérative regroupant les agences nationales de 148 pays. Le nombre impressionnant de normes publiées (13 700 depuis 1947) tend à attester de l’importance de ces dispositions pour les secteurs économiques concernés.
-
[2]
La typographie a sans doute été l’un des premiers objets techniques normalisés, le processus étant amorcé dès le 16e siècle à l’échelle européenne. Sur ce point, voir Jérôme Peignot, De l’écriture à la typographie, Paris, Gallimard, 1967 (NRF Idées). L’essor du télégraphe, des machines à écrire et des micro-ordinateurs a accéléré ce mouvement de normalisation typographique au 20e siècle, sous l’impulsion d’organisations aussi diverses que l’Union internationale des télégraphes, l’International Standard Organization, le consortium Unicode, et même, plus récemment pour des signes comme @, le consortium W3C. Pour une analyse de ce mouvement contemporain de normalisation typographique, voir les travaux de Jacques André : « Caractères, codage et normalisation. De Chappe à Unicode », Document numérique, Éd. Lavoisier + Hermès, 6 (3-4), 2002, p. 13-49 ; « Petite histoire des signes de correction typographique », Cahiers Gutenberg, 31, décembre 1998, p. 45-59 ; « Histoire d’&oelig, histoire dd’@ ,ou des rumeurs typographiques et de leurs enseignements », Didapro, Actes en ligne des premières journées francophones de didactique des progiciels, 10 et 11 juillet 2003, INRP/GEDIAPS, mise en ligne : octobre 2003.
-
[3]
David Bach, « International Cooperation and the Logic of Networks : Europe and the Global System for Mobile Communications (GSM) », BRIE working paper 139, E-conomy Project, working paper 14, juillet 2000 ; François-Xavier Dudouet, Ioana Manolescu, Benjamin Nguyen, Pierre Senellart, « Sociological Analysis of the W3C Standardization Process : XML Warehouse Meets Sociology », article soumis à la Conférence annuelle du W3C, Tokyo, septembre 2005.
-
[4]
Franck Cochoy, « The Work of Globalization : How Standardization May Impact the Management of Work », dans Jean-Claude Barbier, Elize Van Zyl (eds), The Impact of Globalization on the World of Work, Paris, L’Harmattan, 2002, p. 83-96.
-
[5]
Gilles Allaire, « Les normes comme ressources », communication au colloque « Instruments d’action publique et technologies de gouvernement », 21 décembre 2004 ; Marie-France Garcia, « Le marché de l’excellence : le classement des grands crus à l’épreuve de la mondialisation », Genèses, 56, septembre 2004, p. 72-96.
-
[6]
Delphine Mercier, « Heurts et malheurs de la certification : le cas de la norme ISO 9002 appliquée dans un centre de tri postal », dans Salvatore Maugeri (dir.), Délits de gestion, Paris, La Dispute, 2001, p. 31-50 ; Delphine Mercier, Corinne Tanguy, « Entre homogénéisation par les normes et logiques différenciées : la production d’oranges en Argentine et en Uruguay », Économie et sociétés, Série socio-économie du travail, 25, 2005, p. 751-774. Franck Cochoy « Normalisation et démocratie technique. Histoire, enjeux et tendances », communication au colloque « Instruments d’action publique et technologies de gouvernement », 21 décembre 2004.
-
[7]
Jacques Pernollet, « Le processus d’élaboration des normes techniques aux plans national, communautaire et international », Les Petites Affiches, 18, 11 février 1998, p. 12-14.
-
[8]
Franck Cochoy, Jean-Pierre Garel, Gilbert de Terssac, « Comment l’écrit travaille l’organisation : le cas des normes ISO 9000 », Revue française de sociologie, 39 (4), décembre 1998, p. 673-699 ; Denis Segrestin, « L’entreprise à l’épreuve des normes de marché. Les paradoxes des nouveaux standards de gestion dans l’industrie », Revue française de sociologie, 38 (3), juillet 1997, p. 553-585, et Les chantiers du manager, Paris, Armand Colin, 2005.
-
[9]
Franck Cochoy : « De l’AFNOR à NF ou la progressive marchandisation de la normalisation industrielle », Réseaux, 18 (102), 2000, p. 63-89.
-
[10]
Pour une bonne synthèse de l’évolution des travaux sur la politique étrangère, cf. Valérie M. Hudson, « Foreign Policy Analysis : Actor-specific Theory and the Ground of International Relations », Foreign Policy Analysis, 1 (1), mars 2005, p. 1-30.
-
[11]
Léa Gauthier (traduction), L’imaginaire des mondes exilés. Entretien avec Arjun Appadurai, <http:// www. mouvement. net>, novembre 2003.
-
[12]
James Rosenau, Ernst-Otto Czempiel, Governance Without Government, Cambridge, Cambridge University Press, 1992 ; Raw Rhodes, « The New Governance : Governing Without Government », Political Studies, 44 (4), 1996, p. 652-667 ; Oliver E. Williamson, The Mechanism of Governance, Oxford, Oxford University Press, 1996.
-
[13]
John Braithwaite, Peter Drahos, Global Business Regulation, Cambridge, Cambridge University Press, 2000.
-
[14]
Pour une revue de la littérature économique sur la standardisation, cf. Carmen Matutes, Pierre Regibeau, « A Selective Review of the Economics of Standardization : Entry Deterrence, Technological Progress and International Competition », European Journal of Political Economy, 12, 1996, p. 183-209.
-
[15]
On entend par externalité les effets qu’induit le comportement d’un agent économique sur celui d’autres agents. Pour une discussion approfondie de la notion d’externalité en économie, cf. Dominique Henriet, « Économie publique », Encyclopedia universalis, 10e éd., 2005, chapitre « Externalités ». Appliqué à la standardisation, le raisonnement selon lequel l’intervention de l’État se justifie par la production d’externalités positives (hausse de la qualité, de la sécurité, etc.) est particulièrement bien illustré par Charles B. Blankart, Gunther Knieps, « State and Standards », Public Choice, 77, 1993, p. 39-52. Pour une approche moins modélisée de ce type d’analyse, on peut aussi se reporter à Kenneth Abbott, Duncan Snidal, « International Standards and International Governance », Journal of European Public Policy, 8 (3), 2001, p. 345-370.
-
[16]
George Akerlof, « The Market for “Lemmons” : Quality Uncertainty and the Market Mechanism », Quarterly Journal of Economics, 84, 1970, p. 488-500. Dans ce très célèbre article, Akerlof démontre, en prenant l’exemple du marché des voitures d’occasion, que l’incertitude sur la qualité a des incidences importantes sur les comportements de vente et d’achat. L’individu qui vend une voiture d’occasion a plus intérêt à le faire s’il est peu ou moyennement satisfait de sa qualité. Dans le cas contraire, il en demandera un bon prix et n’hésitera pas à la retirer du marché s’il ne trouve pas acquéreur à ce prix, de sorte qu’il en usera jusqu’au bout. L’acheteur qui se base sur le prix en essayant de le tirer au plus bas a donc beaucoup plus de chance d’acheter une « voiture pourrie », et il aura donc aussi tendance à se méfier d’un prix bas s’il recherche la qualité. C’est pourquoi, dans une hypothèse d’exigence de qualité, le bien qui aura le plus de chances d’être échangé est le bien de qualité moyenne à un prix moyen. Il n’y a donc pas d’équilibre du marché par les prix.
-
[17]
C’est ce que suggère par exemple Bernard Baudry : « Dans la relation de sous-traitance, les signaux visibles concernent les procédures d’assurance-qualité qui tendent à se généraliser progressivement » (Bernard Baudry, « De la confiance dans la relation d’emploi ou de sous-traitance », Sociologie du travail, 26 (1), 1994, p. 43-61, dont p. 52).
-
[18]
Jean Tirole, Jean-Jacques Laffont, A Theory of Incentives in Regulation and Procurement, Chicago, MIT Press, 1993.
-
[19]
Pour une approche relativement claire de ce débat, cf. Stéphane Saussier, M’hand Fares, « Théorie des coûts de transaction versus théorie des contrats incomplets : quelles divergences ? », Revue française d’économie, 2-3, janvier 2002, p. 193-230.
-
[20]
Pour une analyse beaucoup plus détaillée de ces questions, cf. Stanley M. Besen, Joseph Farrell, « Choosing How to Compete : Strategies and Tactics in Standardization », Journal of Economic Perspectives, 8 (2), 1994, p. 117-131.
-
[21]
Pour une revue de ces problèmes et les solutions apportées par les théories économiques, on pourra utilement se référer à Jean-Luc Gaffard, Économie industrielle et de l’innovation, Paris, Dalloz, 1999.
-
[22]
Laurent Thévenot, « Les investissements de formes », Cahiers du CEE, 29, Paris, PUF, 1985, p. 21-72.
-
[23]
Cf. à titre d’exemple, François Eymard-Duvernay, « Conventions de qualité et formes de coordination », Revue économique, 40 (2), mars 1989, p. 329-359.
-
[24]
L’OCDE a déjà souligné ce phénomène à propos des TIC : « Dans une grande diversité de situations, une norme finit par dominer le marché, mais dans la plupart des circonstances, ce n’est pas la meilleure norme » (OCDE, La dimension économique des normes en matière de technologies de l’information, Paris, OCDE, 1991).
-
[25]
Marie-Anne Frison-Roche, « Le contrat et la responsabilité : consentements, pouvoirs et régulation économique », Revue trimestrielle de droit civil, 97 (1), 1998, p. 43-56.
-
[26]
Magali Lanord Farinelli, « La norme technique : une source du droit légitime ? », Revue française de droit administratif, 4, juillet-août 2005, p. 738-752, dont p. 746.
-
[27]
92/46/CEE du 16 juin 1992.
-
[28]
Ibid.
-
[29]
Olivier Borraz, « Les normes : instruments dépolitisés de l’action publique », dans Pierre Lascoumes, Patrick Le Galès (dir.), Gouverner par les instruments, Paris, Presses de Sciences Po, 2004, p. 123-161. Sur le travail spécifique de lobbying auprès de la Commission européenne relatif aux standards techniques, cf. particulièrement Marc Austin, Helen Milner, « Strategies of European Standardization », Journal of European Public Policy, 8 (3), 2001, p. 411-431.
-
[30]
Pierre Bourdieu, « Esprit d’État : Genèse et structures du champ bureaucratique », Actes de la recherche en sciences sociales, 96-97, 1993, p. 49-62.
-
[31]
Émile Durkheim, De la division du travail social, Paris, PUF, 1973.
-
[32]
Nils Brunsson, Bengt Jacobsson et al., A World of Standards, Oxford, Oxford University Press, 2000.
-
[33]
François-Xavier Dudouet, « Le contrôle international des drogues », thèse de doctorat en science politique sous la direction de Guillaume Devin, Paris, Université Paris X-Nanterre, 2002.
-
[34]
Cf., par exemple, Jürgen Kleinemeyer, « Standardisation as a Tool for Strategic Management », dans Wilfried Hesser (ed.), From Company Standardisation to European Standardization, Hambourg, Universität der Bundeswehr, 1995.
-
[35]
Bernard Baudry, L’économie des relations interentreprises, Paris, La Découverte, 2005 (Repères).
-
[36]
Kristina Tamm Hallström évoque, d’ailleurs, très clairement, comment l’IASB entretient des liens étroits avec les instances de l’Union européenne pour « faire passer » ses standards.
-
[37]
Cf. ici encore Nils Brunsson, Bengt Jacobsson, A World of Standards, op. cit.
-
[38]
Jacint Jordana, David Levi-Faur (eds), The Politics of Regulation. Institutions and Regulatory Reforms for the Age of Governance, Cheltenham, Edward Elgar, 2004 (The CRC Series on Competition, Regulation and Development).
-
[39]
Mark Thatcher, « The Commission and National Governments as Partners : EC Regulatory Expension in Telecommunications, 1979-2000 », Journal of European Public Policy, 8 (4), 2001, p. 558-584.
-
[40]
Thibault Daudigeos, « La RSE : un nouveau front pionnier pour les instituts nationaux de normalisation : Comparaison des travaux de normalisation français et anglais », Instruments d’action publique et technologie de gouvernement, colloque de la Section d’études internationales de l’AFSP, Paris, Sciences Po, 20 et 21 décembre 2004.
-
[41]
Comme le suggère Roger Pouivet, « pour qu’il y ait isomorphie, il faut et il suffit que l’on puisse projeter une structure sur l’autre indépendamment de l’identité de leurs éléments. […] C’est à un critère négatif qu’il faut avoir recours pour définir l’isomorphie : sont isomorphes deux structures que rien n’empêche de se substituer à l’autre. […] Les considérations d’identité ne peuvent apparaître qu’après cette projection et comme une exigence supplémentaire » (Roger Pouivet (dir.), Lire Goodman, Combas, Éd. de l’éclat, 1992, p. 125-127).
-
[42]
Kristina Tamm Hallström, « In Quest of Authority and Power : Standardization Organizations at Work », papier présenté au Scancor Workshop « Transnational regulation and the transformation of states », Stanford University, California, 22-23 Juin 2001: disponible sur le site du « Scandinavian Consortium for Organizational Research » : <http:// www. scancor. uib. no>.
-
[43]
<http:// www. iso. ch/ iso/ fr/ aboutiso/ introduction/ index. html>, décembre 2003. Cette manière de se présenter n’est pas propre à l’ISO, on la retrouve dans des organisations plus spécifiquement inter-gouvernementales comme l’Union internationale des télécommunications (UIT) : « L’UIT, dont le siège est à Genève, est une organisation du système des Nations unies au sein de laquelle les États et le secteur privé coordonnent les réseaux et les services mondiaux de télécommunications » (http:// www. itu. int/ home/ index. fr. html, avril 2005).
-
[44]
François-Xavier Dudouet, Ioana Manolescu, Benjamin Nguyen, Pierre Senellart, art. cité.
-
[45]
John M. Stopford, Susan Strange, Rival States, Rival Firms. Competition for World Market Shares, Cambridge, Cambridge University Press, 1991.
-
[46]
Jean-Christophe Graz, « Quand les normes font loi : Topologie intégrée et processus différenciés de la normalisation internationale », Études Internationales, 35 (2), juin 2004, p. 233-260.
-
[47]
Jean-Christophe Graz, ibid. Cette analyse en termes de marchandisation de la normalisation a été développée, dans un cadre national, par Franck Cochoy, « De l’AFNOR à NF ou la progressive marchandisation de la normalisation industrielle », Réseaux, 18 (102), 2000, p. 63-89.
-
[48]
Jean-Christophe Graz, op. cit., p. 237.
-
[49]
Jean-Christophe Graz, ibid., p. 237.
-
[50]
Pour une synthèse claire des développements historiques de ce débat, voir notamment Richard Swedberg, Une histoire de la sociologie économique, Paris, Desclée de Brouwer, 1994, et Philippe Steiner, La sociologie économique, Paris, La Découverte, 1999 (Repères).
-
[51]
Joseph Schumpeter, Capitalisme, socialisme et démocratie, Paris, Payot, 1951.
-
[52]
Notons que des économistes ont tenté de raffiner cette théorie. Selon Philippe Aghion, par exemple, le facteur déterminant pour inciter à l’innovation une firme installée est le rapport entre la rente avant l’innovation et après l’innovation. La concurrence sur le marché des biens peut réduire suffisamment la rente avant l’innovation pour inciter à développer une innovation et ainsi tenter d’échapper à la concurrence. Cf. Philippe Aghion, « Une estimation empirique de la relation entre innovation et concurrence sur le marché des biens », dans Jean-Philippe Touffut (dir.), Institutions et innovation. De la recherche aux systèmes sociaux d’innovation, Paris, Albin Michel, 2002 (Bibliothèque Économie), p. 253-285.
-
[53]
Une présentation de cette enquête a été faite par l’auteur à Marseille le 10 décembre 2004 dans le cadre du séminaire « Analyse des controverses dans les débats publics », dirigé par Francis Chateauraynaud, Jean-Michel Fourniau et Guillaume Hollard.
-
[54]
Sans inscrire notre réflexion dans une épistémologie hégélienne, nous revenons à sa définition de la propriété, que nous pensons être très aboutie : G. W. Friedrich Hegel, Principes de la philosophie du droit, Paris, GF Flammarion, 1999, p. 120-134.
-
[55]
Alexandre Mallard, « L’écriture des normes », Réseaux, 18 (102), 2000, p. 37-61.
-
[56]
Jack Goody, La raison graphique. La domestication de la pensée sauvage, Paris, Les Éditions de Minuit, 1997 (Le sens commun).
-
[57]
On pense notamment au refus du gouvernement britannique d’agréer une alliance entre IBM et British Telecom. Cette alliance aurait eu pour effet d’imposer de facto au Royaume-Uni les normes du fabricant américain et d’handicaper les entreprises nationales : cf. Jack Goody, ibid.
-
[58]
Cf. « La normalisation en matière de technologies de l’information et de la communication (TIC) » : ACI en cours sous la responsabilité scientifique de Guillaume Devin.
-
[59]
Tel est le cas de Microsoft, qui est, jusqu’à ce jour, parvenu à des accords financiers avec ses concurrents américains pour mettre fin aux procédures judiciaires.
-
[60]
Il s’agit des fameuses normes comptables IFRS entrées en vigueur en 2005. Sur ce domaine de normalisation, cf. notamment Beth Simmons, « The International Politics of Harmonization : The Case of Capital Market Regulation », International Organization, 55 (3), automne 2001, p. 589-620, et Sebastian Botzem, « Transnational Expert-Driven Standardization : Accountancy Governance from a Professional Point of View », communication au congrès de l’ECPR, atelier « Transnational Private Governance in the Global Political Economy », Grenade, avril 2005.
-
[61]
Cf. Société des Nations, Actes de la Conférence pour la limitation de la fabrication des stupéfiants, Genève, 27 mai-13 juillet 1931 : Volume I et II C.509.M.214.1931.XI.
-
[62]
Institués par les conventions de 1925 et 1931, le Comité central permanent (CCP) et l’Organe de contrôle (OC) étaient des collèges d’experts, non représentatifs des États, chargés de surveiller et contrôler l’offre mondiale des drogues. Les États sont, en vertus des conventions, tenus de déclarer toutes les quantités produites, échangées, stockées, saisies ou détruites. Les chiffres ainsi obtenus sont analysés en fonction des besoins médicaux mondiaux, afin de s’assurer qu’aucune quantité n’ait été détournée vers des fins illégitimes. Les deux organes ont fusionné en 1968 pour former l’Organe international de contrôle des stupéfiants (OICS). Pour plus de simplicité, nous appelons ces trois institutions les organismes de contrôle.
-
[63]
Pour une histoire institutionnelle du GSM, se reporter au site de l’association GSM : <http:// www. gsmworld. com>.
-
[64]
Entre autres, « 3G Mobile Licensing Policy : From GSM to IMT-2000. A Comparative Analysis », disponible sur le site de l’IUT : <http:// www. iut. int/ osg/ spu/ ni/ 3g/ casestudies/ gsm-final. doc>.
-
[65]
Pour plus de détails, voir Jacques Pelkmans, « The GSM Standard : Explaining a Success Story », Journal of European Public Policy, 8 (3), 2001, p. 432-453.
-
[66]
On verra notamment sur ces enjeux politico-économiques : David Bach, International Cooperation and the Logic of Networks : Europe and the Global System for Mobile Communications (GSM), BRIE Working Paper 139, E-conomy Projectä Working Paper 14, juillet 2000.
-
[67]
Commission of the European Communities, Towards a Dynamic European Economy : Green Paper on the Development of the Common Market for Telecommunications Services and Equipment, COM (87) 290 (Brussels : CEC, 30 juin 1987).
-
[68]
Observatoire politico-économique des structures du capitalisme, Éric Grémont, « La restructuration du marché européen des télécoms », <http:// www. opesc. org>.
-
[69]
Max Weber, L’éthique protestante et l’esprit du capitalisme, Paris, Plon, 1964, p. 14.
-
[70]
Robert Carvais, « Comment la technique devient une science ? De l’usage des classifications de normes techniques : l’exemple de l’ordonnancement raisonné des règles de l’art de bâtir au 18e siècle », dans Jérôme Bourdieu, Martin Bruegel, Alessandro Stanziani, Nomenclatures et classifications : approches historiques, enjeux économiques. Actes du colloque organisé à l’École normale supérieure de Cachan les 19-20 juin 2003, Dijon, INRA, novembre 2004.
-
[71]
Des versions antérieures de ce texte ont été discutées lors du colloque de l’Association française de science politique « Les politiques publiques internationales » tenu à Paris en avril 2005 et lors de l’atelier « Économie politique » du Congrès des associations francophones de science politique tenu à Lausanne en novembre 2005. Les auteurs remercient particulièrement pour leurs commentaires Jean-Christophe Graz, André Mach, David Dumoulin, Annie Lamanthe et Anne Branciard.