Notes
-
[1]
p. 157. Il s’agit du titre de la conférence présentée devant la Royal Society of Science en 1674 par William Petty. Ses nombreux essais d’« arithmétique politique » en font, selon I. Hacking, le fondateur des « sciences économiques ». Voir p. 147.
Jack Goody, La peur des représentations. La Découverte, 2003, 300 pages, 25 €.
1 Le sous-titre de l’ouvrage, en même temps qu’il indique au lecteur les matières traitées, lui fait entrevoir la généralité de l’objet. Les représentations – images, théâtre, fictions – s’opposent à la réalité et l’hostilité à leur égard vient en général du caractère potentiellement mensonger des imitations ; mais l’ambivalence s’étend aux reliques – et pas seulement parce qu’elles peuvent être fausses – et à la sexualité dont on voit mal l’opposition qu’elle pourrait entretenir avec l’opposition vrai/faux. L’argument de Goody est centré sur les apories pratiques que rencontrent les groupes humains dès que leurs traditions leur commandent une attitude ou une orientation à l’égard de l’image, des morts, du corps, du sexe, etc. La contradiction vient de ce que la solution adoptée ne résout jamais les questions que peut se poser un individu dans le domaine ainsi structuré normativement, que l’usage du langage et la dimension interactive de la vie sociale facilite l’explicitation d’éventuels doutes, et que le scepticisme ou l’hérésie ont toutes chances d’émerger face à la position dominante, voire d’imposer une vision alternative des choses.
2 Goody milite donc pour la reconnaissance d’une humanité non seulement plurielle, mais changeante : y compris lorsque les croyances et les rites sont présentés à l’ethnologue comme étant de toute éternité, les sociétés ne sont jamais figées, parce qu’un dynamisme s’inscrit au cœur de toute forme de vie humaine. D’un côté, il est nécessaire que des règles commandent aux comportements ayant des enjeux existentiels, comme le rapport au corps, le traitement des morts, la représentation d’autrui, d’un autre côté il est impossible de justifier ces règles autrement que par des mythes, des dogmes ou des postulats éthiques, c’est-à-dire de montrer leur origine arbitraire. Ainsi le périple de l’ouvrage dans différents domaines fait apparaître un invariant dans la diversité des cas que nous offrent les cultures, tant par l’histoire des grandes sociétés connaissant l’écriture, que par la description de petites sociétés où la communication est exclusivement orale. La confrontation de l’esprit humain avec les réalités structurelles de la situation implique inévitablement des choix, et donc des « contradictions cognitives. » Cette expression, leitmotiv de l’argumentation, renvoie à une position intellectuelle explicitée dans le dernier chapitre.
3 Pour la rendre sensible, et pour aiguiser l’appétit du lecteur, prenons l’exemple de l’iconoclasme, un phénomène qui ne se limite pas au conflit que connut Byzance au viiie siècle. Les religions monothéistes ont toujours éprouvé un malaise à l’égard des images, en particulier à propos de la représentation de Dieu. C’est que produire une figure du créateur équivaut à singer l’acte de la création ; si l’image de Dieu est autorisée, elle appelle justification théologique ou pratique, par exemple pédagogique, mais dans la plupart des cas elle est frappée d’interdit. Le judaïsme et l’islam, rejoints en cela par nombre de réformateurs chrétiens, ont opté pour le rejet de toute reproduction des formes divines et humaines. Cette attitude aniconique, Goody la repère dans d’autres religions, où elle n’est plus alors justifiée par le risque d’idolâtrie. On sait que le judaïsme étend l’interdit au langage en proscrivant la prononciation du nom. C’est là que se manifeste le noyau de la contradiction, car l’être humain dispose et du langage et de l’imagination, c’est-à-dire de deux formes de cognition lui permettant de compenser l’absence ou l’invisibilité par une fiction permettant de se représenter l’entité et d’en parler. D’où l’extrémisme de certains mystiques comme Maître Eckhart, recommandant à l’orant de renoncer aussi dans la prière aux représentations mentales, et même à toute idée de Dieu… Ce gradient de difficultés montre que le puritanisme en matière d’image ne résout nullement le dilemme qu’il prétend supprimer ; ses anathèmes sont virtuellement porteurs d’un scepticisme qui peut se muer en athéisme.
4 Qu’en est-il maintenant de notre société, où l’image envahit tant les espaces domestiques que les lieux publics, où le sexe s’exhibe dans toutes ses modalités représentatives, où la mort au contraire est cachée comme une réalité indécente ? Goody y fait peu d’allusion, et ce n’est pas son propos. Disons qu’il a laissé au lecteur ce prolongement de la lecture comme exercice pour en vérifier la compréhension. L’important n’est peut-être pas de comparer chaque domaine de notre modernité au tableau correspondant qu’il propose, mais de déceler de nouvelles occurrences de la contradiction cognitive corrélative de l’affrontement de l’esprit humain avec la réalité. Il me semble en voir une manifestation dans l’importance qu’a pris le témoignage dans l’information sur l’actualité. La mondialisation de celle-ci impose une extension du savoir commun vers un domaine de faits dont la disponibilité partagée est nécessaire à l’interaction et à l’action. Ce registre de la vérité factuelle pose le problème de la connaissance des événements passés ou lointains, auquel on ne peut accéder que par le récit où l’enregistrement visuel. La difficulté vient des systèmes d’information qui gèrent les dispositifs de recueil des données, leur sélection, leur diffusion, et leur présentation c’est-à-dire leur interprétation. Le témoin, comme le reporter intervenant en direct, est devenu essentiel pour authentifier la représentation de l’événement. En même temps la manipulation des images peut exploiter toutes les technologies de feintise du réel – le faux témoignage, le reportage bidon, la mise en scène, et maintenant l’image virtuelle. Ce qui est requis de l’esprit pour préserver la vérité événementielle est une réflexivité critique renouvelée, qui se traduit surtout par une sensibilité plus aiguë à l’égard de la distinction entre réalité et fiction. •
5 Renaud Dulong
Ian Hacking, L’émergence de la probabilité, Seuil, 2002, 276 pages, 24 €.
6 The Emergence of Probability est enfin traduit en français. Publié pour la première fois en 1975, l’ouvrage de Ian Hacking ouvrait alors un champ d’investigations qui depuis a donné lieu à des publications décisives. Il était alors le seul ouvrage à offrir au lecteur une foule d’informations sur cette période foisonnante des débuts des probabilités. Pour autant, ce n’est pas à proprement parler un livre d’histoire des probabilités. L’auteur en précise l’intention dans la préface de cette édition française : il s’agit d’un type particulier d’enquête philosophique, une « méta-épistémologie historique », une forme d’« archéologie », du concept de probabilité. Ce livre est à tous égards, tant par l’ampleur de l’enquête menée que par la profondeur de l’analyse conceptuelle, un ouvrage de référence pour tout lecteur concerné par la pensée de l’incertitude.
7 Comment comprendre l’émergence soudaine, autour de 1660, d’un concept aussi fondamental aujourd’hui que celui de probabilité ? Avant même de répondre à cette question, I. Hacking souligne que ce concept qui émerge a de fait deux versants. L’un concerne le degré de croyance, garanti par des « éléments d’évidence », que l’on accorde à un énoncé, l’autre a trait à la « tendance de certains dispositifs aléatoires à produire des résultats réapparaissant avec des fréquences relativement stables ». On a tenté de formuler cette tension entre les deux faces du concept, en recourant à divers couples de qualificatifs pour les spécifier : subjective/objective, épistémique/aléatoire, etc. Si aucune de ces dichotomies n’emporte définitivement l’adhésion, en revanche la tension qu’elles tentent de saisir est bien réelle. C’est même cette tension irrévocable qui spécifie le concept qui émerge à cette époque.
8 Jusqu’au milieu du xviiie siècle, la probabilité est un attribut de l’opinion. Une opinion est probable lorsqu’elle est approuvée par une autorité, quand les livres anciens en témoignent. Ce qui manque jusque là, et qui constitue l’invention majeure c’est la notion d’« évidence factuelle » ou d’« élément d’évidence ». « L’évidence factuelle pointe vers autre chose qu’elle-même, mais pas exactement à la manière du test, vers une hypothèse, mais vers une autre chose, un autre état physique, plutôt à la manière du diagnostic ». Jusqu’au milieu du xviiie siècle, on ne peut concevoir d’« élément d’évidence » que dans le cadre d’une théorie. « Il n’existe pas de critère épistémique indépendant. C’est seulement quand les critères épistémiques peuvent être appréhendés indépendamment de ce que la théorie dit des causes que peuvent émerger probabilité et usage des statistiques ». En témoigne par exemple le raisonnement de Graunt pour analyser les causes de la contagion de la peste. « La contagion de la peste dépend plus de la disposition de l’air que des effluves émanant des corps des hommes. Ce que l’on prouve […] par les brusques écarts faits par la peste, sautant en une semaine de 118 à 927, reculant de nouveau de 993 à 258, pour passer encore à 852 dès la semaine suivante ». L’argument porte sur la variabilité du nombre de cas qui s’apparente bien plus aux variations de la météorologie et dont il paraît difficile de rendre compte sous la seconde hypothèse. En témoignent, également, les recommandations de la Logique de Port-Royal : « Il faut désabuser tant de personnes qui ne raisonnent guère autrement dans leurs entreprises qu’en cette manière : il y a du danger en cette affaire donc elle est mauvaise, il y a de l’avantage dans celle-ci, donc elle est bonne ; puisque ce n’est ni par le danger, ni par les avantages, mais par la proportion qu’ils ont entre eux qu’il faut en juger ».
9 L’auteur reformule cette thèse aujourd’hui en soulignant que ce qui émerge au milieu du xviie siècle, c’est « le fait moderne, le fait atomique, isolé, indépendant, qui peut néanmoins servir comme indice – et même comme « preuve positive » – d’un autre fait, isolé, indépendant », permettant de déclarer probables des événements particuliers futurs dès lors que les mêmes évidences factuelles peuvent leur être associées. Cette mutation de la notion de signe et sa fécondité forment la thèse centrale de l’ouvrage. L’auteur étaie son argumentation par une enquête sur la notion de « signe » à la fin de la Renaissance et par une exploration des multiples activités, problèmes, enquêtes où des mathématiciens, des juristes, des politiques, des médecins développèrent leur ingéniosité : Pascal pour le problème des partis et le pari, Huyghens pour la notion d’espérance, Graunt pour les tables de mortalité, Bernoulli pour le calcul du poids d’un argument et le premier théorème de convergence, etc. Au-delà du développement du champ des probabilités, ces recherches contribuent à l’émergence du problème de l’induction, en ce qu’elles reconfigurent les rapports entre connaissance et opinion, entre haute et basse science : c’est ainsi une nouvelles conception de la causalité qui est au cœur de cet événement épistémologique.
10 L’ouvrage s’intitule « L’émergence de la probabilité ». La traduction française de The emergence of Probability force peut-être le sens attaché au singulier collectif Probability, qui autorisait un pluriel. Mais le titre français correspond parfaitement à la thèse de I. Hacking. Selon lui, c’est bien un concept qui émerge au milieu du xviiesiècle. « Motivées par Dieu, par le jeu, par le commerce, ou par le droit, des idées du même genre émergeaient simultanément dans de nombreux esprits ». On peut cependant se demander s’il n’eût pas été plus approprié de parler de l’émergence d’une façon de faire, d’un « style de raisonnement », d’une manière de penser le monde qui a rendu possible, comme le souligne l’auteur, la formulation du problème de l’induction. Émergence du « calcul des probabilités », plutôt que du concept de la probabilité : une façon de calculer l’incertain, selon le principe de la « proportion reproduite [1] » qui donne tout son sens à l’expression « géométrie du hasard ». •
11 Michèle Leclerc-Olive
Éric Schlosser, Les Empereurs du fast-food, Autrement, 2003, 296 pages, 19,95 €.
12 Voici une enquête journalistique de haut niveau. Éric Schlosser est allé au cœur de la mal-bouffe américaine, qui inonde désormais le monde. Le fast-food, pour lequel les Américains dépensaient 7 milliards de dollars en 1970, leur coûte en 2000 la bagatelle de 110 milliards. Tout a commencé par des sorties d’autoroute. Les lobbies de l’automobile, du pétrole et des pneus ont fait construire des routes par les subsides fédéraux. Les restaurants du fast-food sont visibles depuis la route.
13 Éric Schlosser nous décrit Ray Kroc, l’empereur de McDonald’s, qui a foi dans le développement technologique et des opinions politiques conservatrices, tout comme Walt Disney. Mais, à la différence de ce dernier, il ne se mêle pas de politique. Il préfère faire des enfants la « cible numéro un » des campagnes de promotion, depuis les publicités classiques jusqu’à l’Internet. Pour garantir la présence des bambins, McDonald’s a créé plus de 8 000 terrains de jeux dans ses restaurants ; Burger King plus de 2 000. En mai 1996, Mc Donald’s s’est allié à Walt Disney pour une durée de dix ans. La chaîne est devenue le plus gros vendeur de Coca-Cola du monde. Mieux, les chaînes de fast-food ont envahi de publicité les écoles (victimes de réduction de budget). Le « matériel pédagogique » est déductible des impôts.
14 Derrière le comptoir, la situation des salariés est précaire. Par exemple, à Colorado Springs, le taux de syndicalisation est égal à zéro. Or, c’est la restauration rapide qui est l’industrie privée la plus forte de cette ville. C’est dans cette branche que l’on trouve le plus d’adolescents. Deux tiers des employés ont moins de vingt ans. C’est aussi là que l’on trouve un manuel d’instruction pour se dispenser de salariés. « La nécessité de garder un travailleur individuel diminue à proportion de la facilité avec laquelle il peut être remplacé », résume Éric Schlosser. L’idéal de la restauration rapide est donc la « formation zéro ». Les salaires sont les plus bas, équivalents à ceux des salariés agricoles. Faute de formation, les accidents de travail sont deux fois plus nombreux chez les adolescents que chez les adultes. Les franchises sont également un moyen pour les grandes chaînes de prospérer. Les franchisés ne bénéficient pas des lois qui assurent les salariés, ni celles qui protègent les consommateurs. Ils ne bénéficient pas des lois sur les entreprises indépendantes. Or, les nouveaux restaurants bénéficient des largesses de l’Agence pour la petite entreprise. Quand un établissement ferme, c’est le contribuable américain qui a payé les investissements.
15 Mais comment se produit la matière agricole ? Éric Schlosser démontre la formation d’oligopoles : « Le revenu annuel d’un fermier de l’Idaho dépend à présent de la météo, du marché mondial et des caprices des grands industriels ». L’agriculture industrielle est la reine : engrais chimiques, pesticides, fongicides, herbicides, récoltes précoces et irrigation sont les bases d’une surproduction qui détruit les cultures. Mais rien n’est pire que les arômes artificiels. Ils ne coûtent pas cher, mais dans celui de la fraise des milk-shakes par exemple, il y a quarante-neuf produits chimiques différents !
16 Chez les éleveurs, la situation n’est pas plus florissante. Depuis vingt ans, 500 000 d’entre eux ont cessé toute activité. Et la plus grande part des 800 000 restant vit d’un deuxième métier. McDonald’s, qui est le plus gros acheteur de bœuf du pays, est passé de 175 fournisseurs à 5 ! En 1970, les quatre plus grandes compagnies abattaient seulement 21 % du bétail. Avec les fusions autorisées par Reagan, elles en transforment 84 %. Un mouvement de concentration similaire s’est produit dans les poulaillers. Huit entreprises contrôlent les deux tiers du marché américain. Cette montée du poulet tient un peu au fait que les nuggets peuvent se manger au volant, tout comme les frites. Au détriment de la sécurité routière ! Et ne cherchons pas d’argument nutritif. Les Chicken McNuggets contiennent « deux fois plus de graisse qu’un hamburger », souligne Éric Schlosser.
17 Les abattoirs sont particulièrement bien décrits par l’auteur. Les animaux sont dopés aux stéroïdes anabolisants. Les entreprises sont imprégnées de l’idéologie du fast-food. L’une d’entre elles, ConAgra est devenue la première entreprise mondiale de conditionnement de la viande. Présente comme leader sur les marchés d’ovins, de dindes, de poulet, de porcs, elle fournit également des produits chimiques, de la minoterie, des graines et du fourrage. Après avoir cassé une grève, elle a commencé à embaucher des immigrants souvent sans-papiers.
18 En visitant une de ces usines, le journaliste a un haut-le-cœur. Malgré une température glaciale, les femmes sont en sueur. Les visiteurs marchent dans le sang jusqu’aux chevilles. « Chaque année, recense Éric Schlosser, plus d’un quart des ouvriers des abattoirs de ce pays – soit environ 40 000 hommes et femmes – sont victimes d’un accident du travail ou d’une maladie directement liée à leur travail qui nécessitent des soins médicaux autres que les premiers secours ». Et encore, ces chiffres sont-ils sous-évalués. Dans ces usines, des pressions sont faites sur les blessés pour qu’ils ne déclarent rien ; leur salaire est souvent diminué. Les équipes de nettoyage subissent également les dangers et les plus faibles salaires.
19 Mais l’on trouve de tout dans la viande. En particulier la bactérie Escherichia coli 0157 :H7, potentiellement mortelle. Plusieurs milliers d’Américains ont été hospitalisés et des centaines sont décédés. Principales victimes : les enfants de moins de cinq ans, les vieillards et les personnes immunodéprimées. Il suffit d’un animal porteur de la bactérie pour contaminer des tonnes de viande hachée. Même chose pour la Salmonella. En achetant du bœuf haché de provenance douteuse, le ministère de l’Agriculture a contaminé des écoles. Or, 1,4 million de personnes sont intoxiquées chaque année par ce germe pathogène, et 500 décèdent.
20 Outre les intoxications, l’obésité marque la santé aux États-Unis. Quarante-quatre millions d’adultes américains souffrent d’obésité et six millions sont super-obèses. Un quart des enfants souffrent de cette maladie. Elle est le deuxième facteur de mortalité après le tabac. « En mangeant comme les Américains, les habitants du monde entier commencent à leur ressembler davantage, sous un certain angle du moins », ironise l’auteur. Les Chinois, les Japonais sont atteints aussi par cette maladie. Aux États-Unis, l’obésité coûte deux fois les revenus de la restauration rapide. « Voilà vingt ans que les États-Unis vont trop loin dans une direction en affaiblissant les lois qui protègent les travailleurs, les consommateurs et l’environnement, constate Éric Schlosser. Un système économique qui promet la liberté devient trop souvent un moyen de la nier lorsque les diktats économiques du marché l’emportent sur les valeurs démocratiques autrement importantes ». Et de prôner de vrais programmes de formation, une application stricte des lois sur le salaire minimum, les heures supplémentaires et le travail des enfants, un financement réel de l’Éducation et une vraie sécurité alimentaire. Un programme minimum, en réalité. •
21 Jean-Louis Peyroux
Notes
-
[1]
p. 157. Il s’agit du titre de la conférence présentée devant la Royal Society of Science en 1674 par William Petty. Ses nombreux essais d’« arithmétique politique » en font, selon I. Hacking, le fondateur des « sciences économiques ». Voir p. 147.