Notes
-
[1]
Alain Turing, « Computing machinery and intelligence », Mind, vol. LIX, n° 236, octobre 1950, p. 433-460.
-
[2]
Abraham Moles et Claude Zeltmann, Dictionnaire de la communication, Paris, CEPL.
-
[3]
Pierre Schaeffer, Machines à communiquer et ordinateur, IBM Information.
-
[4]
Robert Escarpit, Théorie générale de l’information et de la communication, Paris, Hachette Université, 1976.
-
[5]
René-Charles Cros, Jean-Claude Gardin et Francis Lévy, L’Automatisation des recherches documentaires : un modèle général, le Synthol, Paris, Gauthier-Villars, 1964.
1Dans les milieux académiques, très peu d’anthropologues et de sociologues se sont intéressés à la communication au cours des années 1960-1970. Par contre, un autre milieu s’y intéressait beaucoup : celui de l’informatique. Revenir sur cet intérêt éclaire ce qui sépare et ce qui réunit les milieux de l’information et ceux de la communication.
2Au cours des années 1960, théorie de l’information et informatique ont servi de creuset à la réflexion sur information et communication. Informatique et intelligence artificielle effleuraient des butoirs philosophiques sur l’être, la société, le langage et la communication. La théorie des automates à états finis eut durant la période 1965-1975 de grandes prétentions explicatives. Elle apparaissait alors comme un outil prometteur au structuralisme tant psychologique (le Piaget des Structures de la pensée) qu’anthropologique (le Lévi-Strauss des Structures sociales). La communication homme-machine fut un support de réflexion pour simuler et reproduire la communication humaine, l’ordinateur étant censé acquérir progressivement les compétences d’un interlocuteur réel. L’objectif était de comprendre dans quelles conditions un logiciel pourrait se substituer à un être humain dans une interaction de communication.
3Alan Türing avait posé le problème dès 1950 avec un test resté fameux, dont le propos était de simuler une conversation [1]. Deux personnes, situées dans deux pièces séparées, dialoguent par questions et réponses au moyen de feuilles de papier. Chaque personne tente d’identifier si l’autre est un homme ou une femme. Turing conjectura que si un automate pouvait soit être pris pour un être humain, soit discerner si son interlocuteur est un être humain ou un ordinateur, l’intelligence artificielle aurait fait un pas important dans la gestion des opérations de signification. Des années plus tard, en 1966, Joseph Weizenbaum créa un programme, Eliza, qui eut, selon son auteur, trop de célébrité, compte tenu de la rusticité de sa conception. Ce logiciel gérait un dialogue d’une machine avec un être humain, reprenant un terme dans chaque intervention de ce dernier et l’intégrant dans une nouvelle question. L’effet de sens était saisissant. À cette époque, Noam Chomsky venait de publier Syntactic Structures, dans lequel il avançait que l’esprit humain incorporait des processus génératifs de faculté de langage.
4Le terme « communication » était défini ainsi par Abraham Moles [2] : « La communication est l’action de faire participer un individu – ou un organisme – situé à une époque, en un point donné R, aux expériences et stimuli de l’environnement d’un autre individu – ou d’un autre système – situé à une autre époque, en un autre lieu E, en utilisant les éléments de connaissance qu’ils ont en commun. » On s’appuie à l’époque sur les éléments de connaissance détenus par les interlocuteurs. On retrouve cette conception chez les informaticiens. De son côté, Schaeffer situe la machine à communiquer par rapport à l’ordinateur [3].
5L’hypothèse théorique était que la communication était caractérisée en creux par les changements d’états informationnels successifs des interlocuteurs. Ces états renvoient à la théorie des automates finis (finite state automaton) dont se servit Chomsky, théorie développée depuis les travaux de Türing et Post. Robert Escarpit, très influencé alors par cette posture de science « dure », définissait la communication comme « le transport d’une entité mesurable appelée arbitrairement information ». Il en parle d’abondance dans sa Théorie générale de l’information et de la communication [4] : « Par contre il est tentant – et non sans raison – pour ceux qui ont à résoudre le problème de la compatibilité des automates finis (par exemple les ordinateurs) avec les langages naturels, de rechercher dans la grammaire de Chomsky un moyen d’aborder l’objet informationnel qu’est le document et plus particulièrement l’objet linguistique qu’est le document écrit. Dès lors, plutôt que l’étude d’un fonctionnement, l’application prioritaire sera l’analyse de contenu qui permet de déceler sous des structures de surface présentées par un corpus plus ou moins étendu de textes une organisation sémantique profonde. » (Escarpit, 1967, p. 99).
6Ce texte appelle deux remarques. La première est que Escarpit ne mentionne pas les travaux de Jean Claude Gardin qui a déjà réalisé à l’époque un langage de recherche de documents, Syntol, recourant à une indexation sémantique des contenus [5]. La puissance de ce langage est tombée dans l’oubli. La seconde, qui complète la précédente, est que cette préoccupation sera bien plus tard celle de Tim Berners Lee avec le Web sémantique, issue d’autres questionnements théoriques.
7De 1960 à 1975, tant aux États-Unis qu’en Europe de l’Ouest, avec le soutien de l’Otan et des financements importants des agences de recherche, de nombreux chercheurs de diverses disciplines s’intéressèrent aux théories logicomathématiques du sujet communicant. Leurs travaux débouchèrent sur des productions spécifiques de deux types :
- pour faciliter la communication entre homme et machine, par l’élaboration de langages plus proches de l’utilisateur profane ;
- pour faciliter la communication entre utilisateurs à propos d’un projet informatique, ce qui fut, à l’époque, la contribution spécifique du système Logo (Papert).
8De cette division résultent des coupures durables. Une des plus curieuses est la mise de côté de la notion de machine à communiquer, pourtant proposée par Pierre Schaeffer, Georges Friedman et Robert Escarpit, à laquelle le milieu des sciences sociales a préféré celle de TIC : Technologies de l’information et de la communication. Au point d’oublier deux choses. La première est que dans cette acception, technologie est un anglicisme. En français, depuis d’Alembert, technologie est un discours raisonné sur la technique. Faut-il comprendre par là que notre communauté se contenterait de discours ? La seconde remarque est beaucoup plus lourde de conséquences. Les définitions qu’en donnent les trois auteurs, même si celle d’Escarpit diffère sensiblement de celle de Schaeffer, comportent un élément commun fondamental : elles englobent l’activité sémiotique du sujet. Chez Schaeffer, par la notion de simulacre, qui renvoie à l’homme la charge de son interprétation ; chez Escarpit, par la prise de décision de la machine sur la réponse qu’elle donnera à son interlocuteur. Rien de tout cela dans TIC (ni dans mass media d’ailleurs), qui n’est d’ailleurs pas un concept mais un terme générique. On est alors tenté de formuler l’hypothèse suivante : théories de l’information et théories de la communication enchâssent un objet – les TIC, Internet… – qui maintient la coupure et l’altercation entre sciences sociales et technique pure et dure en lieu et place d’un concept, « machine à communiquer », qui aurait constitué un lien.
Mots-clés éditeurs : informatique, intelligence artificielle, machine à communiquer
Mise en ligne 01/11/2013
https://doi.org/10.4267/2042/24111Notes
-
[1]
Alain Turing, « Computing machinery and intelligence », Mind, vol. LIX, n° 236, octobre 1950, p. 433-460.
-
[2]
Abraham Moles et Claude Zeltmann, Dictionnaire de la communication, Paris, CEPL.
-
[3]
Pierre Schaeffer, Machines à communiquer et ordinateur, IBM Information.
-
[4]
Robert Escarpit, Théorie générale de l’information et de la communication, Paris, Hachette Université, 1976.
-
[5]
René-Charles Cros, Jean-Claude Gardin et Francis Lévy, L’Automatisation des recherches documentaires : un modèle général, le Synthol, Paris, Gauthier-Villars, 1964.