<?xml version="1.0" encoding="UTF-8" ?>
<feed xmlns="http://www.w3.org/2005/Atom">
    <title>Intelligence artificielle et sciences sociales | Cairn.info</title>
    <icon>https://shs.cairn.info/build/assets/cairn-B7RWiji2.png</icon>
    <id>tag:cairn.info,2005:rss/liste-lecture/448457</id>
    <rights>Cairn.info 2026</rights>

    <link href="https://shs.cairn.info/rss/liste-lecture/448457" rel="self" type="application/atom+xml" />
    <link href="https://shs.cairn.info?lang=en" type="text/html" />

    <updated></updated>

                            <entry>
    <id>tag:cairn.info,2005:numero:HERM_ROMEL_2020_01</id>
    <title type="html"><![CDATA[
        Le transhumanisme : une anthologie
                    (2020)
            ]]></title>
        <link href="https://shs.cairn.info/le-transhumanisme-une-anthologie--9791037005717?lang=fr" type="text/html" rel="alternate" />
            <published>2020-11-24T00:00:00+01:00</published>
                <updated>2024-01-25T14:34:51+01:00</updated>
                <summary type="html"><![CDATA[<div class="book-body">Considéré à ses débuts comme une
sous-culture d’origine californienne ou un mouvement de
futurologie, le courant de pensée du transhumanisme est aujourd’hui
discuté dans des cercles académiques, politiques et médiatiques
sans cesse élargis. Il propose une vision du monde, porteuse de
valeurs et de récits sur l’humain, la nature et la technologie. La
place qu’il prend dans nos sociétés confrontées à une
technicisation croissante est révélatrice de la pertinence, sinon
de ses réponses, du moins de ses questions. Un corpus
transhumaniste s’est ainsi constitué depuis trente&#160; ans,
rassemblant des textes de nature variée&#160; : certains sont des
articles académiques, d’autres sont issus de revues plus
confidentielles, d’autres encore ont eu une existence numérique.
Ils sont spéculatifs ou fictionnels, programmatiques owu critiques,
et souvent tout cela à la fois. Leurs auteurs sont des romanciers,
des philosophes, des activistes… C’est cette dimension hétéroclite
et hybride, signe d’une pensée en mouvement qui se construit sous
nos yeux, que cette anthologie entend révéler.<br />
<br />
<br />
<br />
&#160;</div>
]]></summary>
        <content type="html"><![CDATA[
        <ul>
                            <li>
                     Pages 1 to 3| Pages de début
                                    </li>
                            <li>
                     Pages 5 to 14| Introduction
                                            |  Franck Damour,  Stanislas Deprez,  Alberto Romele
                                    </li>
                            <li>
                     Pages 17 to 27| 1. Julian Huxley ou l’invention du transhumanisme&#160;?
                                            |  Jean-Yves Goffi
                                    </li>
                            <li>
                     Pages 29 to 42| 2. L’ultra-humain selon Teilhard de Chardin
                                            |  François Euvé
                                    </li>
                            <li>
                     Pages 43 to 53| 3. Nikolaï Fiodorov ou la voie russe du transhumanisme&#160;?
                                            |  Julija Naett Vidovic
                                    </li>
                            <li>
                     Pages 55 to 68| 4. John Desmond Bernal&#160;: quand le transhumaniste était
marxiste
                                            |  Benjamin Norguet
                                    </li>
                            <li>
                     Pages 69 to 85| 5. L’<i>emotion machine</i> de Marvin Minsky
                                            |  Fernand Doridot
                                    </li>
                            <li>
                     Pages 89 to 103| 6. Neil R. Jones&#160;: quand la science-fiction rêve d’éternité
                                            |  Ugo Bellagamba
                                    </li>
                            <li>
                     Pages 105 to 117| 7. Le surhumain selon Robert Ettinger
                                            |  Franck Damour
                                    </li>
                            <li>
                     Pages 119 to 135| 8. Robert Anton Wilson&#160;: ésotérisme, science et transhumain
                                            |  Rémi Sussan
                                    </li>
                            <li>
                     Pages 137 to 151| 9. Max More, aux racines du transhumanisme du XXI<sup>e</sup>
siècle
                                            |  Salomé Bour
                                    </li>
                            <li>
                     Pages 153 to 169| 10. Vernor Vinge et l’invention de la Singularité
                                            |  Franck Damour
                                    </li>
                            <li>
                     Pages 171 to 185| 11. Le rapport NBIC
                                            |  Apolline Taillandier
                                    </li>
                            <li>
                     Pages 187 to 196| 12. La Déclaration Transhumaniste&#160;: matrice fragile du
mouvement
                                            |  Gabriel Dorthe
                                    </li>
                            <li>
                     Pages 199 to 212| 13. Libérer l’éthique avec Nick Bostrom et Toby Ord&#160;? (ou
comment j’ai appris à ne plus m’en faire et à aimer la technique)
                                            |  Fabrizio De Filippi,  Alberto Romele
                                    </li>
                            <li>
                     Pages 213 to 228| 14. Anders Sandberg&#160;: éthique du cerveau augmenté
                                            |  Vincent Calais
                                    </li>
                            <li>
                     Pages 229 to 247| 15. Julian Savulescu et la bienfaisance procréatrice
                                            |  David Doat
                                    </li>
                            <li>
                     Pages 249 to 263| 16. James Hughes&#160;: le <i>Citizen Cyborg</i>, de l’humain à la
personne
                                            |  Stanislas Deprez
                                    </li>
                            <li>
                     Pages 265 to 283| 17. Martine Rothblatt&#160;: transhumanisme et transgenderisme
                                            |  Laurence Allard
                                    </li>
                            <li>
                     Pages 285 to 302| 18. Humain 2.0&#160;: le «&#160;corps-culture&#160;» de Ray
Kurzweil
                                            |  Marina Maestrutti
                                    </li>
                            <li>
                     Pages 303 to 319| 19. Lepht Anonym&#160;: transhumanisme de cuisine
                                            |  Gabriel Dorthe
                                    </li>
                            <li>
                     Pages 321 to 322| Les auteurs
                                    </li>
                            <li>
                     Pages 323 to 327| Pages de fin
                                    </li>
                    </ul>
    ]]></content>
</entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_232_0029</id>
    <title type="html"><![CDATA[
        Quatre nuances de régulation de l’intelligence artificielle |
        Contrôler l'intelligence artificielle&#160;?
                    | Réseaux
            (2022/2 N° 232-233)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2022-2-page-29?lang=fr" type="text/html" rel="alternate" />
    <published>2022-05-23T00:00:00+02:00</published>
    <updated>2024-01-25T11:49:21+01:00</updated>
            <summary type="html"><![CDATA[By investigating the debates around the issues of AI regulation, we
found that definitional problems were at the heart of normative
conflicts on the means of subjecting AI to “social control”,
whether technical, ethical, legal, or political. By taking the
varied significations of AI as a common thread of analysis, this
article contributes to the understanding of normative tensions over
its control. We propose a mapping of places, actors and approaches
that shows how the debates around the control of AI are structured
according to four differentiated normative arenas: transhumanist
speculations on the dangers of superintelligence and the problem of
controlling its alignment with human values; the
self-accountability of researchers developing a science entirely
devoted to the technical certification of machines; denunciations
of the harmful effects of AI systems on fundamental rights and the
control of power rebalancing; finally, European regulation of the
market through the control of security in relation to AI products
and services.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_232_0129</id>
    <title type="html"><![CDATA[
        Robots <i>vs</i> algorithmes |
        Contrôler l'intelligence artificielle&#160;?
                    | Réseaux
            (2022/2 N° 232-233)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2022-2-page-129?lang=fr" type="text/html" rel="alternate" />
    <published>2022-05-23T00:00:00+02:00</published>
    <updated>2024-01-25T11:49:09+01:00</updated>
            <summary type="html"><![CDATA[An open letter published in 2015, signed by Elon Musk, Stephen
Hawking, Steve Wozniak and Noam Chomsky, warned of the existential
risks facing humanity as a result of new developments in AI. This
letter constitutes a milestone in the reactivation of a set of
narrative and normative resources aimed at bringing a critical
debate on the progress of AI into the public arena. Successive
waves of promises and warnings about artificial intelligence have
occupied public debate in a spectacular way. Using NLP methods
applied to a large corpus from the English-language press, this
article shows that the focus on algorithms and AI has been growing
steadily in the media sphere over the past five years. The corpus
is structured around two semantic spaces that constitute two
predominant regimes of critique, one based on the injustices
produced by algorithms, and the other on fears of AI’s and robots’
autonomy. A comparative analysis of these spaces shows that they
mobilize distinct technological and human agents, issues, and time
frames. By developing a critical discourse on the damage caused by
these technologies, the media sphere contributes not only to
shaping public opinion but also to defining the forms of
acceptability of these calculating agents.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_232_0169</id>
    <title type="html"><![CDATA[
        Les narvals et les licornes se&#160;cachent-ils pour mourir&#160;? |
        Contrôler l'intelligence artificielle&#160;?
                    | Réseaux
            (2022/2 N° 232-233)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2022-2-page-169?lang=fr" type="text/html" rel="alternate" />
    <published>2022-05-23T00:00:00+02:00</published>
    <updated>2024-01-25T11:49:04+01:00</updated>
            <summary type="html"><![CDATA[The sale of Montreal-based Element AI to Service Now Inc. in
November 2020 took the Quebec and Canadian artificial intelligence
ecosystem by surprise. How could the start-up achieve narwhal
status—that of a Canadian company with a capitalization of more
than a billion dollars—and be celebrated by the government, the
media and the business community, only to be bought out a few years
later “for a song”? In this article, we present the case of Element
AI, including both its rise and its fall, as an ideal-typical
“cyberization of power” in which regulation is facilitative, remote
and able to perceive control and communication as two ends of a
single feedback loop. While the quick emergence of Element AI is
characterized by its quest for “super-credibility”, expressed
through partnerships with authoritative actors and institutions,
its collapse is the sign of a desynchronization which met with
rebukes and contradictions, even from the government. We have much
to learn from this shift from justification to criticism since it
points towards a vacuum within the Montreal AI ecosystem, as well
as its difficulty in projecting itself even into a near future.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_240_0179</id>
    <title type="html"><![CDATA[
        Le principe d’explicabilité de l’IA et son application dans les
organisations |
        « Éthique de l’IA » : enquêtes de terrain
                    | Réseaux
            (2023/4 N° 240)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2023-4-page-179?lang=fr" type="text/html" rel="alternate" />
    <published>2023-09-21T00:00:00+02:00</published>
    <updated>2024-01-25T11:48:09+01:00</updated>
            <summary type="html"><![CDATA[The explainability of Artificial Intelligence (AI) is cited in the
literature as a pillar of AI ethics, yet few studies explore its
organizational reality. This study proposes to remedy this
shortcoming, based on interviews with actors in charge of designing
and implementing AI in 17 organizations. Our results highlight: the
massive substitution of explainability by the emphasis on
performance indicators; the substitution of the requirement of
understanding by a requirement of accountability; and the ambiguous
place of industry experts within design processes, where they are
employed to validate the apparent coherence of ‘black-box’
algorithms rather than to open and understand them. In
organizational practice, explainability thus appears sufficiently
undefined to reconcile contradictory injunctions. Comparing
prescriptions in the literature and practices in the field, we
discuss the risk of crystallizing these organizational issues via
the standardization of management tools used as part of (or instead
of) AI explainability.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_240_0145</id>
    <title type="html"><![CDATA[
        L’émergence d’enjeux éthiques lors d’expérimentations de logiciels
d’intelligence artificielle |
        « Éthique de l’IA » : enquêtes de terrain
                    | Réseaux
            (2023/4 N° 240)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2023-4-page-145?lang=fr" type="text/html" rel="alternate" />
    <published>2023-09-21T00:00:00+02:00</published>
    <updated>2024-01-25T11:48:04+01:00</updated>
            <summary type="html"><![CDATA[This article brings together the perspectives of the sociology of
innovation and the ethics of technology. It highlights the
heuristic scope of the concept of experimentation for reflection on
the ethics of Artificial Intelligence (AI), in the field of
radiology. More specifically, we mobilize three types of
experimentation (experiments in and with technology, and tacit
experiments) to describe and analyse four work environments where
AI-based detection software is tested in senology and traumatology.
We highlight the ways in which these devices are appropriated (or
rejected), as well as the resulting ethical concerns, drawing on
the above-mentioned derivatives of the concept of experimentation.
AI ethics raises three sets of questions: the first concerns the
steering, scope and learning process of these experiments, and
ultimately their (more or less) democratic nature; the second
concerns the accuracy of what the software delivers, and
consequently the risks of error involved, in a context where
analytical work is delegated (at least partially) to algorithms;
and the third concerns the quality of the service provided and its
fairness, within the healthcare system, as well as the content of
professional identities. AI ethics are thus embedded in concrete
situations of use and embodied in professional worlds, unlike
‘principled’ and ‘future’ ethics.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_240_0111</id>
    <title type="html"><![CDATA[
        «&#160;Mais l’algo, là, il va mimer nos erreurs&#160;!&#160;» |
        « Éthique de l’IA » : enquêtes de terrain
                    | Réseaux
            (2023/4 N° 240)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2023-4-page-111?lang=fr" type="text/html" rel="alternate" />
    <published>2023-09-21T00:00:00+02:00</published>
    <updated>2024-01-25T11:47:59+01:00</updated>
            <summary type="html"><![CDATA[Machine learning techniques algorithmically process input data
which are then manually annotated to identify their salient
features for model training purposes. This click work, while
tedious and often unacknowledged, actually shapes a reference
‘truth’ for the AI, which in turn largely determines the results.
This article examines the ways in which this work is carried out
and its effects, based on a case study of the design of a tool for
the automatic anonymization of court decisions at the Cour de
Cassation (French Supreme Court). An ethnographic and interview
survey highlights the plurality of skills implemented by the agents
in charge of data annotation. The article shows the importance of
representational and moral systems in the implementation of this
activity, and therefore for the functioning of AI.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_240_0071</id>
    <title type="html"><![CDATA[
        La prédiction du risque en justice pénale aux états-unis&#160;:
l’affaire propublica-compas |
        « Éthique de l’IA » : enquêtes de terrain
                    | Réseaux
            (2023/4 N° 240)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2023-4-page-71?lang=fr" type="text/html" rel="alternate" />
    <published>2023-09-21T00:00:00+02:00</published>
    <updated>2024-01-25T11:47:54+01:00</updated>
            <summary type="html"><![CDATA[An article published by the independent non-profit news media Pro
Publica in 2016 argued that Compas software, used in the United
States to predict recidivism, was ‘biased against blacks’. The
publication sent shockwaves through the public sphere, fuelling
broad debate on the fairness of algorithms and the merits of risk
prediction tools – debates that had previously been limited to
specialists in criminal justice. Starting with the
ProPublica-Compas case, we explore the various facets of this
controversy, both in the world of data science and in the world of
criminal justice. In the media sphere, the Compas affair brought to
the surface the potential abuses associated with algorithms, and it
intensified concerns surrounding artificial intelligence (fear of
AI replacing human judgment, worsening of inequalities and
opacity). In the academic world, the subject was pursued in two
separate arenas. First, in the arena of data sciences, researchers
focused on two issues: fairness criteria and their mutual
incompatibility, showing just how problematic it is to translate a
moral principle into statistical indicators; and the supposed
superiority of machines over humans in prediction tasks. In the
criminal justice arena, which is much more heterogeneous, the
ProPublica-Compas case strengthened the realization that it is
necessary to evaluate predictive tools more thoroughly before using
them, and to understand how judges use these tools in context,
causing lawmakers and NGOs defending prisoners’ rights to modify
their viewpoint on the matter. While the data science arena is
relatively self-contained, focusing on data and algorithms out of
their operational context, the criminal justice arena, which brings
together heterogeneous actors, focuses on the tools’ actual usage
in the criminal justice process.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RDNA_820_0023</id>
    <title type="html"><![CDATA[
        Les enjeux de l’IA pour la Défense de demain |
        L’intelligence artificielle et ses enjeux pour la Défense
                    | Revue Défense Nationale
            (2019/5 N° 820)
            ]]></title>
        <link href="https://shs.cairn.info/revue-defense-nationale-2019-5-page-23?lang=fr" type="text/html" rel="alternate" />
    <published>2019-05-01T00:00:00+02:00</published>
    <updated>2024-01-17T23:53:46+01:00</updated>
            <summary type="html"><![CDATA[Artificial intelligence (AI) is a major challenge for defence in
the future, about which something positive needs to be done. There
are three elements that require effort: infrastructure and the
creation of a national cloud, data handling, and human resources.
France has great advantages, yet they require a boost.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RETM_310_0007</id>
    <title type="html"><![CDATA[
        Éditorial. Quelle éthique pour l’intelligence artificielle&#160;? |
        Éthique et intelligence artificielle
                    | Revue d&#039;éthique et de théologie morale
            (2020/3 N° 307)
            ]]></title>
        <link href="https://shs.cairn.info/revue-d-ethique-et-de-theologie-morale-2020-3-page-7?lang=fr" type="text/html" rel="alternate" />
    <published>2020-09-30T00:00:00+02:00</published>
    <updated>2024-01-17T23:51:48+01:00</updated>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:CDLJ_1902_0205</id>
    <title type="html"><![CDATA[
        L'Intelligence artificielle, technologie de la vision numérique du
monde |
        Les défis de la justice numérique
                    | Les Cahiers de la Justice
            (2019/2 N° 2)
            ]]></title>
        <link href="https://droit.cairn.info/revue-les-cahiers-de-la-justice-2019-2-page-205?lang=fr" type="text/html" rel="alternate" />
    <published>2019-07-09T00:00:00+02:00</published>
    <updated>2024-01-17T23:50:00+01:00</updated>
            <summary type="html"><![CDATA[SummaryThe notion of artificial intelligence is described from four
perspectives: its aims, its relationship to computation, its
investigation methods, and the knowledge it produces. These factors
are described and then a general hypothesis elaborated on the
relations between artificial intelligence and information
technology: the aim of artificial intelligence is to confirm the
alphanumeric vision of the world deployed by information
technology.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_240_0031</id>
    <title type="html"><![CDATA[
        L’intelligence artificielle dans l’espace public&#160;: du domaine
scientifique au problème public |
        « Éthique de l’IA » : enquêtes de terrain
                    | Réseaux
            (2023/4 N° 240)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2023-4-page-31?lang=fr" type="text/html" rel="alternate" />
    <published>2023-09-21T00:00:00+02:00</published>
    <updated>2024-01-17T23:48:23+01:00</updated>
            <summary type="html"><![CDATA[The article analyses the publicization of artificial intelligence
(AI) and its framing as a public problem under the label ‘AI
ethics’, from the point of view of the discourses and actors
circulating between the media, scientific, and political arenas.
The authors investigate this process by considering a subject that
has previously received little attention: the relationship between
these three arenas, that is, the mechanisms of circulation and
distortion of discourses, the conflicts over definitions, and the
resulting reconfigurations for the field and for the modes of
public existence of AI. Articulating quantitative and qualitative
methods, the study is based on three types of data from the French
media, political, and scientific arenas: a corpus of press articles
pertaining to AI, covering a period of almost 20 years (2000-2019);
interviews with participants in the public debate (scientists,
journalists, institutions); and public reports (2006-2019). Driven
by increased computing power and the availability of large training
databases, the ‘AI wave’ in the public sphere is the product of
converging technological, economic, media and political factors,
without reflecting any real ‘scientific revolution’ promoted by the
media and corporations but contested in researchers’ discourse. The
article shows how the public life of AI takes shape at the
intersection of competing and often incommensurable discursive
registers. Moreover, while discourses on AI and its ethics are
ubiquitous in the public sphere where they are emerging as a
‘public problem’ that has become a regulatory issue, outside of
specialized spheres they do not really draw on a ‘concerned public’
(Dewey, 2012) engaged in collective inquiry and mobilization.
Therefore, the latest ‘AI wave’ and the upsurge of ethical issues
seem rather to mark an advanced economization of the field,
increasingly subject to private interests, in relation to which
researchers and politicians are seeking to position themselves.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_232_0009</id>
    <title type="html"><![CDATA[
        Contrôler les IA |
        Contrôler l'intelligence artificielle&#160;?
                    | Réseaux
            (2022/2 N° 232-233)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2022-2-page-9?lang=fr" type="text/html" rel="alternate" />
    <published>2022-05-23T00:00:00+02:00</published>
    <updated>2024-01-17T23:47:40+01:00</updated>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_220_0009</id>
    <title type="html"><![CDATA[
        Pourquoi ethnographier les&#160;interactions avec les agents
conversationnels&#160;? |
        Ethnographies des agents conversationnels
                    | Réseaux
            (2020/2 N° 220-221)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2020-2-page-9?lang=fr" type="text/html" rel="alternate" />
    <published>2020-05-22T00:00:00+02:00</published>
    <updated>2024-01-17T23:46:55+01:00</updated>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_220_0021</id>
    <title type="html"><![CDATA[
        «&#160;Tisser des liens&#160;» |
        Ethnographies des agents conversationnels
                    | Réseaux
            (2020/2 N° 220-221)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2020-2-page-21?lang=fr" type="text/html" rel="alternate" />
    <published>2020-05-22T00:00:00+02:00</published>
    <updated>2024-01-17T23:46:35+01:00</updated>
            <summary type="html"><![CDATA[The article argues for a genre of AI capable of building social
bonds with humans. The argument’s starting point is the two
competing origin stories of Artificial Intelligence. In one, the
goal of AI was to create machines that could simulate every aspect
of human intelligence. In the other, it was to build machines that
adapt closely to natural human behaviour. While the first story is
better known, it is argued that the second would have been more
fruitful, as it places the human at the heart of the endeavour.
Based on this historical perspective, the article provides several
examples of conversational agents that engage in this kind of
adaptive social behaviour. Results of experiments with these social
agents find that they do in fact improve relations between people
and the systems. Additionally, they improve performance on the task
that the human and the conversational agent are conducting
together.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_211_0173</id>
    <title type="html"><![CDATA[
        La revanche des neurones |
        Machines prédictives
                    | Réseaux
            (2018/5 n° 211)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2018-5-page-173?lang=fr" type="text/html" rel="alternate" />
    <published>2018-11-02T00:00:00+01:00</published>
    <updated>2024-01-17T23:45:42+01:00</updated>
            <summary type="html"><![CDATA[Neurons spike backSince 2010, machine-learning-based predictive
techniques, and more specifically deep learning neural networks,
have achieved spectacular performances in the fields of image
recognition and automatic translation, under the umbrella term of
“Artificial Intelligence” (AI). But their relation to this field of
research is not straightforward. In the tumultuous history of AI,
learning techniques using so-called “connectionist” neural networks
have long been mocked and ostracized by the “symbolic” movement.
This article retraces the history of artificial intelligence
through the lens of the tension between symbolic and connectionist
approaches. From a social history of science and technology
perspective, it highlights how researchers, relying on the
availability of massive data and the multiplication of computing
power, have undertaken to reformulate the symbolic AI project by
reviving the spirit of adaptive and inductive machines dating back
from the era of cybernetics.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:numero:LCB_GANAS_2017_01</id>
    <title type="html"><![CDATA[
        Intelligence artificielle
                    (2017)
            ]]></title>
            <subtitle type="html">
            <![CDATA[Vers une domination programmée&#160;?]]>
        </subtitle>
        <link href="https://shs.cairn.info/intelligence-artificielle-vers-une-domination--9791031802138?lang=fr" type="text/html" rel="alternate" />
            <published>2017-04-27T00:00:00+02:00</published>
                <updated>2023-12-11T21:34:08+01:00</updated>
                <summary type="html"><![CDATA[<p>Aujourd’hui, les ordinateurs sont présents dans toutes nos
activités quotidiennes. Une machine a vaincu le champion du monde
du jeu de go, on construit automatiquement des connaissances à
partir d’immenses masses de données <i>(Big Data)</i>, des
automates reconnaissent la parole articulée et comprennent des
textes écrits en langage naturel… Les machines seraient-elles
vraiment devenues intelligentes, posséderaient-elles un esprit,
voire une conscience&#160;?</p>
<p>La complexité de l’intelligence artificielle dépasse notre
entendement immédiat et suscite nombre d’idées reçues. Ainsi,
l’intelligence artificielle reproduirait l’activité de notre
cerveau, elle ferait que les ordinateurs ne se trompent jamais et…
qu’à terme nous en devenions les esclaves.</p>
<p>Jean-Gabriel Ganascia, en distinguant la réalité du pur
fantasme, nous permet de comprendre ce qui se joue avec
l’intelligence artificielle, quelles sont ses potentialités et ce
qu’elle ne sera jamais… sauf au cinéma.</p>
<p>Suite à des études de physique et de philosophie, Jean-Gabriel
Ganascia s’est spécialisé en intelligence artificielle puis en
modélisation cognitive. Professeur à l’université Pierre et Marie
Curie, il dirige l’équipe ACASA (Agents cognitifs et apprentissage
symbolique automatique) au sein du laboratoire d’informatique de
Paris-VI.</p>
]]></summary>
        <content type="html"><![CDATA[
        <ul>
                            <li>
                     Pages 3 to 8| Pages de début
                                    </li>
                            <li>
                     Pages 9 to 10| Définition
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 11 to 16| Introduction
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 17 to 23| «&#160;Alan Turing est l’inventeur de l’intelligence
artificielle.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 25 to 29| «&#160;Désormais des machines passent le test de Turing.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 31 to 35| «&#160;L’intelligence artificielle n’est pas une science.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 37 to 42| «&#160;L’intelligence artificielle est une idée neuve.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 43 to 47| «&#160;Les Japonais sont les champions de l’intelligence
artificielle.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 49 to 53| «&#160;La recherche en intelligence artificielle est menée par les
GAFA.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 55 to 58| «&#160;L’intelligence artificielle pallie les défaillances de notre
intelligence.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 59 to 65| «&#160;Nous passerons bientôt de l’intelligence artificielle faible
à l’intelligence artificielle forte.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 67 to 73| «&#160;Il n’y a rien à craindre avec les ordinateurs, il suffit de
les débrancher.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 75 to 80| «&#160;L’intelligence artificielle reproduit l’activité de notre
cerveau.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 81 to 84| «&#160;L’intelligence artificielle n’est pas naturelle.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 85 to 88| «&#160;Les ordinateurs raisonnent de façon binaire.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 89 to 91| «&#160;Les ordinateurs ne se trompent jamais.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 93 to 99| «&#160;Les ordinateurs sont invincibles aux échecs et au go.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 101 to 106| «&#160;Le “<i>Deep Learning</i>” révolutionne l’intelligence
artificielle.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 107 to 115| «&#160;Une machine ne peut pas être créative.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 117 to 122| «&#160;Les machines n’ont pas d’émotions ni de conscience.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 123 to 127| «&#160;Les machines n’ont pas d’intuition.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 129 to 132| «&#160;Avec l’intelligence artificielle émotive, nous confierons
bientôt les personnes âgées aux robots.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 133 to 136| «&#160;Les voitures autonomes sont programmées pour tuer leurs
passagers.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 137 to 141| «&#160;Le “<i>Big Data</i>” menace la démocratie.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 143 to 149| «&#160;Les “robots tueurs” remplaceront bientôt les soldats.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 151 to 155| «&#160;Il faut donner des droits aux robots.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 157 to 162| «&#160;Nous ne sommes pas prêts pour le tsunami technologique qui
advient.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 163 to 167| «&#160;L’intelligence artificielle n’a pas tenu ses
promesses.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 169 to 173| «&#160;Les robots nous mettront tous au chômage.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 175 to 180| «&#160;Demain, nous serons les esclaves des machines.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 181 to 186| «&#160;Il n’y a pas ou plus de débouchés professionnels en
intelligence artificielle.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 187 to 191| «&#160;L’intelligence artificielle constitue un danger existentiel
majeur et inéluctable pour l’humanité.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 193 to 197| «&#160;Grâce à l’intelligence artificielle, nous téléchargerons nos
consciences et deviendrons immortels&#160;!&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 199 to 202| «&#160;La machine est l’avenir de l’homme.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 203 to 205| Conclusion
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                     Pages 207 to 211| Glossaire
                                    </li>
                            <li>
                     Pages 213 to 215| Pour aller plus loin
                                    </li>
                            <li>
                     Pages 216 to 216| Pages de fin
                                    </li>
                    </ul>
    ]]></content>
</entry>
                                <entry>
    <id>tag:cairn.info,2005:article:DIO_269_0107</id>
    <title type="html"><![CDATA[
        L’intelligence artificielle n’existe-t-elle vraiment pas&#160;?
Quelques éléments de clarification autour d’une science
controversée |
        Varia
                    | Diogène
            (2020/1 n° 269-270)
            ]]></title>
        <link href="https://shs.cairn.info/revue-diogene-2020-1-page-107?lang=fr" type="text/html" rel="alternate" />
    <published>2021-08-16T00:00:00+02:00</published>
    <updated>2023-12-11T21:33:01+01:00</updated>
            <summary type="html"><![CDATA[For the past ten years and with the big data movement, artificial
intelligence has achieved a high profile. Political and economic
actors have found an interest in actively promoting artificial
intelligence, while researchers from all scientific backgrounds are
increasingly orienting their work towards this object of study
which, quite often and wrongly, appears new to them. This
collective commitment is necessary because of the immensity of the
human, social and economic stakes associated with the development
of artificial intelligence. The problem is that it is accompanied
by media hype that tends to confuse the debates and the work. A
striking example is the fact that today there are several
well-known specialists who express the idea that artificial
intelligence does not exist&#160;! So that, even in the scientific
community, it is sometimes difficult to identify what artificial
intelligence is. This article aims to lift the veil on this
mystery.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:SCPO_CARDO_2019_01_0385</id>
    <title type="html"><![CDATA[
        Intelligence artificielle |
        Culture numérique
                    (2019)
            ]]></title>
        <link href="https://shs.cairn.info/culture-numerique--9782724623659-page-385?lang=fr" type="text/html" rel="alternate" />
    <published>2019-03-07T00:00:00+01:00</published>
    <updated>2023-12-11T21:32:09+01:00</updated>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:numero:RES_220</id>
    <title type="html"><![CDATA[
        Ethnographies des agents conversationnels
                    | Réseaux
            (2020/2 N° 220-221)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2020-2?lang=fr" type="text/html" rel="alternate" />
            <published>2020-05-22T00:00:00+02:00</published>
                <updated>2023-12-11T21:28:42+01:00</updated>
                <summary type="html"><![CDATA[<p>Assistants vocaux, <i>chatbots</i> textuels, robots humanoïdes :
la diffusion croissante d’agents conversationnels dans la société
fascine, effraye, soulève des questionnements d’ordre
philosophique, éthique, juridique, technique, politique et moral.
Présents à travers une diversité d’artefacts, ces agencements
technologiques sont capables de produire des paroles ou bien des
écrits pendant des interactions avec des humains et de simuler des
compétences humaines, des rôles sociaux ou encore des formes de
relations sociales. Depuis le milieu des années 2000, nous
assistons ainsi pour la première fois à des rencontres inédites «
grandeur nature » entre des formes de l’intelligence artificielle
conversationnelle et des utilisateurs ordinaires dans leur vie
quotidienne, en dehors des murs des laboratoires. Les agents
conversationnels ont d’abord rejoint les rangs des produits offerts
par les plus importants acteurs du numérique : Google, Microsoft,
Apple ou Amazon proposent des enceintes connectées pour
l’environnement domestique capables d’interagir vocalement avec les
utilisateurs. Mais ces agents ne sont que le fer-de-lance d’un
marché plus vaste, qui comprend également les robots
conversationnels textuels (<i>chatbots</i>) prenant en charge
différentes interactions de service et les robots humanoïdes.
Utilisés massivement dans l’assistance technique et commerciale,
les <i>chatbots</i> peuvent par exemple accuser réception d’une
requête d’un client, repérer le problème posé et rechercher la
solution dans des bases de données. Si les services rendus par ces
robots conversationnels les rapprochent d’autres applications web,
ils s’en distinguent néanmoins par l’utilisation du langage
naturel. Enfin, venant s'incarner dans des organismes artificiels
matérialisés – les robots humanoïdes – les agents conversationnels
se sont enrichis de modalités diverses, par exemple les pointeurs
ou les possibilités de mouvement permettant de désigner un objet
dans l'environnement ou encore la capacité à détecter la présence
de personnes, de reconnaître des émotions et d’exprimer des
simulacres émotionnels. Aujourd’hui, les premiers robots d'accueil
ou d'assistance fabriqués par cette nouvelle informatique «
affective » commencent à passer les limites des laboratoires pour
entrer dans les musées ou les situations commerciales. Comment
penser les conséquences sociales d’une telle diversité à la fois de
formes technologiques et des situations sociales dans lesquelles
l’IA conversationnelle vient s’inscrire ? C’est ce défi que le
présent dossier de <i>Réseaux</i> se propose de commencer à relever
en rassemblant un premier ensemble en français de travaux
empiriques sur les interactions avec les agents intelligents.
Comment interagit-on avec des agents artificiels ? Quelles
relations les personnes développent-elles avec ces machines
parlantes ? Quel sens et quelle place ces machines prennent-elles
dans notre vie quotidienne ? Comment reconfigurent-elles nos
activités à la maison, au travail, dans l’espace public ? Comment
nous affectent-elles et quelles formes d’attachement peuvent-elles
susciter ?</p>
<p>Les enquêtes réunies dans ce dossier de <i>Réseaux</i> montrent
que la recherche en sciences sociales gagne à se saisir
empiriquement – avec le regard ajusté aux pratiques propres aux
démarches ethnographiques – de la diversité des contextes, des
interactions, et des projets auxquels les trois principaux types
d’agents conversationnels sont aujourd’hui associés. Pour penser la
complexité des infrastructures technologiques associées à ces
applications de l’IA et leurs conséquences sur notre vie en société
ce numéro propose de s’appuyer sur les résultats d’enquêtes portant
à la fois sur la conception, l’appropriation ou les interactions
avec ces différents agents. Résolument empirique et descriptif, le
parti pris de ce dossier est également pluraliste en accueillant
une diversité de manières de faire des ethnographies de l’IA.
Réunissant des travaux ancrés dans l’ethnométhodologie, l’analyse
conversationnelle, la vidéo-ethnographie, la linguistique
interactionnelle, la sociologie économique ou l’anthropologie
sociale il témoigne de la fécondité des approches observationnelles
pour prendre la mesure des transformations technologiques et
sociales contemporaines à l’échelle des pratiques.</p>
<p>Coordonné par Marc Relieu et Julia Velkovska</p>
<p>Illustration de couverture : © Brett Jordan, bit.ly/3dDsQjN</p>
]]></summary>
        <content type="html"><![CDATA[
        <ul>
                            <li>
                     Pages 9 to 20| Pourquoi ethnographier les&#160;interactions avec les agents
conversationnels&#160;?
                                            |  Julia Velkovska,  Marc Relieu
                                    </li>
                            <li>
                     Pages 21 to 45| «&#160;Tisser des liens&#160;»
                                            |  Justine Cassell,  Julia Velkovska,  Marc Relieu
                                    </li>
                            <li>
                     Pages 47 to 79| Les relations aux machines «&#160;conversationnelles&#160;»
                                            |  Julia Velkovska,  Moustafa Zouinar,  Clair-Antoine Veyrier
                                    </li>
                            <li>
                     Pages 81 to 111| Une approche configurationnelle des leurres conversationnels
                                            |  Marc Relieu,  Merve Sahin,  Aurélien Francillon
                                    </li>
                            <li>
                     Pages 113 to 150| Répondre aux questions d’un robot
                                            |  Karola Pitsch,  Marc Relieu,  Julia Velkovska
                                    </li>
                            <li>
                     Pages 151 to 193| «&#160;Je dois y aller&#160;». Analyses de séquences
de&#160;clôtures entre humains et&#160;robot
                                            |  Christian Licoppe,  Nicolas Rollet
                                    </li>
                            <li>
                     Pages 195 to 222| Construire la «&#160;compréhension&#160;» d’une machine
                                            |  Charlotte Esteban
                                    </li>
                            <li>
                     Pages 223 to 251| Concevoir des machines anthropomorphes
                                            |  Joffrey Becker
                                    </li>
                            <li>
                     Pages 253 to 291| Robots, élevage et&#160;techno-capitalisme
                                            |  Philippe Le Guern
                                    </li>
                            <li>
                     Pages 293 to 299| Henri BOULLIER, <i>Toxiques légaux&#160;: comment les firmes
chimiques ont mis la main sur le contrôle de leurs produits</i>,
Paris, La Découverte, 2019, 200&#160;p.
                                            |  Mathieu Baudrin
                                    </li>
                            <li>
                     Pages 300 to 304| Manuel CERVERA-MARZAL, <i>Post-vérité&#160;: pourquoi il faut s’en
réjouir</i>, Lormont, Le Bord de l’Eau, coll. «&#160;La
bibliothèque du MAUSS&#160;», 2019, 122&#160;p.
                                            |  Ana Cristina Suzina
                                    </li>
                            <li>
                     Pages 305 to 307| Michel GROSSETTI, Jean-François BARTHE et Nathalie CHAUVAC, <i>Les
start-up, des entreprises comme les autres&#160;? Une enquête
sociologique en France</i>, Paris, Sorbonne Université Presses,
coll. «&#160;L’intelligence du social. Sociologie
économique&#160;», 2018, 156&#160;p.
                                            |  Arnaud Saint-Martin
                                    </li>
                    </ul>
    ]]></content>
</entry>
            </feed>
