Couverture de QDC_043

Article de revue

De l’information aux industries culturelles, l’hypothèse chahutée de la bulle de filtre

Pages 241 à 268

Notes

1 L’effet des algorithmes sur le filtrage des informations des plateformes en ligne est au cœur de vives interrogations depuis une décennie. Pourtant, face à l’augmentation exponentielle du volume d’informations disponibles, les systèmes de tri ou de filtrage sont devenus indispensables et permettent d’éviter le phénomène de surabondance de choix (ou choice overload) tel que décrit par le sociologue américain Alvin Toffler (1970), qui se manifesterait par l’incapacité de l’usager à faire des choix. Dans le processus de guidage d’un internaute, au terme duquel seule une infime partie de ce qui existe sur l'internet lui est perceptible, le design d’interface des offreurs de service en ligne est une composante essentielle. Le choix est en général présenté de manière hiérarchique, organisé selon différents critères, qui incitent l’utilisateur à s’orienter vers tel ou tel type d’information selon une classique stratégie de « nudge » (Thaler et Sunstein, 2008).

2 L’importance de la hiérarchie des informations présentées à des individus a fait l’objet de nombreux travaux, en particulier dans le domaine des neurosciences. Il a été démontré qu’il existe un effet de primauté des premiers et derniers résultats qui sont habituellement mieux repérés que ceux présentés au milieu d’une liste (Ebbinghaus, 1913 ; Murdock, 1962 ; Ward et Tan, 2004). Ces travaux trouvent une application concrète sur le Web puisqu’il s’agit d’un environnement ordonné verticalement, hiérarchisant et priorisant l’accès à certaines informations Des études mobilisent en particulier l’oculométrie pour comprendre comment interagissent les utilisateurs avec les pages de résultats des moteurs de recherche ou les sites d’informations en ligne (Granka et al., 2004 ; Pignard-Cheynel et Reynier, 2011).

3 Si le positionnement d’une information sur une interface est un enjeu primordial, comment peut-on expliquer que certaines d’entre elles soient mieux placées que d’autres ? La notion d’information regroupe des réalités protéiformes, de celles proposées par un moteur de recherche à de l’actualité en ligne sur les réseaux sociaux, au partage de photos, de titres musicaux sur des services de streaming ou encore des offres de vidéos à la demande. Chacun des services concernés mobilise ses propres mécanismes de classement, qu’on les nomme référencement pour les moteurs de recherche, prescription ou recommandation pour les réseaux sociaux et les services d’offre de contenus culturels, mais leur point commun, du moins pour les plus importants d’entre eux auxquels cet article est consacré, est de prendre appui sur des algorithmes dont l’essence même est d’offrir, de manière automatisée, une sélection réduite de la masse d’informations disponibles.

4 Or, les algorithmes, parce qu’ils ont pris une place de plus en plus visible dans nos économies et dans notre vie quotidienne, suscitent de nombreuses inquiétudes dans la société dont rendent également compte les travaux académiques. Certains dénoncent la violence des modalités de captation de l’attention des internautes dans un univers d’abondance (Patino, 2019 ; Zolynski et al., 2019), d’autres, le « capitalisme de surveillance » technologique mené par les géants du Web qui débouche sur des dispositifs dangereux de modification comportementale, comme l’affaire Cambridge Analytica l’a illustré (Srnicek, 2017 ; Pasquale, 2015 ; Gillespie, 2016, Zuboff, 2020), ou encore certains alertent sur la disparition de l’humain face aux risques de gouvernementalité algorithmique (Rouvroy et Berns, 2013 ; Cardon, 2015). De nombreux experts et ingénieurs repentis alertent régulièrement sur les problèmes des algorithmes de Google, Facebook, Twitter, YouTube et TikTok : fuites de données, absence de respect de la vie privée, fake news, biais de sélection des résultats, radicalisation… Dans ce climat généralisé de méfiance, règne une certaine confusion entre les biais et les risques imputables aux algorithmes eux-mêmes et d’autres dérives que la seule technique ne saurait suffire à appréhender.

5 Pour se limiter aux algorithmes de sélection de l’information pertinente, l’hypothèse de l’enfermement dans des bulles de filtre occupe une place privilégiée parmi les questions posées par les modalités de filtrage et leurs effets sur les comportements de ceux qui y sont exposés. En effet, la recommandation algorithmique fait débat depuis les premiers travaux qui ont popularisé le terme de « bulle de filtre ». Dans son ouvrage à succès The Filter Bubble, Eli Pariser (2011) propose, souvent sur la base d’anecdotes, une définition assez vague de l’enfermement algorithmique, en l’assimilant à une bulle opaque, une sorte de prison, qui exclut la possibilité d’une découverte fortuite.

6 L’article se donne pour objectif d’interroger la littérature en sciences humaines et sociales (SHS) et computationnelles pour comprendre à la fois quels sont les enjeux de l’hypothèse d’un enfermement algorithmique dans une « bulle de filtre » et dans quelle mesure les travaux empiriques confirment ou infirment cette hypothèse. L’ensemble des services concernés par les mécanismes de classement algorithmique, qu’il s’agisse des moteurs de recherche, des réseaux sociaux ou des services culturels, partagent des craintes associées aux conséquences de la personnalisation de plus en plus fine et de plus en plus poussée des résultats proposés. Pour le reste, les problématiques en matière d’information et de services culturels sont assez différentes. Dans le premier cas, la question soulevée est celle de l’accès au pluralisme de l’information et la possible manipulation des opinions dans une société démocratique. Certains évoquent le risque de « séparatisme numérique » entre communautés, enfermées dans leurs propres convictions, qui refusent de « faire société » (Morin, 2021). L’hypothèse testée dans les travaux empiriques est de savoir si l’information véhiculée sur l'internet, personnalisée à son paroxysme, induit inexorablement les utilisateurs à se cantonner dans un environnement hermétique, sans autre perspective informationnelle que celle qui correspond à leurs intérêts étroits, dans une logique de confirmation des opinions ou d’autoconviction. L’applicabilité de l’hypothèse de bulle de filtre aux services culturels est discutée dans une dernière partie. L’analyse des services culturels en ligne est bien moins documentée dans la littérature académique et l’enjeu n’est plus celui de l’enfermement dans une catégorie d’opinions mais dans une catégorie de contenus. La norme de référence par rapport à laquelle apprécier d’éventuels biais algorithmiques paraît cependant plus floue. Au-delà des deux exemples traités dans cette partie ­­ – Spotify dans la musique et Netflix dans l’audiovisuel – des travaux empiriques ultérieurs seraient utiles pour apporter des réponses plus précises.

Du référencement sur les moteurs de recherche à la recommandation de contenus culturels en ligne : le poids croissant de la personnalisation dans les mécanismes de tri de l’information

7 Les systèmes de recommandation ont rapidement évolué depuis les premiers travaux de Paul Resnick (Resnick et al., 1994), jusqu’à dominer l’expérience utilisateur en ligne que nous connaissons aujourd’hui. Cette évolution technologique a été rendue possible avec l’accroissement du volume de données collectées auprès des utilisateurs ; plus les données collectées sont nombreuses et de bonne qualité, plus les recommandations apparaissent pertinentes. Fabien Tarissan (2019) note que deux algorithmes ont marqué l’évolution du Web ces vingt dernières années en matière de tri de l’information pertinente, le PageRank de Google pour les moteurs de recherche et le EdgeRank de Facebook pour les réseaux sociaux. Ces algorithmes ont beaucoup été modifiés depuis leur conception, mais les principes généraux sont restés les mêmes.

8 Pour les moteurs de recherche, le classement des pages Web collectées et indexées nécessite de quantifier la pertinence d’une page pour que le moteur fasse des choix (Page et al., 1999). Alors que les premiers moteurs mesuraient l’importance d’une page par son audience, la faible qualité des réponses obtenues poussa les fondateurs de Google, Lawrence Page et Sergey Brin, à proposer une nouvelle méthode mettant au cœur de l’algorithme la notion de réseau : les pages ne sont pas traitées indépendamment les unes des autres mais en fonction du réseau dans son ensemble, en considérant les liens hypertextes comme gage d’autorité. Ce ne sont plus les actions des internautes consultant la page, donc l’audience, qui déterminent sa pertinence, mais l’action de ceux qui construisent le Web. En effet, plus une page est citée par d’autres, plus elle gagne en pertinence. De plus, l’algorithme PageRank prend en compte non seulement le nombre de citations reçues, mais aussi l’importance relative des pages à l’origine de la citation. Une page bien référencée par le moteur est donc celle à la fois avec beaucoup de références et référencée par des pages considérées comme sérieuses (Page et al. 1999).

9 Sur les réseaux sociaux, les internautes ne se contentent pas de rechercher des informations, ils en proposent, les échangent, les commentent, les propagent. Grâce à l’analyse de cette intense activité et des données relationnelles associées, les algorithmes de recommandation n’ont plus comme objectif de proposer de l’information pertinente, comme le font les moteurs de recherche, mais d’identifier l’importance relative d’une information pour chacun des usagers. Le EdgeRank est l’algorithme qui symbolise la sélection des informations réalisées par le NewsFeed, c’est-à-dire le fil d’actualité personnalisé pour chaque internaute. Proposée par Marc Zuckerberg en 2004, cette mesure de la pertinence de l’information détermine la nature du lien qui unit un post à l’un des utilisateurs en combinant trois facteurs : le nombre de fois que l’utilisateur a signifié son intérêt pour un post de son ami, le poids du post (une vidéo a plus de poids qu’un court message écrit) et l’ancienneté ou la nouveauté du post, cette dernière étant privilégiée. Si la mesure a été abandonnée progressivement au profit de nombreux autres indicateurs, le principe du suivi de l’activité relationnelle des usagers et d’un score individualisé de pertinence de l’information restent constants.

10 En matière de services culturels en ligne, parmi les traitements automatisés, on distingue classiquement deux types de recommandation, selon la nature des données privilégiées : le filtrage collaboratif et le filtrage par les contenus. À la fin des années 1990, lorsque le commerce électronique n’en était qu’à ses premiers balbutiements, Greg Linden (2003), ingénieur d’Amazon, a développé le filtrage par contenu qui consiste à recommander sur la base de corrélations entre les contenus, indépendamment de l’intégralité de l’historique d’achat des individus. Alors que ce filtrage repose sur une comparaison entre la description précise des caractéristiques d’un contenu et la demande d’un usager au temps T (un utilisateur écoutant un morceau de musique qualifié de rap par les métadonnées associées se verra proposer un autre morceau de musique rap), le filtrage collaboratif s’appuie sur les comportements de groupes d’usagers, de « communautés » ayant des goûts similaires (un utilisateur écoutant U2 se verra recommander Simple Minds car d’autres utilisateurs ayant écouté U2 ont également écouté Simple Minds). Afin d’augmenter la précision des recommandations, la plupart des services opérant aujourd’hui proposent des systèmes hybrides, qui combinent filtrage collaboratif et filtrage par contenus.

11 Une autre typologie peut être envisagée, conduisant à distinguer quatre types de recommandation : auto entretenue et contributive qui s’appuient sur les comportements ou jugements des internautes eux-mêmes ; éditoriale et personnalisée ensuite, fondées sur les jugements et comportements des offreurs (Farchy et al., 2017). La recommandation éditoriale désigne les situations dans lesquelles la proposition spécifique de certains contenus est fondée sur la mention manifeste d’un choix assumé de l’entreprise dans le dispositif. Avec le numérique, la possibilité d’exploiter une grande quantité de données d’usage sur les comportements des internautes a conduit à l’émergence d’une nouvelle forme de recommandation personnalisée associée aux potentialités des traitements algorithmiques automatisés (Mohana et Suriakala, 2017). Au fur et à mesure de l’évolution des plateformes de diffusion numérique, ces outils de recommandation personnalisée se sont développés, et ce sont eux qui suscitent le plus d’inquiétudes.

12 Au terme du processus, les choix faits par l’algorithme réalisent des propositions pouvant être considérées comme cohérentes par l’usager, afin de l’inciter à réaliser un acte d’achat ou de location, à augmenter sa satisfaction, à l’encourager à demeurer auprès du service pour les plateformes demandant un abonnement, à attirer de nouveaux abonnés ou, pour les sites gratuits financés par la publicité, à accroître l’audience. Pour les entreprises, la recommandation constitue un service phare susceptible d’opérer une différenciation concurrentielle. Afin de disposer de tels avantages concurrentiels, tous les fournisseurs de services en ligne se positionnent en termes de recommandation, avec des stratégies différentes qui évoluent au fur et à mesure des changements de leur modèle économique. Par exemple, Amazon, après avoir démarré ses services sur une base fortement éditorialisée, a ensuite laissé une place importante aux notes et commentaires des internautes. Ces avis et jugements sont devenus l’une des marques de fabrique de la recommandation dans le domaine du livre, avant d’être étendus aux services audiovisuels. Autre exemple, parce que Netflix n’est plus un simple diffuseur mais un véritable investisseur dans la production audiovisuelle, les stratégies de recommandation de la firme ont évolué, et elle assume une fonction éditoriale en mettant en avant certains contenus, indépendamment des goûts de chacun.

13 Les recommandations personnalisées, lorsqu’elles sont acceptées par l’usager, créent des boucles de rétroaction qui influencent, par itération successives, les propositions de l’algorithme. C’est pourquoi, malgré leur intérêt, les systèmes de tri de l’information ont suscité de vives inquiétudes sur les biais, réels ou supposésde ces outils. Le processus de mise en avant conduit-il à la sur-représentation de certains résultats et, par corolaire, à la sous-représentation d’autres ?Un algorithme n’est cependant jamais « neutre » puisqu’il reflète des choix préalables de types de données et de systèmes de traitements mobilisés. La question des « biais » renvoie donc à la définition d’une « normalité » dont le dispositif technique nous écarterait et au résultat du système de tri au regard de cette norme. La question divise d’autant plus que la norme de référence n’est pas toujours explicitée.

L’information en ligne : des biais avérés, mais des résultats empiriques contrastes

14 Des travaux menés sur les moteurs de recherche ou les réseaux sociaux font état de l’influence, parfois néfaste, des mécanismes de tri de l’information. Cependant, la thèse d’un enfermement dans une bulle de filtre mérite d’être fortement nuancée.

L’existence de biais

15 Deux chercheurs américains ont réalisé une étude sur les biais résultant de la sélection des informations disponibles sur les moteurs de recherche en se focalisant sur un moment charnière de la vie démocratique, celui des élections (Epstein et Robertson, 2015). Partant de l’hypothèse que les citoyens s’informent sur les programmes des candidats grâce aux moteurs de recherche, ils mettent en place des expériences mesurant l’effet des algorithmes sur le choix final d’un échantillon de votants indécis entre deux candidats. Ils constituent donc trois moteurs de recherche et exposent chacun des participants en Inde et aux États-Unis aux résultats de ces moteurs, le premier en faveur du premier candidat (qui visibilise les pages favorables à ce candidat), le second en faveur de l'autre candidat et enfin un moteur « neutre ». En comparant les choix des participants avant et après leurs recherches d’informations sur les trois moteurs de recherche, ils concluent de manière claire au pouvoir d’influence des algorithmes et, plus inquiétant, que les électeurs n’ont pas conscience d’une quelconque manipulation. Ce résultat doit cependant être nuancé car, dans la réalité, les moteurs de recherche ne sont pas forcément orientés de manière aussi caricaturale que dans l’expérience et de plus, les sources d’informations sont multiples, pas uniquement celles issues du Web.

16 Des travaux sur les biais de sélection des informations et sur l’enfermement des usagers dans une vision limitée de la réalité ont aussi été conduits sur les réseaux sociaux (Bakshy et al. 2015). Depuis l’élection américaine de 2016 ayant conduit à la victoire de Donald Trump, Facebook est régulièrement critiqué pour la légèreté avec laquelle est traitée la portée politique de son service, sa faible capacité de modération des fake news ou autres contenus problématiques, ou encore la complexité des algorithmes utilisés dont les effets imprévus semblent échapper à leurs propres auteurs. Dès lors que Facebook est devenu l’un des principaux points d’accès à l’information en ligne, la question de la bulle de filtre s’est posée, en particulier concernant des sujets politiquement sensibles. En effet, diverses études montrent que les individus se détournent en partie des médias de masse au profit des réseaux sociaux pour s’informer (Badouard, 2017 ; Shearer et Mitchell, 2020). Dans un environnement totalement personnalisé, le risque est donc que les services deviennent des outils de confirmation plutôt que des outils d’information (Bozdag, 2013 ; Sire, 2015). Une vaste expérience réalisée sur Twitter (Colleoni et al., 2014) cherche à savoir si le réseau contribue à favoriser des discussions entre des utilisateurs ayant des opinions politiques différentes ou, au contraire, s’il augmente l’exposition aux personnes partageant les mêmes idées. Il apparaît que les militants les plus engagés sur le plan politique développent des pratiques d’informations plus homophiles en lisant et partageant des sources d’informations alignées sur des positions politiques partisanes.

17 La plateforme YouTube a aussi été abondamment étudiée sous l’angle des dérives complotistes auxquelles elle conduit. Chaque jour, le système ingère des milliards de signaux en provenance de ses usagers et les algorithmes de recommandation classent de manière industrielle et sophistiquée les vidéos disponibles pour n’en proposer qu’une poignée à chaque utilisateur (Covington et al., 2016). L’algorithme de recommandation Watch Next qui propose à l’usager, en lecture automatique, une vidéo immédiatement après celle qu’il vient de visionner, a fait l’objet des plus vives critiques, mettant en avant sa capacité à amplifier la diffusion de vidéos sensationnelles, clivantes ou complotistes afin de capter dans le temps l’attention des utilisateurs. Le lien entre modèle économique publicitaire nécessitant un fort engagement des usagers et des algorithmes de recommandation privilégiant l’émotion et la conflictualité a été questionné (Toledano, 2020). Le modèle publicitaire conduit à tenter de garder l’utilisateur sur le service le plus longtemps possible, ce qui peut aboutir à des vidéos « trash » qui invitent aux réactions enflammées, plutôt qu’à la réflexion. La recherche d’attention tend à privilégier non pas les opinions les plus répandues, mais les plus scandaleuses, absurdes ou extrêmes.

18 La chercheuse Zeynep Tufekci, après avoir étudié l’ampleur des mouvements sociaux sur Twitter (2017), défend, dans un article du New York Times de 2018 [1], l’idée selon laquelle YouTube serait un « grand radicalisateur ». En menant des expérimentations sur différents comptes, elle met en lumière un schéma récurrent de fonctionnement de l’algorithme, qui recommande et diffuse des vidéos plus radicales que celles visionnées précédemment. Guillaume Chaslot, ancien ingénieur de YouTube, a développé le site AlgoTransparency dont l’objectif est de sensibiliser les citoyens ; sur le site, un programme informatique simule le comportement d’utilisateurs en visionnant des vidéos et les données récoltées permettent de rendre compte des résultats recommandés. La méthodologie met en évidence l’importance de la dimension politique et éthique de YouTube, et l’influence que la plateforme peut exercer durant les temps forts des processus démocratiques dans le monde, comme cela a pu être le cas en 2016 durant l’élection américaine. Dans le cadre d’une vaste expérience (Faddoul, Chaslot et Farid, 2020), plus de 8 millions de recommandations de l’algorithme Watch Next sur une période de 15 mois (d’octobre 2018 au mois de février 2020), sont analysées. On observe une diminution significative du nombre de vidéos conspirationnistes recommandées sur la période ; cependant, le problème de la radicalisation sur YouTube n’est pas, selon les chercheurs, devenu obsolète ou fictif, et ils soulignent qu’après avoir cliqué sur une vidéo conspirationniste, la probabilité que l’algorithme en recommande une autre demeure élevée. D’autres chercheurs (Roth et al., 2020) ont eux aussi mené une expérimentation dont l’objectif vise à appréhender l’applicabilité du phénomène de « bulle de filtre » aux recommandations proposées par cet algorithme de YouTube selon une approche fondée sur l’étude des graphes. Les auteurs concluent que si la recommandation implicite proposée n’a clairement pas un rôle neutre, il reste difficile d’apporter une réponse univoque et définitive à la question de l’enfermement sur YouTube.

Une thèse de l’enfermement à nuancer

19 Réalisés pour l’essentiel sur les réseaux sociaux, des travaux nuancent la thèse de l’enfermement compte tenu, d’une part, de la difficulté à identifier le rôle des algorithmes dans les processus d’homophilie, et, d’autre part, parce que les phénomènes d’enfermement, lorsqu’ils sont avérés, ne concernent qu’une minorité d’internautes.

20 La définition même des termes de bulle de filtre et de celui, également utilisé, de chambre d’écho, reste floue (Bruns, 2019b; Dahlgren, 2021). L’utilisation persistante de ces concepts dans les médias et les débats politiques a contribué à créer leur propre réalité discursive (Bruns, 2019a). Par conséquent, il incombe aux chercheurs de mener des travaux mettant en lumière les dynamiques réelles de la polarisation du débat public. Elizabeth Dubois et Grant Blank (2018) regrettent que les travaux menés sur les chambres d’écho et les bulles de filtre aient passé sous silence certains problèmes méthodologiques majeurs. En effet, la plupart des études réalisées portent sur une seule plateforme limitant considérablement la généralisation de leur interprétation. Selon eux, il est important de considérer comment les internautes interagissent avec l’ensemble de leur environnement dans la mesure où ils ont accès à une multitude de sources pour s’informer et se forger une opinion, de la radio à la télévision, en passant par la presse écrite ou les différentes sources d’information en ligne. Dès lors, mesurer l’exposition d’un individu à des idées contradictoires sur une seule plateforme ne rend pas compte de la manière dont chacun collecte des informations dans l’ensemble de leur environnement médiatique.

La difficulté de dissocier homophilie et manipulation algorithmique

21 Bien avant que Eli Pariser ne mobilise le terme de bulle de filtre, l’ampleur des chambres d’écho était discutée en SHS (Jamieson et Cappella, 2008). Des premiers travaux (Sunstein, 2002) soutiennent que le recours de plus en plus fréquent à la personnalisation algorithmique contraint les citoyens à se retrouver plus facilement dans des chambres d’écho, limitant ainsi leur exposition à des informations qui remettent en question leurs idées reçues. L’auteur s’attache à dénoncer les problèmes que de tels phénomènes peuvent engendrer pour les démocraties, comme la polarisation de la vie politique et le renforcement des clivages. Une autre équipe de recherche (Nikolov et al., 2015) affirme aussi que la diversité des informations obtenues par le biais des réseaux sociaux est nettement inférieure à celle obtenue par une recherche effectuée sur un canal traditionnel.

22 Dans un billet intitulé Eli Pariser is Wrong publié en 2011 [2], Greg Linden suggère au contraire que, sur les réseaux sociaux, la personnalisation via les systèmes algorithmiques de recommandation ne réduit pas les choix, mais qu’elle augmente la découverte potentielle puisque les utilisateurs ne pourraient pas rechercher des articles qu’ils ne connaissent pas. S’appuyant sur un vaste échantillon de 10,1 millions d’utilisateurs américains, des chercheurs de Facebook insistent que le fait que ce n’est pas l’algorithme qui limite l’exposition à des informations remettant en question leurs opinions politiques, mais bien les comportements individuels (Bakshy et al., 2015).

23 En effet, l’herméticité des points de vue sur les réseaux sociaux renvoie à des phénomènes qui ne sont pas toujours clairement distingués (Tarissan, 2019). D’un côté, les utilisateurs ont tendance à n’être exposés qu’à des informations qui reflètent leur propre conception d’un sujet et à créer des liens privilégiés avec des personnes qui partagent leur point de vue. De l’autre, peut être interrogée la responsabilité des algorithmes qui, en triant sur la base des informations sélectionnés antérieurement, empêcheraient l’internaute d’être exposé à des points de vue alternatifs.

24 Diverses études ont tenté de nuancer la responsabilité des algorithmes en insistant sur la capacité des internautes à s’enfermer eux-mêmes avec des personnes qui partagent leur propre vision et à envoyer aux algorithmes des signaux de leur manque de curiosité ; en effet, les citoyens ont une tendance naturelle à écarter les informations qui ne correspondent pas à leurs convictions. Certains insistent sur le constat que les phénomènes d’homophilie ne sont pas limités au numérique, puisque les internautes reproduisent sur les réseaux les mêmes comportements que dans leurs réseaux physiques traditionnels (McPherson et al., 2001 ; Flaxman et al., 2016). Les individus mettent en place des biais informationnels afin d’éviter les informations qui pourraient remettre en cause leurs convictions profondes comme l’ont montré les travaux de psychologie sociale sur la « dissonance cognitive » des années 1950 (Festinger, 1957). Dans une publication de 2007, des chercheurs (Centola et al., 2007) ont constaté que l’homophilie peut parfois produire la formation de groupes culturels dont les membres sont en incapacité d’interagir au-delà des frontières du groupe concerné.

25 La chambre d’écho numérique entérine les constats classiques de la sociologie politique qui montre que les cercles de relation sont souvent homophiles, c’est-à-dire liés à une convergence d’idéologies ou de goûts (Aïm, 2020). Les biais de confirmation des internautes, a fortiori dans un environnement numérique entièrement personnalisé, sont très importants. Ce phénomène psychologique, bien connu dans le domaine de la publicité (Davis, 2011), consiste à privilégier des informations qui confirment nos hypothèses, nous confortent dans nos positions et ne heurtent pas nos sensibilités.

26 Lors d’une expérience menée auprès de centaines de lecteurs de sites partisans d’information en ligne, des chercheurs (Garrett, 2009) se sont attelés à suivre leurs comportements et concluent que les lecteurs ont tendance à choisir des articles de presse provenant de sources alignées sur leurs opinions politiques. L’explication avancée est que le désir de renforcer leur opinion est plus fort que leur capacité à se remettre en question. Sean Munson et Paul Resnick (2010) distinguent, sur les sites d’information en ligne, deux catégories d’utilisateurs : les personnes qui recherchent une diversité d’opinions et ceux qui l’ignorent. Ils montrent que l’exposition d’internautes ayant la plus forte aversion à la diversité, à des informations diverses n’améliore pas leurs habitudes et qu’ils continuent d’ignorer ces informations.

Des internautes enfermés minoritaires

27 Une étude des flux d’informations sur Twitter montre que le phénomène d’enfermement ne concerne en réalité qu’une minorité d’utilisateurs (Grossetti et al., 2019). Aux États-Unis, dans le cadre des élections présidentielles de 2016, les nombreuses fake news ayant circulé sur les réseaux sociaux ont principalement été diffusées vers un public de militants déjà convaincus (Grinberg et al., 2019). Seuls 5 % des articles politiques partagés sur Twitter proviennent de sources considérées comme divulguant de fausses informations, et 1 % des membres du panel ont consommé près de 80 % des fausses informations recensées. L’article dresse un portrait sociologique des consommateurs de fake news qui sont les internautes les plus âgés et les républicains les plus politisés. En outre, les rares études qui s’intéressent aux effets des fake news sur les croyances politiques ne parviennent pas à mesurer leur impact (Allcott et Gentzkow, 2017). Dans une étude réalisée à Cambridge (Zmigrod et al., 2021), des chercheurs, évaluant le rôle des dispositions cognitives dans la fabrique des croyances politiques, nationalistes et dogmatiques, concluent que les personnes aux convictions extrémistes ont tendance à être peu performantes dans des tâches mentales complexes et affirment que leur vision idéologique reflète des fonctions perceptives et cognitives qu’ils qualifient de « bas-niveau ».

28 En France, les recherches conduites par David Chavalarias, Noé Gaumont et Maziyar Panahi (Gaumont et al., 2018) montrent que les fake news font partie d’un vaste dispositif de manipulation d’informations dont le but ne serait pas de changer les opinions, mais « de semer le doute et la confusion et, parfois, d’encourager le passage à l’acte ». On retrouve une surreprésentation de la désinformation dans les communautés politiques de droite et d’extrême droite sur Twitter. Lors de l’élection présidentielle française de 2017, d’autres chercheurs (Figeac et al., 2019) ont analysé le partage d’informations sur Facebook et leurs résultats ont conduit à singulariser les communautés les plus à droite de l’échiquier politique en raison d’une nette surreprésentation des sources « peu fiables », c’est-à-dire les plus susceptibles de relayer de la mésinformation et de la désinformation. Une fausse information est relayée en moyenne par un plus grand nombre d’utilisateurs qu’une information fiable, mais elle reste le plus souvent concentrée au sein d’une même communauté active dans la propagation de telles informations. Ainsi, dans des univers comme Facebook ou YouTube, où le nombre d’informations ou de vidéos est quasi illimité, la personnalisation favorise-t-elle le développement de tribus autarciques, minoritaires mais actives, centrées sur quelques sous-catégories d’informations ou de contenus renouvelables à l’infini.

Les contenus audiovisuels et musicaux : des recommandations personnalisées qui s’accompagnent d’ouvertures à la diversité

29 Dans les industries culturelles, il est le plus souvent envisagé que les biais algorithmiques et les mécanismes d’enfermement établis dans le domaine de l’information se reproduisent. Ainsi l’usager serait-il susceptible d’être enfermé dans une certaine catégorie de contenus culturels, ceux particulièrement mis en avant par les algorithmes. Tout biais suppose une norme de référence ; or, les normes par rapport auxquelles établir des biais sont hétérogènes et peu explicitées.

30 Pour certains économistes qui étudient de manière théorique la question du traitement préférentiel de certains contenus vis-à-vis d’autres (Hagiu et Jullien, 2011 ; Bardey et al., 2020 ; Bourreau et Gaudin, 2022), la norme implicite de référence semble être celle de la maximisation de la satisfaction du consommateur. Ainsi un algorithme conçu pour fournir la musique préférée d’un usager pourrait-il introduire un biais en surexposant des contenus qui le satisfont moins, mais dont la diffusion serait plus rentable pour un service comme Spotify (Casadesus-Masanell et Hałaburda, 2014 ; Aguiar et Walfdogel, 2021). Une autre norme peut être trouvée du côté de la concurrence entre offreurs. En effet, la sur-représentation de certains contenus peut être liée aux intérêts directs du fournisseur de service en ligne qui, par un mécanisme « d’auto-préférence », favorise les contenus qu’il a lui-même produits ou pour lesquels il a conclu des accords commerciaux de promotion (Mariuzzo et Ormosi, 2020).

31 Une norme, encore différente, est celle correspondant à l’écart entre le résultat produit par l’algorithme et des objectifs politiques réputés d’intérêt général, comme celui de préservation de la diversité des contenus proposés. Ainsi, pour le régulateur européen, l’ambition politique énoncée dans la directive « Services de médias audiovisuels » de 2018 – dite SMA – de modifier les règles du marché en orientant les usagers vers certains types de contenus par des processus de « mise en valeur », s’est concrétisée en France, dans le décret du 22 juin 2021 relatif aux services de médias audiovisuels à la demande. Par choix politique, le régulateur s’est engagé à exiger la mise en avant de contenus européens sur la page d’accueil de chaque usager, indépendamment de ses préférences propres. Dans ce cadre, la norme de diversité culturelle défendue s’entend uniquement comme la défense de productions de nationalités européennes [3].

32 On notera que les normes de référence peuvent se révéler contradictoires entre elles. Ainsi, l’objectif de « sérendipité », c’est-à-dire de découverte fortuite érigée comme norme par le législateur européen, conduit à un « biais » si l’on adopte comme norme de référence la maximisation à court terme de la satisfaction du consommateur. En effet, l’objectif de sérendipité conduit à proposer à l’usager non pas seulement ce qu’il aime déjà, ce qui le satisfait immédiatement (objectif de la maximisation de la satisfaction du consommateur), mais aussi ce qu’il pourrait aimer si l’algorithme le lui faisait découvrir.

33 La question des effets de la recommandation ultra personnalisée sur la diversité, érigée comme norme, alimente donc de nouveaux débats publics. Au-delà de certains chercheurs (Tchehouali et Agbobli, 2020), des responsables politiques et institutionnels soutiennent volontiers que les algorithmes représentent un risque, voire une menace pour la diversité culturelle et la « découvrabilité » des contenus en ligne. Les craintes exprimées concernent l’absence de diversité de l’offre proposée au profit d’un enfermement dans les goûts monomaniaques de l’usager. Il est difficile de confirmer ou d’infirmer ces hypothèses, dans la mesure où les travaux analysant de manière quantitative les effets de la recommandation sur la diversité dans les industries culturelles sont rares.

34 Des chercheurs en informatique ont mené des travaux montrant les possibilités techniques pour lier diversité et algorithmes de recommandation (Ramaciotti Morales et al., 2021 ; Tarissan, 2019). La question de la diversité dans le domaine des systèmes de recommandation a été définie comme étant « la mesure opposée à la similarité » (Smyth et McClave, 2001), calculée sur la base des « attributs » alloués à chaque information. Les deux chercheurs ont mis au point un algorithme proposant des offres correspondant à la demande de l’utilisateur, bien que diverses entre elles. Afin de ne pas enfermer l’utilisateur dans des recommandations susceptibles de ne pas lui paraître pertinentes, il est préférable de lui proposer un contenu aux caractéristiques différentes (McGinty et Smyth, 2003). Les systèmes de recommandation doivent être en mesure de s’adapter dynamiquement aux utilisateurs et le besoin de diversité fait partie de leurs attentes (L’Huillier et al., 2016). Une autre équipe de chercheurs (Nguyen et al., 2014) a réalisé une expérience appliquée au cinéma à partir des données extraites de la base MovieLens et conclut que les utilisateurs qui suivent les recommandations proposées bénéficient d’une meilleure expérience que ceux qui ne les suivent pas, et que les recommandations augmentent la diversité des contenus en réduisant le risque d’un enfermement dans une bulle de filtre. Enfin, de nombreuses stratégies dans le paramétrage des algorithmes de recommandation peuvent contribuer à augmenter la diversité : augmentation du nombre de contenus recommandés, ajout de contenus choisis de manière aléatoire, mise en place de systèmes de recommandation hybrides, etc. (Foulonneau et al., 2014).

35 En SHS, la notion de diversité a fait l’objet de travaux empiriques (Ranaivoson, 2010 ; 2019), mais la question des effets de la recommandation algorithmique n’est pas traitée, sauf sous l’angle de l’affirmation de risques théoriques. Le débat est souvent confondu avec celui des effets du numérique sur la diversité de l’offre disponible dans l’ensemble du catalogue des services en ligne. Pour de nombreux chercheurs, contrairement à l’espoir suscité par l’hypothèse de la longue traîne (Anderson, 2006 ; Brynjolfsson et al., 2011), l’espace de stockage illimité que procure l'internet n’aurait pas nécessairement conduit à plus de diversité de l’offre (Ranaivoson, 2016). Cependant, sur les services en ligne, l’étude de la diversité du catalogue n’est plus suffisante. La diversité culturelle, auparavant évaluée comme un état à un moment donné au niveau de l’offre, doit désormais être appréhendée comme un processus qui conduit l’usager à s’intéresser à un contenu spécifique, au sein d’une offre pléthorique. Or, comprendre empiriquement comment les algorithmes de recommandation influencent la manière dont les internautes sont exposés à la diversité est un domaine encore trop peu exploré en SHS (Kunaver and Požrl, 2017 ; Ranaivoson, 2019).

36 Deux cas emblématiques de firmes mondialement présentes dans la diffusion de contenus musicaux et audiovisuels permettent d’avancer dans la compréhension des liens complexes entretenus par les acteurs, entre personnalisation des systèmes de recommandation et diversité.

Le cas Spotify

37 Dans le champ musical, une étude quantitative portant sur l’analyse de millions d’écoutes (Beuscart et al., 2019) constate que la plupart des dispositifs de recommandation orientent les auditeurs vers des artistes plus confidentiels que ceux qu’ils écoutaient au départ. Un autre projet de recherche, en partenariat notamment avec le service Deezer (Villermet et al., 2021), analysant le rôle joué par les systèmes de recommandation sur la diversité de la consommation de musique en ligne, distingue deux catégories d’utilisateurs : ceux qui utilisent le service comme une bibliothèque personnelle diffusant exclusivement les titres sélectionnés, et ceux qui se fient au service et qui l’envisagent plutôt comme une radio, laissant de la place à découverte et au hasard. Les chercheurs concluent que les usagers qui suivent les recommandations effectuées par l’algorithme de Deezer semblent avoir une écoute plus variée et moins orientée vers les artistes populaires.

38 Ce sont surtout les recommandations du leader mondial du streaming musical par abonnement, Spotify, qui ont attiré l’attention. La firme suédoise revendique plus de 422 millions d’utilisateurs actifs sur son service au premier trimestre 2022 [4]. L’entreprise compte 182 millions d’abonnés ayant souscrit une offre payante (premium, comprenant l’ensemble des utilisateurs d’une offre famille), et 252 millions de personnes utilisent le service de manière gratuite (freemium) [5]. Spotify, à l’instar des autres services disponibles sur le marché, propose à ses utilisateurs l’accès à un vaste catalogue – estimé, en 2023, à 80 millions de morceaux - au sein duquel, chaque jour, plusieurs dizaines de milliers de titres sont ajoutés. Certains observateurs, comme Will Page, ancien économiste en chef de Spotify, suggèrent que l’offre excède désormais la demande au point de l’altérer, dans la mesure où il devient de plus en plus difficile de créer l’événement autour d’une sortie. Contrairement à l’audiovisuel, très peu d’exclusivités existent, et lorsque les services de streaming dévoilent chaque année leur tops d’écoute, des différences apparaissent entre les entreprises alors que les catalogues sont sensiblement les mêmes. Tous les services ne mettent donc pas en avant les contenus de la même manière et Spotify propose sur son interface différents dispositifs pour guider l’utilisateur. La recommandation et la personnalisation sont devenues les piliers de sa stratégie de croissance et d’expérience utilisateur. Le comportement des utilisateurs est analysé en permanence afin de prédire les titres susceptibles de les satisfaire (Eriksson et al., 2019).

39 Dans le processus de recommandation, les playlists jouent un rôle important. Sur Spotify, il existe en réalité trois catégories de playlists différentes :

  • la première, la plus importante en volume, concerne les playlists personnelles créées par les utilisateurs qui piochent des morceaux au gré de leurs écoutes, et les compilent dans une liste de lecture selon leurs propres choix. Ces playlists personnelles ont cependant peu de conséquences sur la recommandation, puisqu’elles sont volontairement cachées de l’interface. Très nombreuses quantitativement (plus d’un milliard), l’invisibilisation des user-generated playlists de l’interface permet à la plateforme de garder le contrôle et d’éviter que certains « playlisteurs » influents et extérieurs à son environnement ne favorisent certains titres ;
  • La deuxième catégorie renvoie aux playlists créées par les équipes éditoriales de Spotify. Selon Julie Knibbe [6], il en existe environ 5 000, pouvant accueillir approximativement 350 000 titres. La capacité de ces playlists est donc très limitée au regard du nombre de titres ajoutés chaque jour sur le service. Ces playlists éditoriales peuvent avoir plusieurs millions, voire plusieurs dizaines de millions d’abonnés et d’auditeurs pour les plus populaires d’entre elles. À titre d’exemple, les playlists Today’s Top Hits et RapCaviar comptabilisent respectivement plus de 30 et 15 millions d’abonnés chacune et figurent parmi les plus connues au monde. En parallèle des playlists proposées par le service, les trois grandes maisons de disques ont développé leurs propres marques comme Digster (Universal), Filtr (Sony) et Topsify (Warner) afin de promouvoir leurs artistes ;
  • La dernière catégorie concerne les playlists générées algorithmiquement par le service sur la base des comportements passés de l’internaute. En mars 2021, le design de l’interface Spotify a fait l’objet d’une importante mise à jour, modifiant ainsi l’environnement qui distinguait traditionnellement les playlists éditoriales des autres. Désormais, les playlists éditoriales et les playlists algorithmiques sont regroupées, sans pouvoir être distinguées, dans l’environnement Rechercher.

41 L’opacité des systèmes de recommandation utilisés et associée à la forte personnalisation ont donné lieu à de nombreuses analyses critiques. Bien que les chercheurs accordent une attention considérable au streaming musical depuis quelques années, peu d’entre eux ont observé la question de la diversité. David Hesmondhalgh (2022) a relevé plusieurs ensembles de critiques récurrentes adressées aux plateformes de streaming musical, comme l’absence de découverte musicale et d’esprit d’aventure. Cette affirmation est, selon lui, simpliste et trop généraliste. Certaines recherches, fondées sur des entretiens, tendent à montrer que les utilisateurs de Spotify sont en réalité des explorateurs acharnés (Lüders, 2019).

42 L’une des recherches les plus abouties est celle publiée dans l’ouvrage Spotify Teardown (Eriksson et al., 2019). Un consortium de chercheurs de l’Université d’Umeå en Suède a mené une vaste étude permettant d’explorer le fonctionnement du service en développant des méthodologies innovantes de récolte de données (bots et scripts d’indexation notamment). Pour réaliser leurs expériences, les chercheurs ont créé leur propre label pour proposer de la musique sur le service et étudier sa circulation à l’aide de robots programmés pour écouter en boucle certains titres. L’apport de cet ouvrage est important en ce qu’il permet de mieux cerner l’écosystème complexe de Spotify qui rassemble une myriade de technologies, d’entreprises et d’agrégateurs. En outre, les chercheurs ont analysé empiriquement le fonctionnement des radios proposées par le service suédois en utilisant le même protocole de récolte des données et d’utilisation de robots afin de tenter de répondre à la question suivante : les radios de Spotify favorisent-elles la découverte de nouveaux artistes ? Les chercheurs démontrent qu’il s’agit en réalité de boucles musicales, limitées à une cinquantaine de morceaux et ce quelle que soit l’interaction de l’utilisateur avec un morceau (like, unlike, etc.). Ils affirment que la capacité de recommandation de ce service spécifique est tout à fait exagérée, voire totalement mensongère. Dans le cas spécifique des radios étudiées, la thèse de l’enfermement dans des bulles de filtre est donc confirmée.

43 Peut-on généraliser la situation étudiée dans cette recherche ? Depuis la réalisation de l’étude par les chercheurs suédois, la place occupée par les radios dans l’environnement Spotify a été reléguée au second plan, largement remplacée par d’autres formats de recommandation comme Discover Weekly (Découvertes de la semaine) qui combine une forte personnalisation et une volonté de faire découvrir des titres qui ne font pas partie des habitudes de l’utilisateur. Ainsi chaque lundi, Spotify conçoit-elle des millions de playlists individualisées sur la base d’une multitude de critères. Michael Schrage (2020) précise le fonctionnement technique de cet algorithme composé de cinq points essentiels : le filtrage collaboratif (classification des utilisateurs qui se ressemblent en fonction de leur historique d’écoutes), l’utilisation de techniques de traitement de langage naturel (traitement des playlists en blocs de texte permettant de les contextualiser et d’y trouver des similitudes), et des réseaux de neurones à convolution (CNN) qui traitent les musiques afin d’identifier des similitudes sous-jacentes aux modèles acoustiques, la détection d’anomalies et d’aberrations dans l’écoute d’un utilisateur, la réaction de l’utilisateur sur la playlist de la semaine précédente. Le 9 juillet 2020, Spotify affirmait que Discover Weekly avait engendré 2,3 milliards d’heures d’écoute depuis sa création en 2015. Dans le cadre d’une expérience réalisée sur un échantillon de 5 000 utilisateurs sur une période d’un an, des chercheurs (Datta et al.,2018) ont constaté que les nouveaux utilisateurs de Spotify avaient considérablement augmenté leur écoute d’artistes, de titres et de genres qu’ils n’avaient pas rencontrés auparavant, par rapport à la période précédant leur utilisation du service.

44 Les équipes de recherche de Spotify ont elles-mêmes publié de nombreux articles sur le fonctionnement et l’évolution de leurs systèmes de recommandation, ainsi que sur les conséquences observées sur le plan de la diversité (Anderson et al., 2020). Des chercheurs de cette équipe (Hansen et al., 2021) ont proposé une méthode d’apprentissage par renforcement fondée sur la modélisation de récompenses dont l’objectif est de construire un algorithme de compromis afin de satisfaire les utilisateurs avec des contenus pertinents, et de les conduire vers des titres à la fois moins populaires et qui s’écartent de leurs goûts habituels.

45 Il ressort des travaux sur les services musicaux que, afin de s’adapter aux exigences des utilisateurs, la diversité d’écoutes de chacun est une variable que l’algorithme est en mesure de prendre en compte. Certains usagers vont écouter des styles de musiques très différents ; d’autres spécialistes vont se replier sur un style donné tout en en explorant tous les recoins. Il est donc possible que la personnalisation conduise à des propositions similaires aux demandes précédentes des internautes tout en étant diverses entre elles puisque les catalogues, quasi infinis des services de streaming musicaux le permettent. De plus, ces services doivent faire face à un dilemme : pour satisfaire les exigences immédiates des utilisateurs les moins ouverts a priori, les algorithmes de recommandation misent sur la pertinence des résultats et ont tendance à prendre peu de risques. Cette stratégie, satisfaisante à court terme, pose néanmoins des difficultés pour correspondre à l’appétence des utilisateurs à qui risquent, à la longue, de se lasser. La capacité à orienter les usagers vers des contenus différents de ce qu’ils ont l’habitude d’écouter s’inscrit donc dans une logique concurrentielle de long terme.

46 Dans la musique, le véritable enjeu réside dans la capacité à développer des algorithmes capables de gérer simultanément des objectifs a priori contradictoires. Nick Seaver (2022) a mené pendant plusieurs années un travail d’enquête socio-anthropologique, non pas pour comprendre le fonctionnement technique et opérationnel des algorithmes de recommandation musicale, mais pour tenter de décrire l’état d’esprit dans lequel ceux qui les développent se situent au regard des objectifs et des ambitions affichées. Il montre comment les personnes qui conçoivent des systèmes de recommandation naviguent entre de multiples tensions et des objectifs différents.

Le cas Netflix

47 Lancé en 1997 en tant que service de location de DVD, Netflix a innové en utilisant la recommandation pour orienter ses clients dans leurs choix en ligne. Cinematch, son moteur de recommandation, a été popularisé en octobre 2006 à l’occasion de la création du Netflix Prize. La compétition consistait, pour les communautés spécialistes de data mining, de machine learning, et, plus généralement, de computer science, à défier le moteur de recommandation en développant des systèmes capables de dépasser, dans une certaine mesure, sa précision (Bennett et Lanning, 2007). La recommandation, omniprésente sur l’interface Netflix, permet d’organiser la manière dont sont présentés les contenus sur la page d’accueil. Les utilisateurs ont la possibilité de scroller de haut en bas et de gauche à droite sur chaque page, ayant ainsi accès à des rangées thématiques, et cette architecture des choix reflète des stratégies de mise en avant. Il convient de distinguer deux zones sur Netflix : le catalogue, zone abstraite comprenant tous les contenus disponibles sur le service à une date donnée, et la page d’accueil, espace restreint auquel l’utilisateur accède dès qu’il se connecte. Un contenu peut ainsi être disponible mais pas du tout visible pour l’utilisateur. La page d’accueil, page principale du site, est délimitée verticalement par la distance à laquelle l’utilisateur peut faire défiler la page et horizontalement, par la longueur de chaque rangée de vignettes. Une page d’accueil typique contient jusqu’à 1400 vignettes. Une vignette correspond à la zone cliquable affichant le contenu promotionnel d’une œuvre spécifique (image, bande-annonce…). Un même titre peut apparaître plusieurs fois sur une même page d’accueil, dans différentes vignettes : en mai 2022, on compte ainsi, selon les chiffres de la Chaire Pluralisme culturel et éthique du numérique (PcEn), 5 272 titres différents disponibles au sein du catalogue de Netflix en France, dont 11 à 20 % seulement sont présents sur les pages d’accueil. Autrement dit, un utilisateur ne se voit proposer sur la page d’accueil qu’une proportion limitée des contenus disponibles.

48 C’est la raison pour laquelle l’algorithme de recommandation, qui détermine ce qui sera visible sur la page d’accueil, joue un rôle majeur dans la stratégie de conservation des abonnés car il leur proposer constamment des œuvres pertinentes (Gomez-Uribe et Hunt, 2016). La sélection des catégories proposées sur chaque rangée, les images associées aux contenus ainsi que leur positionnement sont, pour chaque utilisateur, personnalisés. Le résultat des recherches effectuées est, là encore, personnalisé et chaque utilisateur possède un environnement qui lui est totalement singulier (Basilico, 2020 [7]). Le résultat des recommandations proposées sur la page d’accueil de chacun dépend donc à la fois de la composition du catalogue global et des communautés de goûts que l’algorithme est susceptible de repérer sur la base de multiples variables. En effet, pour effectuer des recommandations pertinentes, Netflix identifie les utilisateurs dans différents groupes en fonction de leurs habitudes de visionnage (Vanderbilt, 2013 [8] ; Barrett, 2016 [9] ; Adalian, 2018 [10].). Dès lors, chaque abonné peut appartenir à plusieurs communautés de goûts, dont certaines estimations suggèrent qu’il en existe entre 1300 et 2000 (Rodriguez, 2017 [11]). L’entreprise perçoit son audience de manière transnationale, puisque l’appartenance à l’une de ces communautés ne dépend pas d’un critère géographique (Lotz, 2020 ; 2022).

49 Là encore, cette forte personnalisation des recommandations grâce aux outils algorithmiques, alimente, les craintes d’un enfermement dans des catégories de contenus limités. Cependant, la stratégie de Netflix demeure de satisfaire un grand nombre de profils différents de niches en proposant un peu de tout, ou du moins, assez de tout pour garder des abonnés aux goûts protéiformes. De plus, disposant d’un catalogue certes large, mais « fini », Netflix, en pratiquant dans son processus de recommandation – un enfermement algorithmique – dévoilerait rapidement les limites du catalogue. Des travaux menés dans le cadre de la Chaire PcEn, sur la base d’un protocole inédit d’expérimentation impliquant le visionnage automatisé d’œuvres européennes et non européennes par des robots, confirment empiriquement que les œuvres européennes ne disparaissent pas de la page d’accueil, même lorsqu’un utilisateur regarde uniquement des titres non européens sur Netflix (Bideau et Tallec, 2022 [12]). Matthias Frey (2021) montre également que ces mécanismes de filtrage ne sont ni aussi révolutionnaires, ni aussi alarmants, ni aussi fiables, ni aussi largement utilisés que ce que prétendent tant leurs adeptes que leurs détracteurs.

50 Dans ces deux exemples analysés, l’objectif des services par abonnement n’est pas d’attirer l’attention d’un public à un instant donné mais de préserver, dans la durée, la satisfaction du plus grand nombre d’abonnés. C’est afin de répondre au plus près à leurs attentes présumées que les algorithmes de recommandation personnalisée ont été mis en place. De plus, qu’il s’agisse d’un service au catalogue exclusif (ou quasi) comme Netflix ou d’un service exhaustif (ou quasi) comme Spotify, enfermer totalement les usagers dans leurs habitudes comporte le risque de nuire considérablement à leur modèle économique, puisque les abonnés ont besoin de nouveautés et de découvertes, sans quoi ils risquent, à plus ou moins long terme, de se détourner du service. Contrairement aux intuitions liées à la popularisation de la notion de « bulle de filtre », les suggestions proposées ne contribuent pas nécessairement à proposer une offre de contenus moins diversifiée par rapport à ce qui se passerait en l’absence d’algorithmes de recommandation. Les internautes ont accès à une porte de sortie, qu’ils la saisissent, ou pas.

Conclusion

51 La place des algorithmes dans les mécanismes de tri de l’information en ligne et la possibilité d’offrir aux usagers, sur la base de l’exploitation de grandes quantités de données d’usage, des services très personnalisés, ont alimenté les peurs d’un enfermement dans une bulle de filtre. Face à de telles craintes, deux réponses peuvent être apportées.

52 La première est celle de la transparence. La véritable question est moins celle de la responsabilité per se des algorithmes – outils techniques qui peuvent intégrer, par design en amont, toutes les variables que l’humain leur demande – dans d’éventuels mécanismes d’enfermement que celle de la transparence des principes régissant, sur chaque service, les mécanismes de tri de l’information. Quelles données alimentent l’algorithme ? Quelle place la recommandation personnalisée tient-elle par rapport à des formes éditorialisées plus classiques, éditorialisée proposée à tous les usagers ? Quels sont les « choix éditoriaux » implicites réalisés ? Dans le monde de l’information, la presse fait des choix par sa ligne éditoriale, par le point de vue des journalistes sur le traitement d’une information, qui ne sont pas plus neutres ou exempts de biais que les algorithmes, mais ces choix sont connus, voire revendiqués. De même, l’identité d’une station de radio ou d’une chaîne de télévision est connue. Sur un réseau social, ceux qui reçoivent l’information peuvent la percevoir comme objective, de même que les usagers d’un service culturel peuvent ne pas comprendre les mécanismes de mise en avant de ce qui leur est proposé. Méfiants, curieux ou résignés, les internautes se voient en effet proposer des contenus ou des informations sans toujours comprendre pourquoi. Si la plupart des usagers ne sont pas en mesure de comprendre le fonctionnement technique des algorithmes, ils peuvent être intéressés à mieux appréhender, les grands principes de la démarche mise en œuvre par le service, à améliorer « l’explicabilité » qui leur est fournie. C’est pourquoi certains militent pour une plus grande transparence des algorithmes (Introna et al., 2000 ; Cardon, 2015 ; Patino, 2019), préconisent leur nécessaire régulation (Napoli, 2019 [13]) ou proposent davantage de pédagogie et de formations pour éclairer le citoyen sur leur fonctionnement opérationnel (Durand, 2016). Des initiatives ont été mises en place afin d’éclairer les internautes (Politoscope et Flipfeed pour Twitter, PoliTecho et Escape Your Bubble pour Facebook, AlgoTransparency et Regrets Reporter pour YouTube…).

53 Face aux craintes exprimées, la seconde réponse consiste à développer des travaux empiriques, en particulier sur le secteur culturel. Dans le domaine de l’information, des biais de sélection sont avérés par rapport à une norme, celle du pluralisme des opinions dans une société démocratique : des mécanismes d’auto-renforcement des convictions de l’internaute existent dans certains cas spécifiques. Dans le domaine culturel, la thèse des biais algorithmiques et de l’enfermement, bien que récurrente, n’a jamais été totalement éprouvée. Les auteurs de l’ouvrage de référence sur Spotify (Eriksson et al., 2019), après avoir eu recours à des méthodologies de rétro-ingénierie pour comprendre le fonctionnement opérationnel du service, insistent sur les possibilités d’accessibilité aux données d’opérateurs privés pour la recherche universitaire. Le monde académique dans son ensemble est, sans aucun doute, conduit à approfondir une expertise pluridisciplinaire, à la fois technique et sociale, sur les mécanismes de sélection des contenus recommandés et à collaborer avec les instances de régulation. En effet, établir des formes adaptées à l’environnement numérique suppose des méthodes d’expertise appropriées et des outils d’objectivation afin de confirmer ou d’atténuer les craintes exprimées.

54 Identifier d’éventuels biais, c’est d’abord expliciter la normalité à laquelle on se réfère. La diversité culturelle, notion elle-même pluridimensionnelle, n’est qu’un des objectifs possibles. Des travaux ultérieurs sur des études de cas permettraient de préciser les résultats de la mise en avant sur les services culturels. Tous les dispositifs ne se valent pas et une comparaison des effets de chacun sur les contenus mis en avant serait bienvenue. De plus, les dispositifs de recommandation mettent en avant certains contenus plus que d’autres, mais ils ne présagent pas des comportements réels des usagers face à de tels dispositifs et n’influencent pas automatiquement la demande. La recommandation reste une forme d’incitation – non contraignante – à choisir certains contenus plutôt que d’autres ; son usage reste un point mal documenté – en dehors de la connaissance fine qu’en ont les services eux-mêmes en interne – et l’écart entre la mise en avant et la consommation réelle pourrait faire l’objet d’autres travaux.

Bibliographie

    • Aïm O., 2020, Les Théories de la surveillance. Du panoptique aux Surveillance Studies, Malakoff, A. Colin.
    • Allcott H. et Gentzkow M., 2017, « Social Media and Fake News in the 2016 Election », Journal of Economic Perspectives, 31 (2), p. 211-236. https://doi.org/10.1257/jep.31.2.211
    • Anderson A., Maystre, L., Anderson I., Mehrotra R. et Lalmas M., 2020, « Algorithmic Effects on the Diversity of Consumption on Spotify, dans Y. Huang, I. King, T.-Y. Liu, M. van Steen (dirs), Proceedings of The Web Conference 2020 (WWW ’20), Association for Computing Machinery, New York, p. 2155-2165. https://doi.org/10.1145/3366423.3380281
    • Anderson C., 2006, The Long Tail. Why the Future of Business Is Selling Less of More, New York, Hyperion Press.
    • Badouard R., 2017, Le Désenchantement de l’Internet. Désinformation, rumeur et propagande, Limoges, FYP Éd.
    • Bakshy E., Messing S. et Adamic L., 2015, « Political science. Exposure to ideologically diverse news and opinion on Facebook », Science, 348 (6239), p. 1130-1132. https://doi.org/10.1126/science.aaa1160
    • Bennett J. et Lanning S., 2007, « The Netflix Prize », communication présentée au Proceedings of KDD Cup and Workshop 2007, San José, 12 août. https://www.cs.uic.edu/~liub/KDD-cup-2007/proceedings/The-Netflix-Prize-Bennett.pdf
    • Beuscart J., Coavoux S. et Maillard S., 2019, « Les algorithmes de recommandation musicale et l’autonomie de l’auditeur. Analyse des écoutes d’un panel d’utilisateurs de streaming », Réseaux. Communication, technologie, société, 213, p. 17-47. https://doi.org/10.3917/res.213.0017
    • Bozdag E., 2013, « Bias in algorithmic filtering and personalization », Ethics and Information Technology, 15 (3), p. 209-227. https://doi.org/10.1007/s10676-013-9321-6
    • Brynjolfsson E., Hu Y. et Simester D., 2011, « Goodbye Pareto Principle, Hello Long Tail. The Effect of Search Costs on the Concentration of Product Sales », Management Science, 57 (8), p. 1373-1386. https://doi.org/10.1287/mnsc.1110.1371
    • Bruns A., 2019a, « Filter bubble », Internet Policy Review. Journal on Internet Regulation, 8 (4). https://doi.org/10.14763/2019.4.1426
    • Bruns A., 2019b, Are Filter Bubbles Real ?, Cambridge, Polity Press.
    • Cardon D., 2015, À quoi rêvent les algorithmes ? Nos vies à l’heure des big data, Paris, Éd. Le Seuil.
    • Centola D., González-Avella J. C., Eguíluz V. M. et San Miguel M., 2007, « Homophily, Cultural Drift, and the Co-Evolution of Cultural Groups », Journal of Conflict Resolution, 51 (6), p. 905-929. https://doi.org/10.1177/0022002707307632
    • Colleoni E., Rozza A. et Arvidsson A., 2014, « Echo Chamber or Public Sphere ? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data », Journal of Communication, 64 (2), p. 317‑332. https://doi.org/10.1111/jcom.12084
    • Covington P., Adams J. et Sargin E., 2016, « Deep Neural Networks for YouTube Recommendations », dans S. Sen, W. Geyer, J. Freyne et P. Castells (dirs), Proceedings of the 10th ACM Conference on Recommender Systems (RecSys ’16), Association for Computing Machinery, New York, p. 191-198. https://doi.org/10.1145/2959100.2959190
    • Dahlgren P., 2021, « A critical review of filter bubbles and a comparison with selective exposure », Nordicom Review, 42 (1), p. 15-33. https://doi.org/10.2478/nor-2021-0002
    • Datta H., Knox G. et Bronnenberg B. J., 2018, « Changing Their Tune. How Consumers’ Adoption of Online Streaming Affects Music Consumption and Discovery », Marketing Science, 37 (1), p. 5‑21. https://doi.org/10.1287/mksc.2017.1051
    • Davis J. J., 2011 [1997], Advertising Research. Theory and Practice, 2e éd., Londres, Pearson.
    • Dubois E. et Blank G., 2018, « The echo chamber is overstated. The moderating effect of political interest and diverse media », Information, Communication & Society, 21 (5), p. 729‑745. https://doi.org/10.1080/1369118x.2018.1428656
    • Durand E., 2016, L’Attaque des clones. La diversité culturelle à l’ère de l’hyperchoix, Paris, Presses de Sciences Po.
    • Ebbinghaus H., 1913 [1885], Memory. A Contribution to Experimental Psychology, trad. de l’allemand par H. A. Ruger et C. E. Bussenius, New York, Teachers College Press.
    • Epstein R. et Robertson R. E., 2015, « The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections », Proceedings of the National Academy of Sciences, 112 (33), E4512‑E4521. https://doi.org/10.1073/pnas.1419828112
    • Eriksson M., Fleischer R., Johansson A., Snickars P. et Vonderau P., 2019, Spotify Teardown. Inside the Black Box of Streaming Music, Cambridge/Londres, MIT Press.
    • Faddoul M., Chaslot G. et Farid H., 2020, « A Longitudinal Analysis of YouTube’s Promotion of Conspiracy Videos. Computers and Society », ArXiv preprint. http://arxiv.org/abs/2003.03318
    • Farchy J., Méadel C. et Anciaux A., 2017, « Une question de comportement. Recommandation des contenus audiovisuels et transformations numériques », Tic & Société, 10 (2-3), p. 168 198. https://doi.org/10.4000/ticetsociete.2136
    • Festinger L., 1957, A Theory of Cognitive Dissonance, New York, R. Peterson.
    • Figeac J., Salord T., Cabanac G., Fraisier O., Ratinaud P., Seffusatti F. et Smyrnaios N., 2019, « Facebook favorise-t-il la désinformation et la polarisation idéologique des opinions ? », Questions de communication, 36, p. 167-187. https://doi.org/10.4000/questionsdecommunication.21149
    • Flaxman S., Goel S. et Rao J. M., 2016, « Filter Bubbles, Echo Chambers, and Online News Consumption », Public Opinion Quarterly, 80 (S1), p. 298- 320. https://doi.org/10.1093/poq/nfw006
    • Foulonneau M., Groues V., Naudet Y. et Chevalier M., 2014, « Recommandeurs et diversité. Exploitation de la longue traîne et diversité des listes de recommandations », dans G. Chartron, I. Saleh, G. Kembellec (éds), Les Moteurs et systèmes de recommandation, Londres, Iste Éd.
    • Frey M., 2021, Netflix Recommends Algorithms, Film Choice, and the History of Taste, Oakland, University of California Press.
    • Garrett R. K., 2009, « Echo chambers online? Politically motivated selective exposure among Internet news users », Journal of Computer-Mediated Communication, 14 (2), p. 265-285. https://doi.org/10.1111/j.1083-6101.2009.01440.x
    • Gaumont N., Panahi M. et Chavalarias D., 2018, « Reconstruction of the socio-semantic dynamics of political activist Twitter networks. Method and application to the 2017 French presidential election », Plos One, 13 (9). https://doi.org/10.1371/journal.pone.0201879
    • Gillespie T., 2016, « #trendingistrending: when algorithms become culture », dans J. Roberge et R. Seyfert (dirs), Algorithmic Cultures. Essays on Meaning, Performance and New Technologies, Abingdon-on-Thames, Routledge, p. 52-75.
    • Gomez-Uribe C. A. et Hunt N., 2016, « The Netflix Recommender System », ACM Transactions on Management Information Systems, 6 (4), p. 1-19. https://doi.org/10.1145/2843948
    • Granka L. A., Joachims T. et Gay G., 2004, « Eye-tracking analysis of user behavior in WWW search », dans Proceedings of the 27th Annual International Conference on Research and Development in Information Retrieval (SIGIR ’04), p. 478-479 https://doi.org/10.1145/1008992.1009079
    • Grinberg N., Joseph K., Friedland L., Swire-Thompson B. et Lazer D., 2019, « Fake news on Twitter during the 2016 U.S. presidential election », Science, 363 (6425), p. 374-378. https://doi.org/10.1126/science.aau2706
    • Grossetti Q., Du Mouza C. et Travers N., 2019, « Community-Based Recommendations on Twitter: Avoiding the Filter Bubble », dans R.  Cheng, N. Mamoulis, Y. Sun, X. Huang, Web Information Systems Engineering – WISE 2019, New York, Springer International Publishing, p. 212-227. https://doi.org/10.1007/978-3-030-34223-4_14
    • Hansen C., Mehrotra R., Hansen C., Borst B., Maystre L. et Lalmas M., 2021, « Shifting Consumption towards Diverse Content on Music Streaming Platforms », dans L. Lewin-Eytan, D. Carmel, E. Yom-Tov (dirs), Proceedings of the 14th ACM International Conference on Web Search and Data Mining. WSDM ’21, New-York, Association for Computing Machinery. https://doi.org/10.1145/3437963.3441775
    • Hesmondhalgh D., 2022, « Streaming’s Effects on Music Culture. Old Anxieties and New Simplifications », Cultural Sociology, 16 (1), p. 3‑24. https://doi.org/10.1177/17499755211019974
    • Jamieson K. et Cappella J., 2008, Echo Chamber. Rush Limbaugh and the Conservative Media establishment, Oxford, Oxford Universty Press.
    • Kunaver M. et Požrl T., 2017, « Diversity in recommender systems. A survey, Knowledge-Based Systems », 123, p. 154-162. https://doi.org/10.1016/j.knosys.2017.02.009
    • L’Huillier A., Castagnos S. et Boyer A., 2016, « Modéliser la diversité au cours du temps pour détecter le contexte dans un service de musique en ligne », Techniques et sciences informatiques, 35 (4-5), p. 397-433. https://doi.org/10.3166/tsi.35.397-433
    • Linden G., Smith B. et York J., 2003, « Amazon.com recommendations : item-to-item collaborative filtering », IEEE Internet Computing, 7 (1), p. 76-80. https://doi.org/10.1109/mic.2003.1167344
    • Lotz A. D., 2020, « In between the global and the local: Mapping the geographies of Netflix as a multinational service », International Journal of Cultural Studies, 24 (2), p. 195-215. https://doi.org/10.1177/1367877920953166
    • Lotz A. D., 2022, Netflix and Streaming Video. The Business of Subscriber-funded Video on Demand, Cambridge, Polity Press.
    • Introna L. D. et Nissenbaum H., 2000, « Shaping the Web. Why the Politics of Search Engines Matters », The Information Society. An International Journal, 16 (3), p. 169-185. https://doi.org/10.1080/01972240050133634
    • Lüders M., 2019, « Pushing music : People’s continued will to archive versus Spotify’s will to make them explore », European Journal of Cultural Studies, 24 (4), p. 952-969. https://doi.org/10.1177/1367549419862943
    • McGinty L. et Smyth B., 2003, « On the Role of Diversity in Conversational Recommender Systems », dans K. D. Ashley, D. G. Bridge (éds), Case-Based Reasoning Research and Development, Springer Berlin Heidelberg, p. 276-290. https://doi.org/10.1007/3-540-45006-8_23
    • McPherson M., Smith-Lovin L. et Cook J. M., 2001, « Birds of a Feather. Homophily in Social Networks », Annual Review of Sociology, 27 (1), p. 415- 444. https://doi.org/10.1146/annurev.soc.27.1.415
    • Mohana H., et Suriakala M., 2017, « A Study on Ontology Based Collaborative Filtering Recommendation Algorithms in E-Commerce Applications », IOSR Journal of Computer Engineering, 19 (04), p. 14‑19. https://doi.org/10.9790/0661-1904011419
    • Morin C., 2021, Le Populisme au secours de la démocratie ?, Paris, Gallimard.
    • Munson S. A. et Resnick P., 2010, « Presenting diverse political opinions. How and how much », Proceedings of the 28th International Conference on Human Factors in Computing Systems - CHI ’10, New York, Association for Computing Machinery.. https://doi.org/10.1145/1753326.1753543
    • Murdock B. B., 1962, « The Serial Position Effect of Free Recall », Journal of Experimental Psychology, 64 (5), p. 482-488. https://doi.org/10.1037/h0045106
    • Nikolov D., Oliveira D. F. M., Flammini A. et Menczer F., 2015, « Measuring Online Social Bubbles », PeerJ Computer Science, 1:e38. https://doi.org/10.7717/peerj-cs.38
    • Nguyen T. T., Hui P. M., Harper F. M., Terveen L. et Konstan J. A., 2014, « Exploring the filter bubble. The effect of using recommender systems on content diversity » dans C.-W. Chung (éd.), WWW’14 – Proceedings of the 23rd International Conference on World Wide Web, New York, Association for Computing Machinery, p. 677-686. https://doi.org/10.1145/2566486.2568012
    • Page L., Brin S., Motwani R. et Winograd T., 1999, The PageRank Citation Ranking. Bringing Order to the Web, Palo Alto, Stanford InfoLab Publication Server.
    • Pariser E., 2011, The Filter Bubble. What the Internet Is Hiding from You, New York, Penguin Press.
    • Patino B., 2019, La Civilisation du poisson rouge. Petit traité sur le marché de l’attention, Paris, B. Grasset.
    • Pasquale F., 2015, The Black Box Society. The Secret Algorithms That Control Money and Information, Cambridge, Harvard University Press.
    • Pignard-Cheynel N. et Reynier F., 2011, « Structures et contenus des sites d’information français. Quel degré d’innovation ? », Document numérique, 3 (3), p. 103-126.
    • Ramaciotti Morales P., Lamarche-Perrin R., Fournier-S’niehotta R., Poulain R., Tabourier L. et Tarissan F., 2021, « Measuring diversity in heterogeneous information networks », Theoretical Computer Science, 859, p. 80- 115. https://doi.org/10.1016/j.tcs.2021.01.013
    • Ranaivoson H., 2010, Diversité de la production et structure de marché. Le cas de l’industrie musicale, thèse de doctorat en sciences économiques, Grenoble, Atelier national de reproduction des thèses.
    • Ranaivoson H., 2016, « The Internet platforms’ impact on the Diversity of Cultural Expressions : to the Long Tail, and beyond ! », dans L. Richieri Hanania et A.-T. Norodom (dirs), Diversity of Cultural Expressions in the Digital Era, Buenos Aires, Teseo Press.
    • Ranaivoson H., 2019, « Online platforms and cultural diversity in the audiovisual sectors: a combined look at concentration and algorithms », dans L. A. Albornoz, T. G. Leiva (éds), Audiovisual Industries and Diversity, Economics and Policies in the Digital Era, London, Routledge.
    • Resnick P., Iacovou N., Suchak M., Bergstrom P. et Riedl J., 1994, « GroupLens: an open architecture for collaborative filtering of netnews », dans J. B. Smith, F. D. Smith, T. W. Malone (dirs), CSCW’94: Proceedings of the 1994 ACM Conference on Computer Supported Cooperative Work, New York, Association for Computing Machinery, p. 175-186.e. https://doi.org/10.1145/192844.192905
    • Roth C., Mazières A. et Menezes T., 2020, « Tubes and Bubbles Topological Confinement of YouTube Recommendations », Plos One, 15 (4). https://doi.org/10.1371/journal.pone.0231703
    • Rouvroy A. et Berns T., 2013, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux. Communication, technologie, société, 1 (1), p. 163-196. https://doi.org/10.3917/res.177.0163
    • Schrage M., 2020, Recommendation Engines, Cambridge, MIT Press.
    • Seaver N., 2022, Computing Taste Algorithms and the Makers of Music Recommendation, Chicago, University of Chicago Press.
    • Shearer et Mitchell, 2020
    • Sire G., 2015, « Cinq questions auxquelles Google n’aura jamais fini de répondre », Hermès. La Revue, 3, p. 201-208. https://doi.org/10.3917/herm.073.0201
    • Smyth B. et Mcclave P., 2001, « Similarity vs Diversity », dans D. W. Aha et I. Watson (éds), Case-Based Reasoning Research and Development, Heidelberg, Springer Berlin, p. 347- 361. https://doi.org/10.1007/3-540-44593-5_25
    • Sunstein C. R., 2002, Republic.com 2.0, Princeton, Princeton University Press.
    • Sunstein C. R., 2008, Infotopia. How Many Minds Produce Knowledge, New York, Oxford University Press.
    • Srnicek N., 2017, Platform Capitalism, Cambridge, Polity Press.
    • Tchehouali D. et Agbobli C., 2020, État des lieux de la découvrabilité et de l’accès aux contenus culturels francophones sur internet, Paris, HDiffusion.
    • Tarissan F., 2019, Au cœur des réseaux. Des sciences aux citoyens, Paris, Éd. Le Pommier.
    • Thaler R. H. et Sunstein C. R., 2008, Nudge. Improving decisions about health, wealth, and happiness, New Haven, Yale University Press.
    • Toffler A., 1970, Future Shock, New York, Random House.
    • Toledano J., 2020, Gafa, reprenons le pouvoir !, Paris, O. Jacob.
    • Tüfekçi Z., 2017, Twitter and Tear Gas. The Power and Fragility of Networked Protest, New Haven, Yale University Press.
    • Villermet Q., Poiroux J., Moussallam M., Louail T. et Roth C., 2021, « Follow the guides : disentangling human and algorithmic curation in online music consumption », ArXiv. https://doi.org/10.48550/ARXIV.2109.03915
    • Ward G. et Tan L., 2004, « The Effect of the Length of To-Be-Remembered Lists and Intervening Lists on Free Recall. A Reexamination Using Overt Rehearsal », Journal of Experimental Psychology. Learning, Memory, and Cognition, 30 (6), p. 1196-1210. https://doi.org/10.1037/0278-7393.30.6.1196
    • Zmigrod L., Eisenberg I. W., Bissett P. G., Robbins T. W. et Poldrack R. A., 2021, « The cognitive and perceptual correlates of ideological attitudes. A data-driven approach », Philosophical Transactions of the Royal Society B. Biological Sciences, 376 (1822). https://doi.org/10.1098/rstb.2020.0424
    • Zolynski C., Le Roy M. et Levin F., 2019, « L’économie de l’attention saisie par le droit », Dalloz IP/IT, 11.
    • Zuboff S., 2020, L’Âge du capitalisme de surveillance, trad. de l’anglais (États-Unis) par B. Formentelli et A.-S. Homassel, Paris, Éd. Zulma.

Mots-clés éditeurs : recommandation, bulle de filtre, streaming, diversité culturelle

Date de mise en ligne : 18/10/2023.

Notes

bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Avec le soutien de

Retrouvez Cairn.info sur

18.97.14.91

Accès institutions

Rechercher

Toutes les institutions