Invectives, punchlines, montages déshonorants, fake news… Lors des récentes élections européennes puis législatives, les réseaux sociaux ont davantage ressemblé à un ring de boxe qu’à un salon de débats civilisé. Une triste habitude, malgré des velléités de contrôle et d’assainissement de plus en plus importantes des législateurs. L’Europe, en particulier, via le DSA (Digital Services Act), sa grande législation sur le numérique, a contraint les plus grandes plateformes à mieux modérer leurs contenus et à faire preuve de plus de transparence vis-à-vis de leurs choix algorithmiques. Ce qui reste insuffisant, déplore Dominique Boullier, sociologue spécialiste des usages du numérique et des technologies cognitives. D’autant plus à l’ère de l’intelligence artificielle générative où la circulation de messages, d’images et de vidéos devrait s’intensifier.
De manière radicale, l’auteur de Propagations. Un nouveau paradigme pour les sciences sociales (Armand Colin, 2023), également professeur à Sciences Po, appelle dans une récente note à remettre à plat (reset) l’architecture des réseaux sociaux en s’attaquant directement à la viralité, afin de casser le rythme de propagation actuel des contenus, au cœur de la dégradation de notre conversation publique.
L’Express : Pendant les campagnes des élections européennes et législatives, le candidat du Rassemblement national Jordan Bardella a dopé sa popularité sur les réseaux sociaux à l’aide de vidéos où il se met en scène dans des poses banales, comme le simple fait de manger une pomme. Que cela raconte-t-il du débat dans notre démocratie ?
Dominique Boullier : Evidemment, ce genre de contenus n’incite pas à l’échange d’idées, à l’argumentation, à la présentation d’un programme. Que voulez-vous répondre au fait de manger une pomme ? TikTok, qui a depuis été copié par Instagram (Meta) ou YouTube Shorts (Google), a transformé la manière dont on diffuse du contenu, leur viralité. Il propose sans cesse de nouvelles vidéos en fonction de celles déjà vues auparavant, du temps passé dessus, et non en fonction de celles visionnées par vos amis et vos abonnements. Forcément, ce que l’on y voit devient vite très répétitif. Ce système pousse toutes les personnes présentes à adopter les mêmes codes, les mêmes postures. C’est pourquoi Jordan Bardella ne cherche pas à passer un message quelconque, mais juste à se mettre en scène de manière sympathique, accrocheuse, en instaurant une forme de connivence. Il n’est pas le seul. Comme c’est ce qui semble plaire aux utilisateurs de TikTok, tous les créateurs se plient à ce comportement, pour avoir une chance d’être vus.
Pourquoi les échanges en ligne se sont-ils à ce point dégradés ?
La monétisation des réseaux sociaux, autour de 2008-2009, sur YouTube, Facebook puis Twitter, a été décisive. Celle-ci s’est amplifiée progressivement, au point de générer des revenus absolument incroyables pour certains acteurs. A cet instant, les plateformes ont pris des habitudes d’opacité sur leurs algorithmes et la mesure de leur audience. L’important était désormais de capter l’attention des utilisateurs en les faisant réagir, en les maintenant sur leurs fils d’actualité. Ce qui a posé des problèmes : le scandale Cambridge Analytica a prouvé qu’il y avait eu une manipulation délibérée d’un certain nombre de comptes pour influencer des comportements.
Mais le système de viralité a continué à s’amplifier aussi parce que les médias traditionnels s’y sont accrochés, en reprenant par exemple les trending topics - sujets tendances - mis en avant par certains réseaux comme Twitter, devenu X. En fait, à peu près tout le monde - les stars, les personnes influentes, les politiques - s’est calé sur le rythme imposé par les réseaux et leur quête de viralité. On dispose déjà de suffisamment d’éléments pour dire qu’il y a aujourd’hui quelque chose de bizarre dans notre manière de débattre en ligne. Il y a de moins en moins d’appels au raisonnement scientifique et à l’inverse, de plus en plus de faits avérés rabaissés au rang d’opinion, comme le réchauffement climatique.
L’alerte n’est pas nouvelle. En quoi est-elle plus urgente aujourd’hui ?
La course à la viralité sur les réseaux sociaux est dorénavant bien ancrée dans les habitudes. Arrive l’IA générative, avec laquelle le nombre de contenus synthétiques, ou fake, devrait exploser. On ne sait d’ailleurs pas comment ces derniers vont être poussés, vers qui, et à quel moment. La modération actuelle n’est absolument pas capable de supporter cette nouvelle vague, car il y a de moins en moins d’humains dédiés à cette tâche. On risque ainsi d’assister à un effondrement de la capacité à distinguer les contenus de qualité, les faits et les données fiables reposant sur des siècles de connaissances stabilisées. A cet instant, ce n’est plus seulement un problème de débat public, on s’attaque au soubassement des connaissances générales. On dérive vers le "tout se vaut", la défiance généralisée. C’est donc le moment de réagir.
Les dernières régulations des réseaux sociaux ne sont-elles pas des solutions efficaces à vos yeux, afin de retrouver une forme de sérénité ?
Il y a des avancées notables, sur les obligations de moyens, le design, la modération - les Etats traquent d’ailleurs les contenus illégaux - ou encore les abus de position dominante grâce au DMA (Digital Markets Act). La notion de viralité reste toutefois absente. Tout le monde oublie qu’il est malsain pour un collectif, et pas seulement pour le débat public, d’être sans arrêt pris dans une logique de "matraquage", comme on dit dans la publicité. Soit sous un flux constant de contenus que vous n’avez pas demandés, que vous ne pouvez pas filtrer ou alors très difficilement. On s’accoutume donc à réagir, à être bombardé de la sorte. Y compris de fausses informations. Récemment, une rumeur a couru concernant des élèves d’une école juive qui auraient été délibérément sous-évalués lors d’une épreuve du baccalauréat. Elle a vite été démontée. Pourtant, elle continue à être commentée par tout un tas de personnes suspicieuses qui ne se sont pas satisfaites du démenti officiel. L’engrenage était lancé.
Lutter contre les fake news et la désinformation ne suffit pas ?
Non, le souci n’est pas tant qu’il y ait de fausses informations sur les réseaux sociaux. Il y en a toujours eu et il y en aura toujours, il faut bien entendu continuer de les traquer. Le problème avec ces fausses informations, c’est leur "accélération" par des mécanismes de viralité : le clic, le repartage - la majorité se fait dans l’heure de publication du post -, le commentaire. Les choix de formats techniques qui sont adoptés influencent les comportements de milliards de personnes à l’échelle de la planète. C’est ce vice de forme qui est au cœur de mes recommandations, que je résume avec cette formule simple : oui au free speech, à la liberté d’expression, non au free reach, à l’inondation des esprits.
Vous recommandez pour cela d’obliger les plateformes à rendre la mesure d’audience indépendante, d’ouvrir totalement l’accès aux données pour les chercheurs, de limiter la durée de la connexion, d’interdire le défilement (scroll) infini des contenus… En bref, de revoir complètement leur architecture. On les imagine mal se plier à ces mesures plutôt radicales, d’autant plus qu’elles touchent directement à leur modèle économique.
Mais ce modèle économique est bâti sur du sable. Les marques, qui financent les plateformes, doivent d’ailleurs le comprendre : elles se font avoir. La publicité programmatique les place de manière très opaque sur les fils d’actualité. Certaines se sont parfois retrouvées sous des contenus d’extrême droite, racistes, allant totalement à l’encontre de leurs valeurs. Ensuite, les chiffres d’audience sont fournis par la plateforme elle-même, sans contrôle et sans transparence comme le fait Médiamétrie avec les médias en France par exemple. On peut supposer qu’ils sont trafiqués ou gonflés. Un tiers indépendant effectuant les mesures, avec un comité de parties prenantes décidant et validant les prix et les choix stratégiques, apparaît indispensable. Les marques sont donc un levier très important pour réagir sur la viralité. Mais il faut, aussi, bien sûr, une importante volonté politique des autorités.
Les législateurs manquent-ils de preuves pour caractériser la nocivité de la viralité et la limiter ?
Les chercheurs manquent en effet cruellement d’accès aux données des grandes plateformes afin de réaliser des études longitudinales, et d’apporter des preuves solides. Mais en réalité, les réseaux savent déjà que l’extrême viralité a des effets catastrophiques sur le plan cognitif et la santé mentale. Les Facebook Files livrés par la lanceuse d’alerte Frances Haugen en 2021 en sont une illustration. Comme l’industrie du tabac connaissait la nocivité de ses produits, les réseaux sociaux n’ignorent pas l’impact qu’ont leurs algorithmes sur leurs utilisateurs. Le public non plus, d’ailleurs. Une poignée de personnalités politiques [NDLR : à l’instar d’Anne Hidalgo, la maire de Paris], d’institutions ainsi que des médias se sont retirés de X. Les plateformes elles-mêmes ont timidement commencé à prendre en main le sujet.
X, encore lui, suggère dorénavant lors d’un repartage, ou retweet, d’un article de presse d’être redirigé vers le papier en question. Ce type de friction dans l’expérience utilisateur est utile pour ralentir la viralité. Meta a lui, un temps, supprimé les "vanity metrics", ces statistiques visibles par tous sous une publication avec le nombre de partages, de likes, de commentaires qu’elle a suscités. Les grandes plateformes - c’est ce que je recommande - devraient définitivement cesser de les mettre en avant et même aller plus loin en fournissant un tableau de bord personnel, installé en permanence, comptabilisant nos propres partages et likes. Ces informations représenteraient une alerte cognitive efficace, au même titre que l’on dispose d’un tableau de bord affichant la vitesse dans une voiture. En cas de dépassement de fréquence des réactions, on pourrait imaginer un blocage des activités sur la plateforme durant vingt-quatre heures, par exemple.
Conscient de la difficulté d’imposer ce type de réformes, vous appelez à l’autorégulation, en estimant qu’il faut regarder la propagation des contenus en ligne comme celle des virus…
Oui, comme avec un virus, réapprenons un certain nombre de gestes barrières, pour casser les chaînes de contagion des contenus. De fait, cela suppose de comprendre les mécanismes de viralité à l’origine de leur propagation. Il y a certes les algorithmes, des robots qui poussent des contenus plutôt que d’autres, mais ce n’est pas seulement ça. C’est aussi très individuel. La théorie de la propagation d’Adam Kucharski, les DOTS - durée, opportunités, transmissibilité, susceptibilité -, peut en partie s’appliquer. On analyse également ce processus avec le "score de nouveauté", introduit par le chercheur Soroush Vosoughi : dès que quelque chose sort de votre habitude cognitive, cela attire votre attention. Ce n’est donc pas forcément des fake news ou des contenus négatifs, mais quelque chose de drôle - le pape en doudoune blanche -, insolite, étrange, choquant… Ces critères font qu’un contenu circule plus rapidement qu’un autre.
A quoi ressembleraient des réseaux sociaux assainis ? Vous évoquez une limite de 150 contacts par personne.
La mauvaise information, comme la bonne d’ailleurs, n’a pas vocation à se démultiplier à la vitesse actuelle. On doit retrouver des moments de publication, des rendez-vous. Se donner du temps pour la recherche, le débat, la contradiction. Le chiffre de 150 contacts a été fixé par l’anthropologue Robin Dunbar, pour qui l’interconnaissance directe n’est plus possible au-delà. Je trouve que cette limite permettrait de reconstituer justement une forme d’affiliation entre proches, et donc, naturellement, une autorégulation. Au bout d’un moment, les gens se connaissent, peuvent échanger et repérer ceux qui débordent. On se rapprocherait alors de ce que l’on appelle communément un "réseau social".