Quatre ans après le lancement du Global Disinformation Index (GDI, cf. annexe en fin d’article), les conversations sont embourbées dans des arguments confus et compliqués sur la manière de modérer efficacement le contenu tout en respectant la liberté d’expression, la transparence algorithmique et la responsabilité des politiques, des plateformes numériques et des utilisateurs. Le GDI exhorte les chercheurs et les décideurs à « suivre l’argent ». En effet, cibler les incitations financières qui sous-tendent la désinformation est le moyen le plus efficace, le plus simple et le plus démocratique de s’attaquer au problème. Explications.
Il existe de nombreux leviers que les entreprises technologiques peuvent utiliser pour lutter contre la désinformation. Pour un contenu donné ou un média de désinformation connu, une plateforme ou une entreprise de technologie publicitaire peut, par exemple :
- Supprimer du contenu.
- Réduire la visibilité dans les résultats de recherche ou les flux d’actualités (également connu sous le nom de downrank).
- Démonétiser, c’est-à-dire réduire considérablement la capacité de monétiser le contenu via la publicité, le commerce électronique, les dons directs ou d’autres canaux.
Modération et suppression de contenus
La majeure partie des débats sur la manière de lutter contre la désinformation tourne autour de la première option, la modération et la suppression du contenu. Cela donne rapidement lieu à l’une des réponses suivantes : « c’est le jeu de la taupe », « il y en a trop », « la technologie ne peut pas tout capter », « nous n’avons pas assez de ressources » ou, le plus souvent, « mais qu’en est-il de la liberté d’expression ? ».
Ces arguments peuvent faire tourner en rond les plateformes, les décideurs politiques, les chercheurs et les universitaires pendant des lustres. En réalité, les plateformes et les entreprises de technologie publicitaire profitent de cet état de fait. Accorder autant de puissance au levier — très imparfait — de la régulation des contenus comme seule réponse à la désinformation empêche les professionnels de se concentrer sur les deux leviers qui font à la fois une réelle différence et qui protègent la liberté d’expression, à savoir la désamplification algorithmique ou le déclassement et la démonétisation.
Réduire la visibilité
Ces deux leviers, très puissants lorsqu’il est question de protéger la démocratie, ne font l’objet que de peu d’enquêtes sur le plan médiatique. En partie parce que la technologie d’Internet utilisée pour partager et monétiser le contenu est moins facilement comprise par la plupart des gens que le contenu lui-même. La plupart du temps nous essayons de traiter les symptômes — le contenu polarisant et diviseur et les dommages qu’il cause — sans traiter la cause : sa promotion dans les systèmes de recommandation dans la recherche et les médias sociaux pour récompenser l’engagement et, en fin de compte, générer des revenus pour les plateformes.
Le deuxième des trois leviers, l’amplification du contenu qui permet à ce dernier de se retrouver en haut de vos résultats de recherche ou de votre fil d’actualité, est en fait le moteur fondamental des dommages causés par la désinformation. Si je publiais quelque chose de profondément offensant qui incitait à la haine d’un groupe minoritaire sur mon propre réseau social, et qui n’était ensuite vu/partagé qu’au sein de mon réseau immédiat, très peu de gens le verraient et il en résulterait peu de mal. Ce n’est que lorsque les algorithmes captent et amplifient automatiquement le contenu avec lequel les gens s’engagent qu’il apparaît dans les fils d’actualité d’autres personnes en dehors de mon graphe social immédiat, et c’est là que le contenu peut générer suffisamment d’engouement pour devenir réellement nuisible. Sans amplification, les messages individuels n’ont que peu d’incidence.
Cela a conduit à beaucoup parler de responsabilité algorithmique, de transparence, d’IA explicable, d’algorithmes auditables, d’ouverture des boîtes noires, etc. La réalité est que très peu de personnes comprennent les algorithmes, ce qui rend le discours flou, imprécis et intangible. Encore une fois, il y a une volonté inavouée des grandes plateformes numériques de détourner le regard des solutions réalisables qui pourraient contribuer à réduire les dommages induits par la désinformation.
Le seul but d’un algorithme est de stimuler l’engagement, de vendre plus d’annonces et de gagner plus d’argent. Pour ce faire, il donne la priorité au contenu le plus susceptible de nous maintenir engagés sur la plate-forme le plus longtemps possible, afin que nous puissions voir plus de publicité. Et de nombreuses recherches ont montré que le contenu négatif, haineux et induisant la peur est bien plus efficace pour garder un utilisateur attentif que les nouvelles ou les contenus ludiques et divertissants.
Perturber le modèle économique de la désinformation
Le dernier levier, la monétisation, est le plus puissant d’entre tous. Sans la récompense de la publicité ou d’autres formes de monétisation comme résultat final, les algorithmes pourraient être entraînés de manière moins dommageable pour le cerveau humain. Les annonceurs ont le droit de choisir le contenu financé par leurs publicités. Actuellement, à la fois sur le Web ouvert et sur les plateformes sociales fermées, ils ont un contrôle limité sur l’endroit où leurs publicités finissent. Les efforts en cours dans l’ensemble du système de publicité en ligne pour améliorer à la fois la transparence et le choix pour l’annonceur tout en protégeant la vie privée du citoyen sont les bienvenus, même s’ils sont complexes et coûteux à mettre en œuvre. Pour aller plus loin dans cette réflexion, nous vous invitons à lire l’enquête de Aude Favre et Sylvain Louvet qui ont enquêté, pour l’émission « Complément d’enquête », sur le financement des sites de désinformation via les dépenses publicitaires des entreprises.
Espérons que les débats distrayants et finalement improductifs au sujet de la liberté d’expression se focaliseront bientôt vers le rôle que ces plateformes jouent dans l’amplification du contenu et la responsabilité qu’elles devraient assumer en conséquence.
Annexe : cet article a été écrit grâce au travail de Clare Melford et Danny Rogers, cofondateurs du Global Disinformation Index (GDI), un organisme qui vise à perturber le modèle économique de la désinformation. Depuis 2018, le GDI passe au crible de nombreux médias français et internationaux, notamment en en se concentrant sur le modèle commercial financier de la désinformation. Son projet d’index vise à recenser tous les médias dans chaque pays afin de les classer selon leur propension à désinformer. Le GDI fournit aussi des données indépendantes, neutres et transparentes pour conseiller les décideurs politiques et les industriels sur la meilleure manière de combattre la désinformation et ses créateurs.