Plateformes
La polémique qui oppose Jack Dorsey à Mark Zuckerberg sur l’opportunité de filtrer les propos de Donald Trump, n’est que le reflet d’une guerre d’influence entre les tenants de la modération et les apôtres de la liberté des réseaux sociaux. État des lieux en France.

S’il n’y avait que Donald Trump… La controverse entre Facebook et Twitter sur la question de savoir s’il faut modérer -par des signalements - les apologies de la violence ou les contre-vérités du président américain, est devenue en enjeu bien au-delà des États-Unis. Vera Jourova, la vice-présidente de la Commission européenne, a donné raison à Twitter et appelé les géants du numérique à lutter contre « l’énorme vague de désinformation », survenue en pleine pandémie. Elle leur a donné rendez-vous fin 2020, pour la directive Digital Services Act, en exigeant chaque mois un rapport sur leurs actions contre les infox liées au Covid-19 (taille du réseau impliqué, origine géopolitique, audience ciblée…). Dans son viseur, la Russie et la Chine. « Nous avons des preuves », a-t-elle lâché. Ambiance.  

En France, le projet de loi porté par Laetitia Avia, est toujours dans l’incertitude après les questions soulevées auprès du Conseil Constitutionnel, dont la décision est imminente. Si elle devait être appliquée telle quelle, la loi contraindrait les plateformes à retirer en 24 heures les propos «manifestement illicites» avec une entrée en vigueur le 1er juillet. Les plateformes seraient-elles alors prêtes d’ici là ? 

Deux grands maux

Car la France est le théâtre d’expression de deux grands maux sur les plateformes : les propos haineux et les fake news. Les premiers représentent 13 % des messages postés sur les pages Facebook des médias, selon la plateforme de modération Netino. « Les gens se lâchent très vite, sont tout de suite agressifs, véhéments et veulent imposer leur point de vue, cela dérape très vite en insultes avec des effets de meute », observe son président Jean-Marc Royer, qui estime que le harcèlement en ligne touche chaque jour « des centaines de milliers de personnes ». « La parole haineuse était honteuse, elle est devenue fière et à visage découvert. La volumétrie est telle que la loi semble impuissante », complète-t-il. Les fake news, elles, peuvent tuer et saper les bases d’une démocratie. Pendant le confinement, 3 % des messages liés au Covid-19 comportaient des infox ou des théories complotistes (virus créé par le labo P4 de Wuhan, la 5G, etc.). « Avant, c’était dit de façon limitée, ajoute le spécialiste, maintenant c’est de façon décomplexée car Trump a institutionnalisé la fake news en se moquant d’être contredit par les médias et en disant que c’était eux les fake news.»  

Alors qui est responsable ? Il faut comprendre que les algorithmes des plateformes déterminent l’agencement des contenus. « Elles jouent le rôle d’un rédacteur en chef qui ordonnerait les éléments, explique Tristan Mendès-France, maître de conférence associé à l’université de Paris Diderot, et peuvent donner plus de visibilité à des contenus problématiques venus de comptes marginaux. Par exemple, si ces comptes ont une base militante très engagée qui consomme les vidéos jusqu’au bout. » La plateforme agirait alors comme un « éditeur » qui met en avant et donne à voir en fonction du taux de complétion. Selon lui, 70% des contenus vus sur YouTube ne sont pas le fait d’une recherche individuelle mais d’une suggestion algorithmique. C’est tout le problème pour la techno-sociologue Zeynep Tüfekçi, interrogée sur France Culture : « Les plateformes font leur business de la nature humaine. Si des choses nous choquent, ou nous intéressent, nous allons en grande proportion aller les voir. Les algorithmes amplifient les choses qui capturent notre attention, sans forcément les équilibrer. » C'est un des arguments de défense des plateformes, qui estiment que ne ressort que ce que le public laisse émerger. Le 5 juin, Mark Zuckerberg a estimé que sa plateforme ne devait pas se positionner en « arbitre de la vérité » après la fronde de ses employés désireux de modérer les propos de Donald Trump. Mais les mêmes mots employés par un autre ne sont-ils pas susceptibles d’être modérés ? « Il y a une modération insuffisante et arbitraire, des contenus extrêmes peuvent rester en ligne et d’autres discutables peuvent disparaître, c’est d’une incohérence flagrante », pointe Tristan Mendès-France. « En France vous avez beaucoup de journaux, beaucoup d'alternatives pour vous informer, mais dans d’autres pays, comme en Asie, Facebook est le seul endroit où vous avez accès à l’information. Donc une seule personne détient le pouvoir de décider des sujets de discussion », tance Zeynep Tüfekçi.  

40 000 modérateurs dans le monde

« On ne peut pas conférer à une entreprise privée un pouvoir régalien: celui de décider de ce qui peut être dit ou non», estime Christelle Coslin, avocate pour le cabinet Hogan Lovells, et qui a pour client des plateformes. C’est tout le sujet de l’éclaircissement demandé au Conseil Constitutionnel sur la loi Avia, à propos du terme «contenu manifestement illicite»«La loi comporte une vingtaine d’infractions différentes» ajoute l’avocate. Si certaines sont clairs, sur le terrorisme ou la pédopornographie, d’autres sont beaucoup plus floues. Et des insultes racistes tenues dans un groupe privé de 9000 personnes sont-elles publiques ? «Cela doit être laissé à l’appréciation d’un juge» continue-t-elle. Pas aux plateformes.  

Mais il ne faut pas s’imaginer que géants ne peuvent rien face aux contenus toxiques. Devant Daech ou des appels à boire de l’eau de Javel contre le Covid-19, elles réagissent. Depuis avril, grâce à son IA et ses 40 000 modérateurs à l’échelle mondiale, Facebook a mis des avertissements sur 50 millions de contenus. «Nous avons beaucoup investi en ressources humaines et technologiques afin de mieux identifier et retirer ce type de contenu», estime un porte-parole du réseau social. « Quand elles veulent, elles peuvent », résume Tristan Mendès-France. Seulement, encore faut-il qu’elles le souhaitent. « Jusqu’ici Twitter était accusé d’être trop laxiste face à Trump en modérant moins et Facebook, pro-démocrate en modérant davantage. Mais le sens de l’histoire va vers plus de modération et toutes les plateformes s’y mettent », commente Romain Badouard, maître de conférences à Paris 2. À tel point que cela en deviendrait presque une revendication. « Snapchat est la seule plateforme à avoir publiquement soutenu le projet de loi Avia», se targue un porte-parole du réseau. Tout comme Twitter, il a décidé de ne plus mettre en avant les propos de Trump sur son réseau.  

Code de bonne conduite

Modérer, oui, mais modérément : pas question d’endosser les habits de l’éditeur et de renoncer à l’article de 230 du Communications Decency Act, comme le veut un décret de Trump. « Les plateformes ont un statut intermédiaire, ajoute Romain Badouard, auteur du Désenchantement de l’internet (Fyp Éd.). Elles ne sont pas qu’hébergeurs car elles interviennent dans l’éditorialisation, la recommandation et la modération des contenus. » À côté de la France et de l’Allemagne qui se montrent contraignantes par les lois (Avia et NetzDG), l’UE reste dans l’optique d’un code de bonne conduite à base de partenariats. TikTok, qui utilise le plus l’exposition algorithmique, s’apprête d’ailleurs à le signer. Le danger ? C’est qu’à trop modérer, les plateformes pourraient tomber sous le statut d’éditeur. « C’est quelque chose qu’on ne peut exclure, concède Christelle Coslin, mais cela changerait leur mode de fonctionnement, avec une vérification préalable à la mise en ligne. » D’aucuns crieraient alors à la censure. Zeynep Tüfekçi déplace la focale : « Internet n’est que le symptôme de la société. La question n’est pas de savoir ce que l’on peut retirer ou non des réseaux sociaux. Mais de comprendre ce qui amène les gens à regarder telle ou telle chose. C’est ainsi que nous pourrons bâtir une société saine. »  

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.