Numérique
Critiqués pour leur inaction face aux fausses informations qui y circulent, un phénomène qui s'est accru depuis le début de la crise sanitaire, Facebook et Twitter tentent de rassurer et assurent prendre les mesures nécessaires.

Les réseaux sociaux en font-ils assez pour lutter contre la propagation des fausses informations, particulièrement nombreuses en ces temps de pandémie ? Le 18 août, Facebook a en tout cas assuré que ses efforts pour promouvoir la vaccination contre le Covid-19 étaient efficaces, en dépit des nombreux reproches qui lui sont faits.

«Pour les utilisateurs de Facebook aux États-Unis, la réticence vis-à-vis des vaccins a diminué de 50%», a déclaré Guy Rosen, un vice-président du géant des réseaux sociaux, lors d'une conférence de presse. «L'acceptation du vaccin progresse aussi dans le monde (...). Depuis le début de l'année, elle a augmenté de 35% en France, 25% en Indonésie et 20% au Nigeria. Tout ça va dans la bonne direction», a-t-il continué, citant une enquête réalisée en partenariat avec l'université de Carnegie-Mellon et celle du Maryland.

Le débat sur la désinformation liée à la pandémie a pris de telles proportions qu'en juillet le président américain Joe Biden a estimé que Facebook et d'autres plateformes «tuaient» des gens en laissant circuler de fausses informations sur la vaccination contre le Covid. La réponse du groupe de Mark Zuckerberg avait été cinglante : «les faits montrent que Facebook aide à sauver des vies, un point c'est tout». Le chef d'État avait ensuite nuancé ses propos.

Une liste de 65 idées fausses

Depuis, Facebook a de nouveau fait valoir ses efforts, de la mise en avant des sources qui font autorité (comme l'Organisation mondiale de la Santé) à la promotion des vaccins et à la lutte contre les contenus trompeurs. Les systèmes de détection automatisée et les modérateurs se basent notamment sur une liste de 65 idées fausses qui sont systématiquement retirées en raison des dangers qu'elles représentent pour la population.

«Le mois dernier, nous avons ajouté à notre liste les affirmations selon lesquelles les vaccins contre le Covid-19 causent Alzheimer, rendent magnétiques, ou encore qu'on peut avoir des effets secondaires juste en fréquentant des personnes vaccinées», a souligné Monika Bickert, la vice-présidente en charge des règlements. Elle a aussi mentionné le problème des «langages codés» auxquels des utilisateurs ont recours pour diffuser de fausses informations malgré les interdictions.

Du début de la pandémie au mois de juin, le groupe dit avoir supprimé, sur Facebook et Instagram, 20 millions de contenus et plus de 3 000 comptes, pages et groupes qui enfreignaient les règles sur la désinformation liée au virus. Mais ces chiffres ne montrent pas à quel point ces messages ont été lus avant d'être retirés.

Lire aussi : Facebook s’arrange avec sa modération

De son côté, Twitter a annoncé le 17 août qu'il testait un nouvel outil pour permettre à ses utilisateurs de signaler des contenus relevant potentiellement de la désinformation. «Nous testons une fonctionnalité pour vous permettre de rapporter les tweets qui semblent trompeurs, au moment même où vous les voyez», a indiqué le réseau social via son compte dédié à la sécurité.

Une poignée d'utilisateurs aux États-Unis, en Corée du Sud et en Australie peuvent désormais sélectionner l'option «c'est trompeur» après avoir cliqué sur «signaler le tweet». Ils auront ensuite le choix entre plusieurs catégories : Santé, Politique et Autre. «Nous évaluons si c'est une approche efficace donc nous commençons à petite échelle», a précisé l'entreprise basée à San Francisco.

«Nous ne réagirons pas et ne pourrons pas répondre à chaque signalement pendant cette expérience, mais vos contributions nous aideront à identifier des tendances afin d'améliorer la vitesse et la portée de notre travail sur la désinformation», a-t-elle ajouté.

Techniques moins coûteuses

Twitter, comme Facebook et YouTube, se voit régulièrement reprocher de ne pas lutter suffisamment contre la désinformation. Mais la plateforme n'a pas les mêmes ressources que ses voisins de la Silicon Valley, et explore donc des techniques moins coûteuses que de recruter des armées de modérateurs.

Au fil des années, et surtout pendant la campagne électorale américaine et la pandémie, le réseau social a durci ses règles. Depuis mars, par exemple, les utilisateurs peuvent être bannis au bout de cinq rappels à l'ordre concernant de la désinformation sur les vaccins. Un système inspiré de celui mis en place au sujet des élections, qui a notamment conduit Twitter à bannir l'ancien président américain Donald Trump pour des infractions répétées comme l'incitation à la violence et ses messages jetant le discrédit sur le scrutin présidentiel.

Des modérateurs sont chargés de déterminer quels contenus enfreignent les règlements, mais la plateforme avait alors indiqué espérer mettre au point un système à la fois humain et automatisé pour détecter les messages problématiques.

Lire aussi : Les 10 fake news les plus répandues sur le Covid-19

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.