Une vidéo assurant que l'ail guérit le cancer, une autre que la vitamine C peut remplacer une radiothérapie... Les conseils de santé dangereux n'auront plus leur place sur YouTube, promet la plateforme, sans convaincre.

Face à l'explosion de la désinformation médicale depuis la crise sanitaire liée au Covid-19, Youtube (propriété de Google) a amorcé en 2022 une chasse aux contenus anti-vaccins, puis aux contenus encourageant les troubles alimentaires. Un an plus tard, la plateforme assure vouloir aller plus loin, en s'attaquant aux fausses informations sur le cancer, constatant que les personnes diagnostiquées « se rendent souvent sur Internet pour se renseigner sur les symptômes ainsi que les parcours de soin, et trouver un sentiment [d'appartenir à une] communauté ».

L'internaute qui publiera de fausses infos sur la santé verra sa vidéo supprimée puis, après trois récidives, sa chaîne, voire son compte bloqués - décision dont il pourra faire appel, selon la plateforme. Même si Youtube défend une démarche de long terme, l'entreprise « ne fait là que se conformer à ses obligations », réagit auprès de l'AFP le sociologue Laurent Cordonier, de la Fondation Descartes, faisant référence à l'entrée en vigueur le 25 août d'un règlement européen (le Digital Services Act), qui exige des grandes plateformes numériques de prendre des mesures contre la désinformation et autres contenus illicites.

Le chercheur, selon qui « les désinformateurs en santé pullulent littéralement sur le Youtube francophone », doute de l'efficacité des mesures annoncées, remarquant notamment les publicités, également véhicules de désinformation, comme celle, visionnée en plein été pour un ouvrage dénonçant l'idée qu'il faudrait s'hydrater durant une canicule, au prétexte que « les peuples du désert ne boivent que très peu ».

Pour la journaliste Angie Holan, à la tête du réseau international de fact-checking (IFCN), dont fait partie l'AFP, « Youtube héberge tellement de contenus qu'il est très difficile de dire si la qualité de l'information s'améliore ou pas ».

Manque de transparence

Chaque minute, la plateforme reçoit plus de 500 heures de nouveaux contenus et la détection des fausses informations représente un « défi technologique énorme » selon Youtube, d'autant que les anciennes vidéos doivent aussi être passées au crible des nouvelles règles. Entre janvier et avril 2023, Youtube assure avoir supprimé plus de 8,7 millions de vidéos, dont plus de 90% identifiées par l'intelligence artificielle. Des moyens automatiques qui « échouent lamentablement, notamment quand la vidéo n'est pas en anglais », déplore le journaliste espagnol Carlos Hernandez-Echevarria, du média de fact-checking Maldita, co-auteur d'une lettre ouverte à Youtube sur le sujet en janvier 2022.

Le journaliste critique aussi la « censure » exercée par Youtube qui supprime les vidéos, « sans que les internautes sachent pourquoi précisément une information en particulier est fausse », alors que d'autres plateformes optent pour limiter la viralité des contenus problématiques ou leur ajouter du contexte.

Angie Holan, dont le réseau a perçu des fonds de Google pour lutter contre la désinformation, - de même que d'autres organisations de fact-checking dont l'AFP -, regrette elle aussi « le manque de transparence » de la plateforme sur ses critères de tri. « C'est très difficile de savoir ce que fait vraiment Youtube », regrette-t-elle. Youtube se justifie en expliquant ne pas souhaiter fournir une notice détaillée susceptible de faciliter la tâche des internautes qui voudraient contourner son règlement.

Parallèlement à ces actions, Youtube a développé de nouveaux outils pour mettre en avant les contenus venant des autorités sanitaires mais aussi d'hôpitaux par exemple et, en France, des messages d'information sous les vidéos pour aider l'utilisateur à identifier sa source. En lutte au quotidien contre les informations trompeuses sur la santé, Clément Bastié, du collectif l'Extracteur, se dit toutefois « mal à l'aise qu'on confie à une entreprise privée le soin d'édicter ce qui peut ou ne peut pas être dit, et qui est fiable ou pas sur des sujets aussi complexes ». Il craint que la politique de Youtube, « sans doute efficace à court terme », ne vienne renforcer à long terme les thèses complotistes qui trouveront « d'autres plateformes pour s'exprimer ».