Étude
Le nombre de vues et la date récente de la vidéo comptent moins que la thématique à laquelle la vidéo est liée dans les premières vidéos recommandées par lecture automatique sur YouTube, selon une étude du CSA auprès de utilisateurs-42 témoins.

L'algorithme de YouTube, régulièrement accusé de promouvoir des contenus néfastes, se fonde plus sur les mots-clés accolés à une vidéo que sur son succès pour la recommander, selon une étude du CSA présentée mardi 12 novembre. YouTube, propriété de Google, est toujours resté mystérieux sur les réglages de son algorithme, en évolution constante, ne révélant jamais précisément le rôle joué par les différentes mesures (temps passé sur la vidéo, temps de session, nombre de vues ou de likes) dans le moteur de recommandation.

Le CSA s'interroge dans l'étude sur la «diversité de points de vue» proposée dans les sélections de vidéos proposées automatiquement, avec ses lourds enjeux démocratiques. Le Conseil, qui devrait bientôt obtenir un pouvoir de sanction sur les plateformes dans le cadre de la réforme de l'audiovisuel, a réitéré une expérience déjà menée par des youtubeurs, chercheurs et médias.

42 utilisateurs-témoins ont lancé des vidéos sur 23 sujets «susceptibles de susciter des clivages» comme la corrida, la laïcité, la drague de rue, le véganisme ou la mort de Michael Jackson. Les dix vidéos recommandées successivement par YouTube ont ensuite été analysées. Résultat : dans ses premières recommandations, «l'algorithme semble accorder moins d'importance au nombre de vues, à la date de publication ou encore au nombre de réactions qu'aux mots-clés associés au thème de départ des vidéos», explique le CSA.

42% dans le sens de la vidéo précédente

Le dynamisme de communautés mobilisées sur certaines questions de société semble également «jouer un rôle central» dans la visibilité de ces vidéos, comme dans le cas des antivaccins. Plus d'un tiers des vidéos recommandées «expriment le même point de vue que la vidéo de départ», au risque de produire un phénomène dit de «chambre d'écho», souligne le CSA. Au fil des recommandations, 44% des vidéos proposées par la lecture automatique vont dans le même sens que la vidéo directement précédente.

L'expérience a mis en lumière un «pivot», la troisième vidéo proposée en lecture automatique, après laquelle «l'algorithme semble définitivement dévier du thème de départ». Le robot recommande alors «des vidéos de plus en plus populaires (nombre de vues) et de plus en plus récentes», souligne le CSA.

Mesures contre la désinformation

Youtube a répondu mardi en soulignant que son système de recommandations avait «considérablement évolué» depuis la réalisation de l'expérience à l'été 2018. «Nous avons depuis pris un certain nombre de mesures supplémentaires pour répondre à la problématique de la désinformation sur notre plateforme», a souligné un porte-parole.

Youtube réduit les recommandations de contenus considérés comme problématiques. Le nombre de vues de ces contenus «tendancieux» a baissé de 50% depuis sa mise en place en janvier aux États-Unis, et la mesure devrait être effective dans les prochaines semaines en France. Youtube met aussi en avant les contenus provenant de «sources faisant autorité», comme des médias, lors d'événements majeurs. Les utilisateurs de la plateforme peuvent également supprimer de leur liste de «vidéos recommandées» les chaînes qu'ils ne souhaitent pas regarder, et devraient bientôt savoir pourquoi telle vidéo a été recommandée.

Le CSA essaie progressivement d'établir une relation de confiance avec les géants d'internet, demandant plus de transparence. «Les internautes doivent savoir comment leurs choix sont pris en compte», a souligné Hervé Godechot, conseiller au CSA, lors de la présentation de l'étude, ajoutant que «ces travaux doivent en amener d'autres».

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.