fbpx

Vous êtes ici

Les grands entretiens

Pour bénéficier des alertes ou des favoris, vous devez vous identifier sur le site :

Vous avez déjà un identifiant sur stratégies.fr ? Identifiez-vous

Pas encore d'identifiant ? Créez vos identifiants

Réseaux sociaux

Sarah T. Roberts : «La modération entièrement automatisée est un doux rêve»

30/10/2020 - par Propos recueillis par Emmanuel Gavard

Sarah T. Roberts, autrice de l’enquête Derrière les Écrans, sur les conditions de modération des réseaux sociaux, et notamment sur les nettoyeurs du web, revient sur ce paramètre oublié, alors que la France veut reprendre la main sur les plateformes numériques.

À ce jour, les plateformes se vantent de modérer «automatiquement» les contenus. Est-ce vraiment la réalité ?

Dans de nombreux cas, les plateformes les plus importantes usent de moyens automatisés pour modérer les contenus. Ces mécanismes peuvent varier du processus le plus simple à des outils plus complexes, construits à partir d’intelligence artificielle. Mais dans la majeure partie des cas, aucun modèle de modération ne repose seulement sur l’automatisation. Tout simplement car ces outils ne sont pas assez précis ou sophistiqués pour reproduire l’intelligence, la sensibilité ou la nuance qu’un humain peut avoir pour ce travail.

Pourtant, toutes mettent en avant les progrès réalisés, et voient dans l’automatisation l’avenir possible. Est-ce exagéré ?

En effet, je ne crois pas que quiconque impliqué dans des opérations de modération, ou qui a une once de compétence dans le domaine, puisse adhérer à cette vision d’une modération entièrement automatisée à court ou moyen terme. C’est un doux rêve que vendent les plateformes au public pour réduire la pression autour de la modération et sur les exigences des conditions d’utilisation des plateformes.

Pensez-vous que l’on pourra atteindre réellement un jour une modération totalement automatisée ?

Même si cela devenait technologiquement possible, je pense qu’un tel régime irait à l’encontre de l’intérêt des utilisateurs. Ce n’est pas qu’une question de faisabilité technique, il y aussi des difficultés liées à la transparence, à la clarté des politiques et des pratiques de modération de contenus. En automatisant la tâche, vous rendez un processus déjà abscons encore plus invisible. Et il sera d’autant plus compliqué pour les utilisateurs, pour les régulateurs et même les partisans de l’automatisation, de démontrer quand et comment les critères de modération ont été appliqués.

Des contenus sont-ils plus à même d’être modérés automatiquement que d’autres ?

Oui, il existe différents degrés de complexité. Par exemple, les vidéos en live sont incroyablement difficiles à modérer, tandis que du texte statique semble plus facilement interprétable. Mais le type de média ne doit pas seulement être pris en compte, il faut regarder sa nature, son sens, son contexte culturel, son approche symbolique... Ainsi, il est assez facile de comprendre le niveau de difficulté que peut atteindre la gestion des contenus.

Le législateur français, via la loi Avia - censurée par le Conseil constitutionnel - et suite à l’attentat de Conflans, voudrait une meilleure modération de la part des plateformes et imposer de nouvelles règles. En quoi la question que vous soulevez dans votre livre sur les conditions de travail des modérateurs, de leur équilibre, a-t-elle sa place dans le débat ?

Nous devons penser au bien-être de ces travailleurs car la part d’implication humaine continuera à jouer un rôle significatif dans la modération des contenus sur les réseaux sociaux. Mais selon moi, la plupart des législateurs n’ont aucune idée de l’importance du travail humain dans la procédure. Ils pensent que ce n’est qu’un paramètre à la marge, une portion minime du travail, ou que les outils automatiques les remplaceront très rapidement. Aucune de ces notions n’est vraie.

Pensez-vous qu’on en demande trop aux plateformes et que c’est cela qui amène aux dérives de la sous-traitance de la modération ?

Non. On ne leur en demande pas assez.

Quel serait, selon vous, un «bon modèle» de modération alors ?

Au minimum, ce serait un modèle qui permet aux utilisateurs de savoir et de comprendre la réciprocité des enjeux liés aux politiques de modération, et aux informations qui sont soutirées des réseaux sociaux. Depuis trop longtemps, les processus de modérations de contenus - automatisés et humains – ont été rendus opaques et mystérieux aux yeux des utilisateurs, dans le design même des interfaces. Cela a donné aux plateformes une grande marge de manœuvre pour prendre les décisions qui favorisent toujours leur profit, en arguant de la «liberté d’expression» ou invoquant «l’impossibilité de modérer». J’ai l’espoir que mon livre donnera aux utilisateurs, aux associations civiles et aux législateurs les informations dont ils auront besoin pour compléter leur connaissance et avoir une vue du fonctionnement réel des plateformes afin qu’ils puissent bâtir de meilleurs systèmes de modération.

 

Lire aussi :

- Haine en ligne : les réseaux sociaux sur la sellette

Marlène Schiappa: «Les réseaux sociaux sont trop longs dans leurs réactions»

Laurent Solly (Facebook) : «La modération est un équilibre difficile»

Modérer les immodérés

Instagram met à jour sa règle sur les seins

Envoyer par mail un article

Sarah T. Roberts : «La modération entièrement automatisée est un doux rêve»

Séparer les adresses par des virgules
M’envoyer une copie par e-mail
Email this Article

Thank you for your interest in spreading the word about Stratégies.

NOTE: We only request your email address so that the person you are recommending the page to knows that you wanted them to see it, and that it is not junk mail. We do not capture any email address.