TRIBUNE

[Tribune] La toxicité sur les réseaux sociaux et internet ne fait que s’intensifier. En tout état de cause, correctement utilisée, l’intelligence artificielle peut faire partie de la solution pour protéger les communautés en ligne et la réputation des marques.

Internet, et les réseaux sociaux en particulier, se sont imposés comme des outils indispensables aux marques et aux influenceurs pour interagir avec leur communauté et forger de nouveaux liens avec de potentiels clients ou abonnés. C’est là que les clients et abonnés posent leurs questions, exposent leurs problèmes, confrontent leurs opinions en temps réel, échangent avec la marque et aussi entre eux. Cette mobilisation conjuguée aux possibilités de suivi et de réponse offertes représente une formidable opportunité pour les marques. A condition que les relations ainsi tissées encouragent le dialogue, plutôt que le conflit.

Toutefois, la progression chronique, année après année, de la toxicité sur internet va à l’encontre de cette perspective. Plus de 5% des contenus créés sur les plateformes et réseaux sociaux des marques ou des influenceurs sont estimés toxiques (3,3% sont à caractère haineux et font place aux insultes, à la misogynie, au racisme, à l’homophobie ou à des moqueries sur le physique, et 2% sont assimilés à des messages indésirables/polluants). Le problème est devenu bien réel puisque 40% des utilisateurs quittent une plateforme après une première exposition à des propos délétères. Sans compter que ces mêmes utilisateurs sont de surcroît susceptibles d’informer d’autres internautes de leur expérience médiocre, ce qui risque souvent d’entacher irrémédiablement l’image de marque de l’entreprise en question.

L’intelligence artificielle à la rescousse des modérateurs

La solution ? Une modération intelligente pour préserver les utilisateurs de l’influence toxique d’internet. Or, la modération manuelle, particulièrement chronophage, est tributaire d’êtres humains gagnés par la lassitude, insensibles ou surmenés. Ces problématiques sont encore exacerbées par la sensibilité au facteur temps dans la lutte contre la «cyberhaine». Si les modérateurs ne réagissent pas à temps ou passent à côté de quelque chose, le tort est déjà causé, nonobstant la nature éphémère des commentaires sur les réseaux sociaux.

Il faut une dizaine de secondes à un modérateur qualifié pour analyser et modérer un simple commentaire. Si 100 000 commentaires sont publiés simultanément, il devient impossible de gérer ce flux et de traiter les propos haineux en temps réel. C’est là où l’intelligence artificielle vient à la rescousse. L’exploitation d’algorithmes permet de passer en revue et de modérer instantanément de gigantesques volumes de commentaires en ligne. Pour autant, même cette solution n’est pas exempte de limites.

L’enjeu de la contextualisation et le risque de censure

La plupart des plateformes sociales incontournables, comme Facebook ou Instagram, recourent à un système baptisé machine learning pour modérer les contenus en ligne. Malheureusement, ce système est incapable de détecter toutes les subtilités de la langue, ignore l’analyse de ressenti ainsi que les complexités inhérentes à la signification en contexte. Dès lors, son taux d’erreur peut atteindre 40% sur la détection de contenus toxiques. Les résultats sont éloquents : d’après la Commission européenne, seulement 62,5% des contenus haineux sont retirés des réseaux sociaux.

Cette marge d’erreur substantielle peut aussi refléter les divergences entre la censure de la liberté d’expression et la protection des communautés, si les algorithmes en font trop et suppriment des contenus non véritablement toxiques. Pour les marques et les influenceurs, il s’agit là d’un autre casse-tête. D’une part, ils sont chargés de protéger leur communauté et tous ceux qui s’aventurent sur leurs canaux, achètent leurs produits, etc. D’autre part, ils s’exposent à transgresser la liberté d’expression, ce qui risque également de nuire à l’expérience de leur communauté sur ces canaux et, en définitive, de ruiner leur réputation, d’occasionner une démobilisation, etc.

Adopter une solution technologique basée sur un juste équilibre entre la machine et l'humain, entre les algorithmes et la linguistique, permet d’analyser et de comprendre en temps réel le contexte des discussions en ligne. La modération contextuelle et autonome est, en effet, le moyen le plus sûr d'offrir aux marques et aux communautés en ligne une expérience réussie, dans un lieu sécurisé où la liberté d'expression est protégée.

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.