Terrorisme
L’assassinat du professeur Samuel Paty a remis au pied du mur les grandes plateformes qui ne peuvent plus s’abriter derrière un statut d’hébergeur pour ne pas assumer leur responsabilité. Mais la réponse du gouvernement est-elle la bonne ? Débat.

L’ambiance est glaciale ce 20 octobre au ministère de l’Intérieur. La ministre déléguée chargée de la Citoyenneté Marlène Schiappa reçoit les représentants français des plateformes sociales, parmi lesquelles Facebook, Twitter, YouTube, Snapchat, TikTok, Pinterest ou encore Twitch… « Nous avons été prévenus la veille pour le lendemain. À la manière de mauvais élèves convoqués dans le bureau du proviseur », raconte une source interne d’une de ces plateformes, accusées de ne pas avoir agi pour enrayer la viralité des messages stigmatisant le professeur d'histoire, Samuel Paty, décapité le 16 octobre 2020, à Conflans-Sainte-Honorine. « Nous avons la sensation d’être les boucs émissaires dans cette affaire. Cette réunion, c’était surtout une opération de communication du gouvernement, pour dire qu’il agit. Mais nous n’avons fait que répéter tous les efforts que nous faisons déjà en matière de modération des contenus », indique une autre source, en off. Car officiellement, aucun dirigeant français des réseaux sociaux ne s’exprimera sur les coulisses de cette réunion. Le sujet est sensible impliquant des problématiques de sécurité intérieure, et une enquête est en cours pour déterminer si cet emballement sur les plateformes a pu contribuer au passage à l'acte du terroriste. 

« Lien de causalité directe »

Le procureur du Parquet national antiterroriste, Jean-François Ricard, a donné les termes du débat en parlant de « lien de causalité directe » entre la campagne de dénigrement dont a été victime Samuel Paty sur internet et son assassinat. Au cœur de l’affaire, une vidéo d’un parent d’élève, Brahim C., traitant l’enseignant de « voyou », en donnant son nom et son collège et en appelant à faire pression sur lui et son établissement scolaire via les réseaux sociaux, et notamment Facebook. Quant au terroriste lui-même, il s’est signalé sur Twitter en cherchant une cible avec « son adresse, ses coordonnées ».

L’exécutif s’est donc saisi du problème en annonçant deux mesures qui seront insérées au projet de loi sur les séparatismes, qui arrive en conseil des ministres le 9 décembre. La première vise à pénaliser « ceux qui font pression » sur « des fonctionnaires et des agents publics ». L’autre, à créer un délit contre « ceux qui mettent en ligne des informations personnelles mettant en danger la vie d’autrui ». Marlène Schiappa a, de son côté, évoqué la nécessité de créer une unité capable de produire un « contre-discours républicain » pour ne pas laisser dire, par exemple, que les poursuites contre le site Barakacity sont antimusulmanes (lire notre interview). 

Une initiative qui laisse sceptique Pascal Froissart, maître de conférences à Paris 8, pour qui « on ne peut pas utiliser la propagande comme en temps de guerre », l’ingérence d’un discours vertical en surplomb sur les réseaux risquant de se retourner contre la puissance publique. Pour lui, c’est « d’abord de la politique » qu’il convient de faire. « Les mots peuvent-ils faire écran aux écrans ? Je ne suis pas sûre, relève Valérie Jeanne-Perrier, professeure au Celsa, il faut proposer un discours alternatif, aller chercher des actions que font des associations, être attentifs aux médias indépendants qui reflètent des sources communautaires. C’est aussi lié à la représentation de la diversité dans les médias » afin de ne pas donner le sentiment qu’on stigmatise une confession. Mais l’idée du « riposte party », utilisé en période d’élections, pour contrer par la quantité de messages en ligne un discours dominant, mérite d’être étudié. Pourquoi pas une « réserve citoyenne en ligne » ? Au départ, Twitter avait bien des référents avec des badges pour modérer la parole.

Soft power

Une autre question se pose : comment déterminer qu’un message avec des informations personnelles, sans menace à l’intégrité physique d’un individu, relève de la mise en danger d’autrui ? Pascal Froissart craint que l’on en arrive à un texte liberticide qui compromet le secret de la correspondance alors que notre droit est déjà suffisamment protecteur. « Il vaut mieux en passer par le soft power auprès des plateformes qui savent qu’elles jouent leur image dans la circulation des fake news et la diffusion de la haine en ligne ». Elles ont déjà essayé de ralentir leur viralité en investissant dans la modération et en limitant les retweets sans commentaire ou le nombre de partages sur WhatsApp.

Sur le papier c’est censé marcher, et les plateformes annoncent régulièrement leur progrès en matière de modération. « Facebook a mis sur la table des moyens considérables pour assurer ces priorités », annonçait Laurent Solly, le patron de Facebook France dans Stratégies cet été. Le réseau social se targue de bloquer 99,5 % des contenus terroristes ou pédopornographiques «a priori» et automatiquement, avant même qu’un utilisateur ne puisse le voir. Même argument chez Twitter : « Entre juillet et décembre 2019, plus de 86 799 comptes pour terrorisme ou apologie du terrorisme ont été supprimés, dont 74% proactivement par nos outils » indique la plateforme. En matière de modération, les outils automatiques, souvent à base de « machine learning », à partir de mots clés, peuvent être d’une grande aide. Retirer la nudité, des photos violentes, certaines vidéos (notamment de propagande terroriste) ou des mots précis sont facilement repérables par les algorithmes. Mais pour d’autres, c’est plus problématique. « Les vidéos en live par exemple, sont incroyablement compliquées à modérer » pointe Sarah T. Roberts, autrice de l’enquête, Derrière les écrans, sur la modération des plateformes. Sur des propos plus litigieux, il peut être ardu de saisir le sens, le contexte culturel, l’approche symbolique… D’autant que la plupart des plateformes, basées aux États-Unis, traduisent les propos en anglais avant de les modérer selon les standards de la communauté. Aujourd’hui, « dans la majeure partie des cas, aucun modèle de modération ne repose que sur l’automatisation, continue Sarah T. Roberts. Tout simplement car ces outils ne sont pas assez précis ou sophistiqués, pour reproduire l’intelligence, la sensibilité ou la nuance qu’un humain peut avoir pour ce travail. » Selon elle, la modération automatisée « est un doux rêve que vendent les plateformes au public pour réduire la pression ». Son enquête révèle les conditions de travail des « nettoyeurs du web », beaucoup plus nombreux qu’on ne le pense (15 000 personnes chez Facebook travaillent à la modération). Elle estime que le débat sur la modération quel qu’il soit, doit intégrer la réalité des plateformes, et prendre en compte le travail de toutes ces « petites mains » du web. 

Parquet numérique

Pour l’avocate associée du cabinet Hogan Lovells, Christelle Coslin, la question est encore ailleurs. « Doit-on réellement laisser un opérateur privé régler le problème ? Ce qui m’interroge dans ce débat, c’est qu’à aucun moment on ne parle de justice. On ne peut pas demander aux plateformes de décider ce qui est acceptable ou non du point de vue du droit. » Car c’est bien à partir du moment où elle est érigée en règle que la modération pose problème. « La question de “la mise en danger de la vie d’autrui” dans le projet de loi sur le séparatisme évoqué par Jean Castex reste très flou. Est-ce que ce sera aux plateformes de décider du caractère “dangereux” des propos ? » L'avocate entrevoit une solution dans l’esquisse d’un Parquet numérique, qu’avait laissé entrevoir la loi Avia. Et qui, lui, n’a pas été complètement oublié.  

L’avocat Basile Ader rappelle que c’est au juge d’apprécier a posteriori le caractère délicteux de l’abus de la liberté d’expression qui passe par le harcèlement, les menaces, l’intimidation, l’appel à la haine… La loi Avia a été retoquée par le Conseil constitutionnel en raison de son automaticité : « Elle comportait le risque de tout censurer au motif que c’est haineux ». Pour lui, « la seule façon d’éradiquer la viralité sur les plateformes, c’est de les responsabiliser. Il faut en faire des acteurs actifs, accessibles à la poursuite, avec les moyens de leur modération, afin de ne pas reprendre, par exemple sur un site miroir, un compte supprimé ». Et s’appuyer sur la loi sur la presse de 1881 qui allait jusqu’à poursuivre le colporteur si ni l’auteur ni l’éditeur n’étaient identifiés. Mais pour l’heure, il n'y a que cinq magistrats au Parquet de Paris pour mettre en œuvre des poursuites pour propos haineux.

Ce qui est sûr, c’est qu’il importe de limiter la vitesse de propagation des bulles de haine où, comme l’a montré l'essayiste Paul Virilio, la démultiplication est à l’œuvre, allant de plus en plus vite, touchant de plus en plus de monde, de façon de plus en plus profonde, renforçant les jugements sommaires et au prix de toute nuance. Bref, comme dit Valérie Jeanne-Perrier, « il faut introduire de la friction à l’heure où le pseudonymat n’empêche pas d’agir mais demande du temps ». La plateforme de la police, Pharos, avec ses 30 salariés, fait face à 20 000 signalements par mois dans tous les domaines.

Et encore faut-il que les réseaux sociaux réagissent promptement quand leur sont signalés un contenu propageant de la haine ou faisant insidieusement l'apologie du terrorisme. D'autant que, comme le rappelle Pascal Froissart, de nombreux djihadistes se sentent légitimés par des discours de haine envers notre pays et sa liberté d'expression dans des pays extérieurs à la France.

Exercice de liberté

Les médias ont aussi un rôle à jouer. Comme en janvier 2015, après l’attentat de Charlie Hebdo, plusieurs titres de presse ont republié, après la décapitation de Samuel Paty, une ou plusieurs caricatures de Mahomet. « La publication de caricatures blasphématoires – envers l’islam, le judaïsme ou le christianisme – n’est pas l’insulte des croyants. Mais l’exercice d’une liberté que nous nous sommes donnée, en France, fruit de notre histoire et de nos valeurs séculières », justifie la rédaction de L’Express dans son numéro du 22 octobre.

Ce type de décision n’est pas pourtant sans risque : La Nouvelle République du Centre-Ouest a déposé plainte à la suite de menaces reçues sur Facebook après la publication, le 18 octobre, de la célèbre couverture de Charlie Hebdo « Mahomet débordé par les intégristes : c'est dur d'être aimé par des cons ». « Nous n’avons pas hésité et si c’était à refaire, on le referait, explique Christophe Hérigault, directeur de la rédaction du quotidien tourangeau. La publication de cette caricature était l’expression d’une colère et la volonté de rappeler les valeurs humanistes et républicaines qu’on se doit de défendre. C’était aussi une façon de dire à nos élus qu’il est temps d’être courageux et de prendre des mesures contre le séparatisme islamique. »

À l’inverse, le journal danois Jyllands-Posten qui, le premier, avait publié les fameuses caricatures incriminées, dès 2005, ne le refera plus. « Nous sommes trop exposés, nous ne pouvons plus le faire, indiquait Jorn Mikkelsen, son rédacteur en chef, dès 2015. Qu’avons-nous appris en dix ans ? Que la violence marche. »

Dans les écoles, l’éducation aux médias et à l’information a été rendue obligatoire en 2013. Pour Serge Barbet, directeur délégué du Clemi, la structure de l'Éducation nationale chargée de former les enseignants à l'éducation aux médias, les attentats de janvier 2015 ont accéléré les choses : « Ça a beaucoup compté dans la façon dont l’éducation au dessin de presse a pris de l’importance. C’est important d’éduquer les enfants sur la liberté d’expression, le droit à la caricature, ce qui permet d’aborder la notion de blasphème. L’école n’est pas imperméable aux mouvements de la société. »

Après l’attentat de Conflans, l’éducation aux médias en milieu scolaire est plus nécessaire que jamais. « Comme en 2015, il y aura un avant et un après, même s’il faut faire attention à ne pas rompre la dynamique en cours », estime le directeur délégué du Clemi, à qui le ministre de l’Éducation nationale, Jean-Michel Blanquer, a demandé d’amplifier ses interventions dans les écoles. Le département de Seine-Saint-Denis a également lancé un appel aux médias afin que chacun des 130 collèges publics du 93 puisse avoir un parrain ou une marraine en lien avec les médias. La prochaine édition de la Semaine de la presse à l’école pourrait d’ailleurs être rebaptisée du nom du professeur assassiné le 16 octobre. Un symbole de plus.

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.