Alors qu’il défend son projet de loi sur le numérique, avant les débats à l’Assemblée, le ministre délégué chargé de la Transition numérique Jean-Noël Barrot revient dans une interview exclusive à Stratégies sur les différents points de son projet. Twitter, pornographie, intelligence artificielle, pub en ligne… Il revient sur le besoin de réguler l’espace numérique pour redonner confiance au public.

Vous avez pris la parole récemment pour « menacer » Twitter de ne plus être acceptée en France et en Europe, car elle concentre beaucoup de griefs… A-t-on un « problème Twitter » en France ?

JEAN-NOËL BARROT. Sur la question de la désinformation, clairement, Twitter est sur une pente glissante. Lorsqu’Elon Musk a repris le contrôle de la société, il a décidé de changer son fonctionnement, et en particulier, l’organisation de la modération de contenu. Il a pris une décision radicale, celle de sortir du code de bonne conduite contre la désinformation, un code auquel 34 géants du numérique ont adhéré volontairement. Ce code est annexé à un règlement européen, qui prévoit des sanctions et des interdictions en cas d’infractions. Le retrait de ce code de la part d’Elon Musk est un droit, mais à partir du 25 août prochain, le règlement sur les services numériques (DSA) entrera en vigueur, et lutter contre la désinformation sera une obligation. En cas de manquement, des amendes sont prévues, et en cas de manquements répétés, une interdiction de la plateforme est possible.

Que répondez-vous à ceux qui estiment que ce serait une attaque contre la liberté d’expression ?

Que la désinformation est une des menaces les plus lourdes qui pèsent contre la démocratie, que les ennemis de la démocratie dévoient la liberté d’expression pour instiller le mensonge dans le débat public. On l’a vu lors de l’assaut contre le Capitole aux États-Unis, on l’a vu pendant la crise sanitaire avec certains mouvements antivaccins qui auraient pu compromettre l’efficacité de la campagne de vaccination… Ce sont certaines des raisons pour lesquelles l’Europe a décidé de se doter d’un cadre de responsabilité pour les réseaux sociaux. Mais cela ne concerne pas que la désinformation, cela concerne la responsabilité qu’ont ces plateformes envers leurs audiences, et je pense notamment au public vulnérable comme les enfants. C’est pourquoi à partir du 25 août il sera interdit de faire de la publicité en ciblant spécifiquement les mineurs. Avec ce règlement, porté par la France, les réseaux sociaux vont rentrer dans l’ère de la responsabilité.

On a du mal à imaginer qu’une telle plateforme, si ancrée dans le quotidien des Français, et surtout de ses politiques, puisse être interdite…

Les législateurs européens ont été très clairs. Au chapitre des sanctions, il est donné la capacité à la Commission Européenne d’interdire une plateforme. Cela dépendra de notre capacité à instruire les manquements qui sont faits, et c’est pour cela que nous veillons à ce que la Commission se donne les moyens de faire appliquer ce règlement, et je veillerai en juillet à doter les instances nationales, notamment l’Arcom, qui jouera un grand rôle de coordonnateur des services numériques, d’être en charge de sa bonne application.

Vous avez rencontré Elon Musk, en janvier à San Francisco, que vous dit-il à ce sujet ?

Oui j’ai pu échanger avec lui à ce propos, et il est en accord avec les principes de règlement sur les Services Numériques, et qu’il n’identifie pas d’obstacle à la conformité de Twitter. Tout en disant cela, je constate qu’il a pris ses distances avec le code de bonne conduite. Mais s’il arrive par ses propres moyens, à démontrer qu’il lutte activement contre la désinformation, il n’y aura aucun problème.

Il défend justement, lui, une autre vision de la modération, « a posteriori », avec la communauté qui rectifie les fausses informations…

Oui, dans le code de bonne conduite sur la lutte contre la désinformation, il existe toute une batterie de mesures. Et vous pouvez d’ailleurs n’adhérer qu’à certaines d’entre elles, je pense à la transparence vis-à-vis de la recherche, qui est ce que Twitter a fait en rendent public son algorithme. Donc oui, la vision d’Elon Musk de la lutte contre la désinformation n’est pas orthogonale au code de bonne conduite. Le fait que la plateforme sorte du code de bonne conduite, c’est donc soit qu’il y a désaccord de principe, soit que Twitter est en train de renoncer à se conformer à ce que nous souhaitons pour l’Europe et nos démocraties, et c’est plus inquiétant…

Concernant la régulation des sites pornographies, comment assurer l’équilibre entre protéger les mineurs, et ne pas passer pour un « censeur » auprès des adultes ?

Le juste équilibre est tout trouvé : il passe par la vérification de l’âge. Il y a des produits et services dont nous voulons préserver les plus fragiles, notamment nos enfants pour des raisons de santé mentale ou physique. C’est la raison pour laquelle dans l’espace publique il existe des limites d’âges et qui sont appliquées – globalement – et qui limitent l’exposition des jeunes enfants à l’alcool, à la pornographie… Cela n’existe pas en ligne, ce qui pose toute une série de problèmes et en particulier, l’exposition massive des enfants aux contenus pornographiques. Il ne m’appartient pas de juger si un adulte doit ou ne doit pas aller consulter des sites pornographiques, mais il est clair que nos enfants ne doivent pas y être exposés. Et s’ils le sont, c’est parce que les sites internet en question ne vérifient pas l’âge - alors même qu’ils le pourraient – car cela représente 10 à 20 % de leur trafic et donc de leurs recettes publicitaires. Une loi a déjà été adoptée en 2020 pour les contraindre à le faire. Sans succès. Une procédure judiciaire est en cours depuis un an demi, concernant les cinq principaux sites, et j’espère que le verdict sera exemplaire. Et pour l’avenir je souhaite que nous allions plus vite. C’est pour cela que j’ai ajouté dans le projet de loi des propositions sénatoriales issues d’un groupe transpartisan qui propose de donner à l’Arcom non seulement le pouvoir de mettre en demeure, mais aussi d’ordonner le blocage et le déréférencement des sites en quelques semaines.

Mais dans la loi, il est déjà interdit de diffuser du contenu pornographique aux mineurs. Alors pourquoi ces sites ne sont-ils pas punis depuis longtemps ?

Sur ces sites, à l’heure actuelle, une question est posée à l’internaute pour déclarer son âge ou sa majorité. Ce que la loi de 2020 a changé, c’est qu’il ne suffit pas de déclarer son âge pour l’établir. Il faut donc mettre en place des moyens sérieux. La vérification d’âge est un problème sur lequel planchent de nombreux pays sur la raison de l’exposition précoce aux réseaux sociaux. Certains sites – les sites payants notamment – ont déjà mis en place des procédures. Et des plateformes de réseaux sociaux ont mis en place des outils de vérification d’âge – supérieure à 13 ans. C’est une expérimentation de Meta, par exemple, qui estime l’âge par une photo de visage, aux États-Unis. Il y a encore le paiement à zéro euros. Ces solutions sont imparfaites.

Nous avons encouragé des entreprises françaises, spécialistes de l’identité numérique, à développer des solutions qui se conforment aux préconisations de la Cnil et de l’Arcom pour garantir l’âge sans fichage et sans piratage. Des expérimentations sont en cours. Ces solutions garantissent un double anonymat : l’émetteur de la preuve de majorité anonyme ne sait pas ce pour quoi elle va être utilisée, quant au service qui va appeler la preuve de majorité, il ne connaît pas l’identité du visiteur. Cela transite par une application sur smartphone.

Elles pourraient être élargies à d’autres secteurs, comme les jeux en ligne ou les produits de vapotage ?

Tout à fait. L’alcool aussi est concerné. Mais cette solution pourrait aussi être déployée en magasin. Car vous avez des épiceries qui sont contraintes lorsqu’elles sont équipées de caisses automatiques, de fermer le rayon alcool, car elles ne peuvent pas garantir l’âge de l’acheteur. Ces solutions permettraient de régler ce problème. La Française des jeux expérimente dans ces boutiques un système de vérification d’âge. Car aujourd’hui, les contraintes sont plus importantes en ligne que dans les magasins.

De manière générale, toutes les décisions de blocage de sites aujourd’hui sont géographiques. Mais une question n’est jamais abordée, c’est celle des VPN… Tout ado peut trouver un VPN pour y accéder. Toutes ces mesures ne sont-elles pas vaines ?

C’est une question qui sera peut-être soulevée au Parlement. Mais j’ajouterai que sur les deux millions de mineurs qui sont chaque mois exposés à des contenus pornographiques, beaucoup le sont de manière totalement involontaires. Ces images déversées gratuitement par ces « mercenaires » qui profitent du trafic, apparaissent parfois dans des recherches innocentes sur internet. En mettant en place ces mesures, nous mettons en place un premier niveau de protection qui évitera cela.

Que ce soit par votre projet de loi, ou ailleurs dans le monde, l’ère est au serrage de ceinture sur internet. Vous parliez tout à l’heure de « l’ère de la responsabilité » pour les grandes plateformes… N’a-t-on pas été trop laxiste sur internet pendant plus de 10 ans ?

Je crois plutôt que le numérique occupant une place plus importante dans nos vies quotidiennes, l’insécurité que rencontrent nos concitoyens sape leur confiance dans le numérique. On peut parler des enfants, mais aussi des victimes de cybersécurité, de certaines entreprises de la tech, confrontées à des pratiques déloyales de la part de géants qui se sont octroyé des positions de monopole. Donc le moment est venu de garantir que les droits sont respectés en ligne, et que les conditions d’un ordre public soit rassemblées. C’est une condition nécessaire pour retrouver confiance dans la transition numérique et pour que ces désordres ne viennent pas ternir tous ses bienfaits dans nos vies.

On dit souvent que les géants du numérique sont plus forts que les États. Tous ces règlements, DSA, DMA, sont-ils là pour prouver que non, les États restent plus fort que les géants ?

Oui, les États sont plus forts, et notamment les États européens, puisqu’ils forment le plus grand marché du monde et ont réussi à se mettre d’accord pour mettre en place des règles. On a souvent reproché à l’Europe d’avoir une politique de concurrence trop exigeante. Il n’y a aucune raison que les géants du numérique ne se plient pas aux exigences que l’on s’applique à nous-même. On a considéré qu’aux origines, internet étant un espace de liberté, les plateformes occupaient une place d’hébergeur, et ne devaient pas être tenues responsables de ce que d’autres entreposaient en leur sein. On voit bien que cette définition ne correspond plus à la réalité. Et sans aller sur les mêmes exigences que ce que l’on impose à nos organes de presse, nous allons, en européens, fixer un cadre de responsabilité. Ensemble nous sommes très forts, et nous allons poursuivre dans cette voie mais aussi faire attention à fixer des règles communes de manière à ce que les entreprises puissent se développer dans un marché unique où les règles sont les mêmes quel que soit le côté de la frontière où elles exercent. C’est une chose souvent reprochée par les start-up : la fragmentation des règles entre les pays européens comme un obstacle à leur croissance. L’un des objectifs de ce règlement c’est aussi d’harmoniser les règles entre nous.

On reproche souvent à ces réglementations – et votre projet de loi – petit à petit, d’exclure la justice des processus de décision. Pouvez-vous assurer qu’un juge et la justice de manière générale, seront bien associés à certaines décisions ?

L’objectif est de faire appliquer la loi le plus efficacement possible dans les cas que le projet de loi prévoit : non-vérification d’âge, média frappé d’interdiction [comme RT France]. Sous réserve d’assermentations - ce sera le cas pour l’Arcom - ce sont des cas souvent binaires. Ce qui justifie que ces décisions soient prises par cette Autorité comme elle le fait déjà. Ceci étant dit ces mesures sont entourées de voie de recours devant les juridictions pour que chaque justiciable puisse faire valoir ses droits. Mais c’est une manière, dans un espace numérique ou tout va très vite, de garantir l’efficacité des mesures de blocage.

Dans le cas d’exclusion des cyberharceleurs, on parle d’exclusion totale des coupables. Ne va-t-on pas progressivement vers un concept de « prison numérique », dans lequel un citoyen serait privé de ses droits ?

Le cyberharcèlement est un phénomène qui se développe sur les réseaux sociaux qui touche surtout les enfants ou les femmes – 27 fois plus exposées que les hommes – et qui est souvent le fait d’une minorité d’internautes, qui se comportent comme des chefs de meute. Ils désignent des personnalités et embrasent leur communauté pour déclencher des raids de haine. Ce que la mesure prévoit, c’est que lorsqu’une personne est condamnée pour cyberharcèlement, le juge puisse assortir la peine d’une peine complémentaire d’interdiction sur le réseau social pour six mois, voire un an en cas de récidive. L’idée c’est de confisquer la notoriété de ces chefs de meute. Là aussi, les garanties des droits fondamentaux sont respectées puisque la décision émane d’un juge, et elle ne vise pas à enfermer ou à exclure la personne de l’écosystème numérique. Elle se rapproche des interdictions de stade pour les personnes condamnées pour hooliganisme.

Sur le volet économique, le texte de loi prévoit un filtre anti-arnaque, comment voyez-vous son fonctionnement et surtout comment garantir l’impartialité de cette liste noire ?

Les mails ou SMS frauduleux font typiquement partie du désordre qui sape la confiance dans le numérique. Concrètement, le projet de loi instaure le cadre juridique dans lequel va s’inscrire ce filtre anti-arnaque : lorsqu’il sera concerné, l’éditeur du site connu et contacté disposera d’une durée de cinq jours pour se faire connaître, montrer patte blanche et voir rétablir son site. Et s’il ne le fait pas, il y aura redirection systématique. Ce sont les autorités administratives qui reçoivent les notifications (DGCCRF, le GIP ACYMA) qui vont se coordonner pour que la liste des noms de domaines malveillants soit actualisée en temps réels et qu’elle soit diffusée au fournisseur d’accès et au résolveur de DNS pour opérer cette redirection.

Ce projet a pour but d’anticiper le DMA et le DSA. C’était un besoin ?

Non, ces règlements sont d’application directe. Ils nécessitent des mesures d’adaptation du droit pour s’appliquer correctement, en particulier l’attribution aux autorités nationales de certaines compétences nouvelles ou de nouvelles définitions du droit. Mais cela ne va pas plus loin. En revanche sur le sujet du Cloud, nous anticipons clairement sur le Data Act, toujours en cours de discussion, qui prévoit des mesures de portabilité et d’interopérabilité sur le marché du Cloud. Nous souhaitons pouvoir avancer d’ores et déjà avec l’interdiction des frais de transfert à la sortie, l’encadrement des avoirs commerciaux à l’entrée et l’interopérabilité sous le contrôle de l’Arcep qui va permettre de rouvrir un marché concentré entre les mains de quelques acteurs. Ils tiennent les entreprises françaises dans un lien de dépendance, voire d’assujettissement, car lorsque vous êtes chez un fournisseur il est très difficile de changer ou même d’en avoir un deuxième.

Donc vous anticipez sur une législation européenne encore en cours de discussion… Vous avez même été recadré par l’Autorité de la Concurrence sur le Cloud. On note que la France est souvent moteur des discussions au niveau européen sur le numérique. Cette loi ne vise-t-elle pas finalement à faire pencher les discussions en cours au niveau européen ?

Les négociations sont déjà très avancées, puisqu’on va rentrer très prochainement dans la phase de trilogue entre le parlement, la Commission et le Conseil européen. Le constat est très partagé : il faut restaurer l’équité concurrentielle. Reste à s’arranger sur les détails. La France a toujours été claire depuis le départ, mais nous tiendrons compte des compromis trouvés in fine et les mesures de ce projet de loi ont vocation à laisser place aux mesures européennes.

En parlant de restaurer l’équité concurrentielle, un marché est complètement absent de ce projet de loi, c’est le marché de la publicité en ligne. Alors que beaucoup d’acteurs de l’adtech se plaignent des distorsions de concurrence… La pub est-elle la grande oubliée de ce projet de loi ?

Je crois que le constat commence à être de plus en plus partagé d’une situation de défaut de concurrence sur le marché de l’intermédiation publicitaire. En France, l’autorité de la concurrence a pris un certain nombre de décisions ces derniers mois. En Europe, aussi, où la commission réfléchit à ces sujets. C’est vrai aussi aux États-Unis, où une procédure a été ouverte contre un grand acteur de la pub. Il est essentiel que sur ce marché comme sur d’autres nous devions retrouver une équité concurrentielle. C’est une question de principe au niveau européen, mais aussi parce que ces situations d’abus de position dominante sur le marché publicitaire privent les médias de ressources précieuses pour financer la production d’une information de qualité. C’est l’un des sujets que je souhaite verser aux états généraux de l’information qui font partie des engagements présidentiels. Et qui seront organisés prochainement.

Donc ce n’était pas dans le projet de loi, mais l’idée reste en tête ?

Absolument.

Meta a écopé d’1,2 milliard d’amende en mai, et est obligé d’effacer les données qui ont transité sur un serveur américain. La question au cœur de la condamnation est celle du transfert des données. La Cnil croule sous les plaintes pour utilisation de Google Analytics… Cela rend les entreprises très fébriles. Sont-elles en danger juridique ou doivent-elles aujourd’hui rapatrier leurs données sur des services européens ?

Ce que je constate, c’est que le RGPD a été mis en application il y a cinq ans, que ce règlement autorise le transfert des données à condition qu’un accord d’adéquation entre pays soit signé. Nous avons signé de tels accords avec le Royaume-Uni, la Corée, la Nouvelle-Zélande, il n’y a pas de raison que l’on ne puisse pas y parvenir avec d’autres états. Mais il convient que ces états fassent aussi des pas dans la bonne direction pour démontrer qu’ils accordent, comme nous, de l’importance à la vie privée. C’est l’enjeu de ce qui est sur la table aujourd’hui et qui doit permettre à condition que les garanties soient suffisantes, de sécuriser les entreprises amenées à transférer des données.

En matière d’IA se pose de plus en plus la question de la réglementation face à l'innovation. Sam Altman, un des créateurs de ChatGPT s’est opposé à la réglementation européenne. Quel est votre point de vue ?

Nous sommes en face d’une révolution, celle de l’intelligence artificielle générative. Il est indispensable que l’Europe puisse disposer dans les mois qui viennent de ses propres modèles. Nous en avons les moyens – la France a récolté une onzième médaille Fields, nous sommes donc la deuxième nation la plus forte en mathématiques et dans tous les laboratoires d’IA il y a des grands noms français. C’est une révolution de la représentation, car l’IA générative permet d’avoir une version synthétique du patrimoine mondiale informationnel. Or comme la technologie touche justement à la représentation, des filtres se glissent. Il est donc indispensable de disposer de nos propres outils forgés avec nos propres filtres culturels et langagiers. Et enfin c’est un enjeu de souveraineté majeur puisque ce sont des outils qui vont se généraliser dans le domaine civil mais aussi militaire… Pour cela il faut investir suffisamment, et réguler intelligemment. L’UE a été la première démocratie au monde à se doter d’un cadre, l’AI Act. C’est une excellente chose pour créer la confiance et lever des incertitudes sur les usages sensibles de l’intelligence. En revanche, ce règlement qui était en discussion, a été chamboulé par l’irruption de ChatGPT et a conduit l’UE à avoir une position excessive, à mon sens, sur l’IA générative. Car elle a considéré que tous les modèles d’IA générative devaient être assujettis aux mêmes contraintes que les systèmes les plus sensibles, utilisés pour la mobilité et la santé lorsque des vies humaines sont en dangers. L’UE ne fait aucune distinction sur la nature même de l’utilisation : qu’elle soit sensible ou non, il faut leur appliquer les mêmes obligations. Cette contrainte-là, oui, me paraît excessive, et risque de nous faire sortir de l’histoire technologique en décourageant le développement en Europe des grands modèles. La décision de Google de lancer son propre système de dialogue dans 180 pays à l’exception de l’Europe nous encourage à être vigilant. La France veillera à trouver un équilibre dans les discussions qui s’engagent au niveau européen entre la protection des citoyens et le développement de l’innovation.

Des voix s’élèvent pour questionner le RGPD, face à la vague de l’IA, estimant que ce règlement peut brider l’innovation. Qu’en pensez-vous ?

Ça a été une des questions posées par la Cnil italienne lorsqu’elle a interdit ChatGPT. Elle interroge la façon avec laquelle les grands modèles d’IA générative sont entraînés et leur compatibilité et le RGPD. Je souhaite pour ma part que nous puissions donner aux Cnil européennes un mandat pour évaluer cette question-là. Personnellement, je suis assez confiant pour qu’on puisse rendre compatible le RGPD et le développement des IA génératives. Mais c’est une question urgente à résoudre pour ne pas se laisser distancer dans cette course effrénée.

Et quid du droit d’auteur ?

C’est une question importante. Il faut engager des réflexions. Sam Altman, que j’ai rencontré à deux reprises cette année, m’a lui-même confié qu’il était conscient des questions soulevées même si la solution n’est pas trouvée. C’est une question que nous devons avoir au niveau français. Je faisais tout à l’heure référence aux États Généraux de l’information. je me réjouis de constater que lors du Trade and Technologies Council Europe – États-Unis, un accord a été trouvé pour développer un code de bonnes pratiques qui puissent s’appliquer des deux côtés de l’Atlantique et servir de standard. Et c’est une question qui a été reprise également lors du G7 à Hiroshima.

Vous seriez favorable à une taxation sur le droit d’auteur pour les données d’entraînement ?

Il y a différentes options sur la table. Je pense qu’il faut trouver la plus efficace. Les éditeurs de presse ou les créateurs de contenus ont fait un certain nombre de propositions. Elles doivent être examinées très attentivement.

On dit souvent que nous n’avons pas de licorne en IA en France ou en Europe, mais nous avons des solutions open source qui fonctionnent très bien. Comment les valoriser ?

Oui, c’est vrai. Dans le règlement qui attribue un certain nombre de responsabilités (transparence, audit…) avant la mise sur le marché des systèmes, je serai favorable à ce que lorsqu’il s’agit d’un modèle open source, les obligations de transparence et d’audit soient moins lourdes, dans la mesure où la sagesse des foules et le contrôle démocratique peuvent s’exercer directement sur le système.