L'entrée en vigueur du réglement sur les services numériques européen met au défi les grandes plateformes de s'adapter à un marché de 450 millions d'habitants dans un cadre protégé et défini. Explications.

Voté le 19 octobre 2022, le Digital Services Act est, avec le Digital Markets Act, un des grands chantiers de régulation de l’espace numérique au niveau européen. S’il n’entrera en application que le 17 février 2024 pour tout le monde, 19 « très grandes plateformes » sont d’ores et déjà concernées depuis le 25 août. Elles ont toutes pour point commun d’être internationales et de toucher plus de 45 millions d’internautes par mois. Ce qu’il faut retenir de la nouvelle donne dans l’UE en quatre questions.

- Quel changement pour les plateformes ?

Le texte vise à responsabiliser les géants (Google, Meta, Microsoft, Bytedance…) et à lutter contre la diffusion de contenus illicites ou préjudiciables comme la désinformation, le cyberharcèlement ou la haine en ligne, ainsi qu'à empêcher l’accès à des produits illégaux via l’e-commerce. Ainsi, toutes les plateformes sont soumises à des obligations plus strictes. «Le grand tournant de ce règlement, c’est que les utilisateurs de services numériques européens n’ont plus la même expérience que dans le reste du monde», explicite Willy Mikalef, avocat associé au cabinet Bird & Bird. Pour les réseaux sociaux, le ciblage des contenus en fonction des données ne peut plus être une obligation pour les utilisateurs. C’est ainsi que Meta, TikTok ou Snapchat, ont ajouté la possibilité de désactiver les algorithmes de recommandation personnalisée. Un grand changement, notamment pour TikTok ou le fil « Pour toi » a toujours été au cœur de son succès. 

Toutes doivent proposer un outil leur permettant de signaler facilement les contenus illicites. Une fois le signalement opéré, les plateformes sont tenues de retirer rapidement ces contenus ou de bloquer leurs accès. Pour cela, sont nommées par pays des organisations dites « signaleurs de confiance » (lire plus bas). Autres points importants : l’ouverture de certaines données aux chercheurs, et surtout, l’interdiction des « dark patterns », ces interfaces qui visent à tromper la vigilance des utilisateurs.

- Quid de la publicité ciblée ?

Outre la création, chez Google et TikTok, d’une base de données fournissant les informations sur les publicités diffusées, c’est dans le ciblage que les changements sont importants. « Il n’est plus possible de prendre en compte des données sensibles [ethnie, religion, orientation sexuelle ou opinion politique] pour le ciblage publicitaire », note Willy Mikalef. Mais surtout, le ciblage personnalisé des mineurs est interdit. Une décision qui inquiète certains professionnels de la publicité. « À l’heure actuelle, il est impossible, techniquement parlant, de savoir si un utilisateur est réellement majeur ou non, explique Geoffrey Berthon, cofondateur de Qwarry, une plateforme de ciblage et d’analyse sémantique. En conséquence, il va falloir mettre en place de gros systèmes de contrôle. Et in fine, il pourrait y avoir une forme d’autocensure de la part des annonceurs, qui ne voudront pas prendre le risque de financer des pratiques qui pourraient s’avérer illégales ». La question des mineurs sur les plateformes rejoint le débat de la vérification de l’âge avant l’accès aux sites pornographiques, qui a eu lieu en juillet, présente dans le projet de loi Barrot sur la sécurité numérique.

- Quelle régulation pour l’Arcom ?

Qui pour s’assurer de la mise en œuvre du DSA ? Pour les très grandes plateformes, ce sera la Commission européenne qui sera en première ligne, en liaison avec les autorités nationales. En France, l’Arcom en sera le coordinateur, après l’adoption du texte Barrot sur le numérique (attendu début octobre à l’Assemblée). Une convention sera signée en ce sens avec la Commission.

En revanche, dès le 17 février, le régulateur français sera chargé de réguler directement les plateformes nationales (Yubo, Leboncoin, Fnac Darty, Leroy Merlin, OVH , les opérateurs télécoms…) en lien avec la Cnil et la DGCCRF (pour la protection des consommateurs)..  « Une régulation systémique et non de contenus, à la différence de l’audiovisuel, avec pour les plateformes une obligation de moyens pour lutter contre les contenus illicites et des dispositifs de transparence », souligne Roch-Olivier Maistre, le président de l’Arcom. Pas question d’examiner les centaines de millions de contenus à chaque instant. Les plateformes devront donc évaluer elles-mêmes ces risques dits systémiques et montrer ce qu’elles mettent en œuvre pour lutter contre. L’Arcom désignera les « signaleurs de confiance » - comme e-Enfance - dont les plateformes devront traiter en priorité les signalements. Selon le patron de l’Arcom, « l’heure de vérité va sonner très vite » pour X (ex-Twitter) ou TikTok car la crédibilité du DSA en dépend. Pour lui, le DSA est comparable aux règles de compliance imposant aux banques des obligations pour éviter des risques systémiques sous le contrôle des banques centrales.

- Quelles réserves suscite le texte ?

Ne pas respecter le DSA peut conduire, au terme de mises en demeure, à une amende portant sur 6% du chiffre d'affaires mondial et même à l'exclusion. Mais certains doutent de cet effet dissuasif. Reporters sans frontières appelle la Commission européenne à « la plus grande fermeté » dans l'application du texte. Pour Christophe Deloire, son sécrétaire général, Bruxelles devra « déléguer à des organes indépendants » le suivi de cette mise en œuvre. La Commission devra aussi exiger la transparence des algorithmes de modération ou de recommandation, et disposer d'un accès direct aux technologies permettant de comprendre les risques systémiques. De fait, les géants sont contraints d'envoyer des rapports de risques systémiques non publics dont on ne sait pas grand chose pour l'heure. Et l'accès aux API peut se révéler insuffisant pour assurer une transparence sur le partage des données. Par ailleurs, Bruxelles devra aussi assurer le respect des codes de conduite, à l’instar du Code contre la désinformation, adopté en 2022, et auquel X (ex-Twitter) a décidé de se soustraire. Une décision contraire au DSA, selon Christophe Deloire, et qui appelle à des obligations contraignantes en matière de fiabilité de l'information ainsi qu'à des mesure coercitives « y compris avec des amendes allant jusqu'à 6% du CA mondial ». Seulement, contrairement au code, le DSA n'oblige pas les plateformes à travailler avec des fact-checkers. Enfin, l'association e-Enfance demande que les « signaleurs de confiance » bénéficient de millions d'euros de financement des plateformes fautives sur le principe du pollueur-payeur.