Nouvelles technologies
De la rédaction automatisée d'articles à la création de vidéos «deepfakes» par les faussaires de l'information, voici cinq façons dont l'intelligence artificielle (IA) pourrait bouleverser le journalisme... ou a déjà commencé à le faire.
  • Articles automatisés

L'IA peut permettre de créer automatiquement des articles à partir de bases de données structurées, en particulier chiffrées. Le groupe suédois Mittmedia, spécialisé dans l'information de proximité, a par exemple développé un algorithme qui génère automatiquement, à partir de données publiques, un article à chaque fois qu'une propriété est vendue dans le pays. Ils résument les principales caractéristiques de chaque transaction (emplacement, nom du vendeur et de l'acquéreur, prix de vente) et peuvent mettre en avant les éléments saillants, par exemple un prix record. Ils sont proposés aux internautes de manière personnalisée en fonction de l'endroit où ils habitent. Autres exemples, l'agence d'information financière Bloomberg ou l'agence Associated Press l'utilisent pour générer certains articles sur des résultats d'entreprises. D'autres médias se servent de techniques similaires pour couvrir certains résultats sportifs ou électoraux, à l'instar d'Heliograph, un robot développé par le Washington Post. Des usages qui ne vont pas sans susciter des craintes de voir les journalistes humains remplacés, à terme, par des algorithmes générateurs de contenus.

  • Couteau suisse numérique

Plusieurs applications basées sur l'IA, dont certaines sont déjà employées dans des rédactions, forment une sorte de boîte à outils qui peuvent aider les journalistes à accomplir certaines tâches répétitives ou basiques plus rapidement, par exemple retranscrire automatiquement un discours ou une interview sous forme de texte, traduire une vidéo dans plusieurs langues ou encore rechercher des données liées à des mots clés. On peut aussi imaginer des fonctions plus évoluées comme un assistant virtuel qui poserait des questions identiques à un grand nombre d'internautes, un moyen de collecter une masse de témoignages au plus vite, là où il faudrait des heures ou des jours à un reporter en chair et en os.

  • Commentaires et interactivité

Plusieurs grands quotidiens, comme Le Monde en France, El Pais en Espagne ou le New York Times aux Etats-Unis, ont adopté Perspective, un système de gestion des commentaires en ligne, développé par Jigsaw (filiale de Google). Il permet de détecter les commentaires potentiellement «toxiques», en leur attribuant une note qui évalue leur nocivité, et laisse ensuite les modérateurs agir. Ce principe est censé aider à réduire le harcèlement en ligne et favoriser les conversations en écrémant les propos s'apparentant à des attaques personnelles ou des insultes. De plus en plus utilisés, les robots conversationnels, ou chatbots, peuvent, quant à eux, permettre aux médias de proposer leurs informations sous un nouveau format, de manière interactive, en répondant à des questions sur l'actualité posées directement par l'utilisateur, notamment via des enceintes connectées.

  • Machines à fakes

C'est le grand revers de la médaille: les mêmes fonctions de reconnaissance vocale et visuelle, traduction, création automatisée de contenus, etc., peuvent être détournées par les créateurs de fausses nouvelles ou fake news, par exemple pour créer des vidéos «deepfakes», dans lesquelles on fait dire à des personnalités des propos qu'elles n'ont jamais tenus. Récemment, des artistes et ingénieurs ont publié sur Instagram une vidéo trafiquée du fondateur de Facebook, Mark Zuckerberg. Une manière d'interpeller publiquement le groupe, critiqué récemment pour avoir refusé de supprimer une vidéo «deepfake» d'une opposante à Donald Trump, au nom de la liberté d'expression.

  • Dérives éthiques

Un autre grand défi de l'utilisation de l'intelligence artificielle dans tous les domaines, journalisme compris, est la prise en compte des problématiques éthiques pour éviter des dérives, comme des biais discriminatoires. La façon dont les algorithmes sont conçus, la diversité des équipes qui les créent et la qualité des données utilisées pour les nourrir sont des points cruciaux. Par exemple, un média pourrait utiliser l'intelligence artificielle pour générer des articles personnalisés qui s'appuient sur les opinions politiques du lecteur et lui présenter une version des faits qui conforte systématiquement sa vision du monde. Une fonction pernicieuse si elle se généralisait car elle contribuerait à renforcer les clivages au sein de la société, plutôt que de tendre vers un idéal d'objectivité ou de favoriser la réflexion. Et qui s'ajoute à des problématiques non moins délicates comme le contrôle et la commercialisation des données personnelles.

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.