[Tribune] Alors que les modèles d’intelligence artificielle se démocratisent à grande vitesse, aussi bien pour générer des textes que des images, ces nouveaux outils méritent d'être utilisés en respectant certaines règles.

Depuis l’ouverture de ChatGPT au grand public et l’apparition d’outils de génération d’images comme Midjourney ou Dall-E, les usages de l’IA se développent dans les agences, et ce, à toutes les étapes de la création et de la diffusion publicitaire. Les plateformes commencent également à intégrer ces outils nativement dans leurs ad managers. Mais attention à ne pas prendre ces outils pour ce qu’ils ne sont pas.

Dans la génération de textes, le principal intérêt des modèles d’IA tient à leur vélocité : en quelques minutes, on peut obtenir des dizaines de suggestions d’accroches. Ces modèles deviennent ainsi des outils précieux pour les concepteurs-rédacteurs, qui peuvent les aider à diversifier les messages à utiliser dans les campagnes et, in fine, améliorer les performances des publicités. Mais prudence toutefois : loin d’être totalement autonomes, ces outils doivent être guidés et orientés.

Il est bien sûr possible d’aller plus loin dans le copywriting que la simple génération d’accroches, notamment pour écrire des posts ou des articles. Mais là encore, l’outil doit être guidé, ce qui requiert une certaine expertise. En effet, plus les instructions sont précises, plus les résultats seront pertinents.

Plutôt que de partir de zéro, mieux vaut partir d’exemples existants

En effet, ce qui reste le plus efficace dans la génération de texte est le fait de «nourrir» les modèles avec des exemples dont ils pourront s’inspirer. Partir de zéro est souvent hasardeux. Des frameworks comme AIDA (Attention - Intérêt - Désir - Action) et PAS (Problème - Amplification - Solution) peuvent servir de guide pour orienter les modèles. Des indications de ton et de ciblage par audience peuvent aussi être utilisées pour affiner les résultats.

C’est également le cas dans la génération d'images. Les résultats obtenus avec les outils de «prompt-to-image» comme Dall-E, Midjourney ou Stable Diffusion permettent aujourd’hui de réaliser facilement des visuels pour les réseaux sociaux, mais ils exigent une bonne maîtrise des différents paramètres. De premières marques, comme Undiz, commencent à utiliser ces outils pour leurs campagnes, mais les visuels finaux sont généralement le fruit d’un long travail d’itération et d’aller-retour.

Dans ce domaine, les outils les plus prometteurs sont d’ailleurs ceux de retouche photo assistée par l’IA, à l’image de ce que propose désormais Adobe dans sa suite d’outils pour les designers. Bien plus accessibles et faciles à prendre en main que les outils de création d’images à partir de texte, ces fonctionnalités peuvent être utilisées pour créer rapidement de nombreuses variations d’un même visuel, ce qui permet, par exemple, de tester différentes combinaisons sur les réseaux sociaux, pour sélectionner les créas qui performent le mieux.

L’humain doit garder la main

Dans tous les cas, qu'il s'agisse d'images ou de textes générés ou co-créés par une IA, le dernier mot - ou coup de crayon - doit revenir à l’humain, afin d'éviter toute mauvaise surprise.

Un annonceur en a d’ailleurs récemment fait les frais : pour illustrer une campagne BtoB sur les films d’emballage, l'IA avait sélectionné sans validation humaine un visuel de deux hommes souriants, en tenue de travail, dans un décor d’entrepôt. Problème : l’un d’eux tenait un rouleau de film plastique transparent, dont il recouvrait entièrement la tête de l’autre homme… Un usage dangereux qui ne correspondait absolument pas au message que l’annonceur voulait faire passer.

Cette anecdote est un rappel, s’il était nécessaire, de la nécessité de ne publier que des visuels et des textes validés en amont par des humains.