Études
Émotion, prédictif, comportemental, hybridation des données... L’intelligence artificielle pourrait changer radicalement le secteur des études. À moins qu'il ne s’agisse que d’un atout de poids pour aider ces entreprises à s’adapter aux nouveaux besoins de leurs clients.

Depuis peu, la profession des études est sur le pont de la transformation numérique, et ça tangue sec. Rien d’étonnant, selon Isabelle Fabry, CEO d’ActFuture, quand on sait que le secteur a été peu habitué aux remous depuis trente ans. « Nous avons longtemps eu le monopole des réponses aux questions que les gens se posaient, mais nous sommes désormais concurrencés par des acteurs et technologies de toute nature, ainsi que par une accessibilité nouvelle de la data. Les récents besoins d’immédiateté de la société représentent aussi une contrainte, car dix jours pour recruter un terrain à une époque où un marché évolue d’un mois à l’autre, ça n’est plus entendable », ajoute-t-elle. Pour autant, que les plus pessimistes n’enterrent pas la valeur ajoutée du vieil outil trop vite, car comme le rappelle Philippe Le Magueresse, directeur général adjoint d'OpinionWay, « les études permettent aux entreprises de réduire leur risque et comprendre leurs axes de différenciation pour créer de la valeur. Dans un contexte chaotique et moins linéaire, le pourquoi de notre métier n’est pas un sujet. Le comment, en revanche, doit être réinventé, pour passer de la standardisation à l’individualisation. »

Un Terrien sur deux laisse des traces quotidiennes sur le web

C’est ici que l’intelligence artificielle (IA) entre en scène, en offrant un grand nombre de possibilités pour accompagner ces besoins. En premier lieu, ses algorithmes facilitent l’accès, la collecte et le traitement massif de nouvelles sources de données, souvent non structurées. Parmi elles, le nouvel eldorado de la data sociale et web, terrain d’étude d’une grande richesse. « On invente une sociologie du 21e siècle, qui est celle de la parole spontanée. Près d’un Terrien sur deux produit des traces quotidiennes sur le web. Cette data comportementale révolutionne le marketing », explique Guilhem Fouetillou, cofondateur de Linkfluence, société de social media intelligence. Preuve de cet intérêt croissant pour le social listening, Ipsos vient de racheter le concurrent Synthesio.

Autre source nouvelle de données : l’image (photo ou vidéo). Encore perfectibles, les technologies permettent déjà de saisir certains éléments, comme l’état d’esprit ou le contexte de consommation d’un produit. L’une des dernières offres de Kantar, Needscope A.I, propose même de massifier cette approche à tous les flux visuels des réseaux sociaux d’une marque pour l’aider à comprendre quelle symbolique globale est transmise au consommateur. Dans un registre différent mais utile en ces temps agités, le cabinet Occurrence, en s’aidant des capteurs Eurecam, sait calculer avec fiabilité le nombre de personnes qui figurent sur une image. Un produit qui, s’il est utilisé par les salons, musées, centres commerciaux et événements publics, rend surtout accros 80 médias dont l’AFP, Le Monde ou Le Parisien, qui utilisent cette méthode pour dresser le bilan des manifestations. Pour Assaël Adary, fondateur de ce cabinet d’études, le plus intéressant n’est pas tant de pouvoir analyser telle ou telle source mais de pouvoir les hybrider ensemble, en allant souvent jusqu’à les conjuguer avec les données internes du client : « Ce qui est inédit, c’est de pouvoir faire raisonner de manière transversale une série de données, pour dessiner un meilleur relief des choses et une vision plus tranverse de l’individu. »

Mesure de l'émotion

Une autre grande promesse des dernières avancées technologiques est la mesure de l’émotion. Pour François Le Corre, chief operating officer de CSA Research, « il s’agit d’enrichir les enseignements déclaratifs d’informations émotionnelles non verbalisées pour mieux comprendre les mécanismes de décision d’un individu. Les neuro-sciences sont un vrai axe de développement, et nous n’en sommes qu’au début. » Les procédés se multiplient : facial coding sur de petits groupes pour analyser les réactions du visage, bracelets ou bagues à même de détecter les variations cardiaques, thermiques ou les modulations de voix... Mais le plus grand fantasme reste probablement celui du marketing prédictif, une méthode d’anticipation comportementale détectable grâce aux signaux faibles, même si en la matière, tout reste à faire.

L’exploration de ces nouveaux champs n’est pas sans conséquences organisationnelles pour les acteurs historiques du métier, que ce soit via des collaborations, des acquisitions, des recrutements de nouveaux profils... Les méthodologies se repensent elles aussi profondément, à l’image d’OpinionWay par exemple, qui a créé un hub entièrement consacré à l’hybridation des données, qu’elles soient internes ou externes. Le résultat des rapprochements de ces datas peut ensuite être directement injecté dans l’écosystème technologique du client - son CRM par exemple - pour rendre les recommandations plus opérationnelles. L'institut CSA vient, lui aussi, de lancer l’innovant Target onboarding, une offre qui permet de définir des segments de clients et prospects activables directement en on et offline.

Traiter la donnée sous toutes ses formes

Mais c’est probablement le modèle d’Ipsos qui va le plus loin. Outre les investissements pour s’attacher les services de nouveaux acteurs leur permettant de traiter la donnée sous toutes ses formes, la maison disrupte son métier en créant ses propres algorithmes. Enfin, l’institut innove également en utilisant le traitement automatique du langage naturel, une forme d'IA plus élaborée que celle des dictionnaires des langages traditionnellement utilisée. « Dans cette approche, la machine ne classe pas ses recherches dans des catégories données, mais structure elle-même la donnée, laissant les grandes thématiques émerger seules, explique Mathilde Guinaudeau, directrice Social Intelligence & Analytics d’Ipsos France. Évidemment, les data scientists et les analystes sont là pour donner du sens et entraîner la machine dans son analyse, jusqu’à obtenir quelque chose de pertinent. Car ne l’oublions pas, l’IA n’apporte pas de réponse. Sans l’humain, elle n’est rien. » Un principe qu’il est utile de rappeler.

Quand les start-up bousculent l’ordre établi

Le domaine des études n'échappe pas à la disruption. « Les données sont devenues une commodité, tout va beaucoup plus vite. Nous sommes là pour aider les opérationnels plus que les fonctions support dans leurs besoins, avec des produits simples et rapides pour relever leurs challenges quotidiens », résume Tarek Ouagguini, le fondateur de Happydemics. Créée en 2015, cette start-up fait fi de toutes les conventions en interrogeant les répondants dans leurs moments de vie, au fil de leurs navigations ou via des partenariats applicatifs, à l’aide de questionnaires courts, intégrant une tonalité directe, complice et intuitive. Les acteurs historiques ont bien intégré cette petite révolution, cherchant de plus en plus à travailler avec ces partenaires d’un nouveau genre en écosystème ouvert. Kantar vient par exemple d’ouvrir Station K, un lieu d’échanges et de pitchs dédié aux jeunes pousses. Un premier partenariat a été signé avec Realytics, spécialisé dans la mesure des performances sur le digital des campagnes TV. Pour le cofondateur de Linkfluence, Guilhem Fouetillou, la vérité réside probablement dans l’union des deux mondes : « la donnée non structurée reste méthodologiquement exigeante et la technologie seule ne suffit pas. Les nouveaux acteurs sont dans l’obligation eux aussi d’adopter les méthodes en vigueur. »

 

 

Le Grand débat fait débat

Qui eût cru que l’actualité du Grand débat allait en faire surgir un autre, celui de la comparaison entre les IA descendante et ascendante. La première reconnaît des dictionnaires de sémantique prédéfinis pour y classer des thèmes. La seconde, plus complexe à manier, laisse l’algorithme tourner seul sous coordination humaine pour faire spontanément émerger de grandes thématiques. C’est la première option qui a été retenue pour traiter les 2 millions de contributions reçues. Au-delà des problématiques d’interprétation et de représentativité, Maximilien Moulin, expert chez Wavestone s’interroge : « Le grand risque reste que l’IA nous trahisse en sortant les grandes tendances que l’on connaît déjà, alors que l’on attend plutôt des idées singulières et intéressantes. »

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.