Nouvelles technologies
S’il peut apprendre et décider par lui-même, l’algorithme reste un outil paramétré et surveillé par la main de l’homme, y compris par l'internaute de plus en plus invité à reprendre le contrôle.

13 novembre, 21h10. Le match France-Allemagne bat son plein au Stade de France. Pour l’occasion, les algorithmes de Vigiglobe, start-up spécialisée dans l'écoute du web social, animent une opération publicitaire digitale innovante pour le compte d’un annonceur automobile. Un match parallèle en somme qui confronte l’engagement sur Twitter des supporters français à celui des allemands en temps réel, sous forme de nuages de mots.

21h16, une première explosion retentit. Chacun se connecte à Twitter pour suivre le déroulé des événements qui se trament à Saint-Denis et à Paris. Rapidement, l’opération publicitaire tourne court. Les termes fusillade, attentat, terrorisme ou kamikaze apparaissent sur la data-visualisation intégrée au site de la marque. «Nos algorithmes agissent comme des vigies. Ils nous aident à prendre une décision. Ils ne sont pas la décision. Nous avons donc pu proposer à l’annonceur de s’adapter à cette actualité tragique et, en l’espèce, d’arrêter immédiatement la campagne», raconte Leendert de Voogd, directeur général de Vigiglobe.

Rédiger du texte, animer une page d’accueil ou prédire l’avenir… Les initiatives technologiques se multiplient autour des algorithmes qui occupent certaines fonctions habituellement réservées aux humains. Pourtant, s’il peut «apprendre», «comprendre» ou «décider», de manière toujours plus puissante, l’algorithme, même d’intelligence artificielle, n’en reste pas moins un outil paramétré en amont et surveillé en aval par la main de l’homme. Le dictionnaire Larousse le définit comme un simple «ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations».

Carburant

Du reste, selon ce qu’on veut faire avec un algorithme on ne va pas l’«éduquer» de la même façon. Dans le cas de Vigiglobe, qui propose «l’analyse du sentiment», ce sont des «troupes d’étudiants» qui annotent manuellement et en continu des centaines de milliers de tweets, les classant selon le ton du message. «Ces corpus annotés servent de carburant à l’algorithme. Quand un nouveau tweet entre, il va le comparer avec l’ensemble des messages qu’il a appris. Il est même capable de repérer l’ironie. Si Nadine Morano écrit “Encore bravo François Hollande”, il comprend que le ton est négatif malgré le mot “bravo”», explique Leendert de Voogd.

Cette méthode de machine learning est également nommée apprentissage supervisé. «Il existe en fait deux approches, révèle le sociologue Dominique Cardon (1). La méthode supervisée repose sur un objectif fixé par un humain. Dans la méthode non supervisée, le calculateur découvre lui-même un modèle d’interprétation des variables sans avoir d’objectif.» 

La tendance est de combiner ces deux approches. À l’instar d’Outbrain par exemple, spécialisée dans la recommandation de contenus et la personnalisation de l’information: «Nos 60 algorithmes sont paramétrés par près de 200 data-scientists, basés en Israël. Ensuite, nos machines apprennent plus de 100 000 signaux collectés sur internet par seconde (device, géolocalisation, moment de la journée…) dans le but de prédire quels sont les contenus qui vont intéresser le plus les internautes, à un moment donné, relate Franck Monsauret, directeur général d’Outbrain France. Finalement, nous travaillons tous pour les algorithmes, sourit Dominique Cardon. Après le paramétrage, l’étiquetage, c’est l’utilisateur qui prend la main. Ces machines se nourrissent des traces que nous laissons sur internet. D'ailleurs les Gafa en ont fait leur force.»

Programmation manuelle

Mais pour Cyrille Frank, consultant médias, ce phénomène n’est pas sans risque: «Pour ne pas se retrouver enfermé dans cette forme de mouvement circulaire, il faut redonner du pouvoir aux humains». À cet égard, une autre tendance émerge qui consiste à ouvrir un peu plus les paramètres des algorithmes aux utilisateurs. Apple Music, le système de musique à la demande d’Apple, propose à ses membres de remplir manuellement un certain nombre de données. De même, Facebook a inauguré en juin 2015 son onglet «See First» qui invite les utilisateurs à prendre le contrôle sur leur «News Feed» (fil d’actualité). «Personne mieux que l’utilisateur ne sait ce qui lui plaît ou pas, explique un porte-parole de Facebook. Chaque membre peut désormais fournir, à la main, des indications sur ce qu’il aime voir ou pas dans ce fil, et pourquoi. Ce programme nous permet de déterminer le type de contenu auquel vous pourriez ne pas réagir (pas de mention J’aime, de commentaire ni de clic), mais qui vous intéresse quand même.» «J’espère que c’est une tendance qui se généralise, confie Dominique Cardon. Il ne faut pas rester dans cette position infantile et subir les algorithmes. Il faut chercher à comprendre et reprendre la main».

Ne dîtes plus «neutralité»... 

…Parlez plutôt de «loyauté». «Un algorithme ne peut pas être neutre –il est à l’image de l’homme qui le crée–, du reste on ne le lui demande pas. En revanche, on demande aux entreprises technologiques d’être loyales», explique le sociologue Dominique Cardon. C’est bien sur la question de sa loyauté que devra répondre le moteur de recherche Google devant les tribunaux européens, accusé de favoriser systématiquement les liens vers des partenaires ou vers ses propres services. Si ces soupçons sont «légitimes», de l’avis de Dominique Cardon, «les GAFA n’ont aucun intérêt à manipuler les algorithmes, ils vouent un véritable culte à l’expérience utilisateur».

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.