Technologie
L'intelligence artificielle effraie tout autant qu'elle fait rêver. Helen Zeitoun, directrice générale d’Ipsos en France et CEO d’lpsos Sciences, revient sur les quatre grands points de vigilance à prendre en compte dans la responsabilité des entreprises et des médias.

Il n’y a probablement pas, aujourd’hui, de transformation d’entreprise pérenne sans une réflexion sérieuse sur l’intelligence artificielle et ses applications. L’explicabilité tout comme le déploiement de l’IA sont « clefs » dans le changement qui s’opère, par exemple, dans l’industrie des études - que j’ai la chance d’orchestrer en France pour Ipsos. Pour autant, l’IA est un outil. Le vrai sujet est de renouveler le métier, afin d’améliorer la finesse des décisions business dans un monde qui change profondément, et cela passe par un nouveau paradigme triangulaire technologie, sciences et savoir-faire «data agnostiques». L’IA, c’est donc avant tout un changement humain, organisationnel et culturel. Alors pourquoi tant de projets de transformation de métier sont-ils si souvent réduits à un simple investissement en IA, dénué de leur vrai sens initial ?

Oui, l’intelligence artificielle est prédominante. Et comme il est vrai qu’elle soulève des questions d’ordre sociétal, éthique, juridique, la transformation des entreprises est souvent challengée à l’aune du mythe de la « singularité technologique » (le remplacement des hommes par les machines), et laisse de côté la thèse opposée, qui place les espoirs dans l’IA comme salut de l’humanité, à l’aube de la quatrième révolution industrielle.

Bref, on ne peut l’ignorer, si l’IA accélère les changements, elle fait tout autant  peur qu’elle peut faire rêver. Au-delà des idées reçues, n’est-ce donc pas le moment de s’interroger sur la vraie responsabilité des entreprises quant à leur travail sur l’IA, et sur celle des médias concernant la communication qu’elles en font ? Quatre grandes problématiques cristallisent les oppositions autour de l’IA et s’imposent naturellement, comme des points de vigilance, dans la réflexion sur la responsabilité des entreprises et des médias.

 

Premier point de vigilance responsable : l’IA et les libertés individuelles

Eric von Hippel, Professeur d’Innovation Technologique au Massachusetts Institute of Technology (MIT), démystifie l’intelligence artificielle : « L’IA, dans son état actuel, est simplement un outil. Et comme n’importe quel outil, c’est son utilisation qui est déterminante. Prenez l’exemple d’un couteau : c’est un ustensile qui peut devenir aussi une arme. »

Force est de constater – et de déplorer - que la Chine développe l’intelligence artificielle pour surveiller et contrôler ses citoyens, ainsi que le dénonce le chercheur en IA Yoshua Bengio. Le dispositif chinois agrège des données variées sur chaque individu, afin de lui attribuer une « note sociale ». En cas de mauvais score, interdiction de prendre l’avion, de candidater à certains emplois…

À cet égard, le scientifique Joël de Rosnay pense que « ce qui est fait en Chine représente aussi une menace pour les démocraties occidentales qui pourraient être tentées par ces pratiques pour limiter les incivilités. […] Nous en avons parlé à Davos, des comités d’info-éthique se mettent en place pour éviter ces dérives ».

L’Union européenne, quant à elle, a fait le choix de protéger les libertés individuelles, avec le Règlement Général sur la Protection des Données (RGPD), appliqué depuis mai 2018. Et la France, bien avant les big data, a veillé à préserver la vie privée des citoyens : la création de la Commission Nationale de l’Informatique et des Libertés (CNIL) remonte… à 1978. Le monde des études, lui, a toujours intrinsèquement respecté en son sein la confidentialité des individus interrogés, le principe d’anonymisation des données, et a évolué naturellement avec le cadre juridique.

Toujours est-il qu’aujourd’hui, l’IA est déjà bien ancrée dans notre quotidien, sans que l’on en ait toujours conscience, des pages de résultats Google aux recommandations de Netflix ou d’Amazon, des sélections faites pour vous par Facebook de ce qui vous intéresse à la traduction instantanée et aux assistants personnels vocaux, des chatbots à la navigation GPS.

 

Deuxième point de vigilance responsable : l’IA et l’emploi

Les prévisions de l’impact de l’IA sur le marché du travail font débat. D’après un rapport de McKinsey*, la diminution de l’emploi équivalent temps plein due à l’IA atteindrait 18 % à l’échelle mondiale d’ici 2030. Mais elle serait compensée par 17 % de création de postes ! « L’innovation de l’intelligence artificielle s’inscrit dans le processus de destruction créatrice, cher à Schumpeter, souligne Joël de Rosnay. Certes, des emplois vont disparaître, mais l’IA va aussi créer plus d’emplois et de nouveaux métiers. »

N’est-il donc pas plus pertinent de parler d’une mutation du marché du travail, plutôt que d’une destruction massive des emplois ? C’est aussi ce que révèle une étude BCG Gamma et Ipsos** menée dans les entreprises de 7 pays, et publiée en juin 2018 : 53 % des salariés qui utilisent déjà des outils exploitant l’IA, s’attendent à voir leur emploi se transformer, quand ils sont seulement 33 % à imaginer sa disparition.

Le véritable risque réside davantage dans la fracture irrémédiable et définitive entre métiers hautement qualifiés et métiers dévalorisés. Le sociologue Antonio Casilli, dans son dernier ouvrage En attendant les robots (Seuil), dénonce, lui, le « digital labor » derrière l’IA à l’œuvre pour les grandes plateformes numériques : « Des myriades de tâcherons du clic non spécialisés exécutent un travail nécessaire pour sélectionner, améliorer, rendre les données interprétables. […] Le digital labor s’avère essentiel pour produire ce qui n’est que de l’intelligence artificielle largement “faite à la main”. »

D’où la mise en garde du mathématicien et député Cédric Villani dans son rapport « Donner un sens à l’intelligence artificielle », remis au gouvernement en mars 2018 : « La priorité doit être de développer les moyens d’une complémentarité riche entre le travail humain et l’activité de la machine. » Dans le monde des études, par exemple, l’IA a créé de nouvelles applications, de nouveaux métiers, de nouvelles formes de valeur. Et le Syntec œuvre à promouvoir ces nouvelles opportunités dans les sciences des données (textes, images, vidéo, voix). Les automatisations à grande échelle de chatbots, ou les processus de qualité renforcée, de type anti-fraude de panélistes, sont autant de nouveaux emplois, de mix de formations et de nouveaux profils. Chez Ipsos, suite au rachat de Synthesio, plateforme leader de social listening, nous avons créé, en France, un Data Management Center qui ancre ces nouveaux savoirs et travaille notre changement culturel en profondeur, avec l’ensemble de nos experts, et main dans la main avec nos clients.

 

Troisième point de vigilance responsable : l’IA et le pacte social

Du choix des données à traiter aux critères de paramétrage des algorithmes, l’IA peut reproduire, voire amplifier, des biais et des discriminations déjà présents dans la société. « L’intelligence artificielle ne peut pas être une nouvelle machine à exclure. C’est une exigence démocratique dans un contexte où ces technologies […] ouvrent de formidables opportunités de création de valeur et de développement de nos sociétés et des individus. Ces opportunités doivent bénéficier à tous », avertit Cédric Villani dans son rapport. La vigilance de tous les acteurs de l’écosystème IA, depuis le développeur d’algorithme jusqu’à l’usager final, doit donc être mobilisée, afin que l’IA facilite et entretienne le lien social.

Se pose également la question des conséquences de l’IA sur certaines logiques collectives, garantes de l’équilibre de nos sociétés. Le profilage ultra fin des individus ne risque-t-il pas d’enfermer chacun dans sa bulle culturelle, de remettre en cause le principe de la mutualisation du risque et plus globalement d’affaiblir le pluralisme démocratique ?

A contrario, certaines initiatives montrent que l’IA peut renforcer le tissu social et favoriser l’émergence de nouvelles formes de solidarité à grande échelle. Dans le cadre du Programme des Nations Unies pour le Développement (PNUD), le réseau de laboratoires d’accélérateurs nationaux vient d’être lancé et concerne potentiellement 60 pays. Il vise à repérer, via les réseaux sociaux, des solutions locales innovantes aux problèmes quotidiens des populations défavorisées, à permettre leur mise en œuvre et à accélérer leur dissémination. Une initiative ambitieuse dont le protocole algorithmique a été présenté aux Nations Unies par le MIT et Ipsos, et qui témoigne du potentiel de solidarité de l’IA dans un certain nombre de ses applications.

 

Quatrième point de vigilance responsable : l’IA et l’intelligence humaine

Oui, la révélation de l’existence du programme GPT2 de la société d’Elon Musk, OpenAI, qui est capable de créer de faux articles de presse tout à fait crédibles, est effrayante. C’est un défi à l’intelligence humaine à l’ère des fake news. OpenAI renonce d’ailleurs à diffuser GPT2. Mais l’IA peut aussi être un formidable outil de mise en commun des intelligences individuelles dans un élan « bottom-up », et démultiplier ainsi l’intelligence collaborative. Citons, par exemple, la Méthode d’identification des innovations des « lead users ». Elle a été mise au point sous la conduite d’Eric von Hippel, spécialiste mondial de « l’Open Innovation », au sein du Lab Innovation du MIT dont Ipsos est membre. Cette méthode rapide et efficiente s’appuie sur un système d’analyse sémantique à partir de mots, photos et vidéos. Dans les conversations sur les réseaux sociaux, il détecte les créations et inventions mises au point par les « end users » eux-mêmes, experts d’un domaine, sportif ou autre. De quoi repenser les modèles du marketing et inspirer les entreprises dans leurs stratégies vraiment people centric, à la recherche de nouveaux produits ou services. Nous faisons, grâce à l’IA, émerger les intelligences non artificielles…

On le voit ici, l’IA accélère les réflexions intelligentes. « Je préfère parler d’intelligence auxiliaire, plutôt que d’intelligence artificielle, précise Joël de Rosnay. Cette intelligence auxiliaire va nous permettre de mieux réfléchir ensemble et va conduire à un changement positif de la nature humaine. »

En conclusion, le débat sur l’intelligence artificielle nous oblige donc à questionner nos modèles de société, sachant que les entreprises, à travers leurs offres de produits et de services, influent, de fait, sur ces modèles. À l’heure où les citoyens-consommateurs-collaborateurs sont toujours plus en quête de sens, il revient aux entreprises qui utilisent l’IA de communiquer et de se montrer responsables et éthiques, pour allier respect des individus, objectifs économiques et intégrité de la société.

À ce propos, Ipsos va prochainement lancer une Organisation Scientifique pluri-disciplinaire et mondiale, dans le cadre de son programme « Total Understanding », dans laquelle l’éthique prend tout son sens aux côtés de l’IA, pour une compréhension approfondie, holistique et scientifiquement solide des phénomènes de consommation et de formation de l’opinion. Cette compréhension repose sur les capteurs que sont les sciences sociales, les sciences du langage, les sciences cognitives, les neurosciences et les sciences des données.

Ainsi chaque entreprise doit pouvoir, dans sa transformation, agir dans le sens de comités d’éthique appliquée à son domaine d’action, dès lors qu’elle utilise l’IA. Ce serait la preuve d’une authentique « people centricity », qui prendrait en compte les aspirations éthiques des consommateurs, citoyens et collaborateurs. Et si cette « intelligence auxiliaire » réveillait ce qu’il y a de plus éclairé chez l’Homme ?

Chiffres-clés : 

- 1 901 milliards de dollarsde chiffre d’affaires mondial prévu pour le marché global de l’IA en 2019, 3 923 milliards de dollars annoncés en 2022 (Source : Gartner - Avril 2018)

- 70 % : Part des entreprises dans le monde qui auront adopté des technologies de l’IA en 2030 (Source : McKinsey - Septembre 2018)

- 33 zettaoctets (10 21 octets) de big data stockées dans le monde en 2018, 175 zettaoctets (10 21 octets) de big data stockées dans le monde en 2025 (Source : IDC - Data Age 2025 - Novembre 2018)

 

 

Comment définir l'IA : 

« L’intelligence artificielle est un ensemble d’algorithmes et de méthodes permettant des représentations qui structurent des modèles de pensée, de perception et d’action ». (MIT)

 

Repères historiques : 

1956 : Les mathématiciens américains John McCarthy et Marvin Lee Minsky conceptualisent l’intelligence artificielle en une discipline scientifique à part entière.

1997 : L’ordinateur Deep Blue d’IBM bat le champion du monde d’échecs Garry Kasparov.

2011 : Le programme Watson d’IBM bat les champions américains du jeu télévisé Jeopardy !, grâce à son aptitude, inédite alors, à traiter un grand volume d’informations trouvées sur le web.

2016 : Le programme AlphaGo de Google DeepMind, qui s’est perfectionné seul en mode machine learning, bat le champion du monde de jeu de go, le Sud-Coréen Lee Sedol.

2017 : La version améliorée AlphaGoZero apprend seule, en jouant contre elle-même, les jeux d’échecs, de go et de shogi. Elle bat AlphaGo, 100 à zero, au jeu de go.

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.