Mobilis in mobile
Alerte sur une petite idée qui fait son chemin...

N’en jetez plus, nous sommes condamnés ! Terminator est tout près de frapper à notre porte et de tout détruire. Car l’intelligence artificielle ne s’incarne pas dans un robot tout mimi façon WALL-E. Non, dernièrement, le média New Scientist a vu DeepCoder voler sans vergogne, et Business Insider a raconté comment l’IA de Deepmind (labo de Google) était capable de tuer sans pitié. Et la petite dernière d’un groupe de chercheurs du MIT s’est même suicidée après avoir « pété un câble » (sic) selon Tech Crunch.

Avouons que la lecture des actualités autour de l'intelligence artificielle n’inspire pas une confiance démesurée en l’avenir. Et pourtant, le problème ne réside pas dans les avancées actuelles de la recherche en IA, mais bien dans leur traitement médiatique.

Car si l’on recherche sérieusement à quoi sont dues toutes les « qualités » ou les « comportements » assignés par certains médias aux intelligences artificielles, on se rend compte que l’on parle en fait :

- d’une IA programmée pour créer un code devant lui permettre de reconstituer une suite d’opérations parvenant à un résultat prévu (Deep Coder),

- de deux schémas d'entraînements pour simuler la coopération et la confrontation testées sur deux IA (Deep Mind),

- d’une IA capable d’affronter des humains au jeu vidéo Super Smash Bros Melee (MIT).

Bref, à chaque fois, ces IA ont été programmées pour faire ce qu’elles ont fait. En fait, 3 écueils sont récurrents dans l’analyse des résultats de ces recherches.

Peur artificielle

Le premier correspond au syndrome «95% de mauvaises nouvelles» des journaux télévisés: il est toujours plus tentant (et sans doute payant) de mentionner les résultats qui pourraient faire frémir, que ceux qui pourraient rassurer. À l’image des deux simulations de DeepMind, l’une qui prévoyait de faire coopérer deux IA et l’autre de les faire s’affronter, devinez qui a eu la faveur des journalistes ? La seconde, bien sûr.

Le second écueil réside dans la tentation d’anthropomorphiser les résultats (ce qui, d’ailleurs, est parfois aussi le fait des chercheurs eux-mêmes) afin de mieux faire comprendre les avancées au béotien. Mais ce tropisme va trop loin: évoquer «ressenti », «agressivité», «instinct de tueur» ou «suicide» pour souligner un comportement résultant de centaines de lignes de codes est inapproprié.

Le troisième écueil est le manque criant de rappel du contexte et du périmètre des expérimentations. Car celles-ci, même si elles peuvent faire appel à des modèles d’IA éminemment complexes et novateurs, sont souvent réalisées dans un cadre contraint, par exemple un environnement graphique simple fait de quelques centaines de pixels.

Dans ce contexte, l’anthropomorphisme à outrance prend des tournures comiques. Après tout, on ne dirait pas d’un redoutable joueur de belote que ses victoires dénotent d'un quelconque « instinct de tueur ».

La morale de cette histoire, c'est que l’IA n’en a pas - en tout cas, pas aujourd’hui. Revenons-en à ma première phrase : seuls les traits «sans vergogne» et «sans pitié» sont véridiques. Non pas que le caractère inverse soit attesté - seulement toute impossibilité d’éprouver des sentiments, envies et dilemmes. L’intelligence artificielle n’est ni morale ni immorale : elle est amorale.

Cela devrait nous rassurer, en fin de compte: un modèle se nourrit des données qu’on lui fournit et poursuit l’objectif qu’on lui assigne. Ni plus ni moins. Il ne fait rien par intérêt ou par altruisme: il optimise. Tout le reste n’est qu’habillage de nos angoisses collectives. Alors la prochaine fois que vous lisez un article alarmiste, ne pensez pas Terminator, mais plutôt Menace fantôme.

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.