Tech
La Commission européenne travaille sur une règlementation de l’intelligence artificielle pour y intégrer plus de valeurs humaines. Retour sur la notion d’explicabilité pour mieux comprendre les biais parfois racistes et sexistes que la technologie reproduit.

Malgré tout ce qu’elle promet, l’intelligence artificielle est encore loin d’être parfaite. Les systèmes auto-apprenants – via machine learning – reproduisent parfois tous les biais humains en les accentuant. Racisme, sexisme, discrimination... les erreurs peuvent avoir des conséquences dramatiques. Quand un algorithme de reconnaissance d’image distingue une abeille dans un bus scolaire, ça peut faire sourire. Mais lorsqu’il refuse tout seul d’accorder un crédit à une personne parce qu’elle est portugaise sans aucune explication (un véritable cas rencontré), c’est plus embêtant. Sans compter les bots Twitter qui deviennent nazis – comme ce fut le cas pour Microsoft –, etc. Et c’est justement le sens de la récente réglementation européenne, rapporté par l’élu espagnol Iban Garcia del Blanco, sur l’IA, une première mondiale.

«Dans l’absolu, un algorithme d’intelligence artificielle a besoin de biais. C’est là-dessus qu’il se base pour converger», explique Nicolas Méric, fondateur de DreamQuark. Il cherche des points communs, des ressemblances entre les données pour prendre des décisions. Mais ces ressemblances sont parfois totalement hors de propos. C’est justement à cela que s’attaque DreamQuark. La société a créé une plateforme pour développer une IA «explicable». L’explicabilité ? C’est une notion qui prend de plus en plus d’importance dans la communauté des développeurs. «Cela consiste à être capable de montrer les facteurs qui ont permis à l’algorithme de prendre telle ou telle décision», détaille le spécialiste.

Retracer les étapes

Sur le papier, la notion est simple. Mais la réalité est plus complexe. Les algorithmes auto-apprenants sont «récompensés» quand ils prennent de bonnes décisions et «punis» lorsque c’est la mauvaise. Ils cheminent ainsi tous seuls sur d’énormes bases de données. «Mais au bout du compte, on aboutit à des “boîtes” noires, qui devront peut-être un jour décider de comment l’on devra se faire soigner», poursuit Nicolas Méric. Peut-on vraiment faire une confiance aveugle à un système qui vous recommande de prendre un traitement dangereux ? On a besoin de comprendre le raisonnement qu’il a eu. Au moins en partie.

«Avant, l’explicabilité n’était pas un enjeu. Mais sans elle, l’IA souffrira de son acceptabilité: il y aura toujours des réticences. Les premières solutions sont apparues en 2016. Et maintenant, il faut la penser dès le départ et bâtir des algorithmes qui permettent à l’utilisateur final de comprendre les étapes des décisions», décrit-il. Et ainsi prévenir les biais qui pourrait survenir, orienter la décision finale et reprendre la main sur la machine. Que ce soit sur les données de départ pour éviter tout racisme ou sexisme, ou sur les «raccourcis» que prendrait la machine. C’est ainsi à l’humain d’y introduire de la complexité. Le rapport européen suggère «des moyens de garantir la sécurité, la transparence et la responsabilisation du secteur, tout en évitant le favoritisme et la discrimination». À terme, cela aboutirait à des algorithmes certifiés UE et auxquels tous les acteurs, américains ou chinois, devront se plier. Dans les faits, une véritable avancée.   

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.