Vous êtes ici

Pour bénéficier des alertes ou des favoris, vous devez vous identifier sur le site :

Vous avez déjà un identifiant sur stratégies.fr ? Identifiez-vous

Pas encore d'identifiant ? Créez vos identifiants

L'intelligence artificielle est en marche, qu'en dit-on à Berkeley ?

18/10/2016 - par Odile Roujol

Nous avons peut-être atteint un nouveau point d’inflexion dans les entreprises. «Dans le passé, une grande partie des top 500 CEO aurait aimé commencer plus tôt leur stratégie internet. Dans cinq ans, il est probable qu’une partie des CEO souhaiteront avoir commencé leur stratégie IA plus tôt. L’IA est comme l’électricité il y a cent ans, transformant chaque industrie», affirmait récemment Andrew Ng (Baidu Research). Sur cette réflexion, je passe la parole à un expert de la Silicon Valley. Laurent El Ghaoui, professeur à UC Berkeley en Electrical Engineering and Computer Sciences (X82 et PHD en aéronautique à Stanford), fait partie du laboratoire d’intelligence artificielle de l'UC Berkeley (BAIR) et y enseigne les modèles d’optimisation et de science des données, ainsi que leur application dans l’industrie. Il est cofondateur et chef scientifique de Sum Up Analytics, une start-up spécialisée dans l’intelligence prédictive autour du texte et de la sémantique, et de Kayrros, start-up de big data pour les marchés financiers de l’énergie.

Revenons aux grandes idées avec lui et prenons quelques exemples illustrant ce que les dernières avancées permettent maintenant et dans le futur.

Qu’est-ce que l’intelligence artificielle?

L’IA, que l’on peut assimiler à la science des données, est un agrégat, en pleine ébullition, de disciplines parfois anciennes (statistique, optimisation, mathématiques appliquées) et plus récentes («text & image processing», «natural language processing», bases de données, réseaux, «cloud computing»), tente de répondre aux énormes défis posés par la révolution digitale apportée par la conjonction de l’ordinateur et de l’internet. Elle rencontre un grand écho depuis que des géants tels que Google, Amazon et Facebook, ont montré quelle manne peut représenter l’exploitation algorithmique rapide des données grand public, tels que les réseaux sociaux et le web ouvert.

L’orientation initiale vers les données grand public ne doit pas faire oublier que pour la plupart des grandes entreprises, les données «internes» représentent un gisement énorme. Ces données internes posent des problèmes spécifiques: les logiciels doivent fonctionner sur une architecture interne parfois datée; les algorithmes eux-mêmes doivent marcher de manière autonome, sans l’énorme base statistique fournie par des millions d’utilisateurs, contrairement au moteur de recherche Google, par exemple, qui peut utiliser des millions de requêtes déjà soumises pour affiner les résultats.

L’IA comprend l’apprentissage par ordinateur («machine learning»), un peu comme de la statistique dopée au calcul de grande taille, et l’optimisation (programmation mathématique, recherche opérationnelle), elle aussi de grande taille, qui fournit des algorithmes de décision. L’apprentissage permet de comprendre (par exemple, regrouper des consommateurs suivant leurs caractéristiques, en extraire des comportements typiques), et de prédire (par exemple, la demande pour les différents produits); l’optimisation utilise ces prédictions pour décider ou recommander des décisions.
Une des caractéristiques de l’IA est qu’elle s’applique à un très large éventail d’activités, y compris humaines. Les mêmes algorithmes sont utilisés pour reconnaître des concepts dans des images, des textes, des structures dans des séries temporelles de prix. Pour cela, il faut savoir traduire les données brutes en nombres que l’ordinateur peut comprendre. Ce problème de représentation est un grand défi, en partie résolu pour des données «typiques» comme les images de type grand public. Lorsqu’il s’agit de traiter des données internes, non typiques, par exemple des images satellites particulières, ou des rapports de sûreté de centrales de production, les approches trouvées sur l’étagère ne suffisent pas.

Dans la distribution, l’analyse de sentiment est-il le Graal pour comprendre la satisfaction du client?

Pour une grande entreprise, l’IA peut représenter un sésame potentiel et un énorme challenge. Il y a encore de gros écarts entre ce qu’on peut faire techniquement et l’offre logicielle. Ainsi, beaucoup de solutions actuelles proposées pour la compréhension des clients à travers l’analyse de verbatims reposent sur une approche maintenant classique, dite «analyse de sentiment». Celle-ci requiert typiquement un travail parfois lourd, celui de repérer les mots «positifs» ou «négatifs». Dans un projet pour un géant mondial de la distribution, nous avons découvert que l’analyse de sentiments peut fournir des résultats très biaisés: ainsi, le mot «aimable» semble positif a priori, alors que la plupart des commentaires utilisent ce mot de manière négative, comme dans la phrase «la caissière pourrait être plus aimable». Il faut dans l’avenir aller au-delà des points de vue binaires et développer une réelle analyse de tout un éventail de sentiments.

Industries et distribution, ce que l’IA peut révolutionner avec des gains de coûts réels.

L’IA a pour but de fournir des résultats concrets et mesurables. Pour EDF, nous avons contribué à piloter une centrale de production d’énergie (chaleur et électricité) en minimisant les coûts. La demande n’étant pas connue à l’avance, piloter 24 heures de production prend en compte des contraintes comprenant des milliers de variables. On a pu observer une réduction des coûts de l’ordre de 4 à 6%, ce qui est significatif. Pour un distributeur international, nous avons aidé au «pricing» de produits en fonction d’une demande mal connue (surtout pour des millions de produits peu achetés) et cela cent fois plus vite, avec un impact réel sur le ROI.
La maintenance prédictive correspond à une vision dite «Internet of Things», celle d’installer des millions de sondes partout où se trouvent des machines, collectant en temps réel des séries temporelles (température, pression) et les analysant pour mieux prévoir pannes ou incidents. Cette vision est lourde à gérer: le moindre «proof of concept» dépasse les millions d’euros, le retour sur investissement est encore incertain. Il existe cependant un énorme gisement interne: les rapports de maintenance ou de sûreté. On retrouve l’analyse de textes en interne avec de nouveaux défis: comment prédire avec du texte? Quelle est la bonne représentation numérique?
Là encore, il faut commencer par des projets pour valider des connaissances établies. La Nasa maintient une base de données de rapports écrits par les pilotes commerciaux après leurs vols, on a pu comprendre avec eux quels types d’incidents caractérisent chaque aéroport américain et y retrouver les problèmes connus. Nous passons maintenant à la phase prédictive, qui permettra de valider et prévoir des incidents, tels que ceux liés à la turbulence («wake vortex»), ou la fatigue. Le but est de mieux comprendre les différents types de pannes ou d’incidents, former les ingénieurs de maintenance, et allouer les budgets par des techniques d’optimisation.

Conclusion: l'écosystème est essentiel.

L’IA s’inscrit dans une problématique globale et de long terme: une conscience humaine aidée par l’ordinateur et le réseau. Elle porte un énorme potentiel. Cela, tout le monde le lit, mais comment enclencher concrètement le processus? Les investissements peuvent être conséquents, et la stratégie ne se révéler profitable qu’à terme : Amazon, Microsoft et Salesforce investissent massivement, mais aussi Walmart, avec le rachat de la start-up Kosmix (300 millions de dollars), devenue un lab de 1 500 ingénieurs, ou bien GE qui se veut le champion de l’internet des objets. Se remettre entièrement à d’autres grandes plateformes, c’est effectivement remettre à un tiers les clés du coffre qui contient l’or du monde de demain: les données.

Professeur dans la Bay Area depuis 1999, j’ai vécu une évolution positive dans le monde des universités: elles se tournent résolument vers l’innovation et les start-up (avec des incubateurs comme The House Fund, encourageant les professeurs-entrepreneurs), les partenariats internationaux (comme l’École polytechnique et Berkeley avec le programme d’innovation Learn 2 Launch) et industriels. Dans cet écosystème, le professeur n’est plus dans sa tour d’ivoire, mais plutôt tout près du centre, avec un pied dans l’action, un autre dans la recherche et l’enseignement.
Pour répondre aux défis en IA, il s’agit d’articuler une réponse multidimensionnelle, comprenant une partie d’innovation interne avec le soutien aux universités et centres de recherche, d’innovation externe (start-up) à l’écoute de l’écosystème, avec des projets ciblés et un gain potentiel mesurable.
La clé de la réussite? Un pilotage au niveau des décideurs de l’entreprise, une culture agile et ouverte.

Envoyer par mail un article

L'intelligence artificielle est en marche, qu'en dit-on à Berkeley ?

Séparer les adresses par des virgules
M’envoyer une copie par e-mail
Email this Article

Thank you for your interest in spreading the word about Stratégies.

NOTE: We only request your email address so that the person you are recommending the page to knows that you wanted them to see it, and that it is not junk mail. We do not capture any email address.

Plus d’informations sur les agences avec les Guides Stratégies

W