Bienvenue dans l’épisode 4 de Data Talks, la série de Splunk dans laquelle des experts de la donnée décryptent pour nous les nouvelles tendances autour de la data. Nous retrouvons aujourd’hui un des spécialistes français de la donnée, Axel Cypel, spécialiste de la gestion de projets en data science.
Ingénieur des Mines de Paris exerçant actuellement dans le secteur bancaire, il est l’auteur d’un essai intitulé « Au cœur de l’intelligence artificielle — Des algorithmes à l’IA forte », dans lequel il se propose de démêler le vrai du faux sur l’intelligence artificielle.
Si on devait rentrer dans le détail, il nous faudrait certainement plusieurs heures afin de détailler les 42 points qui peuvent définir le terme d’intelligence artificielle, mais pour faire court, on peut déjà mettre de côté la « fausse IA », celle des films de science-fiction ou du monde du marketing. Dans une certaine mesure, l’expression « intelligence artificielle » est en effet très mal choisie, car il s’agit d’un oxymore alliant une caractéristique typiquement humaine, l’intelligence, à une notion « anti-naturelle ». Selon cette définition, l’IA renvoie donc à du NOUS fabriqué par NOUS, soit une forme d’intelligence créée par l’être humain sans le concours des voies naturelles. Elle fait parfois peur, car elle chercherait à nous supplanter, ou elle intrigue par la promesse de nous libérer de toutes sortes de tâches du ressort de l’intellect.
On peut caractériser la « vraie IA » comme l’ensemble des processus mathématiques et informatiques permettant de faire réaliser par des machines des tâches pour lesquelles on considère usuellement que l’homme utilise son intelligence. On pourrait reprocher à cette définition de ne pas expliciter le terme d’intelligence, sur lequel il est très difficile de s’entendre, mais l’important dans cette phrase, c’est avant tout l’expression « processus mathématiques et informatiques », dont un des représentants est le mot « algorithmes ».
Certains commentateurs de la discipline estiment ainsi que le terme d’intelligence artificielle gagnerait à être remplacé par son pendant technique : l’intelligence algorithmique. Cela me semble approprié, car mettant l’accent sur la notion de calcul. Pour expliquer de quoi il s’agit, on compare souvent les algorithmes à des recettes, c’est-à-dire à une suite de processus systématiques parvenant à un résultat en un nombre fini d’étapes.
On distingue actuellement deux grands types d’algorithmes :
On considère habituellement, en tout cas, que la data est indispensable à l’IA, mais il est intéressant d’examiner la question sous un autre angle. Tout d’abord, il est important de souligner que la mode actuelle de l’intelligence artificielle a pour moteur l’apprentissage machine, à savoir la modélisation à partir des données. Il faut toutefois garder à l’esprit que le machine learning ne représente pas toute l’IA, mais uniquement la manière principale dont on la pratique aujourd’hui.
Pour entrer un peu plus dans le détail, il est nécessaire de rappeler ce qu’est l’apprentissage machine : des algorithmes d’optimisation, c’est-à-dire des méthodes informatiques permettant d’extraire de l’information à partir des données fournies en entrée. L’output de ces algorithmes forme un modèle, c’est-à-dire une équation qui résume les corrélations trouvées dans les data et qui peut être appliquée à de nouvelles données afin d’obtenir des prédictions, par exemple.
L’éclosion récente de ce paradigme, ou plutôt de ses applications, a été possible pour deux raisons : l’augmentation de la puissance de calcul informatique et la massification des données disponibles, que l’on appelle Big Data. En effet, à l’image de nos photos, la plupart de nos échanges et documents quotidiens sont désormais numérisés, représentant ainsi un grand volume de données variées qu’il est nécessaire de traiter avec vitesse, les fameux 3 V du Big Data.
Dans ce contexte, le premier besoin concerne l’organisation de l’archivage et le traitement de cette masse phénoménale de data. Une fois ces architectures en place, les données peuvent enfin être exploitées grâce à l’IA afin de détecter d’éventuelles corrélations dans les vidéos que les gens regardent, leurs requêtes dans les moteurs de recherche, etc. Donc, pour répondre à la question, ces modèles d’IA, nés des infrastructures de stockage qui ont permis de les entraîner, sont en effet les seuls à pouvoir concrètement traiter ces data.
Avant de parler des diverses manières d’approcher l’IA dans un contexte professionnel, il me semble pertinent d’établir une typologie des entreprises concernées. Pour commencer, on trouve les grandes sociétés du numérique, les GAFAM, acteurs majeurs qui ont largement contribué à l’essor du Big Data.
Ces entreprises commerciales, faisant un usage constant des technologies d’intelligence artificielle, ont donc tout intérêt à appuyer leur communication autour de l’IA, ce qui les pousse parfois à minimiser leurs errements et à mettre l’accent sur du marketing, comme en 2016, lorsque Lee Sedol, un des plus grands joueurs de Go du monde, a été battu par DeepMind, l’intelligence artificielle de Google. D’un autre côté, les GAFAM contribuent grandement à l’open source et mettent d’importantes librairies à disposition des data scientists. Là où le mécénat rejoint le prosélytisme…
Les grandes entreprises dont l’IA ne constitue pas le cœur de métier (mais qui peuvent recruter des spécialistes) adoptent, quant à elles, généralement une approche classique permettant de détecter les projets susceptibles de profiter de ce type de technologies. Cette stratégie s’oriente alors souvent sur des tâches pouvant être automatisées, comme l’analyse d’images ou de textes.
D’un point de vue organisationnel, il me semble intéressant de noter que « faire de l’IA c’est faire rentrer plus d’ingénierie dans l’entreprise ». Cette démarche correspond bien à l’approche traditionnelle des grandes sociétés industrielles, techniques ou technologiques, mais les plus petites structures devraient aussi pouvoir y accéder. On constate, en effet, que le marché se structure autour de solutions plus accessibles, comme les divers produits proposés par les start-ups, les « services cognitifs » accompagnant dorénavant le cloud des GAFAM, ou les conseils évangélistes des cabinets de consulting.
Si l’on se concentre sur le monde de l’entreprise, en mettant donc de côté les chercheurs et les théoriciens de la discipline, il suffit finalement de reprendre la chaîne de mise en œuvre d’un projet d’IA pour voir apparaître quatre groupes :
Comme on le voit, faire entrer plus d’ingénierie dans l’entreprise se traduit donc concrètement par une augmentation du nombre de profils techniques.
Ma remarque va peut-être sembler impertinente, mais je me demande s’il est réellement nécessaire de créer de nouvelles formations. L’IA tient en effet plus de l’actualisation de professions déjà bien connues que d’une discipline inédite, et les formations dans le domaine ne font pas défaut. La France a ainsi toujours été considérée comme l’alma mater des matheux, et les écoles d’ingénieurs, ou de commerce, proposent également un grand nombre de cursus spécialisés. Et c’est sans compter sur les formations alternatives, en ligne, qui permettent aux personnes intéressées d’envisager une réorientation.
Pourtant, comme vous l’avez évoqué, le marché connaît des tensions et le recrutement se révèle souvent compliqué. Toutefois, à mon avis, ce problème ne vient pas du manque d’offre, mais du type de profils recherchés. La plupart du temps, les entreprises veulent en effet recruter du Plug and Play, des seniors immédiatement opérationnels qui, par définition, ne sortent pas de l’école. Quoi qu’il en soit, ces filières me semblent avoir un bel avenir devant elles, à condition d’écouter le marché et d’offrir à leurs élèves l’ouverture en compétences nécessaires pour ne pas se laisser enfermer dans un rôle conjoncturel.
Les utilisations pratiques de l’IA sont nombreuses. On peut notamment citer les tâches de classification automatique d’images ou de textes, associées à la détection d’intentions, la reconnaissance d’entités nommées, l’analyse de pièces jointes ou la construction de réponses automatiques, par exemple.
On peut également parler des outils de personnalisation, utilisés dans les domaines du développement marketing ou du ciblage de contenu publicitaire, des moteurs de recommandation, de l’analyse vidéo, la traduction, la transcription ainsi que la synthèse vocale, la lutte contre la fraude ou la reconnaissance faciale. En bref, toutes les masses de données sur lesquelles peuvent être développés des modèles permettant d’automatiser certaines fonctions de l’entreprise constituent un gisement potentiel d’utilisations pratiques pour l’intelligence artificielle.
Si on met de côté les GAFAM, le développement de l’IA en entreprise est relativement récent, mais les pratiques ont déjà connu une sorte de « sélection naturelle ». Du côté de la technique et de la programmation se sont donc développés un certain nombre de standards, comme celui du DevOps, ou MLOps lorsqu’il est appliqué à l’intelligence artificielle.
Dans le domaine de la gestion de projets, il est d’usage de citer les approches Agiles, mais il me semble que toutes les approches respectant les fondamentaux et s’inscrivant dans un contexte porteur centré sur les réels besoins métier peuvent être considérées comme des bonnes pratiques.
On devrait être en mesure d’éviter les écueils en restant dans une démarche scientifique et responsable. Toutefois, cette condition est souvent difficile à mettre en œuvre dans la pratique... Pensons à la survente ou aux problèmes liés à la mode, avec des acteurs se lançant dans des projets d’IA sans grande conviction ni préparation, par peur des discours alarmistes les menaçant d’être dépassés par la concurrence. Dans mon essai, je ne parle pas d’écueils, mais plutôt des limitations et des dangers de l’IA, ainsi que des remèdes éventuels pour s’en prémunir.
Ce qui est à surveiller de près seraient plutôt les dangers pouvant résulter de l’usage de la technologie, afin de s’assurer qu’elle ne se révèlera ni nocive ni incontrôlable, ce qui implique, entre autres, de se pencher sur les biais. Mais qu’est-ce que c’est exactement ? La définition qu’en donne le dictionnaire est relativement complexe, mais pour faire simple, on peut dire qu’une IA peut générer des modèles conduisant à des erreurs de jugement ou de potentielles discriminations. Selon l’objectif de l’algorithme, ces biais ne sont pas forcément dramatiques pour les utilisateurs — je pense notamment au ciblage publicitaire — mais ils peuvent aussi avoir un impact significatif sur leur vie...
De manière assez schématique, on peut citer trois responsables : les données, la modélisation et la conception. Pour éviter les biais, il est donc essentiel de s’appuyer sur des data non déformées, représentant toute la complexité de l’environnement, et de questionner le champ d’application de l’IA. Mais tout cela s’avère complexe, sans compter que l’anticipation est une science délicate !
Enfin, s’il est bénéfique de combattre les biais, il est également nécessaire de questionner d’autres aspects de la pratique de l’IA. L’explicabilité tient-elle ses promesses ? Et puis peut-on décemment se contenter d’une représentation de science-fiction renvoyant aux Trois lois de la robotique, par ailleurs antiques, d’Asimov ?
Cela dépend pour qui ! Pour le secteur dans lequel ces milliards s’investissent, c’est toujours une bonne nouvelle. Mais on peut se demander pourquoi investir autant ici et pas ailleurs ? Ces milliards ne seraient-ils pas plus profitables au secteur de la santé, par exemple ?
Pour comprendre cette décision, il faut la replacer dans son contexte, car on reproche souvent à l’Europe d’être à la traîne dans ce domaine. La France souhaite sans doute infléchir cette tendance afin de ne pas se retrouver prise en étau entre ses encombrants partenaires américains et chinois et ainsi venir compléter l’arsenal législatif européen avec des réalisations concrètes.
Faciliter cette création de produits d’IA est plutôt positif à première vue, mais il faut toutefois prêter une grande attention aux usages anticipés de ces futurs développements technologiques. Si on peut se réjouir de voir affluer deux milliards d’euros pour constituer de grandes entreprises françaises ou européennes en mesure de concurrencer les géants du numérique, il serait beaucoup plus inquiétant que ces deniers publics soient utilisés pour mettre sur pieds « Big Brother ».
« A-t-on vraiment besoin d’une éthique dans l’IA ? » La question peut en effet étonner, car elle est loin de se poser de manière systématique dans les domaines techniques. Elle sous-entendrait que l’IA pourrait être particulièrement dangereuse et qu’elle aurait donc besoin d’être encadrée. Sans s’engager dans un long développement sur la question du progrès et de l’usage des avancées de la science, on peut constater que le débat sur l’intelligence artificielle s’est en effet focalisé sur la notion d’éthique.
De nombreuses personnes provenant d’horizons aussi variés que le droit, la politique, la philosophie ou le management n’hésitent donc pas à se prononcer sur cette question délicate (cf. ma longue tribune publiée dans le numéro 5 du magazine ActuIA). Pour ma part, je ne suis pas sûr que la réponse viendra de la proposition de régulation de la Commission européenne. Il me semble plutôt que la solution émergera d’une réflexion collégiale et pluridisciplinaire.
Il me semble que l’IA se porte plutôt bien et on ne lui prévoit pas de difficulté majeure pour les années à venir. Le public a en effet pris conscience de l’importance de la formation, des financements ont été accordés et tout laisse à penser qu’une course entre nations est engagée dans ce domaine. Elle vient donc allonger la liste des occupations humaines (conquête spatiale, ordinateur quantique, transition énergétique, …).
Cependant, sur le moyen terme, plusieurs questions se profilent :
Et il faudra également solutionner les problèmes déjà identifiés. Car si l’IA est parvenue à réaliser de véritables prouesses, il reste à se confronter aux biais, à l’absence d’explicabilité dans les résultats ou encore à la robustesse aux attaques, un point sensible qui nous a fait revenir, selon les experts de la question, 20 ans en arrière en matière de fiabilité logicielle.
Il y a donc encore du travail !
Enfin, sur le très long terme, certains fantasment déjà sur l’IA forte, cette intelligence générale, consciente d’elle-même, avec qui l’on pourrait discuter... On peut toutefois s’interroger sur la pertinence d’un tel concept, et je renvoie les lecteurs intéressés par un début de réponse à mon ouvrage.
***
J’espère que cet entretien vous a aidé à mieux comprendre cette discipline fascinante, et on se retrouve très prochainement pour un nouvel épisode de Data Talks. En attendant, n’hésitez pas à vous rendre sur le blog Splunk ou sur notre chaîne YouTube pour en apprendre davantage sur la data.
Pour aller plus loin :
« Intelligence artificielle, responsabilité civile et assurances », Cour de Cassation, vidéo (2x10 min vers 8min30 et vers 1h15) : à regarder ici
Podcast sur l’essai « Au cœur de l’intelligence artificielle » : à écouter ici
« L’IA forte et le signal faible », ActuIA : à lire ici
« L’IA : réalités et croyances », tribune pour MindFintech : à lire ici
La plateforme Splunk élimine les obstacles qui séparent les données de l'action, pour donner aux équipes d'observabilité, d'IT et de sécurité les moyens de préserver la sécurité, la résilience et le pouvoir d'innovation de leur organisation.
Fondée en 2003, Splunk est une entreprise internationale. Ses plus de 7 500 employés, les Splunkers, ont déjà obtenu plus de 1 020 brevets à ce jour, et ses solutions sont disponibles dans 21 régions du monde. Ouverte et extensible, la plateforme de données Splunk prend en charge les données de tous les environnements pour donner à toutes les équipes d'une entreprise une visibilité complète et contextualisée sur l'ensemble des interactions et des processus métier. Splunk, une base solide pour vos données.