Tout au long de ma carrière, j’ai eu la « chance » de travailler sur certains des plus grands défis de sécurité nationale, de la prolifération des armes de destruction massive au terrorisme en passant par la cyber-insécurité. L’IA est le défi le plus récent, mais aura un impact à grande échelle sur la société.
Le déploiement de ChatGPT/Bard suscite de l’anxiété chez les RSSI, à l’heure où nous voyons émerger la prise de décision via une logique « non humaine » qui va accélérer le rythme et l’omniprésence des attaques – y compris d’attaques qui pourraient lentement biaiser les ensembles de données.1
Cette anxiété n’est pas le lot des seuls RSSI, comme l’a montré la lettre ouverte de Future of Life parue dans le Financial Times, signée par des titans de la technologie comme Elon Musk et de grands penseurs de l’IA comme Max Tegmark du MIT. D’autre part, des sommités de la sécurité telles que Dan Geer d’In-Q-Tel mettent en évidence les défis de l’IA dans le contexte de l’informatique locale et de l’edge computing, et de la fusion entre logiciel et données.
Comme l’énoncent les Principes de l’IA d’Asilomar, une IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre et devrait être planifiée et gérée avec le soin et les ressources que cela exige.
Les RSSI vont sans aucun doute subir la pression des directeurs informatiques et techniques impatients d’adopter l’IA pour gagner en efficacité. Confrontés aux attaques basées sur l’IA, à l’exploitation automatisée des vulnérabilités, à l’empoisonnement des données et aux deep fakes – à côté desquels les tactiques de phishing actuelles paraissent pittoresques, leur tâche va devenir de plus en plus complexe.
Le concept d’attaques automatisées pilotées par ordinateur n’est pas spécialement récent ou fictif.
The Peacemaker, ouvrage fascinant de William Inboden sur Ronald Reagan et la Guerre froide, raconte un échange entre le président Reagan et Mikhaïl Gorbatchev lors du sommet de Genève en 1985 sur l’abolition de l’Initiative de défense stratégique (IDS). Gorbatchev réagit avec colère lorsque Reagan déclare qu’il ne compte pas annuler l’IDS et profère une menace inquiétante : le Kremlin va adopter « une automatisation qui confiera les décisions importantes à des ordinateurs, et les dirigeants politiques [seront] dans des bunkers avec ces ordinateurs (emphase de l’auteur). Cela pourrait déclencher un processus incontrôlable ». Gorbatchev révèle que les Soviétiques travaillent déjà sur un système appelé « Main morte ». La « Main morte » lancerait automatiquement tous les missiles balistiques intercontinentaux de l’URSS en cas de détection d’une attaque américaine, plaçant le sort du monde entre les mains des machines plutôt que des hommes. »2
Heureusement, Ronald Reagan et Mikhaïl Gorbatchev ont négocié un accord pour réduire considérablement les armes nucléaires stratégiques (START) et éloigner le monde du désastre.
Les défis auxquels l’IA confronte la société sont plus vastes que l’impact existentiel des armes nucléaires. Dans leur livre, L’ère de l’IA et notre avenir humain, Kissinger, Schmidt et Huttenlucher expliquent que nos perceptions de la réalité peuvent être altérées par les éclairages de l’IA.
En raison de la capacité de l’IA à perturber les opérations, ce sont les RSSI qui garderont la porte d’entrée.
Les RSSI ont besoin d’un cadre de collaboration lucide et fondé pour survivre à l’adoption accélérée de l’IA.
Il est plutôt facile de faire des prévisions apocalyptiques, mais nous pouvons commencer par nous remémorer la citation de Ronald Reagan : « Faites confiance mais vérifiez » l’IA, en particulier compte tenu des récents rapports sur les « hallucinations » de ChatGPT.3
Les principes d’Asilomar de 2017 offrent une base pour évaluer les problématiques de recherche, l’éthique, les valeurs et les problèmes à plus long terme. Par exemple, « la recherche sur l’IA devrait consister à créer non pas une intelligence autonome, mais une intelligence bénéfique ». Ou « Éviter la course : les équipes qui développent des systèmes d’IA doivent coopérer activement pour éviter de réduire les normes de sécurité. L’éthique et les valeurs englobent les questions de sécurité, de transparence vis-à-vis des défaillances et de transparence légale. Ils abordent également des problématiques à long terme : les systèmes d’IA conçus pour s’améliorer de façon autonome ou se reproduire de manière récursive, par exemple, avec pour effet une augmentation rapide de la qualité ou de la quantité, doivent être soumis à des mesures de sécurité et de contrôle strictes. Enfin, la « superintelligence » ne devrait être développée qu’au service d’idéaux éthiques largement partagés et pour le bénéfice de l’humanité entière plutôt que d’un État ou d’une organisation.
J’observe une similitude étrange entre la pause proposée dans la lettre ouverte de la Future of Life Foundation et les problèmes éthiques et humanitaires rencontrés par des scientifiques comme Robert Oppenheimer sur le plateau de Los Alamos lorsqu’ils développaient la bombe atomique à toute hâte. Comme on peut le lire dans American Prometheus de Kai Bird et Martin Sherman, la plupart des scientifiques pensaient que la cible était le Troisième Reich, et ce n’est qu’après qu’ils ont appris que le véritable objectif en 1945 était de tenir l’Union soviétique en échec par le biais du Japon. Et quand l’Union soviétique a réalisé un essai atomique en 1949, ce fut ensuite la course à la bombe H ou à l’arme à fusion.
On peut comparer ce moment à celui où Jules César a franchi le Rubicon, signant la fin de la République romaine, ou dire, tout simplement, que le chat s’est échappé du sac.
Mais là encore, c’est ambigu. Comme le chat de Schrödinger, notre félin est-il vivant ou mort ? L’IA générative peut produire un contenu indiscernable d’une production humaine. Est-ce de l’IA ou non ? Comment savoir ?
L’ambiguïté de l’IA est source de diverses préoccupations, allant des biais aux problèmes de sécurité.
D’excellents travaux sont en cours sur « les audits d’IA et la détection des biais ». Plusieurs organisations abordent l’éthique de l’IA, notamment le Forum économique mondial, le Partenariat sur l’IA et Equal AI. La Data and Trust Alliance, créée en 2020, compte de nombreuses sociétés non technologiques parmi ses membres.4 Il reste toutefois une zone d’ombre concernant la mise en œuvre. Sera-t-elle obligatoire ou laissée à la bonne volonté des acteurs ?
L’examen technologique du MIT documente plusieurs applications de robots conversationnels basés sur IA « désastreuses pour la sécurité » : jailbreak, aide à l’escroquerie et au phishing, et empoisonnement des données.5
Et maintenant ?
Selon Goldman Sachs, les dernières avancées de l’IA générative pourraient automatiser un quart du travail effectué aux États-Unis et dans la zone Euro. L’IA pourrait déclencher un boom de la productivité qui finirait par augmenter le PIB annuel brut de 7 % sur dix ans. Dans le même temps, cela entraînerait une « perturbation significative » du marché du travail.6 Aux États-Unis, 63 % de la main-d’œuvre pourrait être touchée, et 30 % des personnes exerçant des emplois physiques ou extérieurs seraient épargnées. Environ 7 % des travailleurs aux États-Unis occupent des emplois dont la moitié des tâches au moins pourrait être effectuée par l’IA générative et risquent d’être remplacés.
Un article publié par OpenAI, le créateur de Chat GPT-4, a révélé que « 80 % de la main-d’œuvre américaine pourrait voir au moins 10 % de ses tâches effectuées par l’IA générative, selon des analyses effectuées par des chercheurs humains et le grand modèle linguistique de l’entreprise ». Les professions les mieux rémunérées sont également les plus exposées, contrairement à des évaluations similaires de l’exposition globale au machine learning.7
Je trouve des raisons d’être optimiste, mais nous devons avancer prudemment. De nombreuses entreprises envisagent aujourd’hui de tirer parti de l’IA – ou le feront demain.
Le 31 mars, le Wall Street Journal publiait un entretien captivant avec Bill Braun, DSI de Chevron. Il déclarait : « Il est essentiel d’avoir une pratique responsable de l’IA. » Lorsqu’on lui a demandé dans quels nouveaux domaines il aimerait voir l’IA intégrée, il a répondu : « Partout. Elle devrait faire partie de chaque flux de travail, de chaque flux de produits. Mais en se focalisant sur tous les aspects les plus routiniers, ceux qui apportent le moins de valeur ajoutée... l’objectif devrait être de les éliminer de l’interaction de tous les travailleurs avec la technologie. »8
Mais par où commencer ? All In on AI offre de précieux conseils, en s’appuyant notamment sur des scénarios d’utilisation chez Toyota, Morgan Stanley, Airbus, Shell, Anthem, Kroger et Progressive.
L’adoption de l’IA est associée à trois archétypes :
Je voudrais revenir à l’adage « Faites confiance mais vérifiez » pour souligner trois points essentiels :
Premièrement, l’étape la plus critique consiste pour le PDG à désigner un responsable de l’adoption de l’IA. Ce cadre devrait diriger un processus d’étude de toutes les applications potentielles de l’IA.
Deuxièmement, adoptez un framework de base pour faciliter le processus. Par exemple, le « Trustworthy AI Framework » de Deloitte définit six critères pour aider les clients dans le développement de leur politique :
Troisièmement, misez pleinement sur une stratégie de résilience. Le cabinet McKinsey a publié « A technology survival guide for resilience » (Un guide de survie technologique pour la résilience). La bonne nouvelle est que de nombreuses entreprises cherchent déjà à renforcer la résilience de leur infrastructure. McKinsey souligne l’importance de comprendre la « criticité » : très simplement, quels sont les composants les plus critiques pour les opérations commerciales ? Comme le dit McKinsey, « il faut une infrastructure résiliente avec une visibilité et une transparence accrues sur l’ensemble de la pile technologique pour maintenir le fonctionnement d’une organisation en cas de cyberattaque, de corruption de données, de défaillance catastrophique du système ou d’autres types d’incidents ».
McKinsey a également élaboré un modèle de maturité pour la résilience.
Chez Splunk, nous allons un peu plus dans le détail.
La résilience numérique couvre cinq domaines : la visibilité, la détection, l’investigation, la réponse et la collaboration. Dans le cadre de l’IA :
Dans quelle mesure les équipes peuvent observer leur environnement technologique, et connaître la qualité et la fidélité des données ainsi que l’exhaustivité de la couverture.
Application à l’IA : comme les applications de l’IA sont destinées à s’étendre à la sécurité, au DevOps et à l’observabilité, la visibilité doit englober chaque domaine. Il faudra donc intégrer des workflows de données à des tableaux de bord.
Dans quelle mesure les organisations exploitent les données pour identifier les problèmes potentiels, ce qui inclut la couverture de détection et les alertes.
Application à l’IA : les RSSI doivent exploiter et intégrer des outils de détection pour assurer la sécurité des applications d’IA. Les appareils doivent détecter l’empoisonnement des données et des algorithmes. Lorsqu’elles apparaissent, les nouvelles capacités d’IA ne doivent pas être utilisées tant qu’il n’existe pas d’outils permettant de détecter les falsifications.
Dans quelle mesure les organisations utilisent les données pour rechercher des problèmes potentiels et accélérer l’analyse. Englobe l’enrichissement, la traque des menaces et l’analyse de logs, de métriques et de traces.
Application à l’IA : la traque des menaces parmi les applications d’IA peut nécessiter des outils spéciaux, comme des « bacs à sable », pour permettre aux opérateurs de comprendre le fonctionnement d’une application d’IA.
La rapidité avec laquelle les équipes de sécurité, IT et DevOps réagissent aux problèmes ou incidents quotidiens.
Application à l’IA : comme pour les opérations de sécurité actuelles, la détection et la prise en charge des menaces, des perturbations et des vulnérabilités liées à l’IA sont essentielles.
Dans quelle mesure les équipes et leurs outils facilitent le travail interfonctionnel entre la sécurité, l’IT et le DevOps.
Application à l’IA : la collaboration sera essentielle dans les domaines de la sécurité, de l’informatique et du DevOps, chaque domaine tirant parti de l’automatisation du partage et de la mise en commun des informations avec des pairs, au sein de l’entreprise comme en dehors.
Bien que je sois optimiste, nous devons également être réalistes. Contrairement au début de la Guerre froide, cette fois, les enjeux géopolitiques concernent la Chine, et non l’Union soviétique, dans le contexte de l’ère atomique. Dans Fortune, Tom Siebel, fondateur et PDG de C3.ai, a déclaré :
« Ces tensions entre la Chine et les États-Unis, tant dans le domaine géopolitique que militaire, sont bien réelles. L’IA d’entreprise sera au cœur de la conception de la prochaine kill chain. Qu’il s’agisse de missiles hypersoniques, d’essaims, de véhicules autonomes souterrains ou d’espace, l’IA est au cœur de tout. Je dirais que nous sommes en guerre ouverte avec la Chine sur le terrain de l’IA en ce moment. Et celui qui gagnera cette bataille dominera probablement le monde. »
Je tente difficilement d’anticiper les implications qui se profilent avec le développement inévitable de l’IA.
Nous savons que nous sommes à un tournant. Je ne cherche pas à exagérer le problème, mais à garder les pieds sur terre et à prendre acte du fait que si l’IA offre d’énormes opportunités, il reste une grande part d’inconnu et nous devons faire preuve de prudence. Splunk est déterminé à travailler de concert avec les autres acteurs. Ce forum est une excellente occasion de créer des liens et de réfléchir.
Merci.
[1] Voir The Age of AI And Our Human Future, Henry Kissinger, Eric Schmidt, Daniel Huttenlocher, 2021
[2] The Peacemaker, Ronald Reagan, The Cold War and the World on the Brink, William Inboden, p.375, 2022
[3] Lets cast a critical eye over business ideas from ChatGPT, Financial Times, 12 mars 2023
[4] All in on AI, Thomas Davenport et Nitin Mittal, 2023 p. 118
[5] « Three ways AI chatbots are a security disaster, » Melissa Heikkila, MIT Technology Review, 4 avril 2023
[6] Generative AI set to affect 300mn jobs across major economies, The Financial Times, 27 mars 2023
[7] GPTs are GPTs: An Early Look at the Labor Market Impact Potenital of Large Language Models, Tyna Eloundou, Sam Manning, Pamela Mishkin et Daniel Rock, OpenAI, OpenResearch, Université de Pennsylvanie, 27 mars 2023
[8] Download Extra, Chevron’s Bill Braun calls generative AI a ‘wake up call’ for traditional IT vendors, Wall Street Journal, 31 mars 2023
[9] All in on AI, How Smart Companies Win Big with Artificial Intelligence, Thomas Davenport et Nitin Mittal. p. 48
[10] « A technology survival guide for resilience. » McKinsey & Company, 20 mars 2023
La plateforme Splunk élimine les obstacles qui séparent les données de l'action, pour donner aux équipes d'observabilité, d'IT et de sécurité les moyens de préserver la sécurité, la résilience et le pouvoir d'innovation de leur organisation.
Fondée en 2003, Splunk est une entreprise internationale. Ses plus de 7 500 employés, les Splunkers, ont déjà obtenu plus de 1 020 brevets à ce jour, et ses solutions sont disponibles dans 21 régions du monde. Ouverte et extensible, la plateforme de données Splunk prend en charge les données de tous les environnements pour donner à toutes les équipes d'une entreprise une visibilité complète et contextualisée sur l'ensemble des interactions et des processus métier. Splunk, une base solide pour vos données.