Published Date: August 1, 2019
L’intelligence artificielle (souvent désignée par l’abréviation IA ou AI comme Artificial Intelligence en anglais), désigne la capacité des machines à observer, réfléchir et réagir comme des êtres humains. Elle repose sur l’idée que l’intelligence humaine peut être décomposée en compétences précises qui peuvent ensuite être imitées par des ordinateurs programmés à cette fin. L’intelligence artificielle est un terme englobant qui recouvre un large éventail de concepts et de technologies, dont celui du machine learning (ML).
De nombreux sous-domaines qui emploient des techniques pour imiter des comportements spécifiques que nous associons à l’intelligence humaine naturelle sont compris dans le concept d’intelligence artificielle. Par exemple, les humains savent parler, écouter, lire et écrire le langage, et en recueillir une signification. Les domaines de la reconnaissance de la parole et du traitement du langage naturel reproduisent ces facultés en convertissant des signaux sonores en texte, puis en traitant ce texte pour en extraire du sens. Les autres sous-domaines de l’IA consistent à élaborer des systèmes artificiels qui répliquent des comportements humains comme notre capacité à nous déplacer dans notre environnement physique (robotique), à voir et traiter des informations visuelles (vision informatique) et à identifier et catégoriser des objets (reconnaissance des motifs).
Les algorithmes d’intelligence artificielle ont des applications et des usages variés dans le monde d’aujourd’hui, et d’innombrables projets de recherche en découvrent de nouveaux chaque jour.
Qu’est-ce que le machine learning ?
Le machine learning est le domaine des sciences informatiques qui s’efforce de développer des systèmes capables d’apprendre de façon autonome à partir de l’expérience, spécifiquement en traitant les données qu’ils reçoivent, et d’améliorer l’exécution de tâches précises. Le terme de « machine learning », ou « apprentissage automatique », est souvent utilisé de façon interchangeable avec celui d’intelligence artificielle, mais le machine learning est un sous-domaine de celle-ci.
Quelle est la différence entre la robotique et l’intelligence artificielle?
Bien que le développement de la robotique nouvelle génération puisse se baser sur les processus d’intelligence artificielle, les deux concepts sont pourtant bien distincts et ne sont pas interchangeables. La robotique existe depuis bien longtemps et conceptualise majoritairement l’utilisation de machines programmables, capables d’effectuer des actions autonomes ou semi-autonomes. En robotique, on parle d’intelligence artificielle lorsqu’une partie du système robotique est capable de réfléchir par lui-même, prendre des décisions ou raisonner logiquement.
Qu’est-ce que l’intelligence artificielle faible ?
Une IA faible, ou IA étroite, est utilisée pour produire des réponses similaires à celles des humains en s’appuyant sur des algorithmes de programmation. Les outils d’IA faible n’accomplissent en réalité aucune « réflexion », ils en ont juste l’apparence. Les assistants personnels activés par la voix tels que Siri, Cortana et Alexa sont de bons exemples d’IA faible. Lorsque vous leur posez une question ou que vous leur donnez une instruction, les algorithmes d’intelligence artificielle utilisés recherchent des indices sonores dans votre voix puis suivent une série d’étapes programmées pour fournir la réponse appropriée. Ils ne comprennent pas réellement les mots que vous prononcez ni le sens qu’ils contiennent.
Qu’est-ce que l’intelligence artificielle forte ?
Une IA forte, ou « véritable IA », est un système qui peut penser de façon autonome. Ces processus d’intelligence artificielle sont capables de raisonner, d’apprendre, de planifier, de communiquer, d’émettre des jugements et d’avoir un certain degré de conscience de soi. Fondamentalement, ils ne simulent pas l’esprit humain, ce sont des esprits, au moins en théorie. D’après les experts, si nous parvenons à répliquer l’architecture et la fonction du cerveau humain, nous pourrons construire des machines possédant une réelle capacité cognitive. Dans le domaine de l’IA que l’on appelle l’apprentissage profond, les scientifiques utilisent des réseaux de neurones pour apprendre aux ordinateurs à être plus autonomes, mais nous sommes encore loin des IA indépendantes qui peuplent la science-fiction. Si les changements surviennent rapidement, une véritable intelligence artificielle forte reste aujourd’hui plus une philosophie qu’une réalité.
AI et ML sont-ils synonymes ? En quoi le machine learning diffère-t-il de l’intelligence artificielle ?
Le machine learning est un sous-domaine de l’intelligence artificielle. Il s’agit d’une application de l’IA qui permet aux ordinateurs d’apprendre à partir de l’expérience et d’améliorer l’exécution de tâches spécifiques. Il permet aux ordinateurs d’analyser des données et d’employer des techniques statistiques pour apprendre à partir de ces données afin d’améliorer leur capacité à exécuter une tâche donnée.
Les algorithmes de machine learning sont souvent classés en deux catégories : supervisés et non supervisés.
Qu’est-ce que le machine learning supervisé ?
Dans le cas du machine learning supervisé, le data scientist guide un algorithme d’intelligence artificielle dans le processus d’apprentissage. Le scientifique fournit à l’algorithme des données d’entraînement qui incluent des exemples et des résultats cibles spécifiques pour chacun d’eux. Le scientifique décide ensuite des variables qui doivent être analysées et rend compte de la précision des prédictions de l’ordinateur. Après suffisamment d’entraînement (ou de supervision), l’ordinateur est capable d’utiliser les données d’entraînement pour prédire le résultat des nouvelles données qu’il reçoit.
Qu’est-ce que le machine learning non supervisé ?
Dans le cas du machine learning non supervisé, les algorithmes reçoivent des données d’entraînement, mais ils n’ont pas de résultats connus à exploiter pour faire des comparaisons. Au lieu de cela, ils analysent les données pour identifier les motifs précédemment inconnus. Les algorithmes de machine learning (ou d’apprentissage automatique) non supervisés peuvent regrouper des données similaires, détecter les anomalies dans un groupe de données et identifier des motifs partagés par différentes données.
Les algorithmes de machine learning semi-supervisés, comme leur nom l’indique, combinent des données d’entraînement étiquetées et non étiquetées. L’utilisation d'une petite quantité de données d’entraînement étiquetées peut améliorer considérablement la précision de la prédiction, tout en réduisant le temps et le coût associés à l’étiquetage d’un grand volume de données.
Qu’est-ce que le deep learning ?
Dans le domaine de l’intelligence artificielle, le deep learning (ou apprentissage profond en français) est une branche du machine learning qui imite le cerveau humain aussi fidèlement que possible. Il utilise généralement un modèle fondé sur la structure du cerveau, appelé réseau neuronal profond, pour imiter un système de neurones humains. Les détails de la discipline sont complexes mais, fondamentalement, en intelligence artificielle, les modèles de deep learning (ou d’apprentissage profond) analysent les données de façon itérative et tirent des conclusions d’une manière bien plus proche de celle des humains. Lorsqu’un algorithme de machine learning fait une prédiction incorrecte, un humain doit l’en informer pour qu’il puisse apporter les altérations nécessaires. Cette intervention au niveau humain aide l’algorithme à prédire plus précisément les résultats. Au contraire, les réseaux neuronaux profonds et les algorithmes d’apprentissage profond sont capables de reconnaître eux-mêmes la précision de leurs prédictions. Pour cette raison, en intelligence artificielle, le deep learning convient mieux aux tâches très complexes que les modèles de machine learning standard.
Le deep learning fait-il partie des applications du machine learning ?
En intelligence artificielle, le deep learning (ou apprentissage profond) est un domaine distinct du machine learning. L’exploration de données consiste à extraire des motifs, des relations, des anomalies et autres connaissances dans de grandes quantités de données. Au contraire, le machine learning utilise des groupes de données pour apprendre à accomplir une tâche particulière au fil du temps. De fait, si l’analyse de données peut fournir aux applications de machine learning les matières premières de son travail, ce sont bien deux outils distincts.
Que sont les systèmes experts ?
Forme précoce d’intelligence artificielle dont la création remonte aux années 1970, le système expert imite la prise de décision humaine en appliquant une base de connaissances existante à un problème afin de parvenir, au terme d’une suite de mécanismes « si-alors », à une décision experte. Comme ces systèmes ne peuvent pas s’améliorer progressivement en apprenant à partir de données externes, on considère souvent qu’ils ne sont pas de vrais exemples d’intelligence artificielle.
Qu’est-ce que la programmation d’IA ?
La programmation d’intelligence artificielle est une forme de programmation logicielle qui permet aux développeurs d’intégrer des capacités d’IA à une application. Elles peuvent être très simples, pour créer un moteur de recherche plus intelligent par exemple, ou très complexe, comme dans le cas d’une voiture autonome.
Quel langage de programmation est le meilleur pour l’intelligence artificielle ?
Les langages de programmation les plus souvent utilisés dans la mise en œuvre des processus d’intelligence artificielle incluent notamment le langage Python, considéré comme la référence des langages de programmation en IA. On retrouve également d’autres langages couramment utilisés comme Java, C++ ou encore LISP et Prolog..
- Python : Python est généralement le langage de programmation préféré des développeurs en matière d’IA, du fait de sa souplesse et de la simplicité de sa syntaxe. Il prend en charge les approches orientées objet, fonctionnelles et procédurales de programmation. Il est en outre extrêmement portable et s’exécute aussi bien sur Linux, Windows, MacOS et UNIX avec un minimum de modifications du code. Il s’accompagne aussi de plusieurs bibliothèques très pratiques pour les programmeurs d’intelligence artificielle, comme NLTK et SpaCy pour le traitement du langage naturel, Numpy pour le calcul scientifique, scikit-learn pour le machine learning, et TensorFlow, PyTorch et Apache MXNet, entre autres, pour les applications d’apprentissage profond.
- Java :Java est l’un des langages de développement les plus populaires dans le domaine général, et c’est un grand favori des projets d’IA. Très portable également, il permet de coder facilement des algorithmes d’intelligence artificielle, indispensables pour la programmation, et se débogue aisément. Les bibliothèques Java intéressantes sont CoreNLP pour le traitement du langage naturel, ND4J pour les mathématiques complexes et DL4J pour le deep learning...
- C++ : C++ est prisé pour sa grande vitesse et il est largement considéré comme le langage de programmation le plus rapide, une qualité de poids pour les applications d’IA gourmandes en calcul. Ce n'est pas le langage le plus simple à apprendre et c'est donc rarement le premier choix des développeurs, mais on le recommande souvent pour les applications impliquant du machine learning et l'élaboration de réseaux neuronaux.
- LISP : mis au point par John McCarthy en 1958, LISP est le plus ancien langage de programmation après Fortran. En dépit de son grand âge, c’est toujours une option populaire du fait de ses excellentes fonctions de prototypage et de son traitement efficace des expressions symboliques. On retrouve nombre de ses atouts dans des langages plus récents, donc il n’est plus vraiment unique, mais c’est toujours un choix courant pour les projets de machine learning.
- Prolog : Prolog est un autre langage de programmation « classique » qui n'a toutefois pas le large éventail d'applications de LISP. Ce langage déclaratif fondé sur des règles permet aux développeurs de répondre facilement à une variété de requêtes, ce qui le rend idéal pour les applications d’IA simples de type problème-solution. Prolog prend également en charge le retour sur trace ou backtracking, qui simplifie la gestion des algorithmes.
Qui a inventé l’intelligence artificielle ?
L’informaticien John McCarthy est considéré comme le père de l’intelligence artificielle. C’est lui qui a inventé le terme en 1955 et écrit l’un des premiers langages de programmation d’IA, LISP. Mais il n’a pas été le premier à proposer l’idée d’intelligence artificielle.
Les concepts d’AI étaient en vogue dans la science-fiction depuis le début du 20e siècle. Il a fallu attendre que les premiers ordinateurs à programme enregistrés deviennent opérationnels en 1949 pour que les conditions de la naissance de l’AI soient établies. En quelques années, les scientifiques et les universitaires ont théorisé que les ordinateurs pourraient être capables de dépasser le traitement fondé sur des règles logiques pour devenir des « machines pensantes ».
Parmi eux, l’un des plus grands était le mathématicien anglais Alan Turing qui, dans son article de 1950 intitulé « Les machines à calculer et l’intelligence », a proposé une méthode pour tester l’intelligence des machines, aujourd’hui connue sous le nom de « Test de Turing ». Cinq ans plus tard, Herbert Simon, Allen Newell et John Shaw créaient Logic Theorist, le premier programme conçu pour imiter les compétences humaines de résolution des problèmes.
Jusqu’à ce que McCarthy ne mentionne le terme « intelligence artificielle » dans une proposition à l’occasion d’une conférence de recherche sur le sujet, ce que nous appelons aujourd’hui l’AI était un domaine indéfini. McCarthy a changé la donne en rédigeant sa proposition, « L’étude vise à poursuivre sur la base de la conjecture selon laquelle tous les aspects de l’apprentissage et autres caractéristiques de l’intelligence peuvent, en principe, être si précisément décrits qu’une machine pourra être construite pour les simuler. On tentera de découvrir comment faire en sorte que les machines utilisent le langage, forment des abstractions et des concepts, résolvent des problèmes actuellement réservés aux humains, et s’améliorent elles-mêmes. »
Parmi eux, l’un des plus grands était le mathématicien anglais Alan Turing qui, dans son article de 1950 intitulé « Les machines à calculer et l’intelligence », a proposé une méthode pour tester l’intelligence des machines, aujourd’hui connue sous le nom de « Test de Turing ». Cinq ans plus tard, Herbert Simon, Allen Newell et John Shaw créaient Logic Theorist, le premier programme conçu pour imiter les compétences humaines de résolution des problèmes.
Jusqu’à ce que McCarthy ne mentionne le terme « intelligence artificielle » dans une proposition à l’occasion d’une conférence de recherche sur le sujet, ce que nous appelons aujourd’hui l’AI était un domaine indéfini. McCarthy a changé la donne en rédigeant sa proposition, « L’étude vise à poursuivre sur la base de la conjecture selon laquelle tous les aspects de l’apprentissage et autres caractéristiques de l’intelligence peuvent, en principe, être si précisément décrits qu’une machine pourra être construite pour les simuler. On tentera de découvrir comment faire en sorte que les machines utilisent le langage, forment des abstractions et des concepts, résolvent des problèmes actuellement réservés aux humains, et s’améliorent elles-mêmes. »
Quelles sont les applications métier du machine learning ?
Le machine learning est déjà moteur de nombreuses applications que vous utilisez chaque jour. Facebook utilise le machine learning pour personnaliser les flux d’actualité des utilisateurs, en le garnissant de publications des personnes dont vous avez régulièrement « aimé » les contenus précédents (et, inversement, en réduisant la visibilité des publications des personnes avec qui vous interagissez moins). Votre service de navigation GPS utilise le machine learning pour analyser les données de circulation et prédire les zones d’encombrement sur votre trajet. Même votre filtre de courrier indésirable utilise l’apprentissage automatique pour écarter les messages non voulus de votre boîte de réception.
Les applications pour le machine learning dans l’entreprise sont également très nombreuses. Le machine learning peut permettre d’extraire des informations d’un grand volume de données client pour fournir des services personnalisés et ciblés sur la base de besoins individuels. Dans les secteurs réglementés tels que la santé et les services financiers, le machine learning renforce la sécurité et la conformité en analysant les registres d’activités pour identifier les comportements suspects, détecter les fraudes et améliorer la gestion des risques. En règle générale, le machine learning et autres techniques d’intelligence artificielle offrent à une organisation une meilleure transparence en temps réel, pour lui permettre de prendre de meilleures décisions./span>
Pour mieux comprendre comment les entreprises améliorent tous les aspects de leurs activités grâce à la mise en œuvre de l’intelligence artificielle, voici quelques exemples :
Service client :
- Répondre aux questions des clients avec des robots de conversation utilisant l’IA.
- Améliorer la détection des fraudes aux cartes de crédit.
- Analyser les commentaires des clients et les résultats de sondage.
Ventes et marketing :
- Créer des prédictions plus précises à l’aide de données historiques et économiques.
- Actualiser les informations de contact des clients, générer de nouveaux leads et optimiser le scoring des leads.
- Personnaliser les messages et créer des flux de contenu sélectionnés.
- Créer des programmes de
publicité numérique qui répondent aux désirs des clients. - Optimiser des prix en temps réel en fonction de la concurrence et du marché.
Opérations :
- Améliorer la gestion de la chaîne logistique en comparant la demande du marché à l’inventaire.
- Créer de meilleurs modèles de gestion des risques.
- Examiner automatiquement les propositions des sous-traitants.
- Réduire la maintenance de l'équipement en identifiant les comportements anormaux.
IT :
- Améliorer les opérations IT et la sécurité du réseau.
- Se protéger des cyberattaques en découvrant les bugs logiciels exploitable et les logiciels malveillants.
- Automatiser l’analyse des causes profondes.
Quels sont les risques des processus d’intelligence artificielle ?
Certaines personnes craignent que l’IA ne produise des machines intelligentes capables d’occuper les emplois des humains. D’autres ont peur qu’en devenant capables d’agir de leur propre chef, sans supervision humaine, les machines prennent des décisions potentiellement néfastes. En s’adressant à l’association des gouverneurs nationaux des États-Unis en 2017, Elon Musk a déclaré : « L’intelligence artificielle est un risque fondamental pour l’existence de la civilisation humaine, et un risque différent des accidents de voiture ou d’avion, des drogues ou d’une mauvaise alimentation. Certes, ceux-ci représentent un danger pour un groupe d’individus au sein de la société, mais ils ne sont pas un danger pour la société dans son ensemble. » Dans une interview donnée en 2014 à la BBC, le scientifique Stephen Hawking, récemment disparu, a déclaré que le « développement d’une intelligence artificielle complète pourrait annoncer la fin de l’espèce humaine ». D’autres prédisent que l’IA va améliorer la vie humaine en automatisant les tâches simples et répétitives, et libérant du temps pour des activités plus enrichissantes.
McKinsey estime que d’ici 2030, 375 millions de travailleurs (soit 14 % de la main-d’œuvre globale) devra « changer de catégorie professionnelle » car l’IA les aura remplacés. D’autres études prédisent toutefois que l’IA créera au moins autant d’emplois qu’elle en détruira. Selon Gartner, il y aura une augmentation nette de 2 millions d’emplois d’ici 2025.
Comment savoir si vous devez utiliser l’IA et le machine learning (ML) ?
Tout d’abord, demandez-vous si la tâche que vous devez accomplir est assez complexe pour justifier un investissement dans le machine learning. La gamme d’applications de l’intelligence artificielle dans l’entreprise est vaste, et le meilleur moyen de déterminer si vous devez adopter l’IA et le ML est de rechercher des cas d’usage comparables dans d’autres sociétés.
L’une des applications les plus courantes du machine learning consiste à analyser les données des clients pour connaître les préférences, les habitudes d’achat et autres comportements d’interaction des individus. Ce traitement fournit les informations nécessaires pour élaborer des messages, des services et des produits hautement personnalisés à chaque client. C’est une application de l’IA qui concerne un grand nombre d’entreprises et d’industries.
Dans le secteur des services financiers, le machine learning est utilisé pour améliorer la détection des fraudes aux cartes de crédit. Les méthodes de fraude évoluent si rapidement que même les personnes les plus vigilantes parviennent difficilement à s’en prémunir. Le machine learning permet aux systèmes de s’adapter en temps réel pour détecter de nouveaux types de fraudes plus rapidement et précisément qu’un humain ne le pourrait. En effet, le machine learning se prête à tout un éventail de problématiques de sécurité et de gestion des risques, dont on trouve aisément des exemples dans la finance, la santé et d’autres secteurs.
Une fois que vous avez déterminé que le machine learning est un investissement valable, vient le temps d’examiner vos données. Le machine learning nécessite de très grandes quantités de données pour bien fonctionner. Mais leur qualité est plus importante encore que leur quantité. « Il vaut mieux des données propres que des données massives, » se plaisent à répéter les data scientists. Des données non structurées ou désorganisées ne fourniront pas les renseignements métier nécessaires, quel que soit leur nombre.
Il faut également des données récentes. Étant donné le rythme rapide auquel la plupart des industries évoluent, des masses de données âgées ne serait-ce que de quelques années ne sont plus pertinentes face aux tendances actuelles de votre activité, et n’apporteront sans doute aucune valeur prédictive.
On recommande généralement aux entreprises débutantes en apprentissage accompagné de commencer par le machine learning supervisé. Du fait de leur processus d’entraînement plus immédiat et guidé, les applications de machine learning supervisé permettent souvent de mettre sur pied un projet pilote d’IA plus gérable. Comme on l’a vu, le machine learning exige que les données aient été préalablement étiquetées pour faire des prédictions. Si l’on reprend l’exemple de la fraude aux cartes de crédit ci-dessus, une banque pourrait utiliser des données étiquetées « fraude » en conjonction avec d’autres données de transaction pour prédire les futures transactions frauduleuses. Sans cet étiquetage pour lancer le processus, l’application de machine learning sera considérablement plus complexe et lente à produire des résultats.
Enfin, commencez avec une petite quantité de données et limitez le projet dans le temps (2 mois, par exemple). Élaborez la question à laquelle l’IA devra répondre, et qui sera liée à un problème métier spécifique, puis recueillez des commentaires sur les résultats. Cela vous permettra de déterminer la valeur que présente le machine learning pour votre activité et les types de projets à long terme auxquels vous pourriez l’appliquer.
Comment prendre un bon départ avec l’IA ?
La meilleure façon pour une entreprise de prendre un bon départ avec la mise en œuvre de processus d’intelligence artificielle consiste à utiliser une plateforme d’IA existante. En effet, construire entièrement une intelligence artificielle est un processus incroyablement coûteux et complexe, mais ce n’est pas le seul moyen de mettre l’IA au service de votre organisation, ni même le plus recommandé. Pour bien des entreprises, une meilleure option, plus simple, consiste à mettre en œuvre une plateforme d’IA.
Vous utilisez déjà quotidiennement des technologies sophistiquées sans jamais penser à ce qui se passe sous le capot. Les clients d’e-mail, les outils de traitement de texte et de feuilles de calcul, les logiciels de gestion de projet et les plateformes cloud, qui forment la colonne vertébrale de vos opérations quotidiennes, reposent tous sur un code source complexe, et vous les utilisez avec aisance sans n’avoir jamais vu une seule ligne de ce code.
On peut aujourd’hui mettre en œuvre des processus d’intelligence artificielle de façon similaire grâce à la prolifération d’outils facilement accessibles. C’est ce qu’on appelle la « démocratisation de l’IA » : elle met de puissants outils entre les mains des utilisateurs métier.
Et il ne s’agit pas que d’analyse. Les fournisseurs de cloud majeurs que sont Google, Amazon et Microsoft, facilitent considérablement l’accès à l’IA en fournissant des outils qui permettent aux profanes d’élaborer leurs propres modèles de machine learning. Ils apportent notamment des algorithmes prêts à l’emploi et des interfaces faciles à utiliser, grâce auxquels les personnes qui ne possèdent que peu d’expérience en développement peuvent rapidement devenir opérationnelles.
L’IA est-elle faite pour les petites entreprises ?
Même les petites entreprises peuvent devenir « orientées données » avec l’aide de l’intelligence artificielle. Grâce à la gestion des ressources clients (CRM) fondée sur l’IA, même une entreprise individuelle peut analyser les avis des clients, les publications des réseaux sociaux et les commentaires par e-mail et par écrit, pour adapter son offre de produits et de services. Dans une petite entreprise, un utilisateur peut automatiser les tâches répétitives de service client (répondre aux demandes, classer les tickets d’assistance) avec une plateforme d’IA comme Digital Genius. Les petites entreprises peuvent même extraire des données exploitables d’outils existants comme Google Sheets et ZenDesk en les intégrant avec un outil d’IA comme Monkey Learn.
Pouvez-vous utiliser l’IA si vous ne disposez pas d’une grande quantité de données ?
Les petites entreprises peuvent mettre en œuvre des processus d’intelligence artificielle, même sans avoir beaucoup de données internes. Les données des réseaux sociaux peuvent être collectées directement à partir de leurs sources et analysées à la volée. De même, un système d’IA qui suit et analyse les prix du logement, une application populaire de l’IA dans le secteur de l’immobilier, puise généralement ses données dans des sources publiques.
H3: En bref : l’heure est venue d’adopter l’IA
L’intelligence artificielle (IA) et le machine learning (ML) sont plus que des projets ésotériques de recherche en informatique à Stanford ou au MIT. Les algorithmes d’intelligence artificielle font plus que déstabiliser les champions d’échec ou faire fonctionner des assistants personnels virtuels. L’informatique cognitive transforme la santé et permet le développement des véhicules autonomes. Si vous craignez d’expérimenter l’intelligence artificielle, rassurez-vous. La technologie de l’IA est plus abordable et facile à utiliser que jamais, et ces deux facteurs progressent chaque jour.
Prévisions pour l’IT et l’observabilité
Quoi de mieux qu’une surprise ? Être prêt à tout. Nos leaders font le point sur les grandes tendances pour 2023.