AI Knowledge Map: comment classer les technologies d'intelligence artificielle

Esquisse d'un nouveau paysage technologique de l'IA

Une version abrégée de cet article est d'abord apparue sur Forbes

L'article a également reçu le badge Silver de KDnuggets parmi les plus lus et partagé en août 2018.

I. Pensées d'introduction

Je suis dans l’espace de l’intelligence artificielle depuis un moment et je suis conscient que de nombreuses classifications, distinctions, paysages et infographies existent pour représenter et suivre les différentes façons de penser à l’IA. Cependant, je ne suis pas un grand partisan de ces exercices de catégorisation, principalement parce que j’ai tendance à penser que l’effort de classification des points de données dynamiques dans des zones de fixation prédéterminées ne vaut souvent pas les avantages d’un cadre aussi «clair» (c’est une généralisation). bien sûr, car parfois ils sont extrêmement utiles).

En ce qui concerne spécifiquement l'intelligence artificielle, je pense également que bon nombre des catégorisations existantes sont soit incomplètes, soit incapables de saisir des liens et des aspects fondamentaux forts de cette nouvelle vague d'IA.

Alors laissez-moi d'abord vous dire la raison d'être de ce post. En collaboration avec l’agence d’innovation stratégique Chôra, nous avons voulu créer un outil visuel permettant aux gens de saisir en un coup d’œil la complexité et la profondeur de cette boîte à outils, ainsi que de dresser une carte pouvant aider les personnes s’orientant dans la jungle de l’IA. Vous devriez considérer le graphique suivant comme un moyen d’organiser les connaissances non structurées dans une sorte d’ontologie dans le but final de ne pas représenter avec précision toutes les informations existantes sur l’IA, mais plutôt de disposer d’un outil pour décrire et accéder à une partie de cet ensemble d’informations.

Ce qui suit est ensuite un effort pour dessiner une architecture pour accéder aux connaissances sur l'IA et suivre les dynamiques émergentes, une passerelle sur les connaissances préexistantes sur le sujet qui vous permettra de rechercher des informations supplémentaires et éventuellement de créer de nouvelles connaissances sur l'IA.

L’utilité du travail final devrait donc vous aider à atteindre trois objectifs: donner un sens à ce qui se passe et disposer d’une carte pour suivre le chemin; comprendre où l’intelligence machine est utilisée aujourd’hui (par rapport à où elle n’était pas utilisée autrefois); comprendre quels problèmes sont reformulés pour permettre à l'IA de les aborder (si vous connaissez le travail d'Agrawal et al., 2018, il s'agit des conséquences directes de la baisse du coût des technologies de prévision).

En principe, cet article s’adresse aux débutants en intelligence artificielle pour leur donner un aperçu de ce qui existe, ainsi qu’aux experts et praticiens qui expérimentent ces technologies depuis un certain temps (avec une demande explicite de m'envoyer des informations sur la structure ou d’autres technologies devant être capturées par le spectre de l’IA).

Je suis aussi très bien conscient du fait qu'il s'agit d'une tâche ambitieuse. Il suffit donc de regarder ceci comme une première version ou de tenter de le faire plutôt que comme une solution finale écrite dans la pierre.

Permettez-moi également de conclure cette introduction par quelque chose que j'ai découvert en essayant d'atteindre l'objectif de la création de ce visuel: c'est très, très difficile. Essayer de représenter autant d'informations que possible dans une carte bidimensionnelle non évidente a été extrêmement difficile, une chose que vous ne réalisez pas avant d'essayer de le faire vous-même. Je vous invite tous à faire de même pour comprendre ce que je veux dire (mais croyez-moi, ce n'est pas facile du tout, surtout en raison de la divergence d'opinions, de points de vue et d'approches utilisées dans le domaine de l'IA au cours des 60 dernières années). Ceci m’amène au dernier déni de responsabilité: j’ai parfois dû approximer les concepts ou la classification elle-même afin de préserver un compromis entre précision et clarté. Pardonnez-moi donc à l’avance une inexactitude mineure (ou majeure aux yeux de quelqu'un).

Passons maintenant à la carte de connaissances sur l’IA (AIKM).

II. Domaine de problème + approche = solution technologique

Alors on y va, c’est tout. Vous vous attendiez probablement, étant donné l’introduction, à un étrange moteur de réalité virtuelle projetant plusieurs faisceaux de lumière pour chaque technologie, mais il s’agit plutôt d’un graphe bidimensionnel à l’ancienne. Aussi simple que cela.

Voyons cela un peu plus près cependant.

Sur les axes, vous trouverez deux macro-groupes, c’est-à-dire les paradigmes IA et les domaines de problèmes AI. Les paradigmes de l'IA (axe des X) sont en réalité les approches utilisées par les chercheurs en IA pour résoudre des problèmes spécifiques liés à l'IA (elles incluent les approches dont nous sommes au courant à ce jour). De l'autre côté, les domaines de problèmes d'intelligence artificielle (axe des ordonnées) sont traditionnellement le type de problèmes que l'IA peut résoudre. D'une certaine manière, cela indique également les capacités potentielles d'une technologie d'intelligence artificielle.

J'ai donc identifié les paradigmes suivants de l'IA:

  • Outils logiques: outils utilisés pour la représentation des connaissances et la résolution de problèmes;
  • Outils basés sur la connaissance: outils basés sur des ontologies et d’énormes bases de données de notions, d’informations et de règles;
  • Méthodes probabilistes: outils permettant aux agents d’agir dans des scénarios d’information incomplets;
  • Apprentissage automatique: outils permettant aux ordinateurs d’apprendre à partir de données;
  • Intelligence intégrée: boîte à outils d'ingénierie, qui suppose qu'un corps (ou au moins un ensemble partiel de fonctions telles que le mouvement, la perception, l'interaction et la visualisation) est nécessaire pour une intelligence supérieure;
  • Recherche et optimisation: des outils permettant de rechercher intelligemment de nombreuses solutions possibles.

Ces six paradigmes entrent également dans trois macro-approches différentes, à savoir symbolique, sous-symbolique et statistique (représentée par des couleurs différentes). En bref, l’approche symbolique stipule que l’intelligence humaine pourrait être réduite à une manipulation symbolique, la méthode sous-symbolique selon laquelle aucune représentation spécifique de la connaissance ne devrait être fournie ex ante, tandis que l’approche statistique repose sur des outils mathématiques pour résoudre des sous-problèmes spécifiques.

Une note supplémentaire rapide: vous entendrez peut-être parler de «tribus d'IA», un concept proposé par Pedro Domingos (2015), qui regroupe les chercheurs en groupes en fonction de l'approche qu'ils utilisent pour résoudre les problèmes. Vous pouvez facilement mapper ces cinq tribus avec notre classification de paradigme (sans considérer le groupe d'intelligence incarné), c'est-à-dire les symbolistes avec une approche basée sur la logique (ils utilisent un raisonnement logique basé sur des symboles abstraits); Les connexionnistes avec l'apprentissage automatique (ils s'inspirent du cerveau des mammifères); Les évolutionnaires avec recherche et optimisation (ils s'inspirent de l'évolution darwinienne); Bayésiens avec méthodes probabilistes (ils utilisent la modélisation probabiliste); et enfin Analogizers avec des méthodes basées sur la connaissance, puisqu'elles tentent d'extrapoler à partir de connaissances existantes et de cas similaires antérieurs.

Au lieu de cela, l’axe vertical décrit les problèmes pour lesquels AI a été utilisé, et la classification ici est assez standard:

  • Raisonnement: la capacité de résoudre des problèmes;
  • Connaissance: la capacité de représenter et de comprendre le monde;
  • Planification: la capacité d'établir et d'atteindre des objectifs;
  • Communication: capacité à comprendre le langage et à communiquer;
  • Perception: capacité à transformer des entrées sensorielles brutes (images, sons, etc.) en informations utilisables.

Je me demande encore si cette classification est suffisamment large pour englober l’ensemble des problèmes auxquels nous sommes actuellement confrontés ou si d’autres instances doivent être ajoutées (par exemple, Creativity ou Motion). Pour le moment, je m'en tiendrai à celui des 5 grappes.

Au lieu de cela, les modèles des boîtes divisent les technologies en deux groupes, à savoir les applications étroites et les applications générales. Les mots utilisés sont volontairement légèrement trompeurs, mais restez avec moi une seconde et je vais expliquer ce que je voulais dire. Pour quiconque débute dans l'IA, il est primordial de connaître la différence entre l'IA faible / étroite (ANI), l'IA forte / générale (AGI) et la super intelligence artificielle (ASI). Pour des raisons de clarté, ASI est simplement une spéculation à jour, l’intelligence artificielle générale est l’objectif final et le Saint Graal des chercheurs, alors que l’intelligence artificielle est ce que nous avons aujourd’hui, c’est-à-dire un ensemble de technologies qui ne peuvent faire face à rien. hors de leur champ d’application (ce qui constitue la principale différence avec AGI).

Les deux types de lignes utilisées dans le graphique (continu et en pointillé) veulent ensuite indiquer explicitement cette distinction et vous assurer que lorsque vous lirez un autre document d’introduction à l’IA, vous ne serez pas complètement perdu. Cependant, dans le même temps, la différence présente les technologies qui ne peuvent résoudre que des tâches spécifiques (généralement meilleures que les humains - applications étroites) et d’autres qui peuvent, aujourd’hui ou à l'avenir, résoudre de multiples tâches et interagir avec le monde (mieux que bien des humains). - applications générales).

Enfin, voyons ce qu’il y a dans le graphique lui-même. Sur la carte, les différentes classes de technologies d’IA sont représentées. Notez que je ne nomme pas intentionnellement des algorithmes spécifiques, mais que je les regroupe en macro-groupes. Je ne vous fournis pas non plus une évaluation de la valeur de ce qui fonctionne et de ce qui ne fonctionne pas, mais simplement une liste de ce que les chercheurs et les scientifiques des données peuvent exploiter.

Alors, comment lisez-vous et interprétez-vous la carte? Eh bien, laissez-moi vous donner deux exemples pour vous aider à le faire. Si vous examinez le traitement automatique du langage naturel, cela intègre une classe d’algorithmes qui combinent une approche basée sur la connaissance, un apprentissage automatique et des méthodes probabilistes pour résoudre des problèmes dans le domaine de la perception. Dans le même temps, cependant, si vous regardez l'espace vide à l'intersection du paradigme basé sur la logique et des problèmes de raisonnement, vous vous demandez peut-être pourquoi il n'y a pas de technologies dans ce domaine. Ce que la carte véhicule, ce n’est pas qu’il n’existe pas de façon catégorique une méthode susceptible de remplir cet espace, mais plutôt que, lorsque les gens abordent un problème de raisonnement, ils préfèrent plutôt utiliser une approche d’apprentissage automatique, par exemple.

Pour conclure cette explication, voici la liste complète des technologies incluses avec leurs propres définitions:

  • Robotic Process Automation (RPA): technologie qui extrait la liste des règles et des actions à effectuer en surveillant l'utilisateur effectuant une tâche donnée.
  • Systèmes experts: programme informatique comportant des règles codées en dur pour imiter le processus de prise de décision humaine. Les systèmes flous sont un exemple spécifique de systèmes basés sur des règles qui mappent des variables dans un continuum de valeurs comprises entre 0 et 1, contrairement à la logique numérique traditionnelle qui aboutit à un résultat égal à 0;
  • Vision par ordinateur (CV): méthodes permettant d’acquérir et de donner un sens aux images numériques (généralement divisées en reconnaissance d’activités, reconnaissance d’images et vision par machine);
  • Traitement du langage naturel (NLP): sous-champ qui traite les données en langage naturel (trois blocs principaux appartiennent à ce champ, à savoir la compréhension du langage, la génération du langage et la traduction automatique);
  • Réseaux de neurones (NN ou ANN): une classe d'algorithmes vaguement modelés sur la structure neuronale du cerveau humain / animal qui améliore ses performances sans être explicitement informé de la marche à suivre. Les deux majeures et les sous-classes bien connues de NN sont Deep Learning (un réseau de neurones à couches multiples) et Generative Adversarial Networks (GAN), deux réseaux qui se forment mutuellement.
  • Systèmes autonomes: sous-champ situé à l'intersection de la robotique et des systèmes intelligents (p. Ex. Perception intelligente, manipulation d'objet habile, contrôle de robot basé sur un plan, etc.);
  • Intelligence artificielle distribuée (DAI): une classe de technologies qui résolvent les problèmes en les distribuant à des «agents» autonomes qui interagissent les uns avec les autres. Les systèmes multi-agents (MAS), la modélisation à base d'agents (ABM) et Swarm Intelligence sont trois spécifications utiles de ce sous-ensemble, dans lequel des comportements collectifs émergent de l'interaction d'agents auto-organisés décentralisés;
  • Informatique affective: sous-domaine traitant de la reconnaissance, de l'interprétation et de la simulation des émotions.
  • Evolutionary Algorithms (EA): il s'agit d'un sous-ensemble d'un domaine informatique plus vaste appelé calcul évolutif qui utilise des mécanismes inspirés de la biologie (mutations, reproduction, etc.) pour rechercher des solutions optimales. Les algorithmes génétiques constituent le sous-groupe le plus utilisé de SD, qui sont des heuristiques de recherche qui suivent le processus de sélection naturelle pour choisir la solution candidate la plus «adaptée»;
  • Programmation logique inductive (ILP): sous-domaine qui utilise la logique formelle pour représenter une base de données de faits et formuler des hypothèses partant de ces données;
  • Réseaux de décision: est une généralisation des réseaux / inférences bayésiens les plus connus, qui représentent un ensemble de variables et leurs relations probabilistes via une carte (également appelé graphe acyclique dirigé);
  • Programmation probabiliste: un cadre qui ne vous oblige pas à coder en dur des variables spécifiques mais qui fonctionne plutôt avec des modèles probabilistes. La synthèse de programme bayésienne (BPS) est en quelque sorte une forme de programmation probabiliste, dans laquelle les programmes bayésiens écrivent de nouveaux programmes bayésiens (au lieu de l'être humain, comme dans l'approche de programmation probabiliste plus large);
  • Ambient Intelligence (AmI): cadre qui impose aux périphériques physiques, dans des environnements numériques, de détecter, de percevoir et de répondre avec une conscience de contexte à un stimulus externe (généralement déclenché par une action humaine).

Afin de résoudre un problème spécifique, vous pouvez suivre une ou plusieurs approches, ce qui signifie une ou plusieurs technologies, étant donné que nombre d’entre elles ne sont pas du tout exclusives mais plutôt complémentaires.

Enfin, il existe une autre classification pertinente que je n’ai pas intégrée dans le graphique ci-dessus (c’est-à-dire les différents types d’analyses) mais qui mérite d’être mentionnée par souci d’exhaustivité. Vous pouvez en réalité rencontrer cinq types d'analyse distincts: l'analyse descriptive (ce qui s'est passé); analyse diagnostique (pourquoi quelque chose s'est passé); analyse prédictive (ce qui va se passer); analyse prescriptive (recommandations d'actions); et des analyses automatisées (prenant des actions automatiquement). Vous pourriez également être tenté de l'utiliser pour classer d'une manière ou d'une autre les technologies ci-dessus, mais la réalité est qu'il s'agit d'une classification fonctionnelle et d'un processus plutôt que d'un produit - en d'autres termes, chaque technologie du spectre peut remplir ces cinq fonctions d'analyse. .

III. Conclusion

Apprendre aux ordinateurs à apprendre sans avoir à être explicitement programmé est une tâche ardue qui fait appel à plusieurs technologies pour traiter de multiples nuances. Même si cette carte est loin d’être parfaite, c’est au moins une première tentative de donner un sens à une paysage en désordre comme celui de l'intelligence artificielle est.

Je suis parfaitement conscient du fait qu’un principe fort de Pareto émerge ici, c’est-à-dire que 80% (sinon plus) des efforts et résultats actuels reposent sur 20% des technologies illustrées sur la carte (à savoir apprentissage en profondeur, PNL et informatique). vision), mais je suis également certain qu’avoir un spectre complet pourrait aider les chercheurs, les startups et les investisseurs.

En plus d’essayer d’intégrer et de prendre en compte les réactions et commentaires sur cette première version, je prévois de prendre deux mesures supplémentaires à l’avenir: l’une consiste à créer une couche pour le type de défis auxquels l’IA doit faire face (problèmes de mémoire et oubli catastrophique, par exemple); transférer l'apprentissage, apprendre à partir de moins de données avec des choses comme l'apprentissage zéro et one-shot, etc.) et quelle technologie peut être utilisée pour surmonter ce problème spécifique. Deuxièmement, essayez d’appliquer des lentilles pour examiner les différentes technologies et non les problèmes qu’elles résolvent, mais plutôt celles qu’elles créent (par exemple, problèmes éthiques, problèmes de données volumineuses, problème de boîte noire et d’explicabilité, etc.).

Si vous avez ensuite des commentaires sur la manière d'améliorer le travail existant ou des suggestions sur la manière d'intégrer ces deux étapes supplémentaires, contactez-nous!

Et si vous êtes une entreprise qui utilise l'une des technologies mentionnées ci-dessus, j'aimerais en savoir plus sur vous.

Divulgation: La carte des connaissances sur l'IA a été élaborée avec le cabinet de conseil en innovation stratégique Axilo, pour les activités menées sur leur plate-forme Chôra.

Références

Agrawal, A., Gans, J., Goldfarb, A. (2018). «Machines de prévision: l'économie simple de l'intelligence artificielle». Harvard Business Review Press.

Domingos, P. (2015). “L'algorithme principal: comment la quête de la machine d'apprentissage ultime reconstruira notre monde”. New York: livres de base.