Les mythes de l’Intelligence Artificielle

Cet article vous a plu ? Pourquoi ne pas le partager ?

Notes prises durant la conférence d’Olivier Ezratty, lors de la matinée Verteego chez Google. Pour une vue plus poussée sur le sujet, il faut absolument lire l’ebook qu’a publié Olivier sur ce sujet.

Les bases de l’IA ont été posées dans les années 50 (Jim McCarthy). Depuis, l’IA a connu plusieurs étapes.

  1. Les systèmes experts et les moteurs / solveurs de règles, dans les années 80, avec l’exemple du français ILOG
  2. Le machine learning, dans les années 90, sur la base de méthodes mathématiques (réseaux bayesiens, etc.)
  3. Les réseaux de neurone, apparus dès les années 50 en réalité, qui cherchent à reproduire le fonctionnement d’un cerveau – pardon, d’un réseau de neurones – humain. Très utile pour segmenter une base clients, ou reconnaître des objets complexes (images, voix, parole, traduction). C’est le domaine qui a connu le plus de progrès avec le deep learning (réseaux de neurone sophistiqués avec plusieurs couches)
  4. Les agents et réseaux d’agents, qu intègrent plusieurs briques

Où en est l’IA par rapport au rêve des années 50?

Ce qui marche bien

  • Cela fait très longtemps que le calcul par informatique est plus rapide que le calcul humain
  • La mémoire d’un ordinateur, en termes de capacité, est supérieure à celle de l’homme. Olivier considère qu’un être humain est exposé à environ 16Go d’information durant toute sa vie, et encore, il n’en retiendra qu’un faible pourcentage.
  • Les machines dépassent l’homme depuis longtemps pour les jeux les plus simples
  • La vision des machines dépasse depuis longtemps celle d’un être humain, malgré la résolution très forte des yeux humains (130M pixels en acquisition) et celle très faible des outils informatiques utilisés (50k pixels suffisent).

Ce qui marche moins bien

  • La conduite automobile: ça marche dans de bonnes conditions, mais sur place de l’étoile, c’est bof.
  • Le raisonnement spécialisé fonctionne aussi dans des conditions optimales

Ce qui est encore balbutiant (pour l’instant, mais ça progresse vite)

  • La traduction
  • La maîtrise du langage
  • Le raisonnement généraliste
  • L’agilité générale
  • Les émotions

Premier mythe: on a tout inventé il y a 20 ou 30 ans

Les gens qui font des voitures ou du traitement du signal font eux aussi appel à des technologies anciennes. Mais en réalité, ça bouge beaucoup, et la progression est gigantesque sur les dernières années (pan sur le bec). Olivier prend l’exemple d’AlphaGo, dont l’algorithme a connu 3 versions, et est devenu de plus en plus fort. Autre exemple, les réseaux de neurones multicouches, pour détecter avec plus de finesse, les différences dans les images. On utilise plusieurs dizaines de couches désormais, mais attention, plus il y a de couches, plus il est difficile d’entraîner le réseau.

Deuxième mythe: la donnée est la principale composante de l’IA

Faux. Pour faire des choses brillantes en IA, il faut des données, de bons algorithmes, et une excellent hardware. On ne fait pas grand chose si l’un de ces trois éléments est défaillante. S’entraîner sur 50000 images, cela prend quelques minutes, mais sur des dizaines de millions, ça peut prendre plusieurs jours. D’ù l’intérêt d’améliorer l’algorithme, ainsi que le jeu de données et le hardware utilisé.

L’un des problèmes les plus courants, c’est le biais des données. Deux exemples: si on entraîne un système de reconnaissance de visages avec des visages blancs, les visages de personnes à peau noire ne sont pas reconnus (connaître, c’est reconnaître). Idem si apprentissage avec des visages d’homme et non de femme.

Troisième mythe: on L’IA s’entraîne 100x plus vite tous les ans

Les GPU (processeurs graphiques), utilisés pour les jeux vidéos, sont également utilisés pour l’apprentissage. On utilise la force brute des multiplicateurs de matrice de ces processeurs. Chez NVidia ou Google, on travaille sur des processeurs optimisés, capables de traiter un nombre important de matrices, ou de créer des réseaux de neurones (chez Google). Depuis septembre 2017, sont même arrivés des processeurs pour mobiles, optimisés pour les multiplications de matrices (Huawei, Hisilicon, Cambricon). Mais attention, les processeurs pour mobiles sont faits pour utiliser des réseaux de neurones déjà entraînés, et non pour l’apprentissage (question d’autonomie, entre autres).

Aucun de ces processeurs n’a permis de réaliser un x100 en un an. On est plutôt de l’ordre de x3 à x5, au mieux, contrairement à ce que prétend Laurent Alexandre…

Quatrième mythe: il faut être bac+12 avec un QI de 150 pour faire de l’IA

C’est toujours le même Laurent Alexandre qui pousse cette idée. En réalité, il y a plein d’outils, même open source (notamment les librairies TensorFlow, chez Google), à disposition pour jouer avec des réseaux de neurone. C’est devenu très simple de créer son propre réseau de neurone: il y a moins de code, mais plus de maths.

Une évolution est inéluctable: on va voir apparaître de plus en plus d’outils pour les utilisateurs, avec des niveaux d’abstraction très élevés, qui permettent de faire de l’IA sans avoir à comprendre comment ça marche.

Cinquième mythe: l’IA ne me concerne pas pour l’instant

Grosse erreur: il y a de l’IA, par exemple, dans tout ce qui utilise la vision.Depuis l’appareil photo à Facebook. Cela permet de repérer les visages, de cadrer les photos, etc. Ou dans le traitement du langage (chatbot, synthèse vocale, traduction, etc.). Olivier cite les techniques d’analyse du bruit, qui permettent de détecter, par exemple, l’usure de pièces dans des machines (c’est le sujet d’OptimData, monté par mon ancien collègue chez DS, Laurent Couillard).

Cet article vous a plu ? Pourquoi ne pas le partager ?