Clefs n°69 novembre 2019
Clefs n°69 novembre 2019
  • Prix facial : gratuit

  • Parution : n°69 de novembre 2019

  • Périodicité : annuel

  • Editeur : CEA

  • Format : (230 x 280) mm

  • Nombre de pages : 48

  • Taille du fichier PDF : 7,3 Mo

  • Dans ce numéro : contexte, technologies, domaines d'application et perspectives de l'intelligence artificielle.

  • Prix de vente (PDF) : gratuit

Dans ce numéro...
< Pages précédentes
Pages : 2 - 3  |  Aller à la page   OK
Pages suivantes >
2 3
POINT DE VUE L’IA, nouveau « graal » de l’informaticien ? Par Rodolphe Gelin, expert IA (Renault Paris) 2 - L’intelligence artificielle Le retour en grâce de l’intelligence artificielle et surtout des techniques basées sur l’apprentissage a été rendu possible par l’explosion du nombre de données disponibles et l’accroissement exponentiel des puissances de calcul. Ces nouveaux ordres de grandeur permettent de mettre en œuvre des algorithmes et des méthodes inenvisageables il y a une trentaine d’années. À la fin des années 80, ce qu’on appelait une explosion combinatoire ne semble plus aujourd’hui qu’un pétard combinatoire mouillé ! Un des domaines où l’évolution a été la plus spectaculaire est le traitement d’images. Comparons ainsi le même exercice réalisé par un étudiant à 30 ans d’intervalle  : reconnaître la présence d’une voiture sur une photo. A la fin du XX e siècle, son programme recherchait explicitement, parmi les pixels formant l’image, des éléments caractérisant une voiture  : des bords (zones de couleurs différentes), des bords vaguement circulaires (roues) puis plus rectilignes (toit, portes, vitres…) en envisageant toutes les orientations et positions possibles dans l’image dont il fallait ensuite vérifier la cohérence géométrique. Après plusieurs dizaines de minutes de calcul, l’ordinateur rendait son verdict sur la présence ou non d’une voiture dans l’image. Aujourd’hui, un système de reconnaissance d’images basé sur de l’apprentissage utilise une base de données déjà labellisée de 100 000 photos, chacune y étant décrite. Grâce à celles-ci, il apprend lui-même ce qui caractérise la présence d’une voiture dans une image en essayant tous les motifs possibles dans un paquet de pixels. Lors de la phase d’apprentissage, le système utilise 80 000 de ces images pour entrainer un réseau composé de centaines de milliers de neurones  : ce dernier, dont les paramètres (les « poids » des neurones) sont initialisés à des valeurs quelconques, traite les images et indique, pour chacune, ce qu’il y a reconnu. Les paramètres ayant été choisis au hasard, ses réponses sont généralement fausses. Une moyenne des erreurs faites sur ces 80 000 exemples est alors calculée puis utilisée pour corriger la valeur des poids des neurones. Le processus est relancé avec les DR « Si le Cro-Magnon informatique des années 90 pouvait se dire que la loi de Moore allait régler ses problèmes de performance, le geek contemporain ne peut plus trop y compter, la physique des micro-processeurs ayant déjà pratiquement atteint ses limites. » nouvelles valeurs des paramètres qui, en une dizaine d’itérations, lui permettent de bien reconnaître les 80 000 exemples. Les performances de ce réseau fraîchement formé sont ensuite testées sur les 20 000 images restantes. Comme la « vérité terrain » est connue pour ces images, la qualité de l’apprentissage est automatiquement évaluée. Si le réseau en reconnaît correctement 99%, on peut commencer à le faire travailler réellement. Mais généralement, ce type de performances n’est pas obtenu du premier coup. L’apprentissage est donc recommencé selon les mêmes modalités et peut être répété une dizaine de fois, le tout en moins de 10 minutes, grâce aux ressources de calcul actuelles. L’étudiant de 2019 a effectué en quelques minutes plus de calculs que celui de 1990 en aurait fait dans toute sa vie (si la technologie s’était arrêtée là). Le travail de l’informaticien du XXI e siècle serait-il donc beaucoup plus facile que celui de son collègue du XX e ? Peut-être... Mais les nouvelles contraintes industrielles sur la protection des données ou « l’embarquabilité » du logiciel qui doit, par exemple, tourner sur une voiture n’ayant pas toujours un accès rapide à des moyens de calcul distants ou les ressources pour faire tourner ces calculs en local, induisent de nouveaux problèmes. Si le Cro-Magnon informatique des années 90 pouvait se dire que la loi de Moore allait régler ses problèmes de performance, le geek contemporain ne peut plus trop y compter, la physique des micro-processeurs ayant déjà pratiquement atteint ses limites. D’où l’émergence de nouvelles expertises en attendant la prochaine rupture technologique. A la façon de ceux qui, autrefois, étaient capables de coder des routines en assembleur pour « gagner du temps de cycle », les experts en conception d’architectures de réseaux de neurones et en adéquation « hardware-software » sont mis à rude épreuve pour que l’IA devienne réalité dans notre quotidien. Hier comme aujourd’hui, être informaticien reste un beau mais dur métier ! Les voix de la recherche - #69 - Clefs
DANS CE NUMÉRO L’INTELLIGENCE ARTIFICIELLE 12 LES DOMAINES D’APPLICATION INTRODUCTION 31 ÉNERGIE 28 RECHERCHE FONDAMENTALE 34 Biologie/santé 35 Climat et environnement 37 Astrophysique 38 Physique nucléaire 40 CALCUL 42 45 LES TECHNOLOGIES SOMMAIRE LE POINT DE VUE DE RODOLPHE GELIN 2 SOMMAIRE 3 DÉFINITION 4 CONTEXTE 6 LES INFRASTRUCTURES 13 L’IA EMBARQUÉE 14 L’IA DE CONFIANCE 22 L’ALGORITHMIQUE 26 PERSPECTIVES 4 questions à YannLeCun par Étienne Klein 30 Clefs - #69 - Les voix de la recherche L’intelligence artificielle - 3



Autres parutions de ce magazine  voir tous les numéros


Liens vers cette page
Couverture seule :


Couverture avec texte parution au-dessus :


Couverture avec texte parution en dessous :