Micro Systèmes n°93 janvier 1989
Micro Systèmes n°93 janvier 1989
  • Prix facial : 30 F

  • Parution : n°93 de janvier 1989

  • Périodicité : mensuel

  • Editeur : Société Parisienne d'Edition

  • Format : (203 x 271) mm

  • Nombre de pages : 182

  • Taille du fichier PDF : 160 Mo

  • Dans ce numéro : systèmes experts et psychologie cognitive.

  • Prix de vente (PDF) : gratuit

Dans ce numéro...
< Pages précédentes
Pages : 140 - 141  |  Aller à la page   OK
Pages suivantes >
140 141
Ici on prendra : E(t) = a/2. E EE villes i j * i XVi. Xyi Xvi. Xvi 0 si une ville a 2 rangs différents ; sinon, Xvi. Xvi = 0 +, 312. E xv,. xw, v # v Xvi. Xwi 0 si 2 villes ont le même rang ; sinon Xvi. Xwi =0 + r/2. (E xv, n) V nul si chaque ville a un rang et un seul, non nul sinon. + d/2. E E E V w.v. Dvw. Xv,. (Xwi+-1 + Xwi-i) minimum pour le chemin le plus court. Dvw est la distance de la ville v à la ville w. On effectue une itération séquentielle, avec tirage au sort djp prochain noeud dont l'état est à calculer. On est as- Bases du calcul matriciel soit A matrice 2,2 avec A = a b cd soit B matrice 2,2 avec B = e f g h A + B = a+e b+f c+g d+h A — B = a—e b—f c—g d—h A. B= + 1),(g a*f + b*h c*e + d*g + c141 Pour la multiplication, on procède en multipliant les lignes de A par les colonnes de B. C'est la même technique si l'on multiplie une matrice par un vecteur sachant qu'un vecteur possède une dimension égale à 1. La règle est que le nombre de lignes de A doit être égale au nombre de colonnes de B. Pour transposer une matrice, il suffit d'échanger les lignes et les colonnes. suré que l'algorithme converge vers un minimum de la fonction d'énergie. Lorsque le réseau se stabilise, on obtient une solution approchée de la solution optimale, sans avoir la certitude de l'avoir trouvée ; néanmoins, l'approximation est généralement très bonne, en un temps raisonnable, alors que le calcul de la solution exacte serait d'ordre exponentiel par rapport au nombre de villes. Les deux exemples ci-dessus utilisent des réseaux « figés » dans la mesure où les poids des connexions ne varient pas, les réseaux capables d'apprentissages sont « évolutifs », la valeur des poids est modifiée par l'apprentissage. Ces réseaux sont de deux types : ceux dont l'apprentissage est dit « supervisé », car l'exemple et la réponse attendue sont donnés au réseau, et ceux dont l'apprentissage est dit « non supervisé », car seul l'exemple est proposé au réseau. Apprentissage supervisé et systèmes adaptatifs le perceptron Le perceptron, conçu par Minsky et Papert, permet de classer des formes (des figures géométriques par exemple), en un nombre variable de classes, celle des cercles et des noncercles par exemple. Le perceptron est composé de trois réseaux en couches (cf. fig. 8). La première couche est formée d'automates qui transmettent, telle quelle, l'information reçue en entrée. Cette couche constitue la rétine ; elle reçoit, en effet, les'stimuli'de l'environnement. La deuxième couche est constituée de cellules dites « d'association » ou « d'extraction de traits ». Chaque cellule de cette couche, dont la fonction de transition est fixée, reçoit des signaux de cellules de la rétine. La troisième couche, Fig. 8. — Architecture du perceptron de Minsky et Papert : trois couches d'automates le constituent. Cellules d'association Cellules de décision 140 — MICRO-SYSTEMES Janvier 1989
enfin, est formée généralement d'une seule cellule dite de « décision ». C'est un automate à un seuil qui reçoit des signaux de chacune des cellules d'association. Sa fonction de transition est de la forme : 4'(s) = (E Wi. Fi(s) - e) où/3 est le seuil, Fi la fonction de transition de la cellule d'associationi, Wi le poids de la connexion de la cellule i vers la cellule de décision. Un tel réseau est capable d'apprendre à discriminer deux ou plusieurs classes d'exemples, selon le nombre de cellules de décision. Dans le cas où le réseau est capable de distinguer deux classes, le résultat renvoyé par (1) sera 1 si la forme est de la classe 1, et 0 si la forme appartient à la classe 2. La phase d'apprentissage consiste à modifier le vecteur W(o) des poids initiaux en fonction des exemples d'apprentissage, de telle sorte que le réseau réponde ensuite correctement aux nouveaux exemples qu'on lui propose. La phase d'apprentissage se déroule de la façon suivante : on prend W(o) quelconque, on propose au perceptron des exemples, un à un. S'il répond correctement, c'est-à-dire, s'il trouve bien la classe correspondant à l'exemple, on ne change rien à la valeur des poids. En revanche, si la réponse est incorrecte, à l'étapet, par exemple, il renvoie 0 au lieu de 1, le vecteur W(t) des poids doit être modifié de manière à ce que le réseau s'adapte à cet exemple. Onprendra W(t+1) = W(t) + Y(s(t)) où Y est un vecteur de coordonnées Fi(s(t)), i variant selon le nombre de cellules d'association. Si l'exemple appartient à la classe 2 et que le perceptron répond incorrectement 1, il faut modifier W de telle sorte que Wt+1 = Wt - Y(s(t). On recommence avec d'autres exemples. Une fois la phase d'apprentissage terminée, on passe à la phase de généralisation qui consiste à utiliser la capacité de discrimination acquise par le perceptron, en lui présentant des exemples qu'il ne connaît pas. L'utilisation du perceptron est limitée au cas où les classes sont linéairement séparables, c'est-à-dire qu'elles peuvent être distinguées par une fonc- Janvier 1989 ‘‘ L'approche connexionniste s'intéresse plus particulièrement au mode de représentation des connaissances dans le cerveau.//tion linéaire. D'autre part, la durée de l'apprentissage peut être très long. Le perceptron, tel que nous l'avons défini, est limité au traitement de cas simples. Les mémoires associatives Cette technique est ainsi dénommée parce qu'elle permet d'apprendre à un réseau à associer à une entrée donnée la sortie correspondante. Au cours de la phase d'apprentissage (encadré) le réseau apprend à établir un lien entre l'entrée qui lui est proposée et la sortie qui lui est demandée. On parlera d'auto-association si l'entrée est identique à la sortie, (par exemple, le caractère A est présenté, et A est obtenu en sortie), et d'hétéroassociation si entrée et sortie sont différentes (par exemple, l'entrée est A, la sortie est un codage numérique). L'intérêt de cette technique est qu'elle permet d'associer à une entrée, même très bruitée et incomplète, la sortie attendue pour l'entrée complète et débruitée. Le réseau est composé Les mémoires associatives L'algorithme présenté ici est destiné à la reconnaissance de caractères digitalisés. Soient des formes matricielles de dimension 8 x 8 où un bit allumé vaut 1 sinon - 1. (Voir le réseau de Hopfield). L'apprentissage de ces formes consiste à les présenter bruitées, en indiquant à chaque fois la sortie désirée afin de calculer les valeurs d'une matrice de poids 64 x 64. L'étape de généralisation consiste donc à présenter une des formes, puis le programme calcule la sortie correspondante à l'aide de la matrice des poids calculée à chaque itération de l'apprentissage. L'algorithme Etape 0 : INITIALISATION La matrice des poids est initialisée avec de très petites valeurs positives ou nulles. Etape 1 : APPRENTISSAGE Pour i = 1 à (Nombre d'exemples) - A partir de la matricei, construire 2 vecteurs de dimension 64 (8 x 8) en mettant'bout à bout'les lignes. - Bruiter le vecteur 1 selon une probabilité qui peut être paramétrable. Le vecteur 1 (X) est le vecteur d'entrée. Le vecteur 2 (Y) est la sortie désirée. Ici, on parle d'auto-association dans la mesure où la sortie désirée est directement associée à l'entrée. - Calculer les nouvelles va- leurs de la matrice des poids W selon la formule : W(i) = W(i) - epsilon(i) [W(i) Xi - Yi] transposé Xi Epsilon (i) est un scalaire fonction de i du genre 1/(i.1000). Xi et Yi sont les ièmes vecteurs. Les bases du calcul matriciel sont en annexe. Etape 2 : GENERALISATION On construit, à partir d'une des formes de l'apprentissage, un vecteurX. On bruite ce vecteur et on calcule la sortie Y selon : Y = W. X La sortie obtenue doit correspondre à la sortie désirée. Les résultats dépendent de la valeur prise par epsilon à chaque itération de l'apprentissage. INTELLIGENCE ARTIFICIELLE d'automates linéaires, de telle sorte que : Y = W.X, où X est la matrice des entrées ; chaque colonne de X est le vecteur des composantes de l'une des formes à reconnaître ; W est la matrice des poids et Y est la matrice des sorties, telle que chacun des vecteurs verticaux Yk de Y représente la sortie associée à un exemple Xk, vecteur vertical de la matriceX. (notée aussi Yi = E j Wij. Xj) Comme pour le perceptron, la phase d'apprentissage supervisée consiste à déterminer la matrice des poids en présentant des couples exemple-réponse, de telle sorte que le réseau sache ensuite généraliser son apprentissage à de nouveaux cas. Il s'agit donc d'ajuster W de telle sorte qu'on ait bien Y'= WX = Y où Y'est la sortie effective, et Y la sortie souhaitée. Le W peut être théoriquement calculé : W = YX+ + Z. (I + XX+) où Z est quelconque (par exemple Z = 0), de même dimension que W, et X+ est la matrice pseudo-inverse deX. En fait, le calcul de W se fait de manière approchée et par itération par une technique de gradient, celle du gradient stochastique de Widrow-Hoff, par exemple : W(k+1) = W(k) - 0(k). [W(k). Xk - Yk]. Xk où Xk et Yk sont les kièmes vecteurs colonnes des matrices X et Y respectivement. 0(k) doit répondre à certaines contraintes, mais on pourra prendre 0(k)= 1/k. Une fois W calculé en fonction des différents exemples, on peut passer à la phase de généralisation à d'autres cas que ceux déjà appris. L'apprentissage par rétropropagation de gradient est également un apprentissage supervisé qui utilise un réseau multicouche, dont les couches internes sont dites « cachées », car elles n'échangent pas directement de signaux de l'environnement, selon le modèle proposé par Hinton et Sejnowski pour la machine de Boltzmann. Comme pour le perceptron, le réseau utilisé comprend des couches internes, une couche O qui constitue la rétine et la dernière couche N qui produit les sorties. L'intérêt des modèles comprenant des couches internes est MICRO-SYSTEMES — 141



Autres parutions de ce magazine  voir tous les numéros


Liens vers cette page
Couverture seule :


Couverture avec texte parution au-dessus :


Couverture avec texte parution en dessous :


Micro Systèmes numéro 93 janvier 1989 Page 1Micro Systèmes numéro 93 janvier 1989 Page 2-3Micro Systèmes numéro 93 janvier 1989 Page 4-5Micro Systèmes numéro 93 janvier 1989 Page 6-7Micro Systèmes numéro 93 janvier 1989 Page 8-9Micro Systèmes numéro 93 janvier 1989 Page 10-11Micro Systèmes numéro 93 janvier 1989 Page 12-13Micro Systèmes numéro 93 janvier 1989 Page 14-15Micro Systèmes numéro 93 janvier 1989 Page 16-17Micro Systèmes numéro 93 janvier 1989 Page 18-19Micro Systèmes numéro 93 janvier 1989 Page 20-21Micro Systèmes numéro 93 janvier 1989 Page 22-23Micro Systèmes numéro 93 janvier 1989 Page 24-25Micro Systèmes numéro 93 janvier 1989 Page 26-27Micro Systèmes numéro 93 janvier 1989 Page 28-29Micro Systèmes numéro 93 janvier 1989 Page 30-31Micro Systèmes numéro 93 janvier 1989 Page 32-33Micro Systèmes numéro 93 janvier 1989 Page 34-35Micro Systèmes numéro 93 janvier 1989 Page 36-37Micro Systèmes numéro 93 janvier 1989 Page 38-39Micro Systèmes numéro 93 janvier 1989 Page 40-41Micro Systèmes numéro 93 janvier 1989 Page 42-43Micro Systèmes numéro 93 janvier 1989 Page 44-45Micro Systèmes numéro 93 janvier 1989 Page 46-47Micro Systèmes numéro 93 janvier 1989 Page 48-49Micro Systèmes numéro 93 janvier 1989 Page 50-51Micro Systèmes numéro 93 janvier 1989 Page 52-53Micro Systèmes numéro 93 janvier 1989 Page 54-55Micro Systèmes numéro 93 janvier 1989 Page 56-57Micro Systèmes numéro 93 janvier 1989 Page 58-59Micro Systèmes numéro 93 janvier 1989 Page 60-61Micro Systèmes numéro 93 janvier 1989 Page 62-63Micro Systèmes numéro 93 janvier 1989 Page 64-65Micro Systèmes numéro 93 janvier 1989 Page 66-67Micro Systèmes numéro 93 janvier 1989 Page 68-69Micro Systèmes numéro 93 janvier 1989 Page 70-71Micro Systèmes numéro 93 janvier 1989 Page 72-73Micro Systèmes numéro 93 janvier 1989 Page 74-75Micro Systèmes numéro 93 janvier 1989 Page 76-77Micro Systèmes numéro 93 janvier 1989 Page 78-79Micro Systèmes numéro 93 janvier 1989 Page 80-81Micro Systèmes numéro 93 janvier 1989 Page 82-83Micro Systèmes numéro 93 janvier 1989 Page 84-85Micro Systèmes numéro 93 janvier 1989 Page 86-87Micro Systèmes numéro 93 janvier 1989 Page 88-89Micro Systèmes numéro 93 janvier 1989 Page 90-91Micro Systèmes numéro 93 janvier 1989 Page 92-93Micro Systèmes numéro 93 janvier 1989 Page 94-95Micro Systèmes numéro 93 janvier 1989 Page 96-97Micro Systèmes numéro 93 janvier 1989 Page 98-99Micro Systèmes numéro 93 janvier 1989 Page 100-101Micro Systèmes numéro 93 janvier 1989 Page 102-103Micro Systèmes numéro 93 janvier 1989 Page 104-105Micro Systèmes numéro 93 janvier 1989 Page 106-107Micro Systèmes numéro 93 janvier 1989 Page 108-109Micro Systèmes numéro 93 janvier 1989 Page 110-111Micro Systèmes numéro 93 janvier 1989 Page 112-113Micro Systèmes numéro 93 janvier 1989 Page 114-115Micro Systèmes numéro 93 janvier 1989 Page 116-117Micro Systèmes numéro 93 janvier 1989 Page 118-119Micro Systèmes numéro 93 janvier 1989 Page 120-121Micro Systèmes numéro 93 janvier 1989 Page 122-123Micro Systèmes numéro 93 janvier 1989 Page 124-125Micro Systèmes numéro 93 janvier 1989 Page 126-127Micro Systèmes numéro 93 janvier 1989 Page 128-129Micro Systèmes numéro 93 janvier 1989 Page 130-131Micro Systèmes numéro 93 janvier 1989 Page 132-133Micro Systèmes numéro 93 janvier 1989 Page 134-135Micro Systèmes numéro 93 janvier 1989 Page 136-137Micro Systèmes numéro 93 janvier 1989 Page 138-139Micro Systèmes numéro 93 janvier 1989 Page 140-141Micro Systèmes numéro 93 janvier 1989 Page 142-143Micro Systèmes numéro 93 janvier 1989 Page 144-145Micro Systèmes numéro 93 janvier 1989 Page 146-147Micro Systèmes numéro 93 janvier 1989 Page 148-149Micro Systèmes numéro 93 janvier 1989 Page 150-151Micro Systèmes numéro 93 janvier 1989 Page 152-153Micro Systèmes numéro 93 janvier 1989 Page 154-155Micro Systèmes numéro 93 janvier 1989 Page 156-157Micro Systèmes numéro 93 janvier 1989 Page 158-159Micro Systèmes numéro 93 janvier 1989 Page 160-161Micro Systèmes numéro 93 janvier 1989 Page 162-163Micro Systèmes numéro 93 janvier 1989 Page 164-165Micro Systèmes numéro 93 janvier 1989 Page 166-167Micro Systèmes numéro 93 janvier 1989 Page 168-169Micro Systèmes numéro 93 janvier 1989 Page 170-171Micro Systèmes numéro 93 janvier 1989 Page 172-173Micro Systèmes numéro 93 janvier 1989 Page 174-175Micro Systèmes numéro 93 janvier 1989 Page 176-177Micro Systèmes numéro 93 janvier 1989 Page 178-179Micro Systèmes numéro 93 janvier 1989 Page 180-181Micro Systèmes numéro 93 janvier 1989 Page 182