Micro Systèmes n°93 janvier 1989
Micro Systèmes n°93 janvier 1989
  • Prix facial : 30 F

  • Parution : n°93 de janvier 1989

  • Périodicité : mensuel

  • Editeur : Société Parisienne d'Edition

  • Format : (203 x 271) mm

  • Nombre de pages : 182

  • Taille du fichier PDF : 160 Mo

  • Dans ce numéro : systèmes experts et psychologie cognitive.

  • Prix de vente (PDF) : gratuit

Dans ce numéro...
< Pages précédentes
Pages : 84 - 85  |  Aller à la page   OK
Pages suivantes >
84 85
Le traitement automatique des connaissances contenues dans les textes est étudié par des chercheurs du Centre scientifique IBM de Paris, où le système « Kalipsos », traitant des textes sur l'économie et la finance, est en cours de réalisation. Le centre de recherche MCC (Microelectronics and Computer Technology Corp.), aux Etats-Unis, a développé un « éditeur de connaissances », « Luke », permettant à une interface en langue naturelle de comprendre des phrases en se référant à la base de connaissances éditée par Luke. En France, l'un des pionniers fut Alain Colmerauer, célèbre aujourd'hui pour l'invention du langage Prolog. En fait, la préoccupation principale du groupe de Marseille qu'il animait, au début des années soixante-dix, était le développement d'un système interactif homme-machine capable de faire des déductions à partir d'un ensemble de phrases en langue naturelle (4). Ce travail fut d'ailleurs à l'origine du Prolog, toujours considéré comme l'un des plus qualifiés pour le traitement des langues naturelles. Actuellement, le numéro un du langage naturel est la société G5I-Erli (Etude recherche linguistique informatique), avec une trentaine de personnes travaillant depuis dix ans sur ce domaine. Cette firme, réunissant la plus grosse équipe française industrielle, est capable de se mesurer aux meilleurs produits américains et japonais. De nombreux laboratoires de recherche, industriels ou universitaires, entretiennent aussi des équipes sur ce sujet, mais rares sont les produits actuellement opérationnels, malgré le nombre d'annonces dans ce domaine et l'intérêt évident de l'ensemble de la communauté scientifique et informatique. Le laboratoire LIANA de l'université de Nantes a récemment organisé un colloque « Informatique et langue naturelle », ayant pour but de brosser un tour d'horizon des différents problèmes qui se posent à la mise en oeuvre d'un système de communication homme-machine en langage naturel (Nantes, 12-13 octobre 1988). 84 — MICRO-SYSTEMES Une école d'été consacrée au traitement des langues naturelles a été organisée par le Centre national d'études des télécommunications (CNET) à Lannion, en juillet 1988, avec le concours du Centre d'études et de recherches en informatique linguistique (CERIL) et l'université de Rennes. Parmi les applications de l'informatique linguistique abordées, citons la recherche documentaire, la correction et la génération de textes, la traduction automatique et l'interrogation de bases de données. Imposture ou réalité ? L'idéal pour une machine traitant le langage naturel est qu'elle soit capable de le comprendre. Or, ce problème de la « compréhension » est très complexe. C'est probablement l'une des facultés supérieures chiatre capable de fournir des réponses pertinentes aux interrogations ou aux affirmations du patient. Selon D. Hofstadter (6), « ce genre de programmes est fondé sur un habile mélange de bravade et de bluff, mais aussi sur la crédulité des gens ». L'auteur d'« Eliza », J. Weizenbaum, a lui-même reconnu que son programme opérait à un niveau extrêmement simple et superficiel de compréhension du langage, mais que, malgré cela, certaines personnes étaient trompées par la réalité de ses réponses au point de lui confier leurs problèmes personnels comme s'il s'agissait vraiment d'un psychiatre. Voilà donc le premier écueil : il ne faut pas confondre la compréhension du langage naturel avec des systèmes qui ne font que repérer des mots clés, chercher dans Le marché d'aujourd'hui n'est pas encore mûr pour recevoir des produits commerciaux à base de langages naturels,/de l'intelligence humaine, et nous sommes encore loin de savoir la modéliser sur ordinateur. Pour cela, explique Igor Aleksander (5), il faudra « passer beaucoup de temps à expliciter le sens des objets de la vie courante, de manière à construire une base de connaissances sur laquelle on va pouvoir bâtir ». L'essentiel, dans une interface en langage naturel, c'est que le dialogue se fasse comme si l'utilisateur se trouvait en face d'un autre être humain caché derrière la machine. Cela nous ramène au fameux test de Turing, jeu destiné à montrer si une machine est intelligente ou non. Le test est déclaré positif si l'utilisateur ne peut discerner s'il se trouve en face d'une simple machine ou si c'est un être humain qui s'exprime à travers cette machine. Pourtant, ces systèmes, quand on les regarde de près, créent au mieux une illusion de l'intelligence. Le premier exemple de ce genre fut « Eliza », un programme simulant un psy- leur base de données des phrases toutes faites contenant ces mots et se présentant sous la forme d'une réponse ou d'une autre question en rapport avec lesdits mots. S'ils ne possèdent pas un tel mot dans leur base de données, ils répondent par une interrogation telle que : « Pouvez-vous préciser votre demande ? » ou, en désespoir de cause, vous renvoient à vos moutons avec une phrase telle que : « Désolé, mes connaissances actuelles ne me permettent pas de vous répondre. Avez-vous une autre question ? » De tels systèmes, se prévalant parfois d'« intelligence », ont fait florès sur minitel, où il est relativement facile de tromper le néophyte, alors qu'ils ne sont capables que de reconnaître la morphologie des chaînes de caractères, sans mettre en jeu le moindre raisonnement. Deuxième abus de langage : beaucoup de programmes dits conviviaux s'enorgueillissent d'« interfaces en langage naturel », mais il ne s'agit en fait que de séries de questions ou menus exprimés en français à l'utilisateur, lequel ne peut que répondre « oui », « non », « ne sait pas » ou, au mieux, choisir une option. Enfin, il ne faut pas confondre « langage naturel » avec « langage de quatrième génération » ou L4G (voir Micro- Systèmes n°80, p.126, novembre 1987). Ces derniers sont des langages non procéduraux, dont la forme est souvent proche du français ou de l'anglais. Conçus pour aider au développement d'applications, ils sont utilisables par des noninformaticiens, et ne nécessitent qu'une brève période de formation. L'intelligence en plus Pour rendre « intelligent » un système de traitement du langage naturel, il faut lui ajouter quelques-unes des notions que les humains mettent en oeuvre dans ce que nous appelons la « compréhension ». Celle-ci se fait à plusieurs niveaux : non seulement celui des mots eux-mêmes, mais également la phrase tout entière, le contexte, le domaine traité. La compréhension du langage naturel met en jeu des notions de toutes sortes, que, suivant Jacques Pitrat (7), nous classerons en cinq catégories, correspondant aux étapes du traitement : — l'étape morphologique consiste à identifier le mot en tant que chaîne de caractères ; — lors de l'étape lexicale, ce mot est recherché dans le dictionnaire de la machine ; — l'étape syntaxique intègre la grammaire (accords des mots, conjugaisons, fonctions dans la phrase...) ; — l'étape sémantique traduit la phrase en une formule exprimant le sens. Elle doit souvent être traitée simultanément à l'étape syntaxique. Ainsi, la correspondance entre un nom et l'adjectif qui le qualifie se fait à l'aide d'un dictionnaire donnant, en face de chaque mot, une liste de « traits sémantiques » servant à son interprétation. Le système en déduira que, dans « des chaussons de bébé en coton », « coton » se rapporte à « chaussons », alors que pour « la robe de la fillette blonde », l'adjectif qualifie la fillette. Mais il faut aussi savoir que Janvier 1989
Les difficultés du traitement du langage naturel Les principales difficultés du langage naturel sont dues au fait que, d'une part, la notion de mot est difficile à définir (par exemple : « pomme de terre » est un mot, mais dans « eau de mer » il y a trois mots ; « chef-lieu » est un mot, mais dans « a- t-il » les traits d'union servent à séparer deux mots, « a » et « il » ; « mettre en oeuvre » doit être considéré comme un seul mot, bien que le verbe « mettre » se conjugue et que des adverbes puissent s'intercaler entre les termes ; d'autre part, la correspondance entre la forme et le sens des mots n'est pas univoque. Cette dernière propriété se traduit par l'homonymie (similitude formelle de mots différents, homophones ou homographes), la polysémie (surtout utilisée dans les métaphores : « cet individu est un requin »), la métonymie (glissement de sens par raccourci d'expression : « lire un policier », « boire un verre », « perdre son siège », pour un député, par exemple). Ces correspondances ne sont pas figées dans le temps. Ainsi, lorsqu'une métaphore s'incorpore à l'usage linguistique, un nouveau cas de polysémie est créé ; c'est le cas, en informatique, où l'on parle désormais de « virus », de « vaccin », de « guérison » et autres termes anthropomorphes. Dans l'interrogation de bases de données pour la recherche documentaire, cela se traduit par le « bruit » documentaire, c'est-à-dire des réponses parasites dues notamment à l'homographie. Par exemple : « culture », dont le sens change fondamentalement, selon qu'il s'applique aux plantes ou aux peuples. Pour lever de telles ambiguïtés, il suffit généralement de faire intervenir le contexte. Mais cela nécessite des analyses beaucoup plus complexes, coûteuses en temps et en mémoire. blond » peut se rapporter à « sable », « tabac », « champ de blé », etc. ; — l'étape pragmatique traduit des règles et des notions de savoir-faire. Entre linguistique et informatique Selon Bernard Normier, P.- D.G. de GSI-Erli, le langage naturel se trouve à mi-chemin entre l'intelligence artificielle et les industries de la langue. Au niveau élémentaire, il s'agit d'isoler et d'identifier des mots — y compris les mots composés —, afin d'en faire l'analyse grammaticale (exemple : « cheval », catégorie : nom, genre : masculin, etc.), de corriger des fautes d'orthographe dans le cas où le mot n'est pas reconnu. Au niveau supérieur, le mot doit être replacé dans son contexte pour subir un traitement approfondi, notamment syntaxique. Ce traitement se fonde d'abord sur les travaux des linguistes. Noam Chomsky, considéré comme le fondateur Janvier 1989 de la linguistique moderne, proposait l'idée que la recherche de signification pouvait être guidée par un processus d'analyse syntaxique. Déjà au XVIlle siècle, Turgot avait compris que la syntaxe pouvait devenir un outil de la pensée scientifique. Janine Gallais-Hamonno s'est inspirée de ses travaux dans ses « linguisticiels », néologisme signifiant « logiciel d'analyse linguisque de textes ». Cette universitaire a d'ailleurs fondé sa propre société, Lidia (Linguistique et intelligence artificielle), pour développer toute une famille de produits aux diverses fonctionnalités : Anagoge, Qualitative et Hiérarchie (cf. article : « Big Brother nous regarde-t-il déjà ? », dans Micro-Systèmes n°81, p.73, décembre 1987). Ces programmes ont pour point commun la dissection, uniquement basée sur l'analyse syntaxique, d'un texte en plusieurs sous-ensembles codés automatiquement par des couleurs : rouge pour les « concepts » (le message proprement dit, désigné par des termes isolés ou des expressions composées), bleu pour les « notions » (la culture à laquelle on fait appel chez le lecteur), vert pour le « discours de sensibilisation » (citations, images, exemples, s'adressant à l'affectif) et jaune pour le « discours rhétorique » (expressions et tournures stéréotypées, servant à l'articulation du texte et ne nécessitant aucun effort d'attention de la part du lecteur). Une telle analyse permet d'optimiser le discours en fonction de ses interlocuteurs, de leur disponibilité et de leur attente. Ses applications : adapter exactement un message à son destinataire, analyser un discours, dépouiller des enquêtes, extraire d'un texte la « substantifique moelle »... Ainsi, sans recourir à aucun dictionnaire, « Anagoge » peut analyser automatiquement un texte (contrat, lettre, rapport, etc.) afin de déterminer s'il n'y a pas de contradiction entre le message à faire passer et le langage utilisé. « Qualitative » étudie les produits de consommation, enregistre les propos pour en déduire les thèmes évoqués et les besoins profonds des consommateurs. Quant à « Hiérarchie », il identifie onze niveaux hiérarchiques d'idées (idée principale, idées secondaires, etc.) ; celles-ci sont rassemblées en blocs de signification, associés avec les idées d'importance supérieure ou inférieure auxquelles elles sont associées. « Hiérarchie » peut ainsi indexer automatiquement des textes et élaborer automatiquement des thésaurus. Les résultats obtenus peuvent être chargés directement sur dBase III et utilisés pour la constitution de bases de données. Et la phonétique « Brain-Booster », de la société Kaos, convient plutôt à l'analyse ou la génération de textes et slogans publicitaires. Pour cela, il dispose de divers outils : phonétiseur de chaînes de caractères, distanciateur phonétique, graphique ou sémantique, analyseur syntaxique, conjugaison des verbes, gestionnaire de bases de données textuelles... La tolérance est une fonction importante d'une interface DOSSIER en langage. naturel : celle-ci doit admettre certaines erreurs et inexactitudes tout aussi naturelles à certains usagers, notamment des fautes d'orthographe, de syntaxe, de phonétique, ainsi que des synonymes approximatifs. La société R Fr R Communication, spécialisée dans les serveurs et outils télématiques, propose des logiciels, regroupés sous le nom d'« Intelligence Naturelle », intégrant les fonctions de phonétisation, transformation en synonymes et autres associations entre concepts supposés équivalents pour l'usager. Le traitement phonétique, déjà présent dans l'actuel Annuaire électronique, mis en place en 1981 par les sociétés Cap Sogeti et Sesa, permet d'interroger le fichier des abonnés d'après l'orthographe approximative de leur nom de famille, de la rue ou de la ville. La phonétisation consiste à représenter les sons composant un mot ou une phrase. Ce traitement se justifie par le fait qu'un grand nombre de mots mal orthographiés se prononcent de la même façon que les mots corrects, et a donc l'avantage de supprimer la plupart des fautes d'orthographe commises lors de l'utilisation d'un clavier d'ordinateur ou de machine à écrire. L'apport de l'IA L'intelligence artificielle a apporté de nombreux outils pour aborder la représentation et la compréhension du langage naturel. Ainsi, Prolog, en tant que langage de programmation en logique, est bien adapté à la représentation du langage naturel. Lisp, en revanche, traduit, par ses parenthèses, certains aspects de la pensée humaine fonctionnant par emboîtements de concepts. Certaines méthodes de représentation des connaissances (cf. Micro-Systèmes n°75, p.108, mai 1987) sont bien adaptées à la compréhension du langage naturel. Ce sont en particulier les réseaux sémantiques, les « scripts », qui identifient un texte donné à un ensemble de schémas (actions stéréotypées) s'enchaînant entre eux, les « plans », permettant de décrire des connaissances pragmatiques en énumérant les actions néces- MICRO-SYSTEMES - 85



Autres parutions de ce magazine  voir tous les numéros


Liens vers cette page
Couverture seule :


Couverture avec texte parution au-dessus :


Couverture avec texte parution en dessous :


Micro Systèmes numéro 93 janvier 1989 Page 1Micro Systèmes numéro 93 janvier 1989 Page 2-3Micro Systèmes numéro 93 janvier 1989 Page 4-5Micro Systèmes numéro 93 janvier 1989 Page 6-7Micro Systèmes numéro 93 janvier 1989 Page 8-9Micro Systèmes numéro 93 janvier 1989 Page 10-11Micro Systèmes numéro 93 janvier 1989 Page 12-13Micro Systèmes numéro 93 janvier 1989 Page 14-15Micro Systèmes numéro 93 janvier 1989 Page 16-17Micro Systèmes numéro 93 janvier 1989 Page 18-19Micro Systèmes numéro 93 janvier 1989 Page 20-21Micro Systèmes numéro 93 janvier 1989 Page 22-23Micro Systèmes numéro 93 janvier 1989 Page 24-25Micro Systèmes numéro 93 janvier 1989 Page 26-27Micro Systèmes numéro 93 janvier 1989 Page 28-29Micro Systèmes numéro 93 janvier 1989 Page 30-31Micro Systèmes numéro 93 janvier 1989 Page 32-33Micro Systèmes numéro 93 janvier 1989 Page 34-35Micro Systèmes numéro 93 janvier 1989 Page 36-37Micro Systèmes numéro 93 janvier 1989 Page 38-39Micro Systèmes numéro 93 janvier 1989 Page 40-41Micro Systèmes numéro 93 janvier 1989 Page 42-43Micro Systèmes numéro 93 janvier 1989 Page 44-45Micro Systèmes numéro 93 janvier 1989 Page 46-47Micro Systèmes numéro 93 janvier 1989 Page 48-49Micro Systèmes numéro 93 janvier 1989 Page 50-51Micro Systèmes numéro 93 janvier 1989 Page 52-53Micro Systèmes numéro 93 janvier 1989 Page 54-55Micro Systèmes numéro 93 janvier 1989 Page 56-57Micro Systèmes numéro 93 janvier 1989 Page 58-59Micro Systèmes numéro 93 janvier 1989 Page 60-61Micro Systèmes numéro 93 janvier 1989 Page 62-63Micro Systèmes numéro 93 janvier 1989 Page 64-65Micro Systèmes numéro 93 janvier 1989 Page 66-67Micro Systèmes numéro 93 janvier 1989 Page 68-69Micro Systèmes numéro 93 janvier 1989 Page 70-71Micro Systèmes numéro 93 janvier 1989 Page 72-73Micro Systèmes numéro 93 janvier 1989 Page 74-75Micro Systèmes numéro 93 janvier 1989 Page 76-77Micro Systèmes numéro 93 janvier 1989 Page 78-79Micro Systèmes numéro 93 janvier 1989 Page 80-81Micro Systèmes numéro 93 janvier 1989 Page 82-83Micro Systèmes numéro 93 janvier 1989 Page 84-85Micro Systèmes numéro 93 janvier 1989 Page 86-87Micro Systèmes numéro 93 janvier 1989 Page 88-89Micro Systèmes numéro 93 janvier 1989 Page 90-91Micro Systèmes numéro 93 janvier 1989 Page 92-93Micro Systèmes numéro 93 janvier 1989 Page 94-95Micro Systèmes numéro 93 janvier 1989 Page 96-97Micro Systèmes numéro 93 janvier 1989 Page 98-99Micro Systèmes numéro 93 janvier 1989 Page 100-101Micro Systèmes numéro 93 janvier 1989 Page 102-103Micro Systèmes numéro 93 janvier 1989 Page 104-105Micro Systèmes numéro 93 janvier 1989 Page 106-107Micro Systèmes numéro 93 janvier 1989 Page 108-109Micro Systèmes numéro 93 janvier 1989 Page 110-111Micro Systèmes numéro 93 janvier 1989 Page 112-113Micro Systèmes numéro 93 janvier 1989 Page 114-115Micro Systèmes numéro 93 janvier 1989 Page 116-117Micro Systèmes numéro 93 janvier 1989 Page 118-119Micro Systèmes numéro 93 janvier 1989 Page 120-121Micro Systèmes numéro 93 janvier 1989 Page 122-123Micro Systèmes numéro 93 janvier 1989 Page 124-125Micro Systèmes numéro 93 janvier 1989 Page 126-127Micro Systèmes numéro 93 janvier 1989 Page 128-129Micro Systèmes numéro 93 janvier 1989 Page 130-131Micro Systèmes numéro 93 janvier 1989 Page 132-133Micro Systèmes numéro 93 janvier 1989 Page 134-135Micro Systèmes numéro 93 janvier 1989 Page 136-137Micro Systèmes numéro 93 janvier 1989 Page 138-139Micro Systèmes numéro 93 janvier 1989 Page 140-141Micro Systèmes numéro 93 janvier 1989 Page 142-143Micro Systèmes numéro 93 janvier 1989 Page 144-145Micro Systèmes numéro 93 janvier 1989 Page 146-147Micro Systèmes numéro 93 janvier 1989 Page 148-149Micro Systèmes numéro 93 janvier 1989 Page 150-151Micro Systèmes numéro 93 janvier 1989 Page 152-153Micro Systèmes numéro 93 janvier 1989 Page 154-155Micro Systèmes numéro 93 janvier 1989 Page 156-157Micro Systèmes numéro 93 janvier 1989 Page 158-159Micro Systèmes numéro 93 janvier 1989 Page 160-161Micro Systèmes numéro 93 janvier 1989 Page 162-163Micro Systèmes numéro 93 janvier 1989 Page 164-165Micro Systèmes numéro 93 janvier 1989 Page 166-167Micro Systèmes numéro 93 janvier 1989 Page 168-169Micro Systèmes numéro 93 janvier 1989 Page 170-171Micro Systèmes numéro 93 janvier 1989 Page 172-173Micro Systèmes numéro 93 janvier 1989 Page 174-175Micro Systèmes numéro 93 janvier 1989 Page 176-177Micro Systèmes numéro 93 janvier 1989 Page 178-179Micro Systèmes numéro 93 janvier 1989 Page 180-181Micro Systèmes numéro 93 janvier 1989 Page 182