SVM n°201 février 2002
SVM n°201 février 2002
  • Prix facial : 3,80 €

  • Parution : n°201 de février 2002

  • Périodicité : mensuel

  • Editeur : Excelsior Publications

  • Format : (204 x 280) mm

  • Nombre de pages : 184

  • Taille du fichier PDF : 167 Mo

  • Dans ce numéro : le nouveau coup d'Apple.

  • Prix de vente (PDF) : gratuit

Dans ce numéro...
< Pages précédentes
Pages : 56 - 57  |  Aller à la page   OK
Pages suivantes >
56 57
à la une

PROJETS SECRETS

L'informatique autonome sort des labos de Big Blue

Six programmes clés pour
L'appel d'IBM lb au monde de la recherche
Pour convaincre les acteurs de l'informatique de l'importance de l'Autonomic Computing, IBM a envoyé un manifeste à plus de 75 000 chercheurs, universitaires et entreprises du monde entier. En voici les points clés.
• Pour se piloter, l'ordinateur doit se "connaître" lui-même, c'est-à-dire disposer d'une représentation de ses ressources, de son état, de ses composants et de ses connexions et interactions avec les composants des autres systèmes qui l'environnent. De même, les machines doivent être capables de s'identifier
comme telles pour se fédérer dynamiquement et en former de nouvelles. Un système doit pouvoir se reconfigurer automatiquement en réponse à des conditions d'utilisation

eLiza, ou l'informatique autogérée

cc

Cette représentation de l'internet montre à quel point les réseaux sont complexes, autant qu'un système nerveux. Si bien que, bientôt, les informaticiens eux-mêmes seront dépassés. C'est l'un des projets les plus ambitieux d'IBM, sous la coupe de son activité Serveurs d'entreprise. Lancé en 2001, eLiza impliquera tous les labos et absorbera une bonne partie des prochains investissements en recherche engagés par le constructeur. Et pour cause : les buts de ce projet se confondent avec ceux de l'Autonomic Computing, puisqu'il s'agit rien moins que de doter les ordinateurs serveurs d'IBM de fonctions d'autodiagnostic, de réparation, d'administration et d'optimisation automatique. Vaste programme, engagé en réalité depuis plusieurs décennies par les constructeurs de grosses machines. Leur hantise: la paralysie du système informatique. La panne matérielle est certes de moins en moins probable: les meilleurs composants affichent un temps moyen de bon fonctionnement estimé à plus de 100 ans! Les travaux actuels visent donc moins à éviter les pannes

e

imprévisibles. Il doit s'adapter à la demande, par exemple par duplication de logiciels et documents sur le réseau et par réallocation de ses ressources (mémoire, calcul, stockage, bande passante...). D'une façon plus générale, un tel système doit chercher continuellement
les moyens d'optimiser son fonctionnement. Il doit aussi être capable de s'autoconserver,

c'est-à-dire de maintenir son activité en surmontant les événements routiniers ou extraordinaires dus aux dysfonctionnements de ses composants. Cet "instinct de conservation" doit, de même, lui permettre de réagir à des attaques de toutes sortes (virus, hacking, piratage), en anticiper les menaces et en prenant les mesures adéquates.
Un système d'Autonomic Computing "connaît" son environnement et le contexte environnant son activité, et agit en conséquence. Ce ne peut être une solution propriétaire : par définition,

il fonctionne dans un monde hétérogène et adhère à des standards ouverts, par exemple, pour le partage, l'identification, la communication ou la négociation de ressources informatiques intra et intersystèmes. Enfin, il devra
anticiper l'administration optimale des ressources nécessaires, tout en masquant aux uti-

lisateurs la complexité de son fonctionnement.

franches qu'à prévoir et contourner des dysfonctionnements ponctuels. Les solutions? D'abord des logiciels de supervision, chargés de connaître l'état de chaque élément du réseau. La duplication des matériels et des données cruciales s'impose aussi. Mais cette redondance coûte cher et, au fil du temps, les technologies se sont affinées. Ainsi, avec la technologie Raid de stockage sur disques, en répartissant par exemple les données (ainsi que des informations de contrôle) sur trois disques plutôt que sur un seul, un logiciel spécial saura reconstituer les informations de l'un des trois disques qui tomberait en panne ; pendant ce temps, ordinateur et logiciels continuent de fonctionner imperturbablement, tandis qu'un être humain remplace le disque défaillant. Suivant un principe comparable, les superserveurs d'IBM ont, depuis peu, recours à une mémoire fort coûteuse mais capable de déceler et de répa-

56 SV ni Février 2002

relever le défi
Grid Computing,
rer les anomalies sans interrompre les traitements (technologie Chipkill). Etonnants aussi, ces ordinateurs eServer p690 dotés de milliers de capteurs couplés à un logiciel de supervision. Ce dernier sait détecter une défaillance, mais sait aussi l'anticiper (du fait d'une température anormalement élevée, par exemple) pour mettre un composant hors circuit sans arrêter la machine. Et si le système tombe quand même en panne? Le cas est prévu. Cette fois, les grands constructeurs préconisent l'emploi de grappes de serveurs, jusqu'à plusieurs dizaines reliés entre eux par des voies ultrarapides. Principal avantage de ces grappes: mutualiser, et donc optimiser les ressources informatiques. Des technologies fraîchement sorties de ses labos permettent ainsi à IBM de promettre une répartition automatique des ressources en fonction des besoins de chaque programme. Mieux, en cas de pépin, des mécanismes sont prévus pour déporter un logiciel en cours de traitement sur un autre système de la grappe. De même, partant du constat qu'un ordinateur laissé trop longtemps en marche finit par devenir instable, les chercheurs planchent sur des experts logiciels qui décideront seuls de réinitialiser tel logiciel ou tel ordinateur d'une grappe. Reste le facteur humain... la source la plus probable d'erreur! Là, les chercheurs s'arrachent les cheveux pour tenter d'ajouter une fonction "Annuler" aux systèmes d'exploitation, comme il en existe dans Word et Excel. Mais toutes les actions ne pourront pas raisonnablement être annulées, préviennent-ils. En théorie, techniquement, elles le seraient, pourtant. Mais si la sécurité n'a pas de prix, elle a quand même un coût. Considéré comme une possible évolution du Net, le Grid Computing pourrait migrer des labos scientifiques vers le monde de l'entreprise d'ici 2 à 3 ans. L'idée, c'est de transformer un ensemble de machines interconnectées, géographiquement dispersées, en un système informatique fonctionnant comme une seule machine virtuelle, aux performances démultipliées. Une telle architecture offre une réponse raffinée aux problèmes de partage, c'est-à-dire à l'utilisation coordonnée, flexible, sécurisée et contrôlée des ressources informatiques au sein d'une communauté. Puissance de calcul, bande passante, documents, logiciels, stockage, tout peut se partager. Ce modèle distribué utilise l'Internet pour fédérer une vaste grappe de machines gérées par des organisations différentes. Le Grid forme ainsi un espace

pour partager la puissance

O

En combinant la puissance de milliers de serveurs comme celuici, on obtient un supercalculateur

CE QUI EST DÉJÀ ACQUIS
• Les logiciels de supervision de réseau connaissent l'état et les performances de chaque élément (serveur, baie de stockage, routeur, PC de l'utilisateur...). • L'architecture Parallel Sysplex optimise les ressources d'une grappe d'ordinateurs, permettant même de transférer un programme d'un ordinateur a un autre. • Intelligent Resource Director assure la répartition dynamique des processeurs, mémoires, voies de communication, etc., selon les besoins des programmes.

POUR
eLiza fédère les travaux de plusieurs labos d'IBM, ainsi que d'universités américaines et européennes. Le projet bénéficiera d'un investissement de plus d'un milliard de dollars dans les cinq ans qui viennent.

commun de travail, de partage et de collaboration, aux ressources hétérogènes et quasi illimitées. IBM s'est fortement engagé dans le Grid Computing et travaille en partenariat avec la communauté Grid pour établir des standards capables de fonder un environnement d'Autonomic Computing. Ses labos de recherche américain, israélien, suisse, japonais et anglais sont du reste déjà reliés entre eux par un Grid.

CE QUI EST DÉJÀ ACQUIS
• Les Grid sont utilisés dans plus d'une vingtaine de projets scientifiques intemationaux. • un système de calcul distribué "grand public", Seti@Home, fédère des millions d'intemautes à la recherche d'une intelligence extraterrestre. • La demière version de la boite à outils Globus, sortie en novembre demier, est compatible avec les eServers d'IBM.

POUR
Le Grid Computing est tout désigné pour développer une expertise en matière d'autoadministration de réseaux.

CONTRE
Beaucoup des technologies de détection et de réparation d'erreurs coûtent cher à mettre en oeuvre, et resteront encore longtemps réservées aux gros ordinateurs.

CONTRE
Le modèle distribué s'applique

avant tout aux grandes organisations. Les systèmes grand public de partage de fichiers (peer-to-peer Gnutella ou Freenet) sont souvent synonymes de piratage et n'ont pas très bonne presse dans l'industrie.

Février 2002

SVfl1 57




Autres parutions de ce magazine  voir tous les numéros


Liens vers cette page
Couverture seule :


Couverture avec texte parution au-dessus :


Couverture avec texte parution en dessous :


SVM numéro 201 février 2002 Page 1SVM numéro 201 février 2002 Page 2-3SVM numéro 201 février 2002 Page 4-5SVM numéro 201 février 2002 Page 6-7SVM numéro 201 février 2002 Page 8-9SVM numéro 201 février 2002 Page 10-11SVM numéro 201 février 2002 Page 12-13SVM numéro 201 février 2002 Page 14-15SVM numéro 201 février 2002 Page 16-17SVM numéro 201 février 2002 Page 18-19SVM numéro 201 février 2002 Page 20-21SVM numéro 201 février 2002 Page 22-23SVM numéro 201 février 2002 Page 24-25SVM numéro 201 février 2002 Page 26-27SVM numéro 201 février 2002 Page 28-29SVM numéro 201 février 2002 Page 30-31SVM numéro 201 février 2002 Page 32-33SVM numéro 201 février 2002 Page 34-35SVM numéro 201 février 2002 Page 36-37SVM numéro 201 février 2002 Page 38-39SVM numéro 201 février 2002 Page 40-41SVM numéro 201 février 2002 Page 42-43SVM numéro 201 février 2002 Page 44-45SVM numéro 201 février 2002 Page 46-47SVM numéro 201 février 2002 Page 48-49SVM numéro 201 février 2002 Page 50-51SVM numéro 201 février 2002 Page 52-53SVM numéro 201 février 2002 Page 54-55SVM numéro 201 février 2002 Page 56-57SVM numéro 201 février 2002 Page 58-59SVM numéro 201 février 2002 Page 60-61SVM numéro 201 février 2002 Page 62-63SVM numéro 201 février 2002 Page 64-65SVM numéro 201 février 2002 Page 66-67SVM numéro 201 février 2002 Page 68-69SVM numéro 201 février 2002 Page 70-71SVM numéro 201 février 2002 Page 72-73SVM numéro 201 février 2002 Page 74-75SVM numéro 201 février 2002 Page 76-77SVM numéro 201 février 2002 Page 78-79SVM numéro 201 février 2002 Page 80-81SVM numéro 201 février 2002 Page 82-83SVM numéro 201 février 2002 Page 84-85SVM numéro 201 février 2002 Page 86-87SVM numéro 201 février 2002 Page 88-89SVM numéro 201 février 2002 Page 90-91SVM numéro 201 février 2002 Page 92-93SVM numéro 201 février 2002 Page 94-95SVM numéro 201 février 2002 Page 96-97SVM numéro 201 février 2002 Page 98-99SVM numéro 201 février 2002 Page 100-101SVM numéro 201 février 2002 Page 102-103SVM numéro 201 février 2002 Page 104-105SVM numéro 201 février 2002 Page 106-107SVM numéro 201 février 2002 Page 108-109SVM numéro 201 février 2002 Page 110-111SVM numéro 201 février 2002 Page 112-113SVM numéro 201 février 2002 Page 114-115SVM numéro 201 février 2002 Page 116-117SVM numéro 201 février 2002 Page 118-119SVM numéro 201 février 2002 Page 120-121SVM numéro 201 février 2002 Page 122-123SVM numéro 201 février 2002 Page 124-125SVM numéro 201 février 2002 Page 126-127SVM numéro 201 février 2002 Page 128-129SVM numéro 201 février 2002 Page 130-131SVM numéro 201 février 2002 Page 132-133SVM numéro 201 février 2002 Page 134-135SVM numéro 201 février 2002 Page 136-137SVM numéro 201 février 2002 Page 138-139SVM numéro 201 février 2002 Page 140-141SVM numéro 201 février 2002 Page 142-143SVM numéro 201 février 2002 Page 144-145SVM numéro 201 février 2002 Page 146-147SVM numéro 201 février 2002 Page 148-149SVM numéro 201 février 2002 Page 150-151SVM numéro 201 février 2002 Page 152-153SVM numéro 201 février 2002 Page 154-155SVM numéro 201 février 2002 Page 156-157SVM numéro 201 février 2002 Page 158-159SVM numéro 201 février 2002 Page 160-161SVM numéro 201 février 2002 Page 162-163SVM numéro 201 février 2002 Page 164-165SVM numéro 201 février 2002 Page 166-167SVM numéro 201 février 2002 Page 168-169SVM numéro 201 février 2002 Page 170-171SVM numéro 201 février 2002 Page 172-173SVM numéro 201 février 2002 Page 174-175SVM numéro 201 février 2002 Page 176-177SVM numéro 201 février 2002 Page 178-179SVM numéro 201 février 2002 Page 180-181SVM numéro 201 février 2002 Page 182-183SVM numéro 201 février 2002 Page 184