CNRS Le Journal n°269 nov/déc 2012
CNRS Le Journal n°269 nov/déc 2012
  • Prix facial : gratuit

  • Parution : n°269 de nov/déc 2012

  • Périodicité : trimestriel

  • Editeur : CNRS

  • Format : (215 x 280) mm

  • Nombre de pages : 44

  • Taille du fichier PDF : 8,5 Mo

  • Dans ce numéro : La déferlante des octets

  • Prix de vente (PDF) : gratuit

Dans ce numéro...
< Pages précédentes
Pages : 26 - 27  |  Aller à la page   OK
Pages suivantes >
26 27
w 26 Jean-François Boulicaut, chercheur du Laboratoire d’informatique en images et systèmes d’information (Liris) 3 de Villeurbanne. Des données convoitées Avec son équipe, cet expert met à contribution son savoir-faire dans le cadre du projet Mastodons sur l’analyse de masse de données de l’urbain et de l’environnement (projet Amadouer). Il s’agit ici d’explorer les bases de données de l’agglomération lyonnaise pour y recueillir les informations sur la pollution environnementale et le flux de circulation automobile. Le traitement de ces données doit aider à élaborer une nouvelle politique des transports en centre-ville. À l’aide de simulations mathématiques, l’objectif est de concevoir un modèle dans lequel la voiture n’aurait plus qu’une place limitée. Revers de la médaille : ce type de données intéresse de très près certains groupes industriels qui souhaitent se les approprier à des fins commerciales, parfois au détriment de la communauté scientifique. « Il y a une vingtaine d’années, une société a voulu racheter les droits sur les photos numériques détenues par les Musées de France, rappelle Jean-François Boulicaut. Or, comme la qualité du procédé était, à l’époque, loin d’égaler celle de l’argentique, le ministère de la Culture avait failli signer cet accord, avant de faire machine arrière. » Espérons que les décideurs politiques sauront faire preuve de la même clairvoyance dans l’eldorado de la recherche sur des grandes masses de données. G. F. 1.Unité CNRS/Université Pierre-Mendès-France/Université Joseph Fourrier/Université Stendhal/INPG. 2. Unité CNRS/Inria/Université de Nice Sophiaantipolis. 3.Unité CNRS/Université Claudebernard/Université Lyon 2/Insa/Ecole centrale delyon Contacts : Marie-Christine Rousset > marie-christine.rousset@imag.fr Johan Montagnat > johan@i3s.unice.fr Jean-François Boulicaut > jean-francois.boulicaut@insa-lyon.fr ©DataGIF/CNRS | L’enquête cnrs I LE JOUrnAL Le difficile stockage des données Nos sociétés produisent un déluge de données et il faut bien les stocker quelque part. La solution la plus évidente est bien sûr de multiplier des unités de stockage, comme les disques durs qui équipent les ordinateurs ou les puces à mémoire flash de nos appareils mobiles (lire l’encadré p. 27). Mais si ce principe général est valable pour les masses de données, sa réalisation ne coule pas de source. « Comparez le stockage à un chantier, explique Patrick Valduriez, directeur de recherches Inria au Laboratoire d’informatique, de robotique et de microélectronique de Montpellier (Lirmm) 1. Plus vous voulez aller vite, plus vous embauchez d’ouvriers, mais plus leur coordination devient complexe. » En d’autres termes, empiler – les spécialistes disent « paralléliser » – les systèmes de stockage ne suffit pas, il faut aussi optimiser la façon dont ils travaillent ensemble. Cette tâche est d’autant plus épineuse que les données sont non seulement très nombreuses, mais aussi hétérogènes et dynamiques. C’est pourquoi de nouvelles manières de stocker l’information ont vu le jour, le cloud comPUting Stockage Applications Serveur de calcul Internet ou réseau privé Entreprise Ordinateur personnel notamment sous l’impulsion des géants de l’Internet comme Google, qui doit conserver la trace de milliards de pages Web. « Avec les grandes masses de données, on a vu apparaître des solutions spécifiques qui exploitent le parallélisme massif, avec de nouveaux modèles de programmation de cette parallélisation », indique Patrick Valduriez. floraison de datacenters Un peu partout sur la planète fleurissent ainsi des centres de données, les datacenters, où sont installés de tels systèmes de calcul et de stockage massivement parallèles. « Surtout dans les pays du Nord, précise Patrick Valduriez. Car toutes ces machines doivent être constamment refroidies, et cela coûte moins cher de le faire sous un climat froid ! » L’accès à ces centres se fait par un réseau privé ou Internet. C’est ce dispositif que l’on désigne sous le nom de « cloud computing » : ce fameux « nuage » (cloud en anglais) qui permet de Mobile Fournisseur Utilisateurs
N°269 I novembre-décembre 2012 L’enquête | 27 les soLUtions pour stocker Pour stocker les flux de données dont la croissance est exponentielle, le disque dur magnétique reste à ce jour le principal support employé. C’est un ensemble de plateaux de verre ou de métal qui tournent à vive allure (120 tours par seconde, le plus souvent) à l’intérieur d’un boîtier étanche. Chaque plateau est recouvert d’une couche magnétique où sont enregistrées les données. Aujourd’hui, les disques durs du commerce stockent environ 15 gigaoctets par centimètre carré de plateau, un chiffre qui pourrait doubler d’ici à 2016. En plus de cette haute densité de stockage, ses performances sont très supérieures à celles des disques optiques (CD, DVD), comme à celles des mémoires dites « optiques holographiques », qui peinent à s’industrialiser. Parallèlement, le prix des disques durs a chuté de manière vertigineuse. En 1956, quand IBM a présenté son premier disque dur, stocker 1 gigaoctet coûtait 8 millions d’euros. Aujourd’hui, cela ne coûte plus que quelques centimes ! De fait, seule la bande magnétique, dix fois moins chère, peut rivaliser en terme de coût. Mais celle-ci a un gros inconvénient : sa lenteur, qui la réserve à l’archivage de données peu fréquemment utilisées. Quant à la mémoire flash, qui équipe le plus souvent les appareils mobiles, elle acquiert peu à peu ses lettres de noblesse : plus rapide pour la lecture des données que le disque dur, elle voit son rapport coût/performance baisser à vue d’œil. louer, de manière temporaire ou durable, un espace de stockage et même du temps de calcul (voir l’infographie p.26). C’est sur ce modèle que fonctionne le « nuage élastique de calcul » d’Amazon, service visant surtout les entreprises, ou des services plus grand public comme les Google Apps et l’iCloud d’Apple, destinés aux utilisateurs d’ordinateurs, de tablettes et de téléphones. Avantage de cette solution 10 Ici, l’un des centres de données de Google, à Council Bluffs (Iowa) : il s’étend sur 10 000 m 2. informatique : elle peut s’avérer rentable pour les utilisateurs, qui ne paient que ce dont ils ont réellement besoin. Patrick Valduriez pointe cependant un inconvénient : « Ces services peuvent intéresser les entreprises pour des données non stratégiques, mais il est difficile d’avoir confiance dans ce système. Amazon a déjà connu une panne telle que des données n’ont pas pu être récupérées. » L’impératif de sécurité De fait, le développement des nuages se heurte encore à de nombreuses réticences. « Beaucoup d’entreprises hésitent à les utiliser pour des raisons de confidentialité, analyse Véronique Cortier, du Laboratoire lorrain de recherche en informatique et ses applications (Loria) 2. La plupart du temps, les serveurs stockent les données de manière lisible, et les gens qui gèrent ces 11 11 Facebook va implanter l’un de ses datacenters en Suède afin d’optimiser son refroidissement (vue d’artiste). 10 ©aP/SIPA serveurs ont accès aux informations de leurs clients. » Pour résoudre ce problème, il suffirait, par exemple, de chiffrer les données chez le client, avant l’envoi dans le nuage. « Il y a des recherches en cours pour mettre au point ce type de solution. Mais cela rend plus complexe l’accès aux données, cela augmente les temps de calcul, et donc les coûts. » Autre point faible : les nuages offrent un point d’entrée centralisé qui les rend vulnérables aux attaques de pirates informatiques. « Et comme de nombreux sites proposent un contrôle d’accès unique pour tous leurs services, par exemple une messagerie électronique, un calendrier, et l’accès aux documents, une attaque réussie peut faire de gros dégâts », souligne de son côté Hubert Comon-Lundh, qui travaille sur la sécurité des protocoles informatiques au Laboratoire spécification et vérification 3 à l’École normale supérieure de Cachan. Pour parer ce genre de menaces, les recherches se concentrent sur la détection des attaques avant qu’elles surviennent et sur le cloisonnement des données. En Europe, la question de la sécurité et de la confidentialité des données se pose d’autant plus que la plupart des fournisseurs de cloud, à l’image d’Amazon ou de Google, sont sous pavillon américain. Ils sont donc soumis au Patriot Act. Cette loi, adoptée par les États-Unis au lendemain des attentats du 11 septembre 2001, donne tout pouvoir au gouvernement fédéral pour accéder aux données hébergées sur le serveur d’une société de droit américain, quel que soit le pays où ce serveur est installé. Un droit de regard extraterritorial qui inquiète et semble freiner les utilisateurs européens. À l’opposé de cette logique, « l’Union européenne vient, elle, de s’engager dans une réforme des textes pour renforcer la protection des données de ses entreprises et de ses citoyens », se félicite Patrick Valduriez. Un choix politique qui pourrait bien permettre à l’Europe, à la traîne des Américains dans le cloud, de regagner du terrain. F. d. et D.D. 1. Unité CNRS/Universitémontpellier-II 2. Unité CNRS/Université delorraine/Inria 3. Unité CNRS/ENS Cachan Contacts : Hubert Comon-Lundh > comon@lsv.ens-cachan.fr Véronique Cortier > veronique.cortier@loria.fr Patrick Valduriez > patrick.valduriez@lirmm.fr ©Google



Autres parutions de ce magazine  voir tous les numéros


Liens vers cette page
Couverture seule :


Couverture avec texte parution au-dessus :


Couverture avec texte parution en dessous :