Tribune libre Simulation et théorie : des rapports ambigus À lire certains journaux de physique, il semble que les démarches qui passent par le calcul numérique et font appel à de puissantes ressources informatiques prennent une part croissante dans la pratique dite théorique de cette discipline. Les articles déployant essentiellement des déductions formelles se font plus rares. On peut voir là un simple bénéfice de la puissance computationnelle, un complément à la théorie, permettant d’aller vers des solutions plus exactes aux problèmes abordés. Je voudrais pourtant soutenir ici que les rapports de la simulation numérique et de la théorie méritent d’être pensés comme potentiellement problématiques. Force et prestige de la déduction De toutes les sciences de la nature, la physique fut et reste la plus « théorique », celle qui s’efforce le plus de procéder par déduction, de dégager un corps d’hypothèses aussi compact et cohérent que possible, de formuler des lois fondamentales et de déduire les conséquences de ces lois lorsqu’elle considère les systèmes, réels ou idéaux, où ces lois vont combiner leurs effets. La démarche déductive s’applique aussi bien à l’interprétation qu’à la prédiction. Il en est encore question quand le physicien est conduit à établir que sur tel système, dans telles conditions, la prédiction est entachée d’incertitude, voire impossible. Là encore, jusque dans la détermination de conditions d’instabilité, nous procédons par déduction. Même quand nos démarches heuristiques procèdent par induction et analogies, nous ne sommes satisfaits que lorsque nous avons inséré notre résultat dans un corps formel de propositions. Je laisse de côté les moments, rares, des révolutions épistémologiques, qui fondent un nouveau paradigme. Le prestige de la théorie lui venait essentiellement de cette double démarche : d’une part faire émerger des lois communes, des structures cachées similaires, voire des isomorphismes rationalisables, d’expériences en apparence hétérogènes ; d’autre part déduire, à partir de principes, des implications non encore mises en évidence. À qui les met en œuvre ou les contemple de l’intérieur, ces pratiques théoriques assurent un vrai plaisir, parfois une émotion esthétique. Certes la démarche théorique n’est pas la seule pratique du physicien, ni son seul bonheur. Chercher ou inventer des structures nouvelles (comme le font aussi les concepteurs de matériaux et les chimistes), concevoir des modes inédits d’interpellation de la matière, conduire vers l’apparition d’effets nouveaux : ce sont là d’autres versants du plaisir du physicien, où l’imagination tient une autre place que dans les pratiques déductives ou inductives du théoricien. Mais l’imagination du montage nouveau s’élabore encore à partir du corpus théorique déjà disponible. En général nous attendons de l’expérience inédite une confirmation de notre prédiction. Bien sûr, les surprises ont été nombreuses et parfois cruciales dans l’histoire des sciences, quand elles ont invalidé un corpus accepté. 42 Reflets de la Physique n°56 Une prédiction confirmée donne au physicien un sentiment de puissance, un véritable plaisir. Il peut s’agir simplement d’une interprétation élégante faisant appel à un nombre minimal d’éléments logiques. Parfois la prédiction qualitative fait appel à des « ordres de grandeur » qui bornent le domaine du possible. Il faut pourtant noter, chemin faisant, que cette sensibilité aux ordres de grandeur, qui joue un rôle essentiel pour les physiciens, tend à régresser (1). Mais la prédiction nous projette, elle, dans la sphère plus quantitative de la mesure : à quelle distance de la quantité physique observée m’a laissé mon outil de prédiction théorique ? Nous voici dans le domaine du nombre, et la porte est alors ouverte au numérisme et aux simulations. De la prédiction numérique, illustration de sa fécondité et de ses limites Ce qui suit s’applique non seulement à la modeste discipline qui est la mienne, la chimie quantique ou physique moléculaire théorique, mais aussi désormais à certains pans de la physique théorique des solides. Ces deux disciplines ont suivi des chemins assez parallèles. Luttant avec l’équation de Schrödinger, nous avons posé des approximations aussi rationnelles et contrôlables que possible. Nos deux disciplines ont d’abord eu recours à des hamiltoniens simplifiés, ou modèles, et les valeurs attribuées aux opérateurs étaient ajustées sur l’expérience, fonctionnant comme paramètres. On était là dans une forme hybride entre théorie et simulation. La simplicité du hamiltonien permettait encore la production de théorèmes. Mais il était insatisfaisant de changer les valeurs des paramètres quand on passait à une autre observable et en réaction la chimie quantique, qui traite de systèmes électroniques finis, a développé un culte de ce qu’elle appelait ab initio, où le seul empirisme (raisonné) concernait la restriction des espaces de Hilbert dans lequel on travaillerait. Alors, cette discipline a pris sa part dans la recherche de traitements théoriques du problème à N-corps quantique. Or, la demande de prédiction est énorme, venue de physiciens moléculaires, de spécialistes des matériaux, de chimistes, de biochimistes et de biologistes : « Pourriez-vous nous dire si... ? ». Ici est intervenue la révolution de la « Théorie de la Fonctionnelle de la Densité » (DFT), qui offrait une sorte de contournement à la résolution de l’équation de Schrödinger dans l’espace des fonctions N-électroniques. La DFT a ses fondements, ses lettres de noblesse, mais aussi ses difficultés. Si elle est devenue si populaire, non seulement en chimie mais en physique des solides, c’est qu’elle a offert un outil de prédiction quantitative économique et relativement efficace. Cette efficacité est passée par l’introduction de fonctionnelles multiples mobilisant la densité locale, puis son gradient, et des ingrédients souvent hétérogènes. Retour fut donc fait en chimie quantique aux méthodes paramétriques ajustées sur l’expérience. Un des codes les plus efficaces mobilise soixante- |