Expériences en modèles

Il ne faut pas toujours prendre pour argent comptant les résultats expérimentaux

a marqué ce sujet comme résolu.

Un article très court, que j’ai écrit, pour être complètement honnête, en n’étant pas net (édit: même ue faut de frappe dans le titre, corrigé dans l’article). Du coup, les commentaires sont les bienvenus. Je n’ai pas encore mis ni les équations ni les images, mais j’ai mis un texte là où je comptais en mettre.

Qu’en pensez-vous ?

Tout le monde se secoue ! :D

J’ai commencé (il y a une heure) la rédaction d’un article au doux nom de « Expériences en modèles » et j’ai pour objectif de proposer en validation un texte aux petits oignons. Je fais donc appel à votre bonté sans limites pour dénicher le moindre pépin, que ce soit à propos du fond ou de la forme. Vous pourrez consulter la bêta à votre guise à l’adresse suivante :

Merci !

Première remarque. Il y a un soucis avec le titre. Je pensais que ça parlait de défilé de mode :(
Je suis déçu :(

En lisant : « On interviennent les modèles ? »

Edit: J’édite pour préciser que j’ai eu la stricte même impression que @Freedom ^^"

+0 -0

Bonsoir,

Je ne suis pas convaincu par l’approche que tu proposes. En l’état je vois une liste d’exemple sans liant et le message en lui-même se retrouve expédié à la toute fin. Je me demande si choisir un seul exemple, détailler le processus expérimental et le modèle utilisé pour l’interprétation, ne serait pas plus pertinent.

Pour le fond de l’article, que je vais résumer en "théorie, expérience et simulation sont nécessaire à la compréhension et l’avancée de tout domain", en l’état j’ai l’impression que ceux qui peuvent suivre tes exemples le savent déjà, l’intérêt est donc limité (en l’état).

Salut,

Je pense que le sujet de l’article en lui-même est intéressant.

Ça rejoint une idée assez fondamentale qui est que la théorie précède, dans une certaine mesure, l’expérience/l’observation, et cela réfute au passage ceux qui affirment qu’il est possible d’observer avant même d’avoir une quelconque théorie.

Après je rejoins les autres sur le fait que tes exemple sont compliqués. Je comprends que ce sont des choses que tu connais bien, mais il y a beaucoup plus commun. Je cite ce qu’il me vient à l’esprit :

  • classique : les observations au microscope utilisent l’optique géométrique pour affirmer que ce qu’on voit ressemble à ce qui est ;
  • un peu plus commun, pour moi tout du moins : les ampèremètres en fonction de leur type utilisent des théories liées au magnétisme ou des modèles tels que la loi d’Ohm, pour revenir à la valeur du courant depuis certains de ses effets secondaires ;
  • un peu plus complexe : l’estimation de la température de jonction d’un composant électronique à semiconducteurs passe usuellement par un modèle simple de résistance thermique, après il faut rajouter la théorie du capteur dessus (par exemple un thermocouple).

Une chose qui me chagrine aussi : tu dis « les modèles sont nécessaires à l’interprétation des expériences », mais tu oublies de dire que de toute façon, « les modèles doivent être validés expérimentalement ».

Tu vois, je fais confiance à ce que je vois dans un microscope parce que je sais que l’optique géométrique marche dans ces conditions, et que donc j’ai confiance dans le modèle théorique de l’instrument. Par contre, si je n’ai pas cette confiance, je vais avoir du mal à accepter l’observation. Ça a été le cas avec Galilée et ses observations à la lunette : certains étaient sceptique initialement.

Il faut aussi vérifier que le modèle corresponde bien à la réalité. Des gens de ma boîte cherchent à simuler des convertisseurs de puissance de manière à pouvoir prédire l’importance de différents paramètres dans le design et faire de bons choix. La difficulté est de passer de la réalité à un modèle répondant à nos objectifs (notamment en terme de performance, de précision, de représentativité, d’utilité prédictive, etc). Pourtant, on connaît très bien l’objet, ces dimensions, les caractéristiques des matériaux et des composants. Le problème se situe dans la phase de simplification de la réalité en un modèle de simulation. Cette étape doit nécessairement être validée par l’expérience, et tant qu’un modèle n’a pas été confronté à la réalité, pour nous, il ne vaut presque rien.

Je plussoie avec force Aabu. Le sujet est très intéressant, mais les exemples un peu complexes. Pas non plus hyper fan de l’intro, car je pense que le sujet est important, et mérite d’être vu par des expérimentateurs. S’adresser explicitement aux autres est à ce titre un peu dommage.

J’avais donné un séminaire informel aux autres doctorants de mon labo sur le thème de la més- et surinterprétation des données, et parlé entre autre de la question du modèle. Outre un exemple lié au labo, j’avais pris le cas des ondes gravitationnelles, où une variation infime d’une barre de plusieurs kilomètres de long est interprété comme la fusion de deux trous noirs, dont on arrive à trianguler la position et estimer la perte de masse due à la fusion. Parce que la barre à un tout petit peu bougé dans des conditions bien contrôlées. Autant dire qu’on a utilisé un (plusieurs mêmes) modèles pour interpréter l’expérience.

+1 pour Aabu aussi pour le fait que les modèles doivent être validés expérimentalement.

Par contre, contrairement à Freedom, je suis convaincu que les chercheurs, vieux comme nouveaux, ne sont pas conscient de ça. Pour en avoir discuté avec des doctorants, on m’a dit au contraire que c’était très intéressant et que ça faisait réfléchir. Pour rappel, on peut très bien faire 8 ans d’étude post-bac en science sans jamais avoir le moindre cours sur la méthode scientifique. C’est mon cas…

+0 -0

Pour rappel, on peut très bien faire 8 ans d’étude post-bac en science sans jamais avoir le moindre cours sur la méthode scientifique. C’est mon cas…

Très vrai. Je me suis intéressé à la justification des sciences en prépa, où j’ai eu une "crise de conscience" : comment sait-on ce qu’on sait ?

Pas abordé dans les programmes du tout. Pourtant, ce serait bien logé dans le programme de philo du lycée.

@Gabbro: Tu rencontres souvent des doctorants ou des permanents qui vont, sincèrement, considérer qu’entre théorie, expérience et simulation l’un est fondamentalement plus important que les deux autres ? Que la recherche pourrait se passer des deux autres ? J’ai honnêtement pas l’impression que ce soit le cas2.

C’est pourtant la mentalité qu’expose l’introduction :

Si vous faîtes de la physique, et je suppose que c’est valide dans d’autres domaines, et que votre spécialité, c’est les simulations, je suis sûr que vous avez déjà entendu une variante de

Tout ça c’est bien joli, mais tant que ce n’est pas validé expérimentalement, ça n’a aucune valeur.

ou encore

C’est sympa de résoudre l’équation de Shrödinger/Navier Stokes/la loi de Fick/peu importe, mais ne serait-ce pas plus rapide/moins cher/plus sûr de faire une expérience ?

Et bien cet article est en réponse aux brimades subies, aux humiliations répétées, et aux dépressions qui s’ensuivent. Ici, on va voir que les gens qui font des expériences, et bien très souvent, ils utilisent des modèles. Et très souvent, ces modèles n’ont pas été mis à jour depuis des décennies. C’est notre revanche, l’heure a sonné !

D’après ce que tu dis, tu as abordé le sujet en le mêlant avec les problèmes d’interprétation, mais je suppose que tu n’as pas juste dit Vous voyez les expérience aussi utilisent des modèles, tu es rentré dans les problèmes d’interprétation. Tu es certain que ce n’est pas ces problématiques que ton auditoire a trouvé intéressantes ? Si tu fais un séminaire ou le seul message c’est Vous voyez les expérience aussi utilisent des modèles, je doute très honnêtement qu’on vienne te dire que c’était intéressant. Or, en substance, c’est tout ce que dit l’article pour le moment1.

Je n’ai pas dit que le sujet n’était pas intéressant en soi, mais qu’exposer de cette manière je le trouvais peu pertinent.


  1. J’insiste volontairement à dire pour le moment ou en l’état, parce-que je pense que ca peut donner un bon article au final.

  2. Je parle en moyenne, des personnes imbues d’eux-même qui vont considérer qu’il n’y a que ce qu’ils font qui importe, ca existe comme partout.

D’après ce que tu dis, tu as abordé le sujet en le mêlant avec les problèmes d’interprétation, mais je suppose que tu n’as pas juste dit Vous voyez les expérience aussi utilisent des modèles, tu es rentré dans les problèmes d’interprétation.

Effectivement. Je tiens de plus à redire que je ne suis pas fan de l’intro telle qu’elle est faite actuellement.

Sinon, j’avais mal compris ton message, je pense qu’on est d’accord sur le fond. :)

+0 -0

Bonsoir,

Tout d’abord, vu qu’il y a un commentaire sur ça, la phrase

Et bien cet article est en réponse aux brimades subies, aux humiliations répétées, et aux dépressions qui s’ensuivent.

était bien évidement une blague, qui n’est manifestement pas passée. Le style de l’article que j’avais voulu assez facile à lire, est tout aussi manifestement un échec, et je le changerai.

Par contre, je ne suis pas en plein délire. La partie sur les simulations qui ne servent à rien, je l’entends très régulièrement au boulot, de la part de mes collègues. Surtout les plus anciens mais pas que. En général, c’est pour dire qu’on ne va pas pouvoir les utiliser pour convaincre les autorités de sûreté (je suis dans le domaine du nucléaire, comme je l’ai déjà mentionné plusieurs fois sur ZdS), et qu’elle n’accepteront que des expériences.

Je ne suis pas fiévreux non plus quand je dis que des expérimentateurs, doctorants ou établis depuis des années, passent parfois à coté d’un modèle plus ou moins caché quand ils présentent leurs résultats. Je suis en ce moment en workshop, et c’est après avoir vu un certain nombre de ces présentations que j’ai eu l’idée d’écrire l’article. J’ai aussi pris mes exemples de ce que j’ai vu ces derniers jours. Et le message que je voulais faire passer (encore une fois, j’ai échoué, il me faut réécrire tout ça), c’est que comparer des expériences sans mentionner très explicitement le choix de modèle et de paramètres, c’est impossible dans de nombreux cas.

En celà, c’est différent de l’optique géométrique dans la microscopie. Il y a certe une théorie derrière, qui va donner des informations sur le facteur de grossissement (le terme technique m’échappe), mais il n’y a pas un modèle qui va changer du tout au tout les résultats. Dans les examples que j’ai donné, les résultats seront très différents sans forcément s’en rendre compte. Dans le cas de la sonde atomique par exemple, en faisant la même mesure, sur le même échantillon, le logiciel va par défaut donner une réponse, qui est régulièrement rapportée et acceptée comme vérité. Alors qu’en changeant les paramètres du logiciel, et donc du modèle, on peut avoir sans soucis un facteur deux dans les résultats quantitatifs.

Dans le cas du coefficient de diffusion, c’est encore pire. J’ai un cas (Xe dans l’UN) ou parce qu’ils n’ont pas compris qu’il y avait un modèle derrière, qui aurait du prendre en compte la concentration de lacunes, la taille des grains, etc, les résultats varient par 40 (quarante !) ordres de grandeur.

Je vais prendre un peu de temps pour bien relire vos commentaires avant de m’ateler à la réécriture, mais je vais insister beaucoup plus sur la comparaison entre résultats expérimentaux. Je garderai sûrement les exemples, mais je n’en ferai plus la partie centrale. Ou alors, je changerai d’avis quand j’aurai rerelu au calme.

Merci pour vos contributions !

OK, je comprends mieux ce que tu veux faire. Le principe de la comparaison de la même expérience en utilisant deux modèles différents (si j’ai bien compris) me semblent effectivement une meilleure approche.

En général, c’est pour dire qu’on ne va pas pouvoir les utiliser pour convaincre les autorités de sûreté, et qu’elle n’accepteront que des expériences.

Par curiosité, est-ce vrai ?

Je ne suis pas fiévreux non plus quand je dis que des expérimentateurs, doctorants ou établis depuis des années, passent parfois à coté d’un modèle plus ou moins caché quand ils présentent leurs résultats.

Malheureusement, je ne peux que confirmer ça. Note que parfois, c’est volontaire : j’ai entendu le cas d’un industriel qui avait le choix entre deux méthodes de détection de pores, et qui avait choisi la plus longue / manuelle / cher, car les résultats donnés étaient systématiquement meilleurs (à cause d’une bête différence pore de surface vs pore de volume). Mais ça faisait mieux sur la fiche.

Côté simulation, on utilise dans mon domaine des amortissements pas vraiment physiques. Tout le monde les utilise (pas le choix), mais personne ne donne leurs valeurs, ni quel type d’amortissement est utilisé. Dans certains cas, changer la valeur d’amortissement change les résultats… On m’a fait remarqué à ma soutenance que ce n’était pas normal (oh ?), mais j’ai de bonnes raisons de penser que tout le monde le fait et préfère ne pas vérifier pour ne pas avoir de déconvenue.

Autant dire que je vois parfaitement le problème.


Ça me fait penser à un cas très scolaire, mais qui m’est arrivé en pratique. J’ai des données de x en fonction de y, et je suppose que y suit une loi exponentielle de type y=beaxy = be^{ax}. Réaliser le calibrage sur les logs pour avoir une loi linéaire (lny=lnb+ax\ln y = \ln b + ax) donne des coefficients différents par rapport à réaliser un calibrage sur la fonction en exponentielle. Et ce n’était pas une évidence pour tout le monde…

+2 -0

En général, c’est pour dire qu’on ne va pas pouvoir les utiliser pour convaincre les autorités de sûreté, et qu’elle n’accepteront que des expériences.

Par curiosité, est-ce vrai ?

Oui et non. Ça va vraiment dépendre de quoi on parle. Par exemple, les modèles en fuel rod design, où l’on décrit l’état u’un crayon pendant une irradiation sont en général bien acceptés. Ça tient en grande partie au fait qu’on a assez de points d’expérience pour pouvoir faire un bon traitement statistique dessus. Il y a toute une méthodologie qui existe, pour dire si tel ou tel modèle doit être best estimate, ou 95/95, etc.

En neutronique, c’est en général encore mieux. On a des modèles déterministiques, des codes Monte Carlo, et les autorités, sauf cas très particuliers, ne vont pas nous demander d’expériences pour valider les résultats, tant que le code lui même est validé. On se sert aussi des résultats en tant qu’input pour les codes de paragraphes au dessus sans que personne ne sourcile.

En mécanique des fluides, les codes ont une réputation qui s’améliore, mais il va quand même falloir valider pas mal par expérience. La majorité des résultats en fait. Ceux qui sont difficilement reproduisibles par expérience, ça va passer si le reste du code a démontré sa valeur.

Moi ce que je fais régulièrement, c’est des simulations atomistiques pour dériver des modèles qu’on utilisera dans la première catégorie de codes (fuel rod design). Et là, les autorités de sûreté refuse en bloc (en grande partie à raison, d’après moi). C’est compliqué d’expliquer au management que les résultats sont en général ok, presque toujours bon pour prédire des tendances, mais que parfois, ils sont complètement faux (parce qu’on n’aura pas pensé à un mécanisme, pas parce qu’on ne sait pas faire tourner les codes), et que du coup, la situation risque de ne pas changer pendant longtemps. Mais qu’il y a quand même une valeur, pour comprendre les expériences, en désigner, etc.

Et les autorités de sûreté sont très souvent ok avec l’utilisation de modèles souvent moins bons que ceux qu’on développe et utilise, pourvu qu’ils soient cachés dans le logiciel fourni avec l’équipement expérimental. Ce qui est davantage le sujet de l’article.

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte