Corrélation et causalité

a marqué ce sujet comme résolu.

Bonjour,

Je viens de suivre un cours de comportement animal et je réalise que j'ai de la difficulté à prendre le sujet au sérieux. En effet, j'ai l'impression que les chercheurs associent souvent des variations qui ne sont pas nécessairement liées par une relation de causalité. La corrélation n'implique pas la causalité. Pour vous donner un exemple, le prof donne a répétition des graphiques comme ça, sans toujours indiquer le coefficient le corrélation…

Héritabilité

Je me demandais donc, à quel point puis-je me fier à mon professeur? :P Et de manière générale, jusqu'à quel point devrait-on se fier aux expériences d'éthologie et de psychologie?

Merci. :)

+0 -0

Coco, tu assistes à des cours qui traitent de sujets très difficiles à traiter justement ;) . Pour les problèmes récurrents c'est facile, quand on présente des corrélations linaires, on a toujours l'impression que le R est masqué par honte d'afficher un truc aussi faible. Et on dira fréquemment lien statistique = cause.

Le comportement animalier (et ce sera d'autant pire chez l'Homme) fait intervenir des centaines de facteurs différents, mêlant hasard, facteurs génétiques, expériences personnelles, réseaux neuronaux pas très bien compris, j'en passe et des meilleurs. Ça n'empêche pas de faire de la science, bien sûr. On peut toujours chercher des corrélations, qui donnent des indices de comportement, qui permettent de faire des liens. Mais en effet, la simple description statistique ne permet pas d'affirmer le sens du lien, ni même si ces deux phénomènes ne sont pas la conséquence d'un 3è facteur.

À quel point se fier à ces données ? À ce qu'elles en disent. Il y a un lien, qu'on ne peut pas forcément caractériser comme étant linéaire, entre ces deux. Si c'est une tendance de co-évolution des deux traits, c'est une tendance, si c'est vraiment linéaire parce que le coeff de corrélation linéaire a un facteur suffisant fort, c'est une tendance linéaire (mais qui n'est jamais valable que sur la gamme effectivement testée) ; si c'est une corrélation, c'est une corrélation.

Le problème est que certaines personnes ont tendance à survendre ce genre de données, et à sortir l'explication "c'est normal que ça marche pas toujours c'est de la biologie", qui n'est pas dénuée de sens, mais qui n'apporte rien.

Il ne faut pas non plus tomber dans l'excès inverse et dire que ça ne sert à rien. Bien sûr que sur ce graphe, il est notable de voir une tendance de co-évolution, donc un lien, qui est plus difficile à étudier que fils = k * père (et de toute façon cette relation n'a que peu de pertinence biologique). Pour déterminer la nature du lien, il faut passer à autre chose que des stats - avec, en comportement animal, le risque de faire des expériences totalement décorrélée de toute réalité biologique donc donnerait des résultats peu pertinents, et des soucis d'éthique, qu'on ne fait pas subir n'importe quooi à des singes pour comprendre ce qui se passe. Personne n'a jamais dit que c'était simple :) .

+2 -0

Avant toute chose, le XKCD de rigueur,

Linear regression

[Linear regression]https://xkcd.com/1725/)

Ensuite, corrélation n'est pas causalité, on est d'accord. Si ça se trouve, il y a un troisième paramètre qui influence ces deux-là, d'où une corrélation. Ça ressemble vraiment à un biais de confirmation : je pense que les choses sont ainsi, donc je vais chercher une corrélation, et dire qu'il y a cause.

Il y a un problème méthodologique gênant. Malheureusement, certaines personnes, quand ils traitent de sujets complexes (car clairement, faire bien les choses dans ce genre de domaine est complexe, bien plus que dans le mien :D ), choisissent délibérément de faire du caca plutôt que de la science. Et en faisant ça, ils décrédibilisent leur discipline, ce qui est plutôt gênant là encore.

+5 -0

Merci de vos réponses. Je tenais vraiment à partager ça car ça me tracassait. :P

D'ailleurs, ce serait super d'avoir un tuto sur le sens critique et comment déterminer la fiabilité des résultats. On pourrait aussi en profiter pour parler des pseudo-sciences, de l'influence des médias et des trucs comme ça. Considérant qu'il y a beaucoup de scientifiques ici, je crois que ça pourrait profiter à tout le monde, et ça éviterait à plusieurs de tomber dans des pièges récurrents. :)

+1 -0

Salut !

Je plussoie pour le tuto sur le sens critique. Pour ce qui est des vidéos, je peux néanmoins te conseiller les chaines d'Hygiène Mentale, de Samuel Buisseret ou de Mycéliums, qui traitent toutes les trois de zététique et d'arguments fallacieux. ;)

Dans le même thème, ce serait génial qu'un étudiant ou un chercheur fasse un petit tuto pour apprendre à interpréter une étude scientifique et savoir comment se passe la rédaction d'un article scientifique.

+0 -0

Dans le même thème, ce serait génial qu'un étudiant ou un chercheur fasse un petit tuto pour apprendre à interpréter une étude scientifique et savoir comment se passe la rédaction d'un article scientifique.

J'ai pas connaissance d'une technique absolue et générale.

En revanche on peut toujours conseiller des lectures philosophiques, mais je pense que c'est trop abrupte/abstrait quand on est jeune. Bizarrement, j'ai l'impression que c'est le genre de choses qu'on comprend mieux avec la pratique, alors que ça devrait être parfaitement clair.

Au moins en maths on a pas le problème :P.

Banni

Je crois avoir vu un jour un truc du genre « si A et B sont "dépendants" et qu'il existe C tel que A et C sont "dépendants" mais B et C sont indepéndants, on dit que A entraîne B » [edit correction]. Enfin, c'est vraiment tout flou, si quelqu'un a idée d'où je peux avoir vu ça…

J'avais aussi vu ça dans sur "science étonnante" : pour tester une relation de cause à effet de A vers B, on peut prendre un échantillon de population uniformément choisi (au hasard) et de manière indépendante on tire pour chaque individu le caractère A (il faut donc que ce soit possible), puis on regarde le caractère B.

Ça ressemble peut-être à ce que je viens de dire plus haut, il faudrait mieux regarder.

+0 -0

Je crois avoir vu un jour un truc du genre « si A et B sont "dépendants" et qu'il existe C tel que A et C sont "dépendants" mais B et C sont indepéndants, on dit que A entraîne B » [edit correction]. Enfin, c'est vraiment tout flou, si quelqu'un a idée d'où je peux avoir vu ça…

J'avais aussi vu ça dans sur "science étonnante" : pour tester une relation de cause à effet de A vers B, on peut prendre un échantillon de population uniformément choisi (au hasard) et de manière indépendante on tire pour chaque individu le caractère A (il faut donc que ce soit possible), puis on regarde le caractère B.

Ça ressemble peut-être à ce que je viens de dire plus haut, il faudrait mieux regarder.

blo yhg

Je crois que ça s'appelle un syllogisme. E-penser a fait une vidéo sur le sujet récemment (Logique & raisonnement). Le terme courant est l'implication (A implique B). ;)

+0 -0
Banni

Non non, c'est pas d'un syllogisme dont je parle. Déjà, j'hésite entre ce que j'ai écrit plus haut et « A et C sont indépendants et B et C sont "dépendants" »… Plus j'y pense et plus je trouve ce que je viens de dire foireux, déjà parce que ça voudrait dire qu'alors A implique B et C, ou B est impliqué par A et C suivant ce qu'on prend comme définition, mais les deux sont absurdes. Je suis sûr d'avoir vu quelque chose comme ça quelque part, mais c'était peut-être pas digne d'intérêt. J'aurais bien aimé retrouver…

+0 -0

Et de manière générale, jusqu'à quel point devrait-on se fier aux expériences d'éthologie et de psychologie?

Je ne sais pas exactement comment vous faites dans votre discipline mais je peux te parler de ce qu'on fait en économie (et plus généralement en sciences sociales je pense), ça doit être assez proche.

La méthode employée ici est a priori une régression linéaire classique, qui ne donne qu'une mesure de corrélation entre les différentes variables. C'est vraiment la base de ce qu'on peut faire en statistique, c'est le "hello world" de l’économétrie/biostatisticien/truc-sticien.

Mais il existe des méthodes plus solides qui visent elles à déterminer une véritable notion de causalité entre les variables et non plus une simple causalité. Le modèle canonique est celui de l'expérience aléatoire contrôlée (modèle de Rubins), qui donne des résultats solides (sous réserve que l'expérience soit bien faites).

Quand on ne peux pas faire d'expérience aléatoire (par ce que c'est trop cher, ou que ce n'est pas éthique du genre essayer de donner un virus aux gens pour tester un vaccin) on peut utiliser d'autres méthodes pour essayer de retrouver la causalité. La méthode dépend en général du type de données (données de panel ? données répétés ? Sélection sur observable ?) et chaque type appelles des méthodes de traitement spécifiques pour faire ressortir la causalité recherchée. J'imagine que ce genre de méthodes fonctionnent quel que soit le domaine (économie, biologie, informatique etc.) pour peu que la structure des données soit la bonne.

Pour revenir dans le cadre de l'exemple que tu donnes je pense qu'il faut prendre ce que dit ton prof avec des pincettes et qu'il s'agit plus d'un exemple illustratif que d'une vérité générale (la régression à quand même une sale tronche… :p). Mais il existe en statistique des méthodes plus poussées qui permettent d'obtenir une causalité robuste entre deux éventements, pour peu qu'on s'y prenne correctement et qu'on ai les données nécessaires.

Dans le même thème, ce serait génial qu'un étudiant ou un chercheur fasse un petit tuto pour apprendre à interpréter une étude scientifique

Mon avis personnel est que la meilleure façon de lire un article en étant efficace c'est de lire les premières pages et les dernières pages (voir juste l'abstract et la conclusion est on est vraiment pressé/fainéant. A moins d'être vraiment compétent sur le sujet et/ou de vouloir comprendre en détail ce que fait l'auteur cette méthode donne les informations essentielles :

  • La question que se pose l'auteur et le cadre dans lequel elle s'inscrit
  • La méthode employée
  • Les conclusions et limites de l'étude (si l'auteur est honnête, ce qui est en général le cas)

Interpréter l'étude, en voir les limites et les intérêts (en dehors de ce qui est énoncé dans l'article) est quand même sacrement difficile. Surtout si on est extérieur au domaine en question ou qu'on n'a pas de formation minimale à la recherche scientifique.

On pourrait aussi en profiter pour parler des pseudo-sciences, de l'influence des médias et des trucs comme ça.

C'est un gros problème. Déjà que quand on est dans le domaine, une publication n'est pas forcement facile à lire, alors quand on est un journaliste ça doit être coton. A titre d'exemple 95% des journalistes en économie n'ont pas diplôme d'économie. Je ne sais pas ce qu'il est des autres disciplines mais ce n'est pas vraiment un bon signe quand à la diffusion et transmission de la recherche par ce biais.

L'autre problème est que même quand on comprend un article de recherche, en transmettre la connaissance à un public plus large est très compliqué. Il faut expliquer le cadre dans lequel s'inscrit cet article, la question qu'il adresse, la méthode employée, les limites de cette méthode, nuancer les résultats etc. Non seulement ce n'est pas simple mais ça pose le problème du média : comment communiquer toutes ses informations en quelques lignes faciles à comprendre dans la presse ou en quelques minutes sur un plateau télé ou une radio ? C'est quasi impossible. Ce qui oblige à prendre des raccourcis, à généraliser à outrance, quitte à déformer les propos de l'étude. Ou au contraire à tellement nuancer que le lecteur va finir par se dire "ouais elle ne sert à rien cette étude". Résultat : entre ce que dit vraiment l'étude et le message qui finit par atteindre monsieur Martin il y a souvent un gros décalage.

+0 -1

C'est quand même triste de devoir chercher un youtubeur (en plus vous connaissez peut-être mon avis sur e-penser) pour trouver la définition d'une implication....

Holosmos

Je vois ce que tu veux dire. Je ne voulais pas suggérer d'aller voir sa vidéo plutôt qu'un dictionnaire (je me rend compte un peu tard que c'est raté), je voulais simplement apporter un complément d'information après mon message sur les chaines parlant de zététique. J'admets moi-même le regarder de moins en moins (surtout après sa vidéo sur le PSG), il m'a juste paru intéressant de partager l'info.

+0 -0

Pour lire rapidement une étude, on peut lire l'introduction et la conclusion, comme le suggère Demandred. Mais il faut avant tout chercher à savoir comment cette étude a été financée / mandatée / inspirée. Toute étude, même 'universitaire' est concernée.

Sur les journalistes qui commettent erreur sur erreur dès qu'ils doivent relayer des données chiffrées, j'avais lu un bouquin que j'avais trouvé très amusant : 'Plus vite que son nombre'.

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte