[Pharmacologie] Raoult a-t-il raison d'affirmer que statistiquement, moins on a de patients, plus on est correct ?

a marqué ce sujet comme résolu.

Je suis désolé @KFC, mais j’ai rien compris à ton message. Je vois bien que tu essayes de démontrer quelque chose très mathématiquement, mais tu pars sur des raisonnements en sautant quelques étapes (que tu dois supposer évidente) et du vocabulaire que je ne comprends pas. Tu conclus que plus grand échantillon n’est pas forcément mieux, ce qui m’étonne, mais je n’ai pas compris ta démonstration, et ça m’embête parce que ça m’intéresse du coup.

Phigger

Je ne dis pas qu’un plus petit echantillon est mieux. Je dis que plus l’echantillon est petit, et plus, lorsque tu fais un test, tu as une forte probabilite que de voir le test etre significatif du seul fait du hasard. Aussi, tu as une plus grande probabilite de voire les effets extremes tout de suite par rapport a de grands echantillons du fait du phenomene de regression a la moyenne.

Inversement, plus tu augmentes l’echantillon et plus cette probabilite diminue. Par contre, tu augmentes la probabilite qu’un test soit significatif alors que l’effet est en pratique ridicule.

Je vais essayer de reformuler et detailler un peu plus tard.

+1 -0

Je comprend bien. Je n’avais jamais vu ça sous cet angle.

Par-contre, ça change rien. Ce qu’il dit est de la manipulation on est à la limite du mensonge.

+0 -0

Oui, clairement.

Apres, au niveau individuel, comme chercheur ethique (j’entends par la qui veut trouver des choses utiles et en le faisant correctement), a defaut de pouvoir changer de methode, cela veut dire que j’ai un compromis a trouver: une taille d’echantillon surtout pas trop petite, mais pas trop grande non plus, sachant qu’on prend moins de risque de dire des trucs faux avec un large echantillon.

Par contre, au niveau collectif, il se passe quelque chose d’interessant: imaginons que chacun fasses des experiences de singe savant (grosso modo ce que je dis plus haut: tirer une piece 10000 fois). Au bout d’un moment, comme on ne publie pas les resultats negatifs, quelqu’un va trouver une sequence faite uniquement de piles, trouver que c’est magique, publier et tout le monde va applaudir. Les meta-etudes permettent un peu de corriger ce biais mais pas entierement.

Je me permet de raconter deux anecdotes dans mon domaine de recherche.

1) Dans chacun des papiers que je publie, je dois donner les resultats d’"accuracy" de mes modeles. Au debut, je ne le mettais pas et je donnais d’autres metriques dont on a prouve mathematiquement qu’elle est superieure dans tous les cas. Refuses a chaque fois par les reviewers. Maintenant, je la mets en plus pour pouvoir "comparer" et surtout publier meme si elle n’a aucun sens. C’est un peu la p-value de l’IA.

2) La methode standard dans le domaine c’est une (10-fold) cross-validation, on regarde ensuite la valeur moyenne des indicateurs par exemple la fameuse accuracy et leur variance. Ce n’est pas une procedure robuste du tout en soit. Avec la majorite des algorithmes existants, il suffit de modifier la maniere dont on decoupe les donnees pour faire grandement varier les resultats, bien plus que la variance obtenus par la cross-validation. De sorte que bon nombre de chercheurs relancent 10, 100, 1000 leurs experiences et gardent le meilleur resultat (ce qui consiste a faire le singe savant et garder la meilleure sequence). Comme on ne demande que les resultats de la cross-validation, personne ne peut rien y voir a redire. Si tu es a l’aise avec Python, tu peux faire ca tres rapidemment avec scikit-learn et sur les jeux de donnees fournis par default et voir ca par toi meme.

Face a ce constat, je dis qu’il faut publier moins mais mieux: refaire nos experiences de cross-validation 10 fois par exemple pour vraiment reduire les effets aleatoires structurels. Mais Raoult dans ce cas dirait: la methode c’est caca, je vais plus faire de cross-validation du tout.

En fait, ce que dit le comparse de Raoult (j’ai pas vérifié ce que dit exactement Raoult lui-même), c’est que plus l’effet est important, plus tu peux le valider avec un petit échantillon.

Exemple volontairement idiot : je fais une étude pour savoir si « boire un litre de cyanure » guérit les ongles incarnés. Je n’aurai pas besoin de milliers de gens pour me rendre compte que tous les gens qui ont pris le cyanure sont morts, parce que l’effet est massif. Je peux donc prouver l’effet avec une bonne confiance tout en gardant un petit échantillon.

Le problème c’est que nos amis utilisent ce raisonnement à l’envers, pour lui faire dire « si j’ai un petit échantillon, l’effet est probant ». Ce qui est totalement faux, puisque « si A alors B » n’implique pas « si B alors A ».


comme on ne publie pas les resultats negatifs

J’ai vu beaucoup de réflexions qui vont dans le sens de « il faudrait publier les résultats négatifs » depuis le début de la crise du Covid. Ce serait une bonne chose AMHA.

En fait, ce que dit le comparse de Raoult (j’ai pas vérifié ce que dit exactement Raoult lui-même), c’est que plus l’effet est important, plus tu peux le valider avec un petit échantillon.

Le problème c’est que nos amis utilisent ce raisonnement à l’envers, pour lui faire dire « si j’ai un petit échantillon, l’effet est probant ». Ce qui est totalement faux, puisque « si A alors B » n’implique pas « si B alors A ».

SpaceFox

Malheureusement, ce n’est pas ce qu’il dit. Deja, il melange significativite du test et taille de l’effet en question. Mais soit, c’est une question de vocabulaire, on peut eventuellement passer dessus.

Par contre, je t’assure qu’il dit tres clairement que plus la taille de l’echantillon est faible, plus les resultats sont signigicatifs. Sans parler de la contrepartie sur la probabilite que le test soit un faux positif (c’est a dire que l’effet n’existe meme pas).

De plus, on n’a pas d’effet "parachute" ici a priori. On sait depuis le debut que la maladie tue peu de sorte que l’effet d’un traitement par rapport a un autre doit faire l’objet d’une attention particuliere pour etre sur de ne pas avoir de faux positifs. C’est justement ce qui lui est reproche. D’un cote il dit "j’ai travaille sur Ebola, ca tue 40% des gens, pas besoin d’etude en double aveugle randomise avec groupe controle pour voir l’effet" ce qui est parfaitement valide. Mais il transpose directement ce raisonnement a un virus qu’il qualifie lui mem de gripette qui tuera probablement moins que les accidents de trotinettes. C’est une contracdiction.

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte