Caf&Sciences

Le coin des scientifiques !

a marqué ce sujet comme résolu.

Attention, le femtomètre, c'est plutôt 10-15 m (ce qui est mieux que quasiment 1 angstrom, instinctivement). Au delà de ça, la physique des particules n'est absolument pas ma tasse de thé, mais je m'étonne que l'hydrogène muonique vois son muon dans une orbitale 2s … Ça devrait être 1s, mais alors ça colle pas avec la transition dans 1p (qui existe pas). Bref, je lirai l'article à l'occasion (là, j'ai pas trop le temps), mais quelque chose me chipote à cet endroit là ;)

+1 -0

On reparle de statistiques, et de maths appliqués comme des gougnafiers par des scientifiques : les études réalisées grâce à des IRM fonctionnels ne sont pas statistiquement fiables. Ce n'est pas la première fois que je vois passer ce genre de suspicion sur les IRMf, donc je ne suis même pas étonné (mais là, ça a fait l'objet d'une publication dans PNAS).

Mais ça reste assez grave ce genre de chose.

+1 -0

De toute façon, le jour où les statistiques seront correctement enseignés aux biologistes (vu que c'est de eux dont il est question là), avec entre autres, que quand R² = 0.3 ça ne veut pas dire que le modèle linéaire explique 30% des variations observées (sic) et que les régressions linéaires qui sortent du chapeau ça ne sert à rien puisque ça n'explique rien, ce sera miraculeux.

D'ailleurs, tout ce qui tourne autour de la médecine et recherche médicale est assez réputé pour être bancal (j'ai eu une conf' où on expliquait que le simple fait de changer le seuil de faux positif de 5% à 1% faisait écrouler au moins la moitié de la littérature médicale). Y'a des facteurs expliquant cela (diversité génétique des sujets d'étude, autres facteurs dits environnementaux), n'empêche que rien n'est vrai et tout est faux. Juste que certaines choses sont potentiellement pas trop inexactes.

Pour ça que moi je préfère travailler sur les pitites molécules biologiques. Elles ont moins de variations, c'est plus facile de bien contrôler l'expérience et la reproductibilité, y'a moins de facteurs externes. ^^

+2 -0

Sans relancer le débat sur les stats (j'ai plus envie), je suis quand même d'accord avec la conclusion de l'article, …

Certaines [études] présentent sans aucun doute des résultats erronés. Mais en général, elles se trouvent rapidement marginalisées, puisqu’elles ne sont pas reproductibles. Seules les conclusions entérinées par plusieurs publications, par des méta-analyses persistent après quelques années. Et c’est valable pour toutes les disciplines scientifiques !

… Et je continue : y'a tellement d'étape entre une publication, un brevet, et son exploitation que des résultats incorrects on quand même peut de chance de s'avérer vrais en pratique et donc d'orienter une direction de recherche (au pire, les gens vont droit au mur). Éventuellement, il manque un journal of failed studies (J. Fail. Stud.) qui relaterait justement ce qui ne fonctionne pas ;)

+2 -0

Éventuellement, il manque un journal of failed studies (J. Fail. Stud.) qui relaterait justement ce qui ne fonctionne pas ;)

Je comprends pas trop ce que tu veux dire par là, des papiers qui ont comme conclusion "ben finalement, l'idée de départ marche pas ou n'apporte rien de plus", il y en a à la pelle…

+0 -0

Moui. J'ai quand même l'impression qu'un papier, c'est souvent une "belle histoire", comme aime bien le dire mon promoteur. On compare avec des résultats précédents pour montrer qu'on fait mieux ou aussi bien, on dit qu'un tel avait faux et qu'un tel était dans le bon, des fois on compare à une référence (quand ça existe), et voilà. Parfois, un papier s'appelle "the challenging case of …", mais c'est pareil, c'est pour dire qu'on s'en est quand même sorti.

Là, ce serait vraiment pour dire "ce médicament ne fonctionne pas pour ça", "cette méthode ne fonctionne pas pour ça", "je me suis planté là" et "on a refait ça, c'est pas possible". Et en particulier, c'est très très rare qu'on écrive dans un papier que quelqu'un c'était trompé. Tu le sais parce que t'as essayé de reproduire ces résultats, mais tu le dis pas, parce que ça ce dit pas.

on a refait ça, c'est pas possible

Ça, ça manque vraiment. Parce qu'on se retrouve avec 10 équipes qui essayent chacun dans leur coin, et une onzième viendra bientôt, car elles ne sait pas que déjà 10 ont échouées à reproduire.

Ça se trouve à l'occasion en conférence. J'ai déjà assisté à une présentation où le type expliquait pourquoi une méthode était de la grosse merde (je ne suis pas certain qu'il avait réalisé que c'était ce que ses résultats signifiaient, malheureusement).

+0 -0

Ça, ça manque vraiment. Parce qu'on se retrouve avec 10 équipes qui essayent chacun dans leur coin, et une onzième viendra bientôt, car elles ne sait pas que déjà 10 ont échouées à reproduire.

Exactement. Mais ça va même plus loin, parce que j'ai trouvé un truc comme ça il y a pas longtemps. Et maintenant … J'en fais quoi ? o_O

Ça se trouve à l'occasion en conférence. J'ai déjà assisté à une présentation où le type expliquait pourquoi une méthode était de la grosse merde (je ne suis pas certain qu'il avait réalisé que c'était ce que ses résultats signifiaient, malheureusement).

Gabbro

J'ai pas compris la fin de ta phrase. Par contre, pour avoir assisté à ce genre de conf' (j'en reviens), ça se passe pas toujours très bien pour le présentateur :/

J'ai pas compris la fin de ta phrase. Par contre, pour avoir assisté à ce genre de conf' (j'en reviens), ça se passe pas toujours très bien pour le présentateur :/

Un doctorant nous a présenté ses résultats concernant une méthode numérique relativement standard. Sa conclusion était que les résultats dépendaient du pas de temps quel que soit le pas de temps (normalement, on s'attend à ce que ça ne dépende plus du pas de temps s'il est suffisamment faible), bref, que la méthode était mauvaise. Sauf qu'il n'a jamais dit dans sa présentation que c'était une mauvaise méthode. Et lorsqu'on lui a fait remarquer la chose durant les questions, il était incapable de répondre. Je ne suis pas sûr qu'il avait conclu de ses résultats que la méthode était mauvaise (alors que c'était une évidence pour toute la salle).

Ce qui rejoint le côté « ça se passe pas toujours très bien pour le présentateur ».

Exactement. Mais ça va même plus loin, parce que j'ai trouvé un truc comme ça il y a pas longtemps. Et maintenant … J'en fais quoi ? o_O

Si tu trouves la réponse, dit le moi. C'est pas impossible que ça me soit utile à moyen terme. :-°

+1 -0

On avait déjà parlé, sur ce site et sur son papa orange OpenClassrooms, de l'étrange égalité $\displaystyle\sum_{n=0}^{\infty} n = -\frac 1{12}$.

Science4All (une chaîne que je recommande chaudement, ce sont des maths assez poussées et j'aime ça, et même que El JJ il a dit que la chaîne était bien, donc hein) a publié récemment une vidéo très intéressante à ce sujet, qui fait notamment suite à un commentaire sur l'article de Science étonnante, qui lui-même faisait tomber la démonstration de David Louapre (et de Micmaths).

Teaser : La suite, qui semble-t-il parlera de l'effet Casimir et de la "méthode zêta de Riemann" sortira lundi. :)

+4 -0

Ode a la nature, a la connaissance, et surtout contre la debilite economique ambiante.

KFC

Je suis étonné de te voir si enthousiaste sur cette video.

Outre le ton qui n'est que la forme, je trouve la forme très peu convaincante… Je regarderai des video plus longue de lui, plus complète, mais c'est plus un étalage de funfacts à la sauce américaine (genre Ted).

Je ne voix pas en quoi les micro organisme permettrai de faire des meilleurs puces avec moins de moyen, je ne vois pas en quoi la rapidité d'un crevette nous avances.

Sa comparaison de la toxine et du pétrole est totalement hors sujet…

Et déclarer que le savoir est infinis et que donc on pourrait baser une économie dessus me parait un peux présomptueux.

Peut être que derrière il y a de vrai argument, des choses qui tiennent la route, je regarderais donc d'autres video ou lirais des articles plus complet du type, mais franchement ce genre de présentation blingbling sans contenu concret…j'accroche pas trop.

Moui. J'ai quand même l'impression qu'un papier, c'est souvent une "belle histoire", comme aime bien le dire mon promoteur. On compare avec des résultats précédents pour montrer qu'on fait mieux ou aussi bien, on dit qu'un tel avait faux et qu'un tel était dans le bon, des fois on compare à une référence (quand ça existe), et voilà. Parfois, un papier s'appelle "the challenging case of …", mais c'est pareil, c'est pour dire qu'on s'en est quand même sorti.

pierre_24

En effet. En fait, tu "peux" publier un truc qui ne marche pas uniquement si t'as finalement réussis à le faire marcher. Dans ce cas tu peux dire : " Cela ne marche pas mais en modifiant comme cela finalement ça marche". Mais pas tous le monde le fait, certain ce garde bien de dire ce qui a foiré… Du coup les trucs qui ne marche vraiment pas et qu'on ne peux pas faire marcher ne sont pas publié. Les conséquences ne sont quand même pas les même partout, ca dépend des discipline. Par exemple en physique par le bouche à oreille tous le monde finis par savoir que tel projet a été arrêté pour tel raison etc. mais y a pas de résultat officiel. Par contre dans le domaine avec plus de confidentialité (medecine/bio…) ça doit pas être la même !

@Melpe Pas mal !

Mais du coup je me demande a quoi ca rime de définir la linéarité sur ce genre de sommes. Peut on vraiment la définir de manière unique ? Par exemple il me semble que sur les suites semi-convergent on peut pas vraiment la définir. (?)

J'avais parlé il y a quelques temps de l'influence de la mécanique sur le développement embryonnaire. C'est un domaine relativement à la mode à l'évidence, puisque je vient de tomber purement par hasard sur l’influence de la dureté du milieu lors de la croissance des neurones. La chimie ne suffit pas à expliquer les phénomène de croissance. L'article payant originel que je n'ai pas lu, résumé sur le site de Cambridge, résumé d'un blogueur francophone.

+1 -0

Mais du coup je me demande a quoi ca rime de définir la linéarité sur ce genre de sommes. Peut on vraiment la définir de manière unique ? Par exemple il me semble que sur les suites semi-convergent on peut pas vraiment la définir. (?)

Sur les sommes semi-convergentes, c'est la commutativité qui est remise en cause, à cause du théorème de réarrangement de Riemann : pour toute suite semi-convergente, il existe une permutation de ses termes qui la fasse converger vers n'importe quel réel donné.

On peut aussi montrer, avec la somme 1-+1-1+… qu'on perd l'associativité.

Là, le but est de savoir quelles sont les conditions précises dans lesquelles on a encore la linéarité (et la régularité, et la stabilité). C'est pas tant de définir la linéarité que de voir quand est-ce qu'elle peut s'appliquer.

Rosetta s'est crashée, comme prévu, sur Tchouri. On a actuellement, avec la fin de la mission, un déluge d'article sur le blog de l'ESA, et je ne pense pas que soit fini. Une page va se tourner pour les équipes qui travaillent sur ce projet depuis des années.

Je vais essayer de voir tout ça d'ici Noël. Et il va vraiment falloir que je chope un ou deux personne qui bossait là-bas pour une interview. :P

+6 -0

Les gens qui suivent ce topic ont tendance à attirer ma curiosité. Pour que toi @Gabbro tu suives autant l'actualité autour de Rosetta, je serai curieux de savoir ce que tu fais en ce moment.

De façon plus général, je me demande s'il y a un endroit dédié sur ce forum où chacun présente son rapport avec le monde des sciences. Sinon il pourrait être intéressant d'en créer un.

Autant je comprends l'intérêt que tu puisses avoir à mieux connaître les personnes du fofo, autant je me demande si c'est vraiment le genre de choses qu'on peut mettre en public.

Ça me gêne pas de raconter mon rapport aux sciences, mais est-ce que c'est pas de l'ordre du privé ?

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte