Bonjoir
Je me tourne de nouveau vers vous car je me prends la tête depuis quelques jours concernant un problème qui doit sûrement être tout simple (ma spécialité :D).
Voilà mon problème : je sais que pour calculer la valeur de la résistance à mettre en série dans un circuit comprenant une LED, on fait —> (Ualim - Uled) / I
Ok, donc si par exemple on veut 3V aux bornes d'une LED dans un circuit, et que l'alimentation est de 5V continu, on veut donc 2V aux bornes de la résistance, et si on veut 0.02A dans le circuit, on fait donc le calcul suivant : 2/0.02 = 100 Ohm.
Mais si on prend exactement la même alimentation de 5V, mais que cette fois-ci on change quelques petites choses : on veut cette fois-ci seulement 1V aux bornes de la LED, donc il faut 4V aux bornes de la résistance, et on veut 0.04A dans le circuit, on fait le calcul : 4/0.04 = 100 Ohm.
On a donc dans les deux cas une résistance de 100 Ohm dans le circuit, donc c'est quoi qui cloche ? La réponse se trouve t-elle dans la résistance de la LED elle même ? Peut-être ai-je loupé un truc avec les tensions de seuil des diodes…
Parce que vous voyez, dans les bouquins ou sur internet, on donne la méthode, la formule, et faut appliquer bêtement, mais je ne peux supporter ne pas comprendre ce que j'applique ;-D.
Je vous remercie grandement d'avance pour vos futures réponses :-).