Bonjour, Je suis en terminale et le dernier chapitre qu’on traite cette année est celui sur la numérisation.
Il y a donc toute une partie consacrée à l’échantillonnage d’un signal analogique en numérique mais il y a quelque chose qui me gêne énormément dans notre livre et ce que nous apprend notre professeur, il est répété tout le long de la partie que pour que l’échantillonnage d’un signal soit le plus précis possible il faut augmenter la fréquence d’échantillonnage le plus possible.
Du coup, on a de nombreuses figures nous montrant un signal analogique et sa numérisation avec un effet d’escalier très prononcé et moins cet effet est prononcé plus le signal numérique est proche du signal analogique. Ce qui est restitué par un DAC serait donc une suite d’échantillons maintenus toute la durée d’une période d’échantillonnage.
Pourtant tout ce que j’ai pu apprendre avant et même dans mes livres de révisions nous mentionnent le théorème de Nyquist-Shannon et donc qu’à partir du moment où la fréquence d’échantillonnage est double de la différence entre la plus haute et basse fréquence à restituer, le signal pourra être parfaitement restitué par un DAC qui aura à charge de transformer cet échantillonnage en signal continu.
Ce serait cool si pourriez me donner votre avis, est-ce que j’ai mal compris quelque chose ou il y a une erreur dans notre cours ?