Licence CC BY-NC-ND

Séries numériques

Dernière mise à jour :
Auteurs :
Catégorie :

Qu’est-ce qui se passe quand on pousse une somme partielle jusqu’au bout, quand on additionne l’infinité de terme de la suite ?

Cette question posa de nombreux problèmes, le premier d’entre ayant été mentionné par dans un paradoxe émis par le philosophe Zénon, qui prétendait que le mouvement est une impossibilité. Supposons que je cours vers un arbre situé à un kilomètre de ma position. Pour franchir cette distance, je devrais d’abord parcourir la moitié de la distance qui me sépare de cette arbre. Puis, je devrais parcourir la moitié de la distance restante. Une fois cela fait, je devrais encore parcourir la moitié de la distance restante, et ainsi de suite. Zénon prétendait que le nombre d’étapes à parcourir étant infinie, je n’arriverais jamais à parcourir la distance qui me sépare de l’arbre.

Ce paradoxe semble relativement contre-intuitif, mais il peut se résoudre facilement d’un point de vue mathématique. La suite des distances à parcourir n’est autre que la suite des puissances de deux : je dois parcourir la moitié de la distance, puis le quart, puis le huitième, et ainsi de suite : on a bien la suite définie par $u_n = \frac{1}{2^{n}}$. Zénon pense que le nombre de termes de cette suite étant infinie, la somme de la totalité des termes l’est aussi. Mais ce n’est pas le cas : la somme de ces termes vaut 1 !

Somme de l’inverse des puissances de deux - domaine public - wikicommons

Pour démontrer ce fait, il nous faut étudier ce qu’on appelle les séries. Intuitivement, une série est une somme partielle poussée jusqu’au bout d’une suite infinie : on ne se limite pas à additionner les $n$ premiers termes, mais on les additionne tous. Formellement, une série s’obtient en prenant la limite de la somme partielle quand le rang n tend vers l’infini : $\sum_{n = 0}^{\infty} u_n$.

Convergence et divergence d'une série

Les mathématiciens ont découvert que certaines séries ne donnent pas de résultats finis : soit ce résultat n’existe pas, soit il est infini. Ces séries sont appelées des séries divergentes. Mais il s’avère que certaines séries donnent un résultat fini : ces séries sont alors des séries convergentes. Par exemple, Euler a montré que $e$, la base des logarithmes népériens, est le résultat de la série associée à la suite des inverses des factorielles.

$$ e = 1 + \frac{1}{2!} + \frac{1}{3!} + \frac{1}{4!} + \frac{1}{5!} + ... $$

Formellement, il faut définir ce qu’on veut dire par série divergente ou convergente :

  • s’il n’existe pas de limite pour la série, la série est divergente ;
  • sinon, la série converge et on a : $\sum_{n=0}^\infty a_n = \lim_{N\to\infty} \sum_{n=0}^N a_n$.

Mais comment savoir qu’une suite est convergente ou divergente ?

Limite du terme général

Prenons la suite géométrique de raison 5 et de premier terme 1. Si on calcule les $n$ premiers termes de la suite et leur somme, voici ce qu’on obtient :

Rang Suite Série partielle
0 1 1
1 5 6
2 25 30
3 125 155
4 625 780
5 3125 3905
6 15625 19530

Visiblement, la suite est croissante et les nombres grossissent de plus en plus vite. Intuitivement, on se dit qu’il y a peu de chances qu’elle soit convergente : la valeur des séries partielles a plutôt tendance à augmenter de plus en plus vite avec le nombre de termes. Et en effet, c’est bien le cas : cette suite diverge.

Maintenant, prenons la suite de premier terme 2000, et de raison 1/4, et regardons sont comportement sur les premiers termes.

Rang Suite Série partielle
0 2000 2000
1 500 2500
2 125 2625
3 31,25 2656,25
4 7,8125 2 664,0625
5 1,953125 2 666,01562
6 0,48828125 2 666,50391

On remarque que la série a tendance à se stabiliser autour de 2666. La différence avec la suite précédente, c’est que les termes de la suite tendent de plus en plus vers zéro au fur et à mesure que le rang augmente. Ainsi, des termes de plus en plus négligeables s’ajoutent à la série, ne faisant pas beaucoup varier celle-ci. Ainsi, on sait qu’une suite dont le terme général ne tend pas vers $0$ quand le rang tend vers l’infini a une série qui diverge.

Mais est-ce ce critère est suffisant pour démontrer qu’une suite converge ?

Et bien il suffit de trouver un contre-exemple pour invalider cette affirmation. Et le contre-exemple n’est pas si difficile à trouver, pour une raison assez simple : on l’a déjà vu précédemment. En effet, prenez la suite harmonique, celle formée par l’inverse des nombres entiers naturels non-nuls. Si vous étudiez cette suite, vous verrez que celle-ci tend bien vers zéro quand le rang augmente. Mais qu’en est-il pour sa série ? Est-ce qu’elle diverge ou qu’elle converge ?

Rang Série harmonique
0 1
1 1,5
100 5,2
1.000 7,5
10.000 9,8
100.000 12,1

On voit sur cet exemple qu’à chaque fois que l’on multiplie le rang par 10, la série harmonique partielle augmente de 2,3. On peut facilement démontrer cet état de fait, ce que nous ne ferons pas ici. Mais en tout cas, on peut facilement démontrer que cette série diverge !

Autres critères

Visiblement, le fait que le terme général de la suite tende vers zéro n’est pas suffisant pour savoir si une série converge. Pour compléter ce critère, les mathématiciens ont découvert des critères complémentaires et les ont démontré. Parmi ces critères, on pourrait citer :

  • la règle de d’Alembert ;
  • la règle de Raabe-Duhamel ;
  • la règle de Cauchy.

Ces critères sont cependant assez compliqués à illustrer à partir d’exemple, aussi je n’en parlerais pas ici.

Un exemple : les séries géométriques

Commençons par les séries géométriques. Comme vous l’avez sans doute remarqué, la suite donnée dans l’introduction, de terme général $u_n = \frac{1}{2^{n}}$, est une série géométrique : celle-ci a pour premier terme $1$, et une raison de $\frac{1}{2}$. Et celle-ci converge, ce qui prouve qu’il existe au moins une série géométrique qui converge. Mais cela ne signifie pas que toute série géométrique converge : pour vous donner un exemple, prenez la suite géométrique de premier terme 2000 et de raison 1000 : celle-ci diverge !

Conditions de convergence

On peut se demander quelles sont les conditions requises pour qu’une série géométrique diverge ou converge. Pour comprendre quelles sont ces raisons, on pourrait essayer de regarder des exemples de séries géométriques, afin d’en trouver une loi générale. Mais il faut faire attention à une chose : la convergence va sans doute dépendre des deux paramètres qui définissent la suite géométrique, à savoir le premier terme et la raison. Reste qu’il faudrait vérifier si c’est bien le cas.

Et si c’était le premier terme ?

Comment vérifier si le premier terme joue un rôle dans les critères de convergence d’une série géométrique ?

Pour cela, on peut utiliser une sorte de protocole assez simple : on prend une série et on manipule le premier terme en gardant la raison constante. Si en modifiant le premier terme, on peut rendre convergente une série initialement divergente (ou inversement), c’est que le premier terme joue un rôle dans la convergence ou divergence d’une série géométrique.

Pour commencer, nous allons prendre une série convergente, celle qui provient de la suite de terme général $u_n = \frac{1}{2^{n}}$, et nous allons tenter de la rendre divergente en modifiant le premier terme. Nous allons essayer avec $5000$, $0,5$, $-0,5$, et $-5000$. Et comme le montre le tableau ci-dessous, pas moyen de rendre la série divergente. Vous pouvez essayer vous-même en prenant n’importe quelle série convergente, en choisissant les premier termes de votre choix : cela donnera le même résultat.

Rang 5000 0,5 -5000 - 0,5
1 5000 0,5 -5000 -0,5
2 7500 0,75 -7500 -0,75
3 7750 0,775 -7750 -0,775
4 8375 0,8375 -8375 -0,8375
5 8687,5 0,86875 -8687,5 -0,86875
6 8843,75 0,884375 -8843,75 -0,884375
7 8921,875 0,8921875 -8921,875 -0,8921875
8 8960,9375 0,89609375 -8960,9375 -0,89609375
9 8980.46875 0,898046875 -8980.46875 -0,898046875
10 8990.234375 0,8990234375 -8990.234375 -0,8990234375

Maintenant, prenons une série divergente et essayons de la rendre convergente en changeant uniquement le premier terme. Par exemple, prenez une série de raison $2$ quelconque qui diverge et changez son premier terme. Essayez de trouver une valeur qui rende cette série convergente.

Ça y est, vous avez trouvé ?

Et oui, il suffit de mettre le premier terme à zéro pour rendre convergente n’importe quelle série géométrique divergente. Par contre, tous les essais avec une autre valeur ne donneront rien de crédible : hormis l’exception du zéro, le premier terme ne semble pas avoir de rôle à jouer dans la convergence d’une série géométrique.

J’avais raison !

Maintenant, il nous reste à étudier l’influence de la raison sur la convergence ou divergence d’une série, et regarder quelles sont les conditions que doit respecter cette raison pour que la série converge. Pour cela, nous allons prendre une suite, fixer son premier terme, et regarder ce qui se passe quand on fait varier la raison. Nous allons prendre les suites de premier terme 2, qui ont les raisons $\frac{1}{2}$, $- \frac{1}{2}$, 7, et -5.

Rang 7 0,5 -5 - 0,5
1 2 2 2 2
2 14 1 -10 -1
3 98 0,5 50 0,5
4 686 0,25 -250 -0,25
5 4802 0,125 1250 0,125
6 33614 0,0625 -6250 -0,0625
7 235298 0,03125 31250 0,03125
8 1647086 0,015625 -156250 -0,015625
9 11529602 0,0078125 781250 0,0078125
10 80707214 0,00390625 -3906250 -0,00390625

On s’aperçoit que le fait que la raison soit positive ou négative ne change rien : dans les exemples du dessus, il existe une série de raison positive qui converge et une autre qui diverge (même chose avec la raison négative). Par contre, il semblerait que la valeur de la raison joue un rôle.

Pour comprendre quel est ce rôle, il faut se rappeler qu’une série convergente provient d’une suite dont le terme général tend vers zéro avec le rang. Il faut que la raison le permette si on veut que la série géométrique converge : c’est une condition nécessaire, mais pas suffisante. Avec un peu de réflexion, on se rend rapidement compte que ce n’est possible que si la raison de la suite est comprise entre $-1$ et $1$.

Prenons le cas où la raison est positive. Si elle est comprise entre zéro et $1$, la valeur absolue de chaque terme deviendra plus petit au fur et à mesure que le rang augmente : la suite tend vers zéro assez rapidement. Et dans ce cas, cela suffit à rendre la série convergente. Mais si la raison dépasse 1, la suite sera croissante (premier terme positif) ou décroissante (premier terme négatif) et tendra vers l’infini : la série fera donc de même. Si la raison vaut 1, on se retrouve avec une suite constante, dont on se doute rapidement qu’elle diverge.

Si la raison est négative, les choses changent un peu : les signes des termes alternent. Par exemple, si la raison est de -1, la suite formée sera $u_0$, $- u_0$, $u_0$, $- u_0$, $u_0$, $- u_0$, $u_0$, $- u_0$, $u_0$, $- u_0$, etc. Dans ces conditions, difficile de donner une limite à cette somme, qui diverge donc. Il faut avouer que c’est une forme de divergence assez spécial : il n’y a pas de limite, même infinie. Si la raison est inférieure à $-1$, la même chose se produit avec des termes qui deviennent de plus en plus grands, et nos expériences montrerons que ces séries divergent. Mais si la raison est comprise entre $-1$ et $0$, les choses changent : les termes tendent vers zéro, et cela suffit à rendre la série convergente.

Limite d’une série géométrique convergente

Maintenant que l’on sait quelles sont les séries géométriques convergentes, on peut se demander s’il existe un moyen de calculer leur limite. Pour cela, il existe une formule assez générale, que nous allons introduire par quelques exemples.

Exemple

Prenons la suite géométrique de premier terme 7 et de raison $\frac{1}{5}$ :

$$ S = 7 + \frac{7}{5} + \frac{7}{5^2} + \frac{7}{5^3} + ... $$

Multiplions cette suite par sa raison :

$$ \frac{1}{5} \times S = \frac{7}{5} + \frac{7}{5^2} + \frac{7}{5^3} + ...$$

On peut remarquer que $S = 7 + \frac{1}{5} \times S$, ce qui donne :

$$ S - (\frac{1}{5} \times S) = 7 $$

Et cette formule permet d’obtenir, après quelques manipulations algébriques, que $S = \frac{35}{4}$.

Formule générale

Dans les exemples vus plus haut, nous avons pris une série géométrique, l’avons multiplié par sa raison, et soustrait ce résultat de la série : à chaque fois nous sommes tombé sur le premier terme. Pour comprendre pourquoi, nous allons devoir prendre la forme générale d’une série géométrique, à savoir :

$$ S = u_0 + (u_0 \times r) + (u_0 \times r^1) + (u_0 \times r^2) + (u_0 \times r^3) + (u_0 \times r^4) + ... $$

On a alors :

$$ S \times r = (u_0 \times r) + (u_0 \times r^1) + (u_0 \times r^2) + (u_0 \times r^3) + (u_0 \times r^4) + ... $$

La soustraction $S - (S \times r)$ donne alors :

$$ S - (S \times r) = u_0 $$
$$ S \times (1-r) = u_0 $$
$$ S = \frac{u_0}{1-r} $$

Une autre démonstration

Pour effectuer une démonstration plus rigoureuse, il faut reprendre la formule de la somme partielle d’une suite géométrique et en calculer la série en passant à la limite :

$$ S = u_0 \times \frac{1 - r^{n}}{1-r} $$

Dans cette formule, seul le terme $r^{n}$ dépend de $n$, et c’est son comportement qui permettra à la suite de converger ou de diverger. Si jamais ce terme diverge, alors la suite diverge aussi. Par contre, s’il tend vers zéro, la suite se simplifie et la série converge vers la valeur calculée par la formule suivante :

$$ S = u_0 \times \frac{1}{1-r} $$

Un autre exemple : les séries de Riemann

Maintenant, nous allons étudier une autre forme de série : les séries de Riemann. Ces séries sont celles obtenues avec des suites de la forme $u_n = \frac{1}{n^{r}}$. Le coefficient r est ce qu’on appelle la raison de la suite, par analogie avec les suites géométriques. Dans ce qui va suivre, nous allons étudier la convergence de ces séries.

Série harmonique

La série de puissance la plus connue est la série harmonique, qui dérive de la suite de l’inverse des nombres entiers (cette suite est appelée la suite harmonique :

$$1 + \frac{1}{2} + \frac{1}{3} + \frac{1}{4} + \frac{1}{5} + ... $$

Il se trouve que les termes de cette suite tendent vers zéro quand le rang augmente, ce qui ne l’empêche pas de diverger !

Pour s’en rendre compte, il suffit de comparer la suite harmonique avec une autre suite qui diverge. Prenons la suite suivante :

$$ 1 + \frac{1}{2} + \frac{1}{4} + \frac{1}{4} + \frac{1}{8} + \frac{1}{8} + \frac{1}{8} + \frac{1}{8} + ... $$

Or, il se trouve que si l’on compare les termes de cette suite à la suite harmonique, on trouve que tout terme de rang $n$ de la suite harmonique est supérieur au terme de même rang dans la suite vue plus haut. En clair : si la série de la suite prise en exemple diverge, alors la série harmonique diverge.

Et évidemment, la suite prise en exemple diverge, le meilleur moyen de s’en rendre compte étant de regrouper les termes identiques entre parenthèses. Cela donne une suite quasi-constante, qui diverge donc.

$$ 1 + \frac{1}{2} + ( \frac{1}{4} + \frac{1}{4} ) + ( \frac{1}{8} + \frac{1}{8} + \frac{1}{8} + \frac{1}{8} ) + ... $$
$$ 1 + \frac{1}{2} + \frac{1}{2} + \frac{1}{2} + ... $$

Série de l’inverse des carrés

Maintenant, essayons la série de l’inverse des carrés, qui vaut $1 + \frac{1}{2^2} + \frac{1}{3^2} + \frac{1}{4^2} + \frac{1}{5^2} + ... $. Cela peut paraitre bizarre, mais celle-ci converge vers une valeur assez intéressante : $\frac{\pi^2}{6}$ ! La démonstration de cette formule est un peu compliquée, aussi je suis obligé de vous la faire admettre. Le premier mathématicien a avoir découvert cette relation était Euler, un grand mathématicien du 17ème siècle. D’autres démonstrations sont aujourd’hui connues.

Cas général

Comme on le voit, les séries de Riemann peuvent aussi bien converger que diverger. Mais alors comment savoir si une telle série diverge ou converge ? Les mathématiciens ont depuis longtemps établit un théorème qui dit que la raison (la valeur de la puissance) doit rester en-dessous de 1 pour que la série converge.

Amusons-nous avec les séries divergentes

Dans ce que l’on a vu précédemment, les séries avaient souvent des termes qui étaient soit tous positifs, soit tous négatifs, les séries géométriques de raison négative étant les seules à faire exception. Il arrive souvent que certaines suites comprennent aussi bien des termes négatifs que positifs. Un bon exemple est celui des suites alternées, où tout terme positif est suivi d’un terme négatif, et réciproquement. Et il se trouve que certaines suites de ce genre (avec termes positifs et négatifs, mais pas forcément alternées) ont des comportements bizarres vis à vis de la convergence.

Quand l’addition n’est plus fiable

Pour comprendre quel est le problème, il faut faire un petit rappel sur l’addition. D’ordinaire, l’addition définie pour deux nombres est considérée comme insensible à l’ordre : peut importe l’ordre dans lequel on additionne un paquet de nombres réels, le résultat sera le même (en clair, l’addition est associative, commutative et distributive). Cela marche très bien quand on additionne un nombre fini de nombres. Mais quand on additionne un nombre infinis de termes, c’est autre chose.

Par exemple, prenons la suite alternée suivante :

$$ A, -A, A, -A, A, -A, A, -A, A, -A, A, -A, A, -A, ... $$

On peut effectuer l’addition en regroupant deux termes consécutifs : les termes de rang pairs sont additionnés avec les termes de rang impairs. On obtient alors :

$$ S = ( A - A ) + ( A - A ) + ( A - A ) + ( A - A ) + ... $$
$$ S = ( 0 ) + ( 0 ) + ( 0 ) + ( 0 ) + ... $$

Maintenant, changeons l’ordre en décalant les parenthèses d’un cran et effectuons le calcul suivant :

$$ S = A + ( - A + A ) + ( - A + A ) + ( - A + A ) + ( - A + A ) + ( - A + A ) + ... $$
$$ S = A + ( 0 ) + ( 0 ) + ( 0 ) + ( 0 ) + ... $$

Le résultat n’est pas le même. C’est ainsi : quand on additionne une infinité de nombre, l’ordre de l’addition peut tout changer (dit autrement, on perd l’associativité et la distributivité). Néanmoins, cela n’arrive pas pour toutes les suites. Par exemple, les suites géométriques, harmoniques, et autres ne sont pas concernées. Les mathématiciens ont réussit à trouver que ce comportement n’arrive que dans certaines conditions bien précises, seules certaines suites étant concernées.

Conditions d’apparition du phénomène

Pour commencer, les suites dont tous les termes sont des réels positifs ne sont pas concernées : leur série converge systématiquement vers la même valeur quelque soit l’ordre d’addition. Même chose pour les suites dont tous les termes sont négatifs : si elles convergent, elles donnent toujours la même valeur quelque soit l’ordre d’addition. On peut généraliser cette résistance au changement d’ordre d’addition aux suites réelles qui possèdent la propriété dite de convergence absolue. Une suite de termes général $u_n$ est absolument convergente si $\sum_{n=0}^\infty |a_n|$ converge. En clair, si on transforme les termes négatifs en termes positifs, la suite obtenue doit converger.

Par contre, certaines suites sont convergentes, mais ne respectent pas la convergence absolue : on parle de convergence conditionnelle. Pas besoin d’aller chercher très loin pour trouver une telle suite : la suite harmonique alternée en est un bon exemple. En effet, si on prend la valeur absolue de tous les termes, on retombe sur la suite harmonique, qui diverge.

$$1 - \frac{1}{2} + \frac{1}{3} - \frac{1}{4} + \frac{1}{5} - \frac{1}{6} +... $$

Ces suites conditionnellement convergentes sont celles pour lesquelles le changement de l’ordre d’addition modifie la valeur de la série. Un théorème, le théorème de réarrangement de Riemann, dit que l’on peut changer l’ordre d’addition des termes de la suite de manière à obtenir n’importe quelle limite : une telle suite peut converger vers n’importe quoi, voire même diverger si l’on effectue l’addition comme il faut.

Méthodes de sommation

Devant ce comportement, les mathématiciens ont inventé diverses méthodes de sommation, qui indiquent comment faire l’addition d’une infinité de nombres. On peut ainsi citer la méthode de Cesaro ou encore la méthode d’Abel. C’est ainsi que certains arrivent à faire croire que la suite harmonique converge vers $-\frac{1}{12}$ : ils utilisent une méthode de sommation différente de l’addition usuelle.

Mais ces méthodes doivent respecter quelques critères pour être considérées comme valides :

  • elles doivent redonner le même résultat que l’addition usuelle pour les suites absolument convergentes: c’est le critère de régularité ;
  • si cette méthode donne une valeur $A$ à la série $(a_n)$ et $B$ à la série $(b_n)$, alors elle doit donner la valeur $\lambda A + B$ à la série de terme $\lambda a_n + b_n$ : c’est la condition de linéarité ;
  • si on sort les $n$ premiers termes et qu’on les additionne avec la méthode usuelle, la méthode de sommation doit donner un résultat amputé de la somme de ces $n$ premiers termes : c’est la condition de stabilité.