Skip to main content

Section 6.3 Comparaison d'Abel avec Cesàro et Hölder

On dispose maintenant de tout un paquet de techniques de sommations: toutes les moyennes de Hölder, toutes celles de Cesàro, et maintenant les fonctions d'Abel.

On a déjà vérifié que les méthodes de Hölder et de Cesàro sont équivalentes 1 , autrement dit si une série \((\mathcal C,d)\) converge vers une somme \(s\text{,}\) alors elle \((\mathcal H,d)\) converge vers de même \(s\text{,}\) et vice-versa.

Ce qui est plutôt rassurant: souvent, le problème avec les séries divergentes, ce n'est pas de les forcer à avoir une valeur: c'est d'avoir une valeur cohérente: autrement dit, une et pas trente-six, comme avec la somme des entiers au début 3 , ou avec les sommations sauvages à la Euler qu'on vient de croiser) 4 .

Et ce n'était peut-être pas si étonnant: ces deux méthodes sont, après tout, assez similaires. Dans les deux cas, au lieu de s'intéresser directement à ce que devient \(s_n=\sum_{k=0}^n a_k\) quand \(n\rightarrow\infty\text{,}\) on considérait une moyenne pondérée des \(s_n\) et on augmentait progressivement le nombre de termes: on cherchait donc la limite d'un truc du genre

\begin{equation*} t_p= \frac{\mu_{p,0}s_0+\mu_{p,1}s_1+...+\mu_{p,p}s_p}{\mu_{p,0}+\mu_{p,1}+...+\mu_{p,p}} \end{equation*}

avec des coefficients \(\mu_{p,n}\) positifs (par exemple, la sommation \((\mathcal C,1)\text{,}\) c'est quand on prend tout bêtement \(\mu_{p,n}=1\text{,}\) quel que soit \(n\in\{0,...,p\}\)).

Mais Abel, c'est une tout autre façon de jouer ! On utilise des fonctions "polynômes infinis" qu'on fait ensuite prudemment passer à la limite.

Il n'est donc pas totalement idiot de se demander, si on a une série \(\sum a_n\) telle que

\begin{equation*} \sum_{n=0}^\infty a_n = s\quad [\mathcal A] \text{ et } \sum_{n=0}^\infty a_n = s'\quad [\mathcal C,d] \end{equation*}

pour une certain \(d\text{,}\) est-ce que forcément

\begin{equation*} s=s' \ ? \end{equation*}

La bonne nouvelle, c'est que c'est bien le cas (et même un peu mieux)

Donc, si une série est Cesàro-convergente, alors elle est forcément Abel-convergente, et les deux sommes sont les mêmes.

Exercice 6.3.1. Prouvons que si Ernesto peut faire converger une série, alors Niels aussi.

Il va donc s'agir de faire le lien entre une méthode de sommation par moyennes pondérées, et une méthode de sommation en termes de fonctions "polynômes infinis".

On a déjà croisé ça ! Lorqu'on s'est lancés dans le calcul à la Cesàro de la somme alternée des coefficients binomiaux, on avait croisé quelques fonctions de ce type.

On avait notamment obtenu que, pour tout entier \(d\text{,}\)

\begin{align} \left(\frac{1}{1-x}\right)^{d+1}\amp =\sum_{n\geq 0}\binom{n+d}{d}x^n\tag{✶}\\ \text{ et } \sum_{n\geq 0} S_n^{(d)} x^n \amp = \left(\frac{1}{1-x}\right)^{d+1} \sum_{n\geq 0}a_nx^n\tag{✶✶} \end{align}

Rappelons au passage quelques notations: on construit les sommes itérées \(S_n^{(d)}\) par récurrence en posant

\begin{align*} S_n^{(0)}\amp =a_0+...+a_n\\ \text{et pour tout } S_n^{(k)}\amp =S^{(k-1)}_0+...+S^{(k-1)}_n. \end{align*}

De là, on dit que la série \(\sum a_n\) est \((\mathcal C,d)\) convergente de somme \(s\) si

\begin{equation*} c_n^{(d)} = \frac{S_n^{(d)}}{\binom{n+d}{d}}\xrightarrow[n\rightarrow \infty]{} s \end{equation*}

et c'est ici ce qu'on suppose.

On va réutiliser tous ces résultats.

(a)

Posons, pour tout \(x\in\,]\,-1,1\,[\,\text{,}\)

\begin{equation*} f(x)=\sum_{n\geq 0} a_n x^n \end{equation*}

Le but du jeu est donc de montrer que

\begin{equation*} f(x) \xrightarrow[x\rightarrow 1]{} s \end{equation*}

Question préliminaire bonus pour experts en limites: Montrer que, pour ça, il suffit de vérifier que, pour n'importe quelle suite \((z_k)_k\) telle que \(z_k\rightarrow 1\text{,}\) on a

\begin{equation*} f(z_k) \xrightarrow[k\rightarrow \infty]{} s \end{equation*}
Indice 1.

Supposons donc que pour toute suite \((z_k)\) qui tend vers 1, on a \(f(z_k)\rightarrow s\text{.}\)

Ce qu'on veut montrer, donc, c'est que pour tout \(\varepsilon \gt 0\text{,}\) il existe \(\delta \gt 0\) tel que

\begin{equation*} |x-1| \lt \delta \Rightarrow |f(x)-s|\lt \varepsilon \end{equation*}

On peut procéder par contraposée: on suppose que \(f(x)\) ne tend pas vers \(s\) quand \(x\) tend vers 1, et on montre que, dans ce cas, il y a (au moins) une suite \((z_k)_k\) telle que \(z_k\rightarrow 1\) mais \(f(z_k) \nrightarrow s\text{.}\)

Indice 2.

Ce qu'on suppose, donc, c'est qu'il y a un réel \(\varepsilon_0 \gt 0\) tel que, quel que soit \(\delta \gt 0\text{,}\) il existe \(z_\delta\) "proche de 1 mais tel que \(f(z_\delta)\) reste loin de \(s\)":

\begin{equation*} |z_\delta-1| \lt \delta \text{ mais } |f(z_\delta)-s| \geq \varepsilon_0 \end{equation*}

\(\leadsto\) En utilisant ça avec \(\delta = \frac1n\text{,}\) trouver une suite \((z_n)_n\) telle que

\begin{equation*} |z_n-1| \rightarrow 0 \text{ mais } |f(z_n)-s| \nrightarrow 0 \end{equation*}

(b)

Soit donc \((z_k)_k\) une suite de \(\,]\,-1,1\,[\,\) qui tend vers 1. Puisque \(z_n\) se rapproche de 1, au bout d'un moment, \(z_k\) doit devenir positif: pour simplifier les calculs, quitte à éliminer quelques termes négatifs, on va supposer que \(z_k\geq 0\) pour tout \(k\in\N\text{.}\)

On veut montrer que

\begin{equation*} f(z_k)=\sum_{k=0}^\infty a_n z_k^n\xrightarrow[k\rightarrow\infty]{}s \end{equation*}

Pour ça, on va reformuler un peu \(f(z_k)\) de façon à faire apparaître quelque part \(c_n^{(d)}\text{.}\)

\(\leadsto\) Montrer que, pour tout \(k\in\N\text{,}\)

\begin{equation*} f(z_k)=\sum_{n\geq 0} (1-z_k)^{d+1}\binom{n+d}{d}c_n^{(d)}z_k^n \end{equation*}
Indice.

En utilisant la formule (✶✶), remarquer que

\begin{equation*} \left(\frac{1}{1-z_k}\right)^{d+1}f(z_k)=\sum_{n=0}^\infty S_n^{(d)}z_k^n \end{equation*}

et il ne reste plus qu'à utiliser la relation entre \(S_n^{(d)}\) et \(c_n^{(d)}\text{.}\)

Spoiler.

(c)

Notons \(\alpha_{k,n}=\binom{n+d}{d}(1-z_k)^{d+1}z_k^n\text{;}\) de cette façon, on a, pour tout \(k\)

\begin{equation*} f(z_k)=\sum_{n\geq 0} \alpha_{k,n} c_n^{d} \end{equation*}

Montrer que, si on fixe un \(n\in\N\text{,}\) quel qu'il soit,

\begin{equation*} \alpha_{k,n}\xrightarrow[k\rightarrow \infty]{} 0 \end{equation*}

(d)

Montrer que, quel que soit \(k\in\N\text{,}\)

\begin{equation*} \sum_{n\geq 0} \alpha_{k,n}=1 \end{equation*}

et de là, que

\begin{equation*} \left(\sum_{n\geq 0} \alpha_{k,n} c_n^{d}\right)-s = \sum_{n\geq 0} \alpha_{k,n}(c_n^{(d)}-s) \end{equation*}

(e)

On sait que \(c_n^{d}\xrightarrow[n\rightarrow\infty]{}s\) et on veut montrer que

\begin{equation*} \sum_{n\geq 0} \alpha_{k,n} c_n^{d}\xrightarrow[n\rightarrow\infty]{} s \end{equation*}

Si on choisit un écart \(\varepsilon \gt 0\text{,}\) on sait donc qu'il existe un entier \(N(\varepsilon)\) à partir duquel \(|c_n^{(d)}-s|\lt\frac{\varepsilon}2.\)

Montrer que

\begin{equation*} \left|\left(\sum_{n\geq 0} \alpha_{k,n} c_n^{d}\right)-s\right| \leq \sum_{n=0}^{N(\varepsilon)-1} |\alpha_{k,n}||c_n^{(d)}-s| + \frac{\varepsilon}2 \end{equation*}

(f)

Montrer par ailleurs qu'il existe un entier \(K(\varepsilon)\) tel que , pour tout \(k\geq K(\varepsilon)\text{,}\)

\begin{equation*} \sum_{n=0}^{N(\varepsilon)-1} |\alpha_{k,n}||c_n^{(d)}-s| \lt \frac{\varepsilon}2 \end{equation*}

Remarque 6.3.2.

Le coeur du raisonnement, c'était de montrer que

\begin{equation*} c_n^{d}\xrightarrow[n\rightarrow\infty]{}s \Rightarrow \sum_{n\geq 0} \alpha_{k,n} c_n^{d}\xrightarrow[n\rightarrow\infty]{} s \end{equation*}

et on a remarqué que la somme des coefficients \(\alpha_{k,n}\) est égale à 1.

\(\leadsto\) On peut considérer \(\sum_{n\geq 0} \alpha_{k,n} c_n^{d}\) comme une "moyenne pondérée" des termes de la suite convergente \((c_n^{(d)})\) (il y a une infinité de termes, mais c'est un détail)

et en fait, notre démarche est un cas particulier d'une méthode qui sert, beaucoup plus généralement, à étudier la régularité de méthodes de sommation par moyennes ponddérées: le théorème de Toeplitz.

\(\leadsto\) En d'autres termes, si on définit une méthode de sommation \((\mathcal M)\) par "la série \(\sum a_n\) \((\mathcal M)\)-converge ssi il existe \(S\) tel que \(\sum_{n=0}^\infty \alpha_{k,n} S_n \xrightarrow[k\rightarrow \infty]{} S\)", alors cette méthode est régulière.

Exercice 6.3.2. Toeplitzation des méthodes qu'on a vues.

En fait, les méthodes de sommation de Hölder et Cesàro qu'on a déjà croisées rentrent dans le cadre du théorème de Toeplitz !

(a)

A quels coefficients \(\alpha_{k,n}\) correspond la méthode des moyennes de Cesàro \((\mathcal C, 1)\) ?

Est-ce que ces coefficients vérifient les trois conditions de Toeplitz ?

(b)

A quels coefficients \(\alpha_{k,n}\) correspond la méthode des sommes itérées de Cesàro \((\mathcal C, p)\) ?

Est-ce que ces coefficients vérifient les trois conditions de Toeplitz ?

Indice.

C'est le moment de ressortir la formule explicite 5.1.3 qu'on avait utilisée pour démontrer que \((\mathcal C, p)\) vérifie la DDS.

Ce qui va nous obliger à affronter, une fois de plus, les coefficients binomiaux. Pour cela, n'oublions pas qu'on dispose d'une formule "chaussette" de Noël magique, qu'on a croisé en obtenant la formule explicite dans le Exercice 5.1.3

Spoiler.

Ce qu'on a obtenu, c'est donc que, si on peut sommer une série avec une des méthodes de Cesàro ou Hölder, alors on peut aussi la sommer avec Abel, et ça donne le même résultat.

Ce qui est rassurant, mais d'un autre côté, si ça marche dans l'autre sens, c'est à dire si toutes les séries Abel-convergentes étaient déjà Cesàro/Hölder-convergentes... alors on n'a pas tellement avancé ! 6 

Mais ce n'est pas le cas ! La sommation d'Abel est réellement plus puissante: il existe des séries Abel-convergentes qui ne sont pas \((\mathcal C,d)\)-convergentes, même avec un très gros \(d\text{.}\)

Les "polynômes infinis" ne sont en fait pas une simple curiosité pour calculer de force des séries obscènement divergentes: en fait, sous l'appelation plus respectable de séries entières, elles sont extrêmement utiles en analyse, car elles permettent de représenter des fonctions connues sous la forme sympathique de...polynômes infinis.

On a déjà vu, par exemple, que la fonction \(f(x)=\frac1{1-x}\) correspond, pour \(x\in \,]\,-1,1\,[\,\text{,}\) à la série entière \(1+x+x^2+...\text{.}\)

La fonction exponentielle est en fait également convertible (on dit développable) en série entière: ça donne

\begin{equation*} e^x=1+x+\frac1{2!}x^2+ \frac{1}{3!}x^3+...=\sum_{n\geq 0}\frac{x^n}{n!} \end{equation*}

En fait, si on a une fonction qu'on peut dériver une infinité de fois en 0, cela nous donne une suite

\begin{equation*} a_0=f(0), a_1=f'(0),\ a_2=f''(0),\ a_3=f'''(0),\ a_4=f^{(4)}(0).... \end{equation*}

et dans ce cas, si pour tout \(x\in \lbb-r,r\rbb\text{,}\) la série

\begin{equation*} \sum_{n=0}^\infty \frac{a_n}{n!}x^n \end{equation*}

tradi-converge, alors, pour tous ces \(x\text{,}\) \(f(x)\) est égale à ce "polynôme infini"

\begin{equation*} \forall x \in \lbb -r, r \rbb,\ f(x)= \sum_{n=0}^\infty \frac{a_n}{n!}x^n=\sum_{n=0}^\infty \frac{f^{(n)}(0)}{n!}x^n \end{equation*}

C'est comme ça qu'on trouve l'expression juste au-dessus pour \(\exp\text{:}\) puisque \(exp(x)=\exp'(x)=\exp''(x)....\text{,}\) on a \(\exp(0)=\exp'(0)=\exp''(0)....=1\text{,}\) et le polynôme infini au-dessus vient de là.

Remarque: En quelque sorte, on fait un développement de Taylor, mais on ne se limite pas.

Regardons ce que ça donne pour

\begin{equation*} f:x\in\lbb-1,1\rbb \mapsto \frac 1{1-x}\in\R \end{equation*}

Montrer à grands coups de récurrence qu'on peut dériver \(f\) autant de fois qu'on veut, et que pour tout \(x\in\lbb -1,1\rbb\text{,}\) pour tout entier \(n\text{,}\) la dérivée \(n\)-ième de \(f\)est

\begin{equation*} f^{(n)}(x)=\frac{n!}{(1-x)^{n+1}} \end{equation*}

et en déduire un truc qu'on savait déjà.

C'est ce qui rend si puissante la méthode d'Abel: de nombreuses fonctions déjà connues vont pouvoir s'écrire sous cette forme, et nous donner sans trop de douleur la Abel-somme de séries qui précédemment divergeaient.

C'est en fait aussi en creusant cette idée qu'on trouvera des méthodes de sommation encore plus puissantes !

Exercice 6.3.3. Etablissons la supériorité incontestable de Niels.

Et pour le moment, c'est comme ça qu'on va trouver un exemple de série \((\mathcal A)\)-convergente, mais pas \((\mathcal C,d)\)-convergente, quel que soit \(d\text{.}\)

(a)

Intéressons-nous, comme ça, à la fonction

\begin{equation*} f(x)=e^{\frac{1}{1-x}} \end{equation*}

définie sur \(\,]\,-1,1\,[\,\text{.}\)

Justifier qu'il existe des coefficients \((a_n)_n\) tels que

\begin{equation*} f(x)=\sum_{n\geq 0} a_n x^n \end{equation*}
Indice 1.

On connaît le développement de \(\exp(y)\text{,}\) quel que soit \(y\in \R\text{.}\) Qu'est-ce que ça donne si on remplace \(y\) par \(\frac1{1-x}\) ?

Indice 2.

On connaît aussi un développement similaire (✶) pour \(\left(\frac1{1-x}\right)^n\text{.}\)

Spoiler.

(b)

Montrer que la série \(\sum (-1)^na_n\) est \((\mathcal A)\)-convergente.

Indice.

On s'intéresse donc à la fonction définie (si possible !) sur \(\lbb -1,1\rbb\) par

\begin{equation*} \sum_{n=0}^\infty (-1)^na_nx^n=\sum_{n=0}^\infty a_n(-x)^n \end{equation*}

Cette fonction a-t-elle un rapport avec \(f\) ? Et du coup, est-ce qu'elle a une limite quand \(x\rightarrow 1\) ?

Spoiler.

(c)

Soit \(d\in\N\text{.}\) Montrer que

\begin{equation*} \frac{a_n}{n^d} \nrightarrow 0 \end{equation*}
Indice.

Si on regarde les \(a_n\) de plus près, en suivant le raisonnement utilisé pour justifier qu'ils existent, on les trouve sous forme d'une somme infinie, dont tous les termes sont positifs.

Et du coup, cette somme est plus grande que chacun de ses termes; notamment, au hasard, le \((d+3)\)-ième.

Spoiler.
Théorème 5.6 file:///P:/Universit%C3%A9/Site%20web/pretext_series_divergentes/section-5.html#thm_equiv_cesaro_holder
Sous-section 1.3: Ok, mais dans ce cas.. file:///P:/Universit%C3%A9/Site%20web/pretext_series_divergentes/intro.html#ok-mais-alors
Projet 6.1: Somme déplaisante de Callet file:///P:/Universit%C3%A9/Site%20web/pretext_series_divergentes/section-6.html#project-13
Par exemple, la suite des sommes partielles d'une série tradiconvergente
Enfin, si: pour calculer la somme d'une série précise, comme on verra, la méthode d'Abel a ses avantages même pour les séries qu'on connaît déjà.
carolinevernier.website/pretext_series_divergentes/section-4.html#proj_holder_estim
subsec_comp_CH