Section 6.3 Comparaison d'Abel avec Cesàro et Hölder

On dispose maintenant de tout un paquet de techniques de sommations: toutes les moyennes de Hölder, toutes celles de Cesàro, et maintenant les fonctions d'Abel.
On a déjà vérifié que les méthodes de Hölder et de Cesàro sont équivalentes 1 , autrement dit si une série \((\mathcal C,d)\) converge vers une somme \(s\text{,}\) alors elle \((\mathcal H,d)\) converge vers de même \(s\text{,}\) et vice-versa.
Ce qui est plutôt rassurant: souvent, le problème avec les séries divergentes, ce n'est pas de les forcer à avoir une valeur: c'est d'avoir une valeur cohérente: autrement dit, une et pas trente-six, comme avec la somme des entiers au début 3 , ou avec les sommations sauvages à la Euler qu'on vient de croiser) 4 .
Et ce n'était peut-être pas si étonnant: ces deux méthodes sont, après tout, assez similaires. Dans les deux cas, au lieu de s'intéresser directement à ce que devient \(s_n=\sum_{k=0}^n a_k\) quand \(n\rightarrow\infty\text{,}\) on considérait une moyenne pondérée des \(s_n\) et on augmentait progressivement le nombre de termes: on cherchait donc la limite d'un truc du genre
avec des coefficients \(\mu_{p,n}\) positifs (par exemple, la sommation \((\mathcal C,1)\text{,}\) c'est quand on prend tout bêtement \(\mu_{p,n}=1\text{,}\) quel que soit \(n\in\{0,...,p\}\)).
Mais Abel, c'est une tout autre façon de jouer ! On utilise des fonctions "polynômes infinis" qu'on fait ensuite prudemment passer à la limite.
Il n'est donc pas totalement idiot de se demander, si on a une série \(\sum a_n\) telle que
pour une certain \(d\text{,}\) est-ce que forcément
La bonne nouvelle, c'est que c'est bien le cas (et même un peu mieux)
Théorème 6.3.1.
Soit \(\sum a_n\) une série telle que
Pour tout \(x\in \lbb -1,1 \rbb\text{,}\) la série \(\sum |a_n x^n| \) est convergente;
La série \(\sum a_n\) est \((\mathcal C,d)\)-convergente pour un entier \(d\text{.}\) On note \(s\) sa \((\mathcal C,d)\)-somme.
Alors \(\sum a_n\) est \((\mathcal A)\)-convergente et
Donc, si une série est Cesàro-convergente, alors elle est forcément Abel-convergente, et les deux sommes sont les mêmes.
Exercice 6.3.1. Prouvons que si Ernesto peut faire converger une série, alors Niels aussi.
Il va donc s'agir de faire le lien entre une méthode de sommation par moyennes pondérées, et une méthode de sommation en termes de fonctions "polynômes infinis".
On a déjà croisé ça ! Lorqu'on s'est lancés dans le calcul à la Cesàro de la somme alternée des coefficients binomiaux, on avait croisé quelques fonctions de ce type.
On avait notamment obtenu que, pour tout entier \(d\text{,}\)
Rappelons au passage quelques notations: on construit les sommes itérées \(S_n^{(d)}\) par récurrence en posant
De là, on dit que la série \(\sum a_n\) est \((\mathcal C,d)\) convergente de somme \(s\) si
et c'est ici ce qu'on suppose.
On va réutiliser tous ces résultats.
(a)
Posons, pour tout \(x\in\,]\,-1,1\,[\,\text{,}\)
Le but du jeu est donc de montrer que
Question préliminaire bonus pour experts en limites: Montrer que, pour ça, il suffit de vérifier que, pour n'importe quelle suite \((z_k)_k\) telle que \(z_k\rightarrow 1\text{,}\) on a
Supposons donc que pour toute suite \((z_k)\) qui tend vers 1, on a \(f(z_k)\rightarrow s\text{.}\)
Ce qu'on veut montrer, donc, c'est que pour tout \(\varepsilon \gt 0\text{,}\) il existe \(\delta \gt 0\) tel que
On peut procéder par contraposée: on suppose que \(f(x)\) ne tend pas vers \(s\) quand \(x\) tend vers 1, et on montre que, dans ce cas, il y a (au moins) une suite \((z_k)_k\) telle que \(z_k\rightarrow 1\) mais \(f(z_k) \nrightarrow s\text{.}\)
Ce qu'on suppose, donc, c'est qu'il y a un réel \(\varepsilon_0 \gt 0\) tel que, quel que soit \(\delta \gt 0\text{,}\) il existe \(z_\delta\) "proche de 1 mais tel que \(f(z_\delta)\) reste loin de \(s\)":
\(\leadsto\) En utilisant ça avec \(\delta = \frac1n\text{,}\) trouver une suite \((z_n)_n\) telle que
(b)
Soit donc \((z_k)_k\) une suite de \(\,]\,-1,1\,[\,\) qui tend vers 1. Puisque \(z_n\) se rapproche de 1, au bout d'un moment, \(z_k\) doit devenir positif: pour simplifier les calculs, quitte à éliminer quelques termes négatifs, on va supposer que \(z_k\geq 0\) pour tout \(k\in\N\text{.}\)
On veut montrer que
Pour ça, on va reformuler un peu \(f(z_k)\) de façon à faire apparaître quelque part \(c_n^{(d)}\text{.}\)
\(\leadsto\) Montrer que, pour tout \(k\in\N\text{,}\)
(c)
Notons \(\alpha_{k,n}=\binom{n+d}{d}(1-z_k)^{d+1}z_k^n\text{;}\) de cette façon, on a, pour tout \(k\)
Montrer que, si on fixe un \(n\in\N\text{,}\) quel qu'il soit,
(d)
Montrer que, quel que soit \(k\in\N\text{,}\)
et de là, que
(e)
On sait que \(c_n^{d}\xrightarrow[n\rightarrow\infty]{}s\) et on veut montrer que
Si on choisit un écart \(\varepsilon \gt 0\text{,}\) on sait donc qu'il existe un entier \(N(\varepsilon)\) à partir duquel \(|c_n^{(d)}-s|\lt\frac{\varepsilon}2.\)
Montrer que
(f)
Montrer par ailleurs qu'il existe un entier \(K(\varepsilon)\) tel que , pour tout \(k\geq K(\varepsilon)\text{,}\)
(g)
Conclure allègrement.
Remarque 6.3.2.
Le coeur du raisonnement, c'était de montrer que
et on a remarqué que la somme des coefficients \(\alpha_{k,n}\) est égale à 1.
\(\leadsto\) On peut considérer \(\sum_{n\geq 0} \alpha_{k,n} c_n^{d}\) comme une "moyenne pondérée" des termes de la suite convergente \((c_n^{(d)})\) (il y a une infinité de termes, mais c'est un détail)
et en fait, notre démarche est un cas particulier d'une méthode qui sert, beaucoup plus généralement, à étudier la régularité de méthodes de sommation par moyennes ponddérées: le théorème de Toeplitz.
Théorème 6.3.3. (Théorème de Toeplitz).
Considérons un tableau infini de coefficients de pondération \(\alpha_{k,n}\text{,}\) pour \(k,n\in\N\text{:}\)
On suppose que ces coefficients vérifient:
Pour chaque \(n\in\N\text{,}\) \(\alpha_{k,n}\xrightarrow[k\rightarrow \infty]{} 0\text{.}\)
-
Pour chaque \(k\in\N\text{,}\) la série \(\sum_{n} |\alpha_{k,n}|\) converge, et il existe \(M\geq 0\) tel que, quel que soit \(k\text{,}\)
\begin{equation*} \aleph_k=\sum_{n\geq 0} |\alpha_{k,n}| \leq M \end{equation*} \(\leadsto\) Du coup, la série \(\sum_{n} \alpha_{k,n}\) converge aussi; On note \(A_k=\sum_{n\geq 0} \alpha_{k,n}\) la somme des coefficients de la \(k\)-ième ligne et on suppose que \(A_k\xrightarrow[k\rightarrow \infty]{} 1\)
Alors, pour toute suite \((S_n)\) qui tend vers une limite \(S\) 5 , on a
\(\leadsto\) En d'autres termes, si on définit une méthode de sommation \((\mathcal M)\) par "la série \(\sum a_n\) \((\mathcal M)\)-converge ssi il existe \(S\) tel que \(\sum_{n=0}^\infty \alpha_{k,n} S_n \xrightarrow[k\rightarrow \infty]{} S\)", alors cette méthode est régulière.
Exercice 6.3.2. Toeplitzation des méthodes qu'on a vues.
En fait, les méthodes de sommation de Hölder et Cesàro qu'on a déjà croisées rentrent dans le cadre du théorème de Toeplitz !
(a)
A quels coefficients \(\alpha_{k,n}\) correspond la méthode des moyennes de Cesàro \((\mathcal C, 1)\) ?
Est-ce que ces coefficients vérifient les trois conditions de Toeplitz ?
(b)
A quels coefficients \(\alpha_{k,n}\) correspond la méthode des sommes itérées de Cesàro \((\mathcal C, p)\) ?
Est-ce que ces coefficients vérifient les trois conditions de Toeplitz ?
C'est le moment de ressortir la formule explicite 5.1.3 qu'on avait utilisée pour démontrer que \((\mathcal C, p)\) vérifie la DDS.
Ce qui va nous obliger à affronter, une fois de plus, les coefficients binomiaux. Pour cela, n'oublions pas qu'on dispose d'une formule "chaussette" de Noël magique, qu'on a croisé en obtenant la formule explicite dans le Exercice 5.1.3




Ce qu'on a obtenu, c'est donc que, si on peut sommer une série avec une des méthodes de Cesàro ou Hölder, alors on peut aussi la sommer avec Abel, et ça donne le même résultat.
Ce qui est rassurant, mais d'un autre côté, si ça marche dans l'autre sens, c'est à dire si toutes les séries Abel-convergentes étaient déjà Cesàro/Hölder-convergentes... alors on n'a pas tellement avancé ! 6
Mais ce n'est pas le cas ! La sommation d'Abel est réellement plus puissante: il existe des séries Abel-convergentes qui ne sont pas \((\mathcal C,d)\)-convergentes, même avec un très gros \(d\text{.}\)
Les "polynômes infinis" ne sont en fait pas une simple curiosité pour calculer de force des séries obscènement divergentes: en fait, sous l'appelation plus respectable de séries entières, elles sont extrêmement utiles en analyse, car elles permettent de représenter des fonctions connues sous la forme sympathique de...polynômes infinis.
On a déjà vu, par exemple, que la fonction \(f(x)=\frac1{1-x}\) correspond, pour \(x\in \,]\,-1,1\,[\,\text{,}\) à la série entière \(1+x+x^2+...\text{.}\)
La fonction exponentielle est en fait également convertible (on dit développable) en série entière: ça donne
En fait, si on a une fonction qu'on peut dériver une infinité de fois en 0, cela nous donne une suite
et dans ce cas, si pour tout \(x\in \lbb-r,r\rbb\text{,}\) la série
tradi-converge, alors, pour tous ces \(x\text{,}\) \(f(x)\) est égale à ce "polynôme infini"
C'est comme ça qu'on trouve l'expression juste au-dessus pour \(\exp\text{:}\) puisque \(exp(x)=\exp'(x)=\exp''(x)....\text{,}\) on a \(\exp(0)=\exp'(0)=\exp''(0)....=1\text{,}\) et le polynôme infini au-dessus vient de là.
Remarque: En quelque sorte, on fait un développement de Taylor, mais on ne se limite pas.
Petit Exercice 6.3.4.
Regardons ce que ça donne pour
Montrer à grands coups de récurrence qu'on peut dériver \(f\) autant de fois qu'on veut, et que pour tout \(x\in\lbb -1,1\rbb\text{,}\) pour tout entier \(n\text{,}\) la dérivée \(n\)-ième de \(f\)est
et en déduire un truc qu'on savait déjà.
C'est ce qui rend si puissante la méthode d'Abel: de nombreuses fonctions déjà connues vont pouvoir s'écrire sous cette forme, et nous donner sans trop de douleur la Abel-somme de séries qui précédemment divergeaient.
C'est en fait aussi en creusant cette idée qu'on trouvera des méthodes de sommation encore plus puissantes !
Exercice 6.3.3. Etablissons la supériorité incontestable de Niels.
Et pour le moment, c'est comme ça qu'on va trouver un exemple de série \((\mathcal A)\)-convergente, mais pas \((\mathcal C,d)\)-convergente, quel que soit \(d\text{.}\)
(a)
Intéressons-nous, comme ça, à la fonction
définie sur \(\,]\,-1,1\,[\,\text{.}\)
Justifier qu'il existe des coefficients \((a_n)_n\) tels que
On connaît le développement de \(\exp(y)\text{,}\) quel que soit \(y\in \R\text{.}\) Qu'est-ce que ça donne si on remplace \(y\) par \(\frac1{1-x}\) ?
On connaît aussi un développement similaire (✶) pour \(\left(\frac1{1-x}\right)^n\text{.}\)

(b)
Montrer que la série \(\sum (-1)^na_n\) est \((\mathcal A)\)-convergente.
On s'intéresse donc à la fonction définie (si possible !) sur \(\lbb -1,1\rbb\) par
Cette fonction a-t-elle un rapport avec \(f\) ? Et du coup, est-ce qu'elle a une limite quand \(x\rightarrow 1\) ?

(c)
Soit \(d\in\N\text{.}\) Montrer que
Si on regarde les \(a_n\) de plus près, en suivant le raisonnement utilisé pour justifier qu'ils existent, on les trouve sous forme d'une somme infinie, dont tous les termes sont positifs.
Et du coup, cette somme est plus grande que chacun de ses termes; notamment, au hasard, le \((d+3)\)-ième.



(d)
En déduire que \(\sum (-1)^na_n\) n'est pas \((\mathcal C,d)\)-convergente.

Théorème 5.6 file:///P:/Universit%C3%A9/Site%20web/pretext_series_divergentes/section-5.html#thm_equiv_cesaro_holder
Sous-section 1.3: Ok, mais dans ce cas.. file:///P:/Universit%C3%A9/Site%20web/pretext_series_divergentes/intro.html#ok-mais-alors
Projet 6.1: Somme déplaisante de Callet file:///P:/Universit%C3%A9/Site%20web/pretext_series_divergentes/section-6.html#project-13
carolinevernier.website/pretext_series_divergentes/section-4.html#proj_holder_estim
subsec_comp_CH