Skip to main content

Section 6.6 Au fait, et ces sommes alternées ?

Mais ce n'était pas pour ça qu'on était venus !

Les nombres de Bernoulli étaient censés nous aider à calculer les sommes alternées

\begin{equation*} 1^p-2^p+3^p-4^p+...= \sum (-1)^n(n+1)^p \end{equation*}

ce que, jusqu'ici, ils n'ont pas fait.

Exercice 6.6.1.

Pour obtenir une formule qui nous donne cette somme, on va faire appel à toutes les nouvelles techniques dont on a parlé jusqu'ici en explorant les nombres de Bernoulli: des développements de fonctions en sommes infinies, et des dérivations dans lesdites sommes.

Plus précisément, on va trouver une fonction, appelons-la \(S(t)\text{,}\) dont les dérivées successives nous donnerons, quand \(t\rightarrow 0\) les sommes infinies recherchées, au sens d'Abel:

\begin{align*} S(t)\xrightarrow[t\rightarrow0]{}\amp\sum_{k=0}^\infty (-1)^k \quad [\mathcal A]\\ S'(t)\xrightarrow[t\rightarrow0]{}\amp\sum_{k=0}^\infty (-1)^{k+1}k \quad [\mathcal A]\\ S''(t)\xrightarrow[t\rightarrow0]{}\amp\sum_{k=0}^\infty (-1)^{k+1}k^2 \quad [\mathcal A]\\ \amp \vdots\\ S^{(p)}(t)\xrightarrow[t\rightarrow0]{}\amp\sum_{k=0}^\infty (-1)^{k+1} k^p \quad [\mathcal A] \end{align*}

et d'un autre côté, on va écrire \(u\) comme un polynôme infini (dont les coefficients seront Bernoulliesques)

\begin{equation*} S(t)=\sum_{n\geq 0}\frac{u_n}{n!}t^n \end{equation*}

Et comme on vu, les coefficients \(u_p\) nous donnerons alors les dérivées successives \(u^{(p)}(0)\) de \(u\) en 0, donc les sommes qu'on veut.

(a)

Vérifier que, quel que soit \(t\gt 0\text{,}\)

\begin{equation*} \frac{1}{1+e^{-t}}=\sum_{n\geq 0} (-1)^n e^{-nt} \end{equation*}

On va noter, au hasard, \(S(t)=\frac{1}{1+e^{-t}}\) cette fonction, au cas où elle puisse servir.

Indice.

Comment écrit-on

\begin{equation*} \frac{1}{1+Truc} \end{equation*}

sous forme de somme infinie ?

Spoiler.

(b)

Maintenant, il va s'agir de dériver \(S\) de deux façon différentes:

  • En utilisant la somme infinie \(S(t)=\sum_{k\geq 0} (-1)^k e^{-kt}\text{,}\) d'une part,

  • En utilisant l'expression \(S(t)=\dfrac{1}{1+e^{-t}}\text{,}\) d'autre part.

On le fait d'abord avec la somme infinie. On note, pour \(k\) entier et \(t\gt 0\text{:}\)

\begin{gather*} u_k(t)=(-1)^ke^{-kt}\\ S_n(t)=\sum_{k=0}^n u_k(t)\\ S(t) = \sum_{k\geq 0} u_k(t) \end{gather*}

Calculer les dérivées successives \(u_k'(t),u_k''(t)...\text{,}\) pour \(t\gt 0\text{,}\) et constater que ce qui nous ferait très plaisir, c'est que

\begin{gather*} S'(t)=\sum_{k\geq 0} u'_k(t)\\ S''(t)=\sum_{k\geq 0} u_k''(t)\\ ...\text{et ainsi de suite.} \end{gather*}

(c)

Plus qu'à montrer que c'est bien le cas ! Commençons par nous assurer que, si \(t\gt 0\text{,}\) quel que soit \(p\in\N\text{,}\) \(\sum_{k\geq 0} u^{(p)}_k(t_0)\) est bien une somme tradi-convergente, et même absolument tradiconvergente.

En utilisant le résultat de dérivation des polynômes infinis qu'on a obtenus au , montrer que si \(t_0 \gt 0, p \in, \N\text{,}\) la somme \(\sum |u_k^{(p)}(t_0)|\) tradiconverge (et donc, la somme \(\sum |u_k^{(p)}(t_0)|\) aussi).

(d)

On va montrer que pour \(t_0 \gt 0\text{,}\)

\begin{equation*} S'(t_0)=\sum_{k\geq 0} u'_k(t_0) \end{equation*}

(Les dérivées suivantes \(S'', S^{(3)},...\) marchent de la même façon: je vous laisse vérifier !)

On aimerait donc montrer que, si on calcule le taux d'accroissement

\begin{equation*} \frac{S(t_0+h)-S(t_0)}{h} \end{equation*}

pour \(h\neq 0\) tel que \(t_0 +h \gt 0\text{,}\) on trouve

\begin{equation*} \frac{S(t_0+h)-S(t_0)}{h} \xrightarrow[h\rightarrow 0]{} \sum_{k=0}^\infty u_k'(t_0) \end{equation*}

On sait quelques trucs:

  • On sait que la dérivation, ça marche pour les sommes finies:

    \begin{equation*} (u_0+u_1+....+u_n)'(t) = u_0'(t)+u'_1(t)+....+u'_n(t) \end{equation*}

    et du coup, en termes de taux d'acroissement, on sait que

    \begin{align*} \frac{u_0(t_0+h)-u_0(t_0)}{h}\amp+\frac{u_1(t_0+h)-u_1(t_0)}{h} + ...+\frac{u_n(t_0+h)-u_n(t_0)}{h}\\ \amp \xrightarrow[h\rightarrow 0]{}u_0'(t_0)+u'_1(t_0)+....+u'_n(t_0)\\ \leadsto \quad \amp \frac{(u_0(t_0+h)+...+u_n(t_0+h)) - (u_0(t_0)+...+u_n(t_0))}{h}\\ \amp\xrightarrow[h\rightarrow 0]{}u_0'(t_0)+u'_1(t_0)+....+u'_n(t_0)\\ \leadsto \quad \amp \frac{S_n(t_0+h)-S_n(t_0)}{h}\xrightarrow[h\rightarrow 0]{}u_0'(t_0)+u'_1(t_0)+....+u'_n(t_0)=S_n'(t_0) \end{align*}
  • On sait aussi que, quel que soit \(t\gt 0\text{,}\) \(S_n(t) \xrightarrow[n\rightarrow \infty]{} S(t)\text{.}\)

  • Et on sait enfin que \(\sum u'_k(t_0)\) tradiconverge, donc

    \begin{equation*} S_n'(t_0)=\sum_{k=0}^{n}u_k'(t_0) \xrightarrow[n\rightarrow \infty]{} \sum_{k=0}^\infty u'_k(t_0) \end{equation*}

Plus qu'à mettre tout ça ensemble ! Pour nous aider à faire ça, donnons allègrement des noms à tous les acteurs:

\begin{equation*} t_n(h)= \frac{S_n(t_0+h)-S_n(t_0)}{h}, t(h)=\frac{S(t_0+h)-S(t_0)}{h}, \ell=\sum_{k=0}^\infty u_k'(t_0) \end{equation*}

On fixe donc \(t_0\gt 0\text{,}\) et on va aussi fixer \(a\) tel que \(0 \lt a \lt t_0\text{.}\)

Soit \(\varepsilon \gt 0\text{,}\) il s'agit donc de trouver \(\alpha \gt 0\) tel que

\begin{equation*} \text{si } |h|\lt \alpha \text{ alors } |t(h)-\ell| \lt \varepsilon \end{equation*}

Remarquons que, pour tout \(N\geq 0\text{,}\) pour tout \(h\) tel que \(t_0+h \gt a\text{,}\)

\begin{equation*} |t(h)-\ell| \leq \underbrace{|t(h) - t_N(h)|}_{(1)} + \underbrace{|t_N(h) - S_N'(t_0)|}_{(2)} + \underbrace{|S_N'(t_0)-\ell|}_{(3)} \end{equation*}

Commençons doucement: justifier qu'il existe \(N_1\in\N\) tel que si \(N\geq N_1\text{,}\) \((3)\, \lt \frac{\varepsilon}{3}\text{.}\)

(e)

Attaquons-nous maintenant à \((1)\text{.}\)

Montrer que, quel que soit \(m\in \N\text{,}\)

\begin{align*} |t_{n+m}(h)-t_n(h)| \amp\leq \sum_{k=n+1}^{n+m} |u'_{k}(t_0+s_k)| \end{align*}

où, pour chaque \(k=n+1,...n+p\text{,}\) \(s_k\in [0,h]\) (si \(h \gt 0\)), \(s_k \in [h,0]\) si \(h\lt 0\text{.}\)

En déduire que

\begin{equation*} |t(h)-t_n(h)| \leq \sum_{k=n+1}^\infty k e^{-ak} \end{equation*}

(f)

Montrer que

\begin{equation*} \sum_{k=n+1}^\infty k e^{-ak} = \frac{n e^{-an}}{(1-e^{-a})} + \frac{e^{-an}}{(1-e^{-a})^2} \end{equation*}

et de là, qu'il existe \(N_2 \in \N\) tel que, si \(N\geq N_2\text{,}\)

\begin{equation*} |t(h) - t_N(h)| \lt \frac{\varepsilon}3 \end{equation*}

(g)

Soit \(N=\max(N_1,N_2)\text{.}\) Justifier qu'il existe \(\alpha \gt 0\) tel que

\begin{equation*} \text{si } |h|\lt \alpha \text{ alors } |t_N(h)-S_N'(t_0)|\lt \frac{\varepsilon}3 \end{equation*}

et conclure.

(h)

On va admettre que ce qu'on vient d'obtenir permet aussi de montrer que

\begin{equation*} S''(t)=\sum_{k=0}^\infty u_k''(t), S^{(3)}(t) = \sum_{k=0}^\infty u_k^{(3)}(t), etc... \end{equation*}

Montrer que, pour tout entier \(p\in\N^*\text{,}\)

\begin{equation*} (-1)^{p+1} S^{(p)}(t) \xrightarrow[t\rightarrow 0]{}\sum_{n\geq 0}^{[\mathcal A]}(-1)^{n+1}n^p \end{equation*}

(la somme avec un \([\mathcal A]\) en haut désogne la Abel-somme de cette série).

(i)

Intéressons-nous maintenant à l'autre expression de \(u\text{,}\) celle à 0% de sommes, et essayons de régler cette regrettable situation.

Montrer que pour tout \(t\gt 0\text{,}\)

\begin{equation*} S(t)=\frac{1}{1+e^{-t}}=-\frac1{t}\left(\frac{t}{1-e^{-t}}-\frac{2t}{1-e^{-2t}}\right) \end{equation*}
Indice.

Remarquer que, puisque

\begin{equation*} (a+b)(a-b)=a^2-b^2 \end{equation*}

on a, pour tout \(t,\)

\begin{equation*} (1+e^{-t})(1-e^{-t})=1-e^{-2t} \end{equation*}
Spoiler.

(j)

En déduire que

\begin{align*} S(t)\amp=\frac1t\sum_{n\geq 0}\frac{B_n}{n!}(2^n-1)t^n\\ \amp=\sum_{n\geq 0}\frac{B_{n+1}}{(n+1)!}(2^{n+1}-1)t^n \end{align*}
Indice.

C'est là que la fonction génératrice des \(B_n\) va nous servir !

Pour passer de la première à la deuxième: que vaut \(2^n-1\) pour \(n=0\) ?

Et si la somme commence à 1, on doit pouvoir simplifier le \(\frac 1t\text{,}\) et il n'y a plus qu'à ajuster quelques indices.

Spoiler.

(k)

En déduire, enfin, que, pour tout \(p\text{,}\)

\begin{equation*} \sum_{n=0}^\infty (-1)^{n+1}n^p = (-1)^{p+1}\frac{(2^{p+1}-1)B_{p+1}}{p+1} \quad [\mathcal A] \end{equation*}
Indice.

C'est le moment d'utiliser le fait que, quand une fonction peut s'écrire sous forme de "polynôme infini", les coefficients du polynôme sont

\begin{equation*} u_n=\frac{f^{(n)}(0)}{n!} \end{equation*}
Spoiler.

(l)

Qu'est-ce que ça donne pour \(p=1,2,3 ?\)

Dans la foulée, en déduire la valeur de

\begin{equation*} \sum_{n=0}^\infty (-1)^{n+1}n^p \end{equation*}

pour \(p=46, 218, 3589621476,\) et \(4^{\text{âge du capitaine}}+32\text{.}\)

C'est Euler, de nouveau, qui s'est le premier intéressé à ces sommes alternées, dont il avait besoin pour étudier cette mystérieuse fonction \(\zeta\) dont on reparlera abondamment. Il y arriva en "intuitant" la méthode d'Abel: en 1749, il écrit

Affirmer que la somme de la série \(1-2+3-4+5-6 etc.\) est \(\frac14\) doit sembler paradoxal. En effet, en additionnant les 100 premiers termes de cette série, on obtient -50, tandis que la somme de 101 termes donne 51, ce qui est complètement différent de \(\frac14\text{,}\) et le devient encore plus si on augmente le nombre de termes considérés. Mais, j'ai déjà remarqué précédemment que le mot somme devait se voir attribuer un sens élargi.

[...]

Il n'y a plus de doute que la somme de la série \(1 - 2 + 3 - 4 + …\) est \(\frac14\text{,}\) puisqu'elle provient du développement de la formule 1⁄(1+1)2, dont la valeur est incontestablement \(\frac14\text{.}\) L'idée devient plus claire en considérant généralement la série \(1 - 2x + 3x2 - 4x3 + 5x4 - 6x5 + etc.\) qui provient du développement de l'expression \(\frac{1}{(1+x)^2}\text{,}\) à laquelle la série considérée est en effet égale en prenant \(x=1\text{.}\)

Abel, par contre, avait là-dessus une opinion bien sentie:

Peut-on penser chose plus effroyable que de dire :

\begin{equation*} 0 = 1-2^n+3^n-4^n+\ldots \quad (n\gt 0) ? \end{equation*}

Mes amis, voici quelque chose dont il faut se moquer.

Il n'avait pas tout à fait tort, comme on a vu: pour le commun des mortels, qui, contrairement à Euler, n'intuite pas les bonnes réponses avec un talent quasi surnaturel, le plus sûr est de se contraindre à des preuves et définitions un peu carrées. Qui manquent dans les travaux d'Euler (et de ses contemporains !).

Cette preuve rigoureuse, on l'attendra longtemps: ce n'est que vers 1890 que Borel, d'une part, et Cesàro, d'autre part, y aboutirent, pour de petites valeurs de \(p\text{:}\) l'un avec son calcul de moyenne, l'autre par le biais d'une transformation des sommes introduites par Euler lui-même et qui sera l'objet de la section suivante.

Ironiquement, comme on a vu, on peut y arriver quand même avec la sommation d'Abel.