Inscription / Connexion Nouveau Sujet
Niveau école ingénieur
Partager :

Réciproque Hardy et Littlewood.

Posté par
matheux14
18-02-24 à 10:38

Bonjour,

Merci d'avance.

On veut établir la réciproque de la propriété (\ddagger) : s_n \underset{n \longrightarrow}{\sim} n \Longrightarrow \underset{x \longrightarrow 1^{-}}{\sim} \dfrac{1}{1-x} avec s_n = \sum\limits^n_{k = 0} a_k

On se donne donc \left(a_n\right)_{n \geqslant 0} une suite à termes positifs telle que la série entière f(x)= \sum_{n=0}^{\infty} a_n x^n est de rayon 1 et f(x) \sim \dfrac{1}{1-x} quand x \rightarrow 1.

Pour N \geqslant 0 on pose s_N=\sum_{n=0}^N a_n, et l'objectif est de démontrer que s_N \sim N quand N \rightarrow \infty.

1) Soit \varphi la fonction sur [0, 1] définie par

\begin{cases}\varphi(t)=0 \text { si } 0 \leqslant t<e^{-1} \\ \varphi(t)=1 / t \text { si } e^{-1} \leqslant t \leqslant 1\end{cases}

Montrer que pour tout \varepsilon>0 il existe des polynômes P^{-}et P^{+} tels que :

\begin{aligned}P^{-} \leqslant \varphi \leqslant P^{+} \text {sur }[0,1] \text {, et } \int_0^1\left(P^{+}(x)-P^{-}(x)\right) d x \leqslant \varepsilon \end{aligned}.

2) Montrer que pour tout polynôme réel P on a

\lim _{x \rightarrow 1}(1-x) \sum_{n=0}^{\infty} a_n x^n P\left(x^n\right)=\int_0^1 P(t) d t.

(Indication : on pourra d'abord considérer le cas d'un monôme. )

3) En déduire que

\lim _{x \rightarrow 1}(1-x) \sum_{n=0}^{\infty} a_n x^n \varphi\left(x^n\right)=1

4) En considérant x=e^{-1/ N}, démontrer le résultat souhaité.

Pour la question 1) Ici j'avais trouvé que dès qu'une suite de fonctions converge uniformément vers \varphi, par le théorème de Weierstrass on a facilement P^+ et P^-

Pour toute fonction continue \varphi sur un intervalle fermé et borné [a,b], il existe une suite de polynômes P_n(x) telle que P_n converge uniformément vers \varphi sur [a,b].

D'après le théorème de Weierstrass, on peut trouver une suite de polynômes P_n(x) qui converge uniformément vers \varphi(x) sur l'intervalle [0,1].

Donc pour tout \varepsilon > 0, il existe un entier N tel que pour tout n \geq N et pour tout x \in [0,1],  |P_n(x) - \varphi(x)| < \varepsilon.

Ai je raison de choisir P^-_n(x) = P_n(x) - \varepsilon et P^+_n(x) = P_n(x) + \varepsilon ?

Posté par
carpediem
re : Réciproque Hardy et Littlewood. 18-02-24 à 11:31

salut

la fonction \phi est-elle continue ?

Posté par
matheux14
re : Réciproque Hardy et Littlewood. 18-02-24 à 11:49

Elle n'est pas continue sur [0 ; 1]

Posté par
Ulmiere
re : Réciproque Hardy et Littlewood. 18-02-24 à 12:09

Tu prends deux suites à valeurs dans \R^2 u et v telles que u_n et v_n saucissonnent la courbe représentative de phi sur [1/e,1] avec une marge d'erreur qui tend vers 0.

Si tu construis ensuite deux suites de polynômes (A_n) et (B_n) par interpolation de Lagrange en utilisant les n premiers points de u et v, tu obtiens une approximation polynomiale satisfaisante sur [1/e,1] lorsque n tend vers l'infini.

Si tu appelles maintenant \delta_n = \int_{1/e}^1 (B_n-A_n)(t)dt (cela tend vers 0, d'après le TCD par exemple), le but est de rajouter des points d'approximation à gauche de 1/e pour faire une approxmiation sans trop toucher à \delta_n mais en faisant en sorte que \int_0^{1/e} (\tilde{B_n}-\tilde{A_n})(t)dt < \varepsilon - \tilde{\delta_n}.

Ca peut se faire en ne rajoutant qu'un unique couple de points à gauche de 1/e je pense, en 0. En jouant sur la différence d'ordonnées à l'origine et sur le fait que tu peux raffiner arbitrairement l'approximation sur 1/e, il y a moyen de compenser avec une sorte de rétropropagation

Posté par
matheux14
re : Réciproque Hardy et Littlewood. 18-02-24 à 14:05

Soit u_n = \left(e^{-1} + \dfrac{n}{N}, \varphi\left(e^{-1} + \dfrac{n}{N}\right)\right) pour n = 0, \ldots, N

Soit v_n = \left(e^{-1} + \dfrac{n}{N}, \varphi\left(e^{-1} + \dfrac{n}{N}\right) + \dfrac{\varepsilon}{2N}\right) pour n = 0, \ldots, N

On a alors :

u_n et v_n sont sur la courbe représentative de \varphi sur [e^{-1}, 1]

v_n est au-dessus de u_n et la distance verticale entre les deux points est \dfrac{\varepsilon}{2N}

u_0 = v_0 = (e^{-1}, 1/e) et u_N = v_N = (1, 1)

On construit ensuite deux suites de polynômes A_{n \geqslant 0} et B_{n \geqslant 0} par interpolation de Lagrange en utilisant les n premiers points de u et v. On a alors :

A_n et B_n sont de degré au plus n

A_n\left(e^{-1} + \dfrac{k}{N}\right) = \varphi\left(e^{-1} + \dfrac{k}{N}\right) et B_n\left(e^{-1} + \dfrac{k}{N}\right) = \varphi\left(e^{-1} + \dfrac{k}{N}\right) + \dfrac{\varepsilon}{2N} pour k = 0, \ldots, n

A_n \leqslant \varphi \leqslant B_n sur [e^{-1}, 1] par le théorème de Rolle généralisé.

On pose \begin{aligned}\delta_n = \int_{e^{-1}}^1 (B_n - A_n)(t)dt\end{aligned}. On a :

\delta_n \geqslant 0 car B_n \geqslant A_n sur [e^{-1}, 1]

\begin{aligned}\delta_n \leqslant \int_{e^{-1}}^1 \dfrac{\varepsilon}{2N} dt = \dfrac{\varepsilon}{2N} (1 - e^{-1})\end{aligned} par définition de B_n et A_n

\lim_{n \to \infty} \delta_n = 0 car \lim_{n \to \infty} A_n = \lim_{n \to \infty} B_n = \varphi sur [e^{-1}, 1] par le théorème de Weierstrass.

On choisit alors N assez grand tel que \delta_N \leqslant \dfrac{\varepsilon}{2}. On définit ensuite les polynômes P^- et P^+ par :

P^-(t) = A_N(t) pour t \in [e^{-1}, 1] et P^-(t) = 0 pour t \in [0, e^{-1}[

P^+(t) = B_N(t) pour t \in [e^{-1}, 1] et P^+(t) = \dfrac{\varepsilon}{2} t pour t \in [0, e^{-1}[
On a alors :

P^- \leqslant \varphi \leqslant P^+ sur [0, 1] par construction

\begin{aligned}\int_0^1 (P^+ - P^-)(t) dt = \int_0^{e^{-1}} (P^+ - P^-)(t) dt + \int_{e^{-1}}^1 (P^+ - P^-)(t) dt\end{aligned}

\begin{aligned}\int_0^{e^{-1}} (P^+ - P^-)(t) dt = \int_0^{e^{-1}} \dfrac{\varepsilon}{2} t dt = \dfrac{\varepsilon}{4} (e^{-1})^2\end{aligned}

\begin{aligned}\int_{e^{-1}}^1 (P^+ - P^-)(t) dt = \delta_N \leqslant \dfrac{\varepsilon}{2}\end{aligned}

\begin{aligned}\int_0^1 (P^+ - P^-)(t) dt \leqslant \dfrac{\varepsilon}{4} (e^{-1})2 + \dfrac{\varepsilon}{2} \leqslant \varepsilon\end{aligned} si \varepsilon est assez petit

Posté par
Ulmiere
re : Réciproque Hardy et Littlewood. 18-02-24 à 14:27

La fin n'est pas bonne, parce que les P^{\pm} que tu donnes ne sont plus des polynômes, seulement des fonctions polynomiales par morceaux. P^- en particulier n'a aucune chance de l'être sinon, parce qu'il s'annule sur [1/e,1], tout entier et eu égard à la caractéristique nulle de R, il aurait une infinité de racines, donc il serait nul...

Si tu veux suivre cette psite, il faudrait vraiment rajouter un (N+1)ème couple de points, à l'origine, et bien paramétrer le couple en question pour que l'intégrale sur [0,1/e] soit assez petite

Posté par
matheux14
re : Réciproque Hardy et Littlewood. 18-02-24 à 15:26

Ah oui

Posté par
matheux14
re : Réciproque Hardy et Littlewood. 19-02-24 à 11:25

Bonjour Ulmiere, je ne vois pas vraiment comment utiliser ce (N + 1)ème couple de points.. Est-ce vraiment nécessaire ?

Posté par
matheux14
re : Réciproque Hardy et Littlewood. 25-02-24 à 10:07

Posté par
carpediem
re : Réciproque Hardy et Littlewood. 25-02-24 à 10:58

en lisant la question 4/ je me demande s'il n'y a pas une erreur dans la définition de la fonction phi : ne serait-ce pas plutôt e^{-1/N} au lieu de e^{-1}  ?

ensuite dans la première phrase de l'énoncé  "on veut établir..." ne manque-t-il pas quelque chose après la flèche d'implication ? (et même avant (une erreur n- \to ??)

Posté par
matheux14
re : Réciproque Hardy et Littlewood. 26-02-24 à 14:49

Le seul problème c'est à ce niveau.

Citation :
On veut établir la réciproque de la propriété (\ddagger) : s_n \underset{n \longrightarrow {\red{\infty}}}{\sim} n \Longrightarrow \underset{x \longrightarrow 1^{-}}{\sim} \dfrac{1}{1-x} avec s_n = \sum\limits^n_{k = 0} a_k



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1675 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !