Inscription / Connexion Nouveau Sujet
Niveau Master
Partager :

Norme du gradient

Posté par
Tonm
28-07-14 à 06:14

Bonjour,dans de nombreux cas exemple inégalité de Poincaré, Hölder etc . Je  trouve un problème face à la définition de normeL^p  du gradient d'une fonction . Cas p=2 ne me pose pas probléme j'irais pour le produit scalaire mais pour p qlq je perd le boulot .Merci

Posté par
carpediem
re : Norme du gradient 28-07-14 à 09:27

salut

||u||_{\frac 1 2 } = \sqrt {\sum_1^n u_i^2} = \left( \sum_1^n u_i^2 \right)^{\frac 1 2 }


||u||_{\frac 1 p } = \sqrt [p]{\sum_1^n u_i^p} = \left( \sum_1^n u_i^p \right)^{\frac 1 p }

Posté par
Tonm
re : Norme du gradient 28-07-14 à 11:27

merci on parle d'espace de sobolev voici mon probleme je veux mieux expliquer mon probleme est qu a la derniere inegalite pour passer a la norme\|\nabla u\|_{L^p}^p il fallait mettre une constante C?

Norme du gradient

Posté par
carpediem
re : Norme du gradient 28-07-14 à 12:13

on peut effectuer remplacer les sommes par des intégrales ...

ensuite ben peut-être que cette constante est 1 ....

Posté par
Tonm
re : Norme du gradient 28-07-14 à 12:26

Vous connaissez pourquoi mettre un C? Cordialement

Posté par
Tonm
re : Norme du gradient 28-07-14 à 14:50

pour rectifier la question: au depart on a \int_{0}^{1} h.\nabla u(x+ht) \mathrm{d}t \quad \text{donc} \quad\ |\int_{0}^{1} h.\nabla u(x+ht) |\leq |h|\int_{0}^{1}  |\nabla u(x+ht)  |dt 1)la norme employe pour h et\nabla u(x+ht) c'est quelle norme?

Posté par
Narhm
re : Norme du gradient 28-07-14 à 15:03

Bonjour

C'est franchement pas clair ce que tu nous racontes Tonm... Quels sont les points, précisément, qui te posent problème ? La deuxième inégalité de ton image ou alors la toute dernière inégalité ? ou autre chose ?
Tout à l'air détaillé dans ton corrigé.

J'imagine que u:\Omega\subset \R^d\rightarrow \R où on a mis la norme euclidienne sur \R^d ce qui fait que h\in \R^d et \nabla u(x)\in \R^d pour tout x\in \Omega. Ce que tu notes |h| ou |\nabla u(x)| désigne juste la norme euclidienne de ces vecteurs de \R^d.

Posté par
Tonm
re : Norme du gradient 28-07-14 à 15:10

si elle est la norme euclidienne ? suite du raisonnement apres elevation a la puissance p et integration pour arriver a ||\nabla u||_{L^p}^p et moi je definit ||\nabla u||_{L^p}= \sum\limits_{i=1}^{n}||u_i ||_{L^p}  ici  u_i la i'eme derivee partielle ( cours d'espace de Sobolev) .donc vous voyez que la majoration est vrai mais nescessite enfin  C||\nabla u||_{L^p}^p ce C par equivalence entre la p-ieme norme et la norme euclidinne ce sont les deux ecrit plus haut par carpediem c- a -d :|\nabla u|_{1/2}\leq C|\nabla u|_{1/p}

Posté par
Tonm
re : Norme du gradient 28-07-14 à 15:28

je ressent un probleme dans la definition dans ce bouquin ils definissent ||u||_{W^{1,p}}=||u||_{L^p} +  ||\nabla u||_{L^p} et disent  ou tout autre norme equivalente puis dans d'autre par exemple Brezis j'ai cela ||u||_{W^{1,p}}=||u||_{L^p} +\sum\limits_{i=1}^{n}||u_i ||_{L^p} ici u_i  la i'eme derivee partielle. Est ce qu'il sont equivalentes ?

Posté par
Narhm
re : Norme du gradient 28-07-14 à 17:45

Ok, je comprends.
En feuilletant Brezis, la notation \|\nabla u\|_{L^p} semble implicitement définie comme étant \|\nabla u\|_{L^p}=\left(\int |\nabla f(x)|^pdx\right)^{1/p}|\cdot | désigne bien la norme euclidienne.

A priori, avec cette définition on a bien \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}\leq C\|\nabla u\|_{L^p} mais je ne suis pas sur que l'autre égalité soit vraie en général.

Quand tu dis :

Citation :
je ressent un probleme dans la definition dans ce bouquin ils definissent \|u\|_{W^{1,p}}=\|u\|_{L^p}+ \|\nabla u\|_{L^p}

Le livre donne-t-il sa définition du terme \|\nabla u\|_{L^p} ?

Posté par
Tonm
re : Norme du gradient 28-07-14 à 18:01

Là c'est le problème il ne la donne pas... Je suggère comme vous ... Et aussi il faudrait avoir l'autre inégalité et on aura équivalence des normes et c'est fini.je  ne pense pas que c'est difficile c'est même trivial vue l'équivalence des normes surR^d selon moi bien sûr.

Posté par
Tonm
re : Norme du gradient 28-07-14 à 18:12

Ah le problème n'est pas du bouquin mais de moi quand j'ai considéré ||\nabla u||_{L^p}=  \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}

Posté par
Narhm
re : Norme du gradient 28-07-14 à 20:28

Justement, l'argument des normes équivalentes n'est pas suffisant pour obtenir l'autre inégalité.

Cela dit je ne comprends pas ton problème, en suivant Brezis, ce que j'ai défini comme étant \|\nabla u\|_{L^p} dans mon message de 17h45 te donne la fameuse constante C recherchée pour avoir |\tau_hu-u\|_{L^p(\omega)}\leq C|h|.

Posté par
Tonm
re : Norme du gradient 28-07-14 à 20:46

Donc vous le dite que ces deux normes sur W^{1,p} que j'ai défini  en haut(15:28)sont équivalente . Non!

Posté par
Narhm
re : Norme du gradient 28-07-14 à 21:28

Je n'ai pas dit ça et tu n'as définie qu'une seule norme dans ton message de 15h28 puisque dans ton message de 18h12, tu complètes en disant que ||\nabla u||_{L^p}=  \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}.

La où je veux en venir, c'est que la notation ||\nabla u||_{L^p} désigne, dans Brezis, le réel \left(\int |\nabla f(x)|^pdx\right)^{1/p} et que c'est exactement ce dont tu as besoin pour avoir l'inégalité cité plus haut. A moins tu aies un autre objectif en tête.

Posté par
Tonm
re : Norme du gradient 29-07-14 à 03:39

d'abord merci Narhm pour votre temps, tout ce que je veux dire :je suis d'accord sur les resultats Brezis et demonstration...mais je veux m'assurer si avec ce bouquin ||u||_{W^{1,p}}=||u||_{L^p} +(||\nabla u||_{L^p} =\left(\int |\nabla f(x)|^pdx\right)^{1/p}) est equivalente a la norme ||u||_{W^{1,p}}=||u||_{L^p} + \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}. 
 \\ ?




Citation :
Je n'ai pas dit ça et tu n'as définie qu'une seule norme dans ton message de 15h28 puisque dans ton message de 18h12, tu complètes en disant que  ||\nabla u||_{L^p}=  \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}.
j'ai dit que considéré  ||\nabla u||_{L^p}=  \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p} est un probleme

Posté par
Tonm
re : Norme du gradient 29-07-14 à 11:46

en faite comment etablir \|\nabla u\|_{L^p}\leq C \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p} ?

Posté par
Tonm
re : Norme du gradient 29-07-14 à 11:58

j'etais rapide ici  comment etablir   \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}\leq C\|\nabla u\|_{L^p} ?

Posté par
Tonm
re : Norme du gradient 29-07-14 à 12:38

j'arrive si quelqu' un me suive (Narhm) que etablir    \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}\leq C\|\nabla u\|_{L^p} ?  est acquis si on demontre LE SUIVANT   (a+b+c+...)^n=a^n+b^n+c^n+......+A  tous les termes sont positifs ici si A qui est le terme qui ne contient pas les elements  a la puissance n soit inferieure au terme sommant tous les elements a la puissance n ( c-a-d a^n+b^n+c^n+......) alors le resultat decoule (l'inegalite )
( n=p dans la demonstration )
ca fallait couler non?

Posté par
Narhm
re : Norme du gradient 31-07-14 à 13:03

Tonm, prends le temps de te relire quand tu postes un message, ce serait vraiment plus agréable pour te suivre.

Par curiosité, est-ce que tu peux donner la référence du livre dont tu parles qui définit \|u\|_{W^{1,p}} comme étant \|u\|_{L^p}+\left(\int |\nabla u(x)|^p\right)^{1/p} ?

En attendant, je détaille les inégalités attendues, ce sera plus simple: \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}\leq C\|\nabla u\|_{L^p} .


 \\ \begin{array}{rl}
 \\ \sum_{i=1}^d\left\|\dfrac{\partial u}{\partial x_i}\right\|_{L^p} & = \sum_{i=1}^d\left( \int \left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx\right)^{1/p} \\ 
 \\ & \leq d^{1/q}\left(\sum_{i=1}^d \int \left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx \right)^{1/p} \\
 \\ & = d^{1/q}\left(\int \sum_{i=1}^d \left|\dfrac{\partial u}{\partial x_i}(x) \right|^p dx\right)^{1/p} \\
 \\ & = d^{1/q} \left(\int \|\nabla u(x)\|_p^p dx\right)^{1/p} \\ 
 \\ & \leq d^{1/q} \tilde C\left(\int \|\nabla u(x)\|_2^p dx\right)^{1/p} \\
 \\ & = C \|\nabla u\|_{L^p} \end{array}
où je note \|.\|_2 et \|.\|_p les normes 2 (euclidienne) et p sur \R^d.
La première inégalité provient de l'inégalité de Hölder : \sum_{i=1}^d x_i \leq d^{1/q}\left(\sum_{i=1}^d x_i^p\right)^{1/p} et la dernière de l'équivalence des normes \|.\|_p et \|.\|_2 dans \R^d.

Pour la deuxième inégalité : \|\nabla u\|_{L^p}\leq D \sum_{i=1}^d\|\dfrac{\partial u}{\partial x_i}\|_{L^p} :
\begin{array}{rl}
 \\ \left(\int |\nabla u|^p dx\right)^{1/p} & = \left(\int \left[ \sum_{i=1}^d \left|\dfrac{\partial u}{\partial x_i}(x)\right|^2 \right]^{p/2}dx \right)^{1/p} \\
 \\ & \leq d^{1/2q}\left( \int\left(\sum_{i=1}^d \left|\dfrac{\partial u}{\partial x_i}(x) \right|^{2p} \right)^{1/2} dx \right)^{1/p} \\
 \\ & \leq d^{1/2q} \left(\int \sum_{i=1}^d \left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx\right)^{1/p} \\
 \\ & = d^{1/2q} \left(\sum_{i=1}^d \int \left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx\right)^{1/p} = d^{1/2q} \left(\sum_{i=1}^d \left\|\dfrac{\partial u}{\partial x_i}\right\|_{L^p}^p\right)^{1/p}\\
 \\ & \leq d^{1/2q}C \sum_{i=1}^d \left\|\dfrac{\partial u}{\partial x_i}\right\|_{L^p} = D\sum_{i=1}^d \left\|\dfrac{\partial u}{\partial x_i}\right\|_{L^p}
 \\ \end{array}
où le première inégalité provient de Holder à nouveau, puis la deuxième du fait que la racine carré d'une somme est plus petite que la somme des racines carré puis la dernière provient encore de l'équivalence des normes \|.\|_1 et \|.\|_p dans \R^d.

Il y a peut-être des erreurs, je te laisse vérifier mes calculs.

Posté par
Tonm
re : Norme du gradient 31-07-14 à 16:36

Merci en 1 heure je vous donnerai ma démo. Cordialement

Posté par
Tonm
re : Norme du gradient 31-07-14 à 17:39

salut vous etes d'accord avec moi que si on demontre l'existence de C et D tel que   \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}\leq C\|\nabla u\|_{L^p} et  \|\nabla u\|_{L^p}\leq D \sum_{i=1}^d\|\dfrac{\partial u}{\partial x_i}\|_{L^p} alors ||u||_{W^{1,p}}=||u||_{L^p} +(||\nabla u||_{L^p} =\left(\int |\nabla u(x)|^pdx\right)^{1/p}) et  la norme ||u||_{W^{1,p}}=||u||_{L^p} + \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}. 
 \\  \\ sont equivalente et c'est ce que suggere
(sans dire )le cours Notes de cours
ANALYSE FONCTIONNELLE
Guillaume CARLIER
ENS, 2009-2010

c'est presque comme vous avez raisonnez mais essayons:
 \|\nabla u\|_{L^p}\leq D \sum_{i=1}^d\|\dfrac{\partial u}{\partial x_i}\|_{L^p} :
\left(\int |\nabla u(x)|_2^p\right)^{1/p}\leq C\left(\int |\nabla u(x)|_p^p\right)^{1/p}=\left C( \sum_{i=1}^d\left \int \left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx\right)^{1/p} \leq D \sum_{i=1}^d\left (\int \left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx\right)^{1/p}
car p\ge 1
pour l'autre .......

Posté par
Tonm
re : Norme du gradient 31-07-14 à 17:58

 \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}\leq C\|\nabla u\|_{L^p}on a :
\left(\sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}\right)^p\leq  D \sum_{i=1}^d\left (\int \left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx\right)^{p/p}=D \sum_{i=1}^d\left (\int \left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx\right)\leq\\   \\
 \\ D \left (\int \left\sum_{i=1}^d\left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx\right)=D\left (\int |\nabla u(x)|_p^pdx\right)\leq C\left (\int |\nabla u(x)|_2^pdx\right)
 \\
et on a
 \sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}\leq C\|\nabla u\|_{L^p}

Posté par
Narhm
re : Norme du gradient 31-07-14 à 18:03

C'est exactement le raisonnement que j'ai proposé juste avant sauf que j'explicite d'où viennent les constantes ...

Si tu es d'accord avec mes calculs, cela montre que les deux normes dont on parle depuis le début sont équivalentes. Est-ce qu'on est d'accord ou tu cherches encore autre chose ?

Posté par
Tonm
re : Norme du gradient 31-07-14 à 18:08

non c'est ca mais juste j'ai pas utiliser holder!

Posté par
Tonm
re : Norme du gradient 31-07-14 à 18:15

et 
 \\ \left(\sum_{i=1}^d \|\dfrac{\partial u}{\partial x_i}\|_{L^p}\right)^p\leq  D \sum_{i=1}^d\left (\int \left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx\right)^{p/p}=D \sum_{i=1}^d\left (\int \left|\dfrac{\partial u}{\partial x_i}(x)\right|^p dx\right)cela est  vrai vue qu'on peut demontrer  Pour n∈N et r_i\ge 0 réel, l'existence de C tel que  \left( \sum_{i=1}^d r_i \right)^n \leq C \sum_{i=1}^n r_i^n
 \\ /

Posté par
Narhm
re : Norme du gradient 31-07-14 à 18:20

L'inégalité que tu emploies:

Citation :
 \left( \sum_{i=1}^d r_i \right)^n \leq C \sum_{i=1}^d r_i^n
peut aussi se réécrire sous la forme
 \sum_{i=1}^d r_i \leq C^{1/n} \left(\sum_{i=1}^d r_i^n\right)^{1/n}
qui est exactement celle que j'utilise dans mon poste de 13h03, elle-même cas particulier de l'inégalité de Hölder.

Ou veux-tu en venir au final ?

Posté par
Tonm
re : Norme du gradient 31-07-14 à 18:25

l'inégalité de HOLDER :
 \\ 
 \\ \sum_{k=1}^n |x_k \ y_k| \leq \left( \sum_{k=1}^n |x_k|^p \right)^{1/p} \left( \sum_{k=1}^n |y_k|^q \right)^{1/q}. on peut s'arranger ?

Posté par
Tonm
re : Norme du gradient 31-07-14 à 18:27

on peut s'arranger c'etait HOLDER DU DEBUT merci pour votre temps

Posté par
Narhm
re : Norme du gradient 31-07-14 à 18:30

S'arranger pour faire quoi ?

Désolé Tonm, mais je ne te suis pas vraiment. Je ne comprends pas ce que tu cherches à faire. J'ai répondu à ta question (oui les normes sont équivalentes), j'ai donné les détails des calculs, que cherches-tu, toi, à faire ?

Ps: ce n'est pas C^{1/n} plus haut dans mon message mais C^{1/m}m est l'exposant conjugué de n.

Posté par
Tonm
re : Norme du gradient 31-07-14 à 18:35

rien du tout



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1736 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !