Eclats de vers : Matemat : Normes

Index mathématique

Retour à l’accueil

Table des matières

\( \newenvironment{Eqts} { \begin{equation*} \begin{gathered} } { \end{gathered} \end{equation*} } \newenvironment{Matrix} {\left[ \begin{array}} {\end{array} \right]} \)

\label{chap:norme}

1. Dépendances

  • Chapitre \ref{chap:distance} : Les distances
  • Chapitre \ref{chap:vecteur} : Les espaces vectoriels

2. Définition

Soit un corps \(\corps\) muni d'un ordre \(\le\) et \(E\) un espace vectoriel sur \(\corps\). Une norme \(\norme{.} : E \to \setR\) est intuitivement la « grandeur » d'un vecteur \(u \in E\). Cette grandeur correspond à la distance séparant le vecteur nul de \(u\) :

\[\norme{u} \equiv \distance(u,0)\]

Soit \(u,v,w \in E\).

Comme \(\distance(u,0) \ge 0\), on impose par analogie que :

\[\norme{u} \ge 0\]

De plus, le seul vecteur \(u\) de \(E\) vérifiant :

\[\norme{u} = 0\]

implique que notre distance équivalente \(\distance(u,0) = 0\) soit nulle, ce qui n'est possible que si \(u = 0\). Lorsqu'on fait référence à ces conditions, on dit que la norme est strictement définie positive.

Considérons à présent l'inégalité triangulaire :

\[\distance(0 , u + v) \le \distance(0,u) + \distance(u , u + v)\]

Comment faire correspondre \(\distance(u , u + v)\) à une norme ? En demandant simplement que notre distance particulière soit invariante sous translation de \(u\) :

\[\distance(u , u + v) = \distance(u - u , u + v - u) = \distance(0,v) \equiv \norme{v}\]

On impose donc l'inégalité triangulaire :

\[\distance(0 , u + v) \le \distance(0,u) + \distance(0 , v)\]

qui devient :

\[\norme{u + v} \le \norme{u} + \norme{v}\]

Par ailleurs, lorsqu'on allonge ou réduit un vecteur \(u\) d'un facteur \(\alpha \in \corps\), la distance parcourue sur \(u\) devra être allongée ou réduite par la valeur absolue de \(\alpha\) :

\[\norme{\alpha \cdot u} = \abs{\alpha} \cdot \norme{u}\]

La liste des propriétés d’une norme s’écrit donc :

\[ \norme{u} \ge 0 \]

\[ \norme{u} = 0 \quad \Rightarrow \quad u = 0 \]

\[\norme{u + v} \le \norme{u} + \norme{v}\]

\[\norme{\alpha \cdot u} = \abs{\alpha} \cdot \norme{u}\]

3. Borne inférieure

On déduit de la définition que :

\[\norme{-x} = \norme{(-1) \cdot x} = \abs{-1} \cdot \norme{x} = \norme{x}\]

En posant \(z = x + y\), on a :

\[\norme{z} \le \norme{x} + \norme{y} = \norme{x} + \norme{z-x}\]

c'est-à-dire :

\[\norme{z - x} \ge \norme{z} - \norme{x}\]

Mais comme \(\norme{z-x} = \norme{(-1) \cdot (z-x)} = \norme{x-z}\), la propriété vaut également en interchangeant \(z\) et \(x\), et on obtient :

\[\norme{z - x} \ge \max\{ \norme{z} - \norme{x}, \norme{x} -\norme{z} \}\]

4. Distance associée

On peut associer une distance \(\distance\) à une norme \(\norme{.}\) en posant :

\[\distance(x,y) = \norme{x - y}\]

En effet :

  • \(\distance(x,x) = \norme{x - x} = \norme{0} = 0\)
  • si \(\distance(x,y) = 0 = \norme{x-y}\), on a forcément \(x - y = 0\) et donc \(x = y\)
  • \(\distance(x,y) = \norme{x-y} = \norme{y-x} = \distance(y,x)\)
  • \(\distance(x,y) + \distance(y,z) = \norme{x-y} + \norme{y-z} \ge \norme{x-y+y-z} = \norme{x-z} = \distance(x,z)\)

5. Normalisation

On peut toujours normaliser un vecteur \(w \ne 0\) pour obtenir un vecteur \(u\) de norme \(1\). Comme \(\norme{w} \ne 0\), on peut écrire :

\[u = \frac{w}{\norme{w}}\]

On a alors :

\[\norme{u} = \norme{ \frac{w}{\norme{w}} } = \unsur{\norme{w}} \cdot \norme{w} = 1\]

Auteur: chimay

Created: 2025-11-30 dim 13:45

Validate