Matrice définie positive

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}
Révision datée du 14 septembre 2022 à 12:00 par >Dbontempsuniv (→‎Propriétés : J'ai supprimé la phrase "Plus généralement, l'indice d'une matrice symétrique réelle est égal au nombre de changements de signes dans la suite de ses n+1 mineurs principaux (en incluant det(A0)=1 ), sous réserve que tous soient non nuls.", qui était tout simplement fausse : il faut prendre un max sur toutes les permutations, puis le diviser par 2... Voir par exemple les matrices diag(1,1, -1,-1) et diag(-1,1,-1,1), dont l'indice est 2 dans les deux cas.)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

En algèbre linéaire, une matrice définie positive est une matrice positive inversible.

Définitions

Notations

Soit <math>A</math> une matrice à éléments réels ou complexes, par la suite on notera :

Matrice symétrique réelle définie positive

Soit <math>M</math> une matrice symétrique réelle d'ordre <math>n</math>. Elle est dite définie positive si elle est positive et inversible, autrement dit si elle vérifie l'une des quatre propriétés équivalentes suivantes :

  1. Pour toute matrice colonne non nulle <math>\textbf{x}</math> à <math>n</math> éléments réels, on a : Modèle:Retrait Autrement dit, la forme quadratique définie par <math>M</math> est strictement positive pour <math>\mathbf{x} \neq 0</math>.
  2. Toutes les valeurs propres de <math>M</math> (qui sont nécessairement réelles) sont strictement positives.
  3. La forme bilinéaire symétrique Modèle:Retrait est un produit scalaire sur <math>\R^n</math>.
  4. Il existe une matrice <math>N \in \mathcal{M}_n( \R )</math> inversible telle que <math>M = N^\mathsf{T} \, N</math> (autrement dit : <math>M</math> est congruente à la matrice identité).

Modèle:Ancre Une matrice symétrique réelle est dite définie négative si son opposée (symétrique elle aussi) est définie positive.

La caractérisation 4 ci-dessus peut se justifier ainsi :

  • pour toute matrice carrée réelle <math>N</math>, telle que son noyau se réduit au singleton 0, la matrice symétrique <math>N^\mathsf{T} \, N</math> est positive ;
  • réciproquement, toute matrice réelle symétrique positive est de cette forme (la matrice <math>N</math> n'est pas unique ; elle l'est si l'on impose qu'elle soit elle-même positive) ;
  • or si <math>M = N^\mathsf{T} \, N</math> (avec <math>N</math> carrée) alors <math>M</math> est inversible si et seulement si <math>N</math> l'est.

Elle permet de montrer que la matrice de Gram d'une famille de <math>n</math> vecteurs d'un espace préhilbertien (réel ou complexe) est définie positive si et seulement si la famille est libre. Par exemple, toute matrice de Hilbert est définie positive.

Matrice hermitienne définie positive

On étend les propriétés et définitions précédentes aux matrices complexes.

Soit <math>M</math> une matrice carrée complexe d'ordre <math>n</math>. Elle est dite définie positive si elle vérifie l'une des quatre propriétés équivalentes suivantes :

  1. Pour toute matrice colonne non nulle <math>\textbf{z}</math> à <math>n</math> éléments complexes, le nombre complexe <math>\textbf{z}^* M \textbf{z}</math> est un réel strictement positif.
  2. <math>M</math> est hermitienne et toutes ses valeurs propres sont strictement positives.
  3. La forme sesquilinéaireModèle:Retraitest un produit scalaire sur <math>\Complex^n</math> (au sens : forme hermitienne définie positive).
  4. Il existe une matrice <math>N \in \mathcal{M}_n(\Complex)</math> inversible telle que <math>M = N^* \, N</math>.

Une matrice <math>M</math> est dite définie négative si son opposée est définie positive.

Intérêt des matrices définies positives

Beaucoup de problèmes de résolution de systèmes linéaires les plus faciles à traiter numériquement sont ceux dont les matrices sont symétriques définies positives<ref>Modèle:Ouvrage.</ref> : on dispose d'algorithmes numériquement stables et rapides pour l'inversion<ref>Modèle:Lien web.</ref> et la diagonalisation des matrices définies positives.

Toute matrice symétrique réelle positive est limite d'une suite de matrices symétriques réelles définies positives, ce qui est à la base de nombreux raisonnements par densité<ref>Modèle:Ouvrage.</ref>.

Propriétés et critères

Propriétés

  • La matrice inverse d'une matrice définie positive est définie positive.
  • Si <math>M</math> est définie positive et si <math>r</math> est un réel strictement positif, alors <math>rM</math> est définie positive.
  • Si <math>M</math> et <math>N</math> sont positives et si l'une des deux est inversible, alors <math>M + N</math> est définie positive.
  • Une matrice positive est définie positive si et seulement si sa racine carrée positive est inversible. Cette propriété est utilisée pour la décomposition polaire Modèle:Infra.
  • Inégalité de Hadamard : le déterminant d'une matrice définie positive est inférieur ou égal au produit de ses éléments diagonaux.

Critère de Sylvester

Pour qu'une matrice <math>A = \left(a_{ij}\right)_{1\leqslant i,j\leqslant n}</math>, réelle symétrique ou complexe hermitienne, soit définie positive, il faut et suffit que les <math>n</math> matrices <math>A_p=\left(a_{ij}\right)_{1\leqslant i,j\leqslant p}</math> pour <math>p</math> de 1 à <math>n</math>, aient leur déterminant strictement positif, autrement dit que les <math>n</math> mineurs principaux dominants soient strictement positifs.

Remarques
  • Pour <math>n = 2</math>, le critère de Sylvester est essentiellement le critère de positivité du trinôme du second degré.
  • En fait, sur un corps (commutatif) quelconque, cette condition de non-nullité des mineurs principaux est une condition nécessaire et suffisante pour qu'il existe une matrice <math>Q</math> triangulaire supérieure telle que <math>Q^\mathsf{T}AQ</math> soit diagonale et de rang maximum (il suffit d'adapter la démonstration qui suit).

Modèle:Démonstration/début

Notons <math>q</math> la forme quadratique associée à <math>A</math>, définie par <math>q(\mathbf{x}) = \sum_{1\leqslant i,j \leqslant n}a_{ij}x_ix_j</math>.

La condition est nécessaire. On remarque d'abord que si <math>q</math> est définie positive, alors <math>\det(A) > 0</math>. En effet, par rapport à une base orthogonale pour cette forme quadratique (il en existe, d'après la réduction de Gauss), la matrice de <math>q</math> s'écrit <math>\mathrm{diag}(c_1, \cdots ,c_n)</math> les <math>c_i</math> étant tous strictement positifs. Alors <math>c_1 \cdots c_n=(\det A)(\det Q)^2</math> (<math>Q</math> étant la matrice de passage), donc <math>\det A>0</math>. Le résultat s'ensuit, en appliquant le même raisonnement à la restriction de <math>q</math> aux sous-espaces <math>\R^k\times\{0\}^{n-k}</math>, pour <math>1\leqslant k\leqslant n-1</math>.

Montrons maintenant que la condition est suffisante. On procède par récurrence sur la dimension.

Pour <math>n = 0</math> c'est évident puisqu'en dimension 0 l'ensemble des vecteurs non nuls est vide. Supposons la propriété vraie pour <math>n - 1</math> et notons <math>E=\R^{n-1}\times\{0\}</math>. Par hypothèse de récurrence, <math>q_{\vert E}</math> est définie positive. De plus, <math>q</math> est non dégénérée (parce que le déterminant de <math>A</math> est non nul) donc :

<math>\,\R^n=E\oplus E^{\perp} \quad \textrm{avec} \quad \dim E^{\perp}=1</math>

Soient <math>e</math> un vecteur non nul de <math>E^{\perp}</math> et <math>a=q(e)</math>. Alors <math>\det A </math> et <math>a\det A_{n-1} </math> ont même signe d'après le même argument que dans la première partie (qui met implicitement en jeu le discriminant), or par hypothèse <math>\det A</math> et <math>\det A_{n-1}</math> sont strictement positifs. Donc <math>a>0</math>, si bien que la restriction de <math>q</math> à <math>E^\perp</math> est, elle aussi, définie positive, ce qui montre que <math>q</math> est définie positive.

Modèle:Démonstration/fin

Dans le cas complexe, plus général, la preuve est analogue, en considérant la forme hermitienne définie par la matrice.

Une autre méthode est d'utiliser le théorème d'entrelacement de Cauchy<ref>Modèle:Ouvrage.</ref>.

Décomposition polaire

Modèle:Voir

  • Toute matrice inversible réelle se décompose de façon unique en produit d'une matrice orthogonale et d'une matrice symétrique définie positive.
  • Toute matrice inversible complexe se décompose de façon unique en produit d'une matrice unitaire et d'une matrice hermitienne définie positive.

La notion de matrice définie positive est donc analogue à celle de nombre réel strictement positif dans la forme polaire d'un nombre complexe.

Notes et références

Modèle:Références

Articles connexes

Modèle:Palette

Modèle:Portail

de:Definitheit#Definitheit von Matrizen