Matrice inversible

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}
Révision datée du 25 avril 2023 à 11:23 par >Pautard (étant donné)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Modèle:Voir homonymes En mathématiques et plus particulièrement en algèbre linéaire, une matrice inversible (ou régulière ou encore non singulière) est une matrice carrée Modèle:Mvar pour laquelle il existe une matrice Modèle:Mvar de même taille Modèle:Mvar avec laquelle les produits Modèle:Math et Modèle:Math sont égaux à la matrice identité.

<math>AB = BA = I_n</math>

Dans ce cas la matrice Modèle:Mvar est unique, appelée matrice inverse de Modèle:Mvar et notée Modèle:Math.

Cette définition correspond à celle d’élément inversible pour la multiplication dans l’anneau des matrices carrées associé<ref>Il y a différents ensembles de matrices carrées, selon la dimension et l’ensemble de coefficients choisi. Une même matrice à coefficients entiers par exemple peut être inversible dans <math>\mathcal M_n(\R)</math> sans l’être dans <math>\mathcal M_n(\Z)</math>.</ref>.

Si les coefficients d’une matrice carrée sont pris dans un anneau commutatif Modèle:Mvar, cette matrice est inversible si et seulement si elle représente un isomorphisme de Modèle:Math, ce qui se traduit par un déterminant inversible. En particulier, si Modèle:Mvar est un corps commutatif tel que [[nombre réel|Modèle:Math]] ou [[nombre complexe|Modèle:Math]], l’inversibilité est caractérisée par un déterminant non nul, mais aussi par la maximalité du rang ou d’autres propriétés de l’endomorphisme représenté. Diverses conditions plus simples peuvent s’appliquer sur certaines classes de matrices.

L’algorithme du pivot de Gauss permet un calcul exact de l’inverse mais peu robuste aux propagations d’erreurs lorsque la taille de la matrice devient trop importante. D’autres algorithmes se révèlent préférables en pratique pour une approximation de l’inverse.

Dans l’ensemble <math>\mathcal M_n(K)</math> des matrices carrées de taille Modèle:Mvar à coefficients dans un anneau Modèle:Mvar, l’ensemble des matrices inversibles forme un groupe multiplicatif, appelé groupe général linéaire et noté <math>\mathcal{GL}_n(K)</math>.

La notion de matrice inverse est généralisée par celle de pseudo-inverse et en particulier les inverses à gauche ou à droite.

Inversibilité

Contexte

{{exemple encadré|contenu=<math>\left(\begin{matrix}2&-1\\ -6&3\end{matrix}\right)\left(\begin{matrix}1&2\\ 1&1\end{matrix}\right) = \left(\begin{matrix}1&3\\ -3&-9\end{matrix}\right) = \left(\begin{matrix}2&-1\\ -6&3\end{matrix}\right)\left(\begin{matrix}0&1\\ -1&-1\end{matrix}\right)</math>|légende=Deux matrices différentes ayant le même produit avec une même troisième}}

Contrairement à la multiplication dans le corps des réels ou celui des complexes, la multiplication matricielle (même par une matrice non nulle) n’est pas toujours une opération réversible (on dit que cette loi de composition n’est pas régulière), au sens où l’égalité de deux produits Modèle:Math n’implique pas forcément l’égalité Modèle:Math.

De même, connaissant une matrice Modèle:Mvar et une matrice Modèle:Mvar, l’équation Modèle:Math ne peut se résoudre en divisant les deux membres de l’égalité par la matrice Modèle:Mvar.

L’existence d’une matrice inverse Modèle:Math permet de résoudre ces deux problèmes, par l’équivalence suivante :

<math>AX = Y \iff X = A^{-1}Y</math>.

Ainsi toute matrice inversible est simplifiable pour la multiplication à gauche ou à droite.

Cependant, la résolution d’une équation matricielle de la forme Modèle:Math, éventuellement donnée sous forme de système d'équations linéaires, ne se traite pas systématiquement par la détermination d’une matrice inverse pour Modèle:Mvar. Des méthodes de décomposition comme la décomposition LU sont beaucoup plus rapides que l'inversion.

Représentation d’un isomorphisme et déterminant

Toute matrice Modèle:Math à coefficients dans un anneau commutatif Modèle:Mvar définit un unique endomorphisme de module (voire d’espace vectoriel) sur Modèle:Math :

<math>(x_1, \dots, x_n) \mapsto \left(\sum_{j=1}^n a_{i,j} x_j\right)_{1\le i\le n}</math>

et réciproquement, tout endomorphisme sur Modèle:Math peut être obtenu de la sorte à partir d’une unique matrice de <math>\mathcal M_n(K)</math>.

En particulier, la matrice identité est associée à l’application identité. Et comme la multiplication matricielle se traduit par la composition des applications associées (dans le même ordre), on en déduit que l’existence d’une matrice inverse est équivalente au fait que l’application associée soit un automorphisme. Ce résultat repose en partie sur la propriété fondamentale que la réciproque d’un isomorphisme de modules est aussi un isomorphisme.

La multiplicativité du déterminant appliquée à une matrice inversible Modèle:Mvar permet d’écrire

<math>\det(A) \times \det(A^{-1}) = \det(I_n) = 1</math>

donc le déterminant d’une matrice inversible est nécessairement inversible dans l’anneau des coefficients.

Réciproquement, le produit d’une matrice avec la transposée de sa comatrice donne la formule de Laplace

<math>A \times\ ^{\mathrm t}\!\mathrm{com}(A) = \det(A).I_n</math>

donc dès lors que le déterminant est inversible dans l’anneau des coefficients, la matrice Modèle:Math est une inverse pour Modèle:Mvar.

En particulier, une matrice à coefficients entiers admet une inverse à coefficients entiers si et seulement si son déterminant vaut 1 ou −1.

Cas des coefficients dans un corps

Caractérisations

Soit A une matrice carrée d'ordre n à coefficients dans un corps commutatif K (par exemple le corps ℝ des réels). Les propositions suivantes sont équivalentes (on note X une matrice colonne à n éléments dans K)<ref>Voir par exemple Modèle:Ouvrage, ou le chapitre sur l'inverse, dans la leçon de Wikiversité sur les matrices Modèle:Infra.</ref> :

  • A est inversible,
  • le déterminant de A est non nul ;
  • A possède n pivots ;
  • 0 n'est pas valeur propre de A ;
  • le rang de A est égal à n ;
  • le système linéaire homogène AX = 0 a pour seule solution X = 0 ;
  • pour tout b dans Mn,1(K), le système linéaire AX = b a au plus une solution ;
  • pour tout b dans Mn,1(K), le système linéaire AX = b a au moins une solution ;
  • les colonnes de A, considérées comme des vecteurs de Kn, sont linéairement indépendantes ;
  • les colonnes de A, considérées comme des vecteurs de Kn, engendrent Kn ;
  • l'endomorphisme canoniquement associé à A (c’est-à-dire l'application linéaire de Kn dans lui-même qui a pour matrice A dans la base canonique) est injectif ;
  • l'endomorphisme canoniquement associé à A est surjectif ;
  • la matrice A est inversible à gauche, c'est-à-dire qu'il existe une matrice B carrée d'ordre n telle que BA = In ;
  • la matrice A est inversible à droite, c'est-à-dire qu'il existe une matrice B carrée d'ordre n telle que AB = In ;
  • la transposée tA de A est inversible ;
  • il existe un polynôme annulateur de A dont 0 n'est pas racine ;
  • 0 n'est pas racine du polynôme minimal de A ;
  • A est équivalente à la matrice identité In d'ordre n.

Cas particuliers

Lorsque l’ensemble des coefficients est un corps, une matrice triangulaire (supérieure ou inférieure) est inversible si et seulement si tous ses coefficients diagonaux sont non nuls.

Une matrice réelle dont toutes les colonnes sont orthogonales deux à deux est inversible si et seulement si elle n’a aucune colonne nulle.

Un produit de deux matrices carrées est inversible si et seulement si les deux matrices en facteur le sont aussi.

Les matrices de permutation, transvection, symétrie ou rotation et les matrices de passage sont toujours inversibles.

La matrice de variance-covariance d’une famille Modèle:Math de variables aléatoires réelles est inversible sauf s’il existe une relation affine presque sûre entre ces variables.

La matrice compagnon d’un polynôme est inversible si et seulement si ce polynôme a un coefficient constant non nul.

Autres ensembles de coefficients

Pour des matrices à coefficients dans un anneau non commutatif, voire dans un semi-anneau, la détermination de l’inversibilité ne peut plus s’appuyer sur la notion de déterminant.

L’ensemble <math>\mathcal M_n(\H)</math> des matrices carrées de quaternions se plonge naturellement comme sous-algèbre dans l’ensemble <math>\mathcal M_{2n}(\C)</math> des matrices complexes de taille double, sur lequel le déterminant induit alors une fonction complexe dont l’annulation caractérise les matrices singulières. L’existence d’une inverse à gauche est encore équivalente à celle d’une inverse à droite (et ces deux inverses coïncident)<ref>Fuzhen Zhang, Quaternions and Matrices of Quaternions, Linear Algebra and its Applications 251:21–57 (1997).</ref>.

Avec des coefficients booléens, munis des lois de composition interne OU et ET, les seules matrices inversibles sont les matrices de permutation, dont l’inverse égale à la transposée<ref>D. E. Rutherford, Inverses of Boolean matrices, Glasgow Mathematical Journal, Volume 6:1, janvier 1963, p. 49–53, DOI: https://doi.org/10.1017/S2040618500034705.</ref>.

Inversion

Modèle:Article détaillé De multiples méthodes permettent de déterminer l’inverse d’une matrice.

Résolution de système

Étant donné une matrice carrée Modèle:Mvar de taille Modèle:Mvar, la détermination d’une matrice Modèle:Mvar satisfaisant la relation Modèle:Math peut s’exprimer par un système avec Modèle:Math équations linéaires et autant d’inconnues.

Cependant, même pour de faibles valeurs de Modèle:Mvar, il est beaucoup plus simple de résoudre un système traduisant l’égalité Modèle:MathModèle:Mvar est une matrice colonne de Modèle:Mvar inconnues et Modèle:Mvar est une matrice colonne de Modèle:Mvar paramètres littéraux. L’expression des inconnues en fonction des paramètres s’écrit sous forme matricielle Modèle:Math et la matrice Modèle:Mvar ainsi définie est la matrice inverse de Modèle:Mvar.

La résolution de ces systèmes s’appuie en général sur le processus d’élimination de Gauss-Jordan, aussi appelé algorithme du pivot de Gauss.

Méthode des cofacteurs

Modèle:Article détaillé Si le déterminant d'une matrice Modèle:Math (à coefficients dans un corps commutatif) est non nul, alors Modèle:Math est inversible, son inverse étant donnée par :

<math>A^{-1}=\frac1{\det A} \,^{\operatorname t}\!{{\rm com} A}</math>

Modèle:Math est la transposée de la comatrice de Modèle:Math. En effet (cf. article détaillé), toute matrice carrée Modèle:Math d'ordre Modèle:Math vérifie :

<math>A\;{}^{\operatorname t}\!\left(\operatorname{com}A\right)={}^{\operatorname t}\!\left(\operatorname{com}A\right)\;A=\det(A)\;\mathrm I_n</math>.

Cette écriture permet un calcul aisé de l'inverse d'une matrice de petite dimension. Pour des matrices de plus grande dimension, cette méthode essentiellement récursive devient inefficace.

Inversion des matrices 2×2

L'équation des cofacteurs ci-dessus permet de calculer l'inverse des matrices de dimensions 2×2 : si Modèle:Math,

<math>

A = \begin{pmatrix} a & b \\ c & d \end{pmatrix},\ \operatorname{com}A = \begin{pmatrix} d & -c \\ -b & a \end{pmatrix},\ ^{\operatorname t}\!\operatorname{com}A= \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}</math>,

<math>

A^{-1} = \begin{pmatrix} a & b \\ c & d \end{pmatrix}^{-1} = \frac1{ad - bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}</math>.

Exemple
<math>\begin{pmatrix}

1 & 2 \\ 3 & 4 \\ \end{pmatrix}^{-1} = \frac1{-2} \begin{pmatrix} 4 & -2 \\ -3 & 1 \\ \end{pmatrix}</math>.

Inversion des matrices 3×3

De même, on obtient l'inverse d'une matrice <math>A = \begin{pmatrix} a & b & c\\ d & e & f \\ g & h & i \\ \end{pmatrix}</math> de dimension 3×3 en calculant son déterminant (par la règle de Sarrus, par exemple) :

<math> \det A = aei + bfg+cdh - ceg-fha-ibd, \ </math>

puis en utilisant la formule :

<math>

A^{-1} = \begin{pmatrix} a & b & c\\ d & e & f \\ g & h & i \\ \end{pmatrix}^{-1}=\frac1{\det A}^{\operatorname t}\!\begin{pmatrix} ei - fh & fg - di & dh - eg \\ ch - bi & ai - cg & bg - ah \\ bf - ce & cd - af & ae - bd \end{pmatrix}= \frac1{\det A} \begin{pmatrix} ei - fh & ch - bi & bf - ce\\ fg - di & ai - cg & cd - af\\ dh - eg & bg - ah & ae - bd \end{pmatrix} </math>.

Polynôme annulateur

Si une matrice carrée Modèle:Mvar possède un polynôme annulateur à coefficients dans un corps commutatif et de terme constant non nul, alors elle est inversible : pour tout polynôme Modèle:Retrait on a<ref>Modèle:Ouvrage.</ref>,<ref>Modèle:Ouvrage.</ref> Modèle:Retrait avec (pour k = 1) A0 = In, où n est l'ordre de la matrice carrée A.

Réciproquement, si A est inversible, alors il existe de tels polynômes :

  • le polynôme caractéristique PA(X) = det(XIn – A) est un polynôme annulateur de A d'après le théorème de Cayley-Hamilton, or son terme constant PA(0) = (–1)ndet(A) est non nul si (et seulement si) A est inversible ;
  • le polynôme minimal de A est de degré inférieur ou égal au degré n de PA. Ses racines sont, comme pour PA, les valeurs propres de A. Son terme constant est donc non nul si (et seulement si) 0 n'est pas valeur propre, c'est-à-dire si A est inversible.

Inversion par bloc

Modèle:Article détaillé L'inverse d'une matrice peut également être calculée par blocs, en utilisant la formule analytique suivante :

<math>\begin{pmatrix} A & B \\ C & D \end{pmatrix}^{-1} =

\begin{pmatrix} A^{-1}+A^{-1}B(D-CA^{-1}B)^{-1}CA^{-1} & -A^{-1}B(D-CA^{-1}B)^{-1} \\ -(D-CA^{-1}B)^{-1}CA^{-1} & (D-CA^{-1}B)^{-1} \end{pmatrix}= \begin{bmatrix} A^{-1} & 0 \\ 0 & 0 \end{bmatrix}+\begin{bmatrix} -A^{-1}B \\ I \end{bmatrix}(D-CA^{-1}B)^{-1}\begin{bmatrix} -CA^{-1}& I \end{bmatrix},</math> où Modèle:Mvar, Modèle:Mvar, Modèle:Mvar et Modèle:Mvar sont des blocs de taille arbitraire, sous réserve que Modèle:Mvar soit inversible ainsi que son complément de Schur Modèle:Math. Cette méthode peut se révéler avantageuse, par exemple, si Modèle:Mvar est diagonale et si son complément Modèle:Math est une matrice de petite dimension, puisque ce sont les seules matrices à inverser.

Cette technique a été inventée par Volker Strassen, connu également pour l'algorithme de Strassen sur le produit matriciel rapide.

Si Modèle:Mvar est inversible ainsi que son complément Modèle:Math, on a la formule duale :

<math>\begin{pmatrix}A&B\\C&D\end{pmatrix}^{-1}=\begin{pmatrix}\left(A-B D^{-1}C\right)^{-1}&-\left(A-B D^{-1}C\right)^{-1} BD^{-1}\\-D^{-1}C\left(A-B D^{-1}C\right)^{-1}&D^{-1}+D^{-1}C\left(A-BD^{-1}C \right)^{-1}BD^{-1}\end{pmatrix}</math>.

(Si les matrices Modèle:Mvar et Modèle:Mvar sont toutes deux inversibles ainsi que leurs compléments, on peut combiner ces deux formules en choisissant, pour chacun des quatre blocs de la matrice inverse, l'une des deux expressions fournies.)

Cette relation permet de montrer que la complexité algorithmique de l'inversion de matrice est la même que celle du produit matriciel<ref name="Cormen">Modèle:Ouvrage </ref>.

Factorisation LU

Modèle:Loupe

Groupe des matrices inversibles

Les matrices carrées d'ordre n à coefficients dans un anneau K forment un anneau, noté Mn(K). L'ensemble des matrices inversibles de Mn(K) forme donc un groupe pour la multiplication : le groupe des inversibles de Mn(K). On l'appelle groupe général linéaire et on le note habituellement GLn(K). Par conséquent :

  • la matrice inverse d'une matrice inversible A est elle-même inversible, et
    (A−1)−1 = A ;
  • le produit de deux matrices inversibles A et B (de même ordre) est une matrice inversible et son inverse est donné par la relation suivante
    (AB)−1 = B−1A−1 (différent en général de A−1B−1, sauf si A et B commutent, par exemple si A ou B est une matrice scalaire et si l'anneau K est commutatif).

Toute matrice qui commute avec une matrice inversible A commute aussi avec AModèle:-1.

En général, « presque toutes » les matrices carrées d'ordre n sont inversibles. Sur le corps des nombres réels, cela peut être formulé de façon plus précise : l'ensemble des matrices non inversibles, considéré comme sous-ensemble de <math>\R^{n\times n}</math>, est négligeable pour la mesure de Lebesgue. Intuitivement, cela signifie que si l'on choisit au hasard une matrice carrée d'ordre n à coefficients réels, la probabilité pour qu'elle ne soit pas inversible est nulle. La raison en est que les matrices non inversibles sont les racines (ou zéros) d'une fonction polynomiale donnée par le déterminant.

Dans l'ensemble des matrices carrées réelles ou complexes de taille fixée, le sous-ensemble des matrices inversibles est dense<ref>Modèle:Note autre projet</ref>.

Dérivée de l'inverse d'une application à valeurs matricielles

<math>\left(\frac 1 f\right)'(t)=-\frac{f'(t)}{f^2(t)}</math>.
<math>\forall A\in\mathrm{GL}_n(\R)\quad\forall H \in\mathrm M_n(\R)\quad\mathrm d\,\mathrm{inv}_A(H) = -A^{-1}HA^{-1}</math>.

Généralisations

Certaines des propriétés des matrices inverses sont aussi vérifiées par les matrices pseudo-inverses qui peuvent être définies pour n'importe quelle matrice, même pour celles qui ne sont pas carrées.

Même lorsque la matrice X n'est pas carrée, les matrices XX' et X'X (où X' est la matrice transposée de X) le sont. Si l'une de ces matrices est inversible, il est alors possible d'« inverser » X grâce à une multiplication à gauche par <math> (X'X)^{-1}</math>, ou une multiplication à droite par <math> (XX')^{-1}</math> ; dans ce cas, on a en effet

<math> \left((X'X)^{-1}X'\right)X=I \, </math> (inverse à gauche) ou
<math> X\left(X'(XX')^{-1}\right)=I</math> (inverse à droite).

Notes et références

Modèle:Références

Voir aussi

Modèle:Autres projets

Modèle:Palette Modèle:Portail