Matrice (mathématiques)

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}

Modèle:Bandeau homonymie Modèle:Voir homonymes

Fichier:Matrice.svg

En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire.

Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.

Historique

Histoire de la notion de matrice

Bien que le calcul matriciel proprement dit n'apparaisse qu'au début du Modèle:S mini- siècleModèle:Vérification siècle, les matrices, en tant que tableaux de nombres, ont une longue histoire d'applications à la résolution d'équations linéaires. Le texte chinois Les Neuf Chapitres sur l'art mathématique, écrit vers le Modèle:S mini- siècleModèle:Vérification siècle Modèle:Av JCModèle:Vérification siècle, est le premier exemple connu de l'utilisation de tableaux pour résoudre des systèmes d'équations<ref>Chapitre 8 : Fang cheng - La disposition rectangulaire : problèmes à plusieurs inconnues, résolus selon un principe similaire à l'élimination de Gauss.</ref>, introduisant même le concept de déterminant. En 1545, Jérôme Cardan fait connaître cette méthode en Europe en publiant son Ars Magna<ref name=":1">{{#invoke:Langue|indicationDeLangue}} Discrete Mathematics 4th Ed. Dossey, Otto, Spense, Vanden Eynden, Addison Wesley, 10 octobre 2001, Modèle:ISBN (pages 564-565).</ref>. Le mathématicien japonais Seki Kōwa utilise indépendamment les mêmes techniques pour résoudre des systèmes d'équations en 1683<ref>Modèle:Ouvrage.</ref>. Aux Pays-Bas, Johan de Witt représente des transformations géométriques à l'aide de tableaux dans son livre de 1659, Elementa curvarum linearum<ref name=":1"/>. Entre 1700 et 1710, Leibniz montre comment utiliser les tableaux pour noter des données ou des solutions, et expérimente plus de 50 systèmes de tableaux à cet effet<ref name=":1" />. En 1750, Gabriel Cramer publie la règle qui porte son nom<ref>Modèle:Ouvrage.</ref>.

En 1850, le terme de « matrix » (qui sera traduit par matrice) est forgé (sur la racine latine mater) par James Joseph Sylvester<ref>De nombreuses sources affirment qu'il l'aurait fait en 1848, mais Sylvester n'a rien publié cette année-là. (voir The Collected Mathematical Papers of James Joseph Sylvester (Cambridge, England: Cambridge University Press, 1904), vol. 1.). Sa première utilisation du terme Modèle:Langue, en 1850, figure dans Modèle:Langue, Modèle:Langue, 37 : 363-370. (1850), page 369 : Modèle:Citation étrangère.</ref>, qui le voit comme un objet donnant naissance à la famille de déterminants actuellement appelés mineurs, c'est-à-dire les déterminants des sous-matrices obtenues en retirant des lignes et des colonnes. Dans un article de 1851, Sylvester précise :

« Dans des articles antérieurs, j'ai appelé matrix un tableau rectangulaire de termes à partir desquels plusieurs systèmes de déterminants peuvent être engendrés, comme issus des entrailles d'un parent commun »<ref>Modèle:Citation étrangère dans Modèle:Langue, Article 37, p. 247.</ref>.

En 1854, Arthur Cayley publie un traité sur les transformations géométriques utilisant les matrices de façon beaucoup plus générale que tout ce qui a été fait avant lui. Il définit les opérations usuelles du calcul matriciel (addition, multiplication et division) et montre les propriétés d'associativité et de distributivité de la multiplication<ref name=":1" />. Jusque-là, l'utilisation des matrices s'était essentiellement limitée au calcul des déterminants ; cette approche abstraite des opérations sur les matrices est révolutionnaire. En 1858, Cayley publie son A Memoir on the Theory of Matrices<ref>Phil. Trans. 1858, vol. 148, pp. 17-37 Math. Papers II 475-496.</ref>,<ref>Modèle:Ouvrage.</ref>, dans lequel il énonce et démontre le théorème de Cayley-Hamilton<ref name=":1" /> pour les matrices 2×2.

Beaucoup de théorèmes ne sont d'ailleurs démontrés au début que pour de petites matrices : après Cauchy, Hamilton généralise le théorème aux matrices 4×4, et ce n'est qu'en 1898 que Frobenius, étudiant les formes bilinéaires, démontre le théorème en dimension quelconque. C'est aussi à la fin du Modèle:S mini- siècleModèle:Vérification siècle que Wilhelm Jordan établit la méthode d'élimination de Gauss-Jordan (généralisant la méthode de Gauss pour les matrices échelonnées). Au début du Modèle:S mini- siècleModèle:Vérification siècle, les matrices occupent une place centrale en algèbre linéaire<ref>Modèle:Ouvrage.</ref>, en partie grâce au rôle qu'elles jouent dans la classification des systèmes de nombres hypercomplexes du siècle précédent.

Un mathématicien anglais du nom de Cullis est le premier, en 1913, à utiliser la notation moderne des crochets (ou des parenthèses) pour représenter les matrices, ainsi que de la notation systématique Modèle:Math pour représenter la matrice dont Modèle:Math est le terme de la i-ème ligne et de la j-ème colonne<ref name=":1" />.

La formulation de la mécanique quantique au moyen de la mécanique matricielle, due à Heisenberg, Born et Jordan, amena à étudier des matrices comportant un nombre infini de lignes et de colonnes<ref>Modèle:Ouvrage.</ref>. Par la suite, von Neumann précisa les fondements mathématiques de la mécanique quantique, en remplaçant ces matrices par des opérateurs linéaires sur des espaces de Hilbert.

Histoire des déterminants

Modèle:Article détaillé L'étude théorique des déterminants vient de plusieurs sources<ref>Modèle:Ouvrage</ref>. Des problèmes de théorie des nombres amènent Gauss à relier à des matrices (ou plus précisément à leur déterminant) les coefficients d'une forme quadratique ainsi que les applications linéaires en dimension trois. Gotthold Eisenstein développe ces notions, remarquant en particulier qu'en notation moderne, le produit des matrices est non commutatif. Cauchy est le premier à démontrer des résultats généraux sur les déterminants, en utilisant comme définition du déterminant de la matrice Modèle:Math le résultat de la substitution, dans le polynôme <math>a_1 a_2 \cdots a_n \prod_{i < j} (a_j - a_i)\;</math>, des puissances Modèle:Mvar par Modèle:Mvar. Il montre aussi, en 1829, que les valeurs propres d'une matrice symétrique sont réelles<ref>Modèle:Ouvrage</ref>. Jacobi étudie les « déterminants fonctionnels » (appelés par la suite jacobiens par Sylvester), utilisés pour décrire des transformations géométriques d'un point de vue infinitésimal ; les livres Vorlesungen über die Theorie der Determinanten<ref>Modèle:Ouvrage</ref> de Leopold Kronecker et Zur Determinantentheorie<ref>Modèle:Ouvrage</ref> de Karl Weierstrass, tous deux publiés en 1903, définissent pour la première fois les déterminants de manière axiomatique comme formes multilinéaires alternées.

Autres utilisations mathématiques du mot « matrice »

Deux mathématiciens notables au moins ont utilisé le mot dans un sens inhabituel.

Bertrand Russell et Alfred North Whitehead, dans leur Principia Mathematica, utilisent le mot « matrice » dans le cadre de leur Modèle:Lien. Cet axiome permet de réduire le type d'une fonction, les fonctions de type 0 étant identiques à leur Modèle:Lien ; ils appellent « matrice » une fonction n'ayant que des variables libres<ref>« Let us give the name of matrix to any function, of however many variables, which does not involve any apparent variables. Then any possible function other than a matrix is derived from a matrix by means of generalization, i.e., by considering the proposition which asserts that the function in question is true with all possible values or with some value of one of the arguments, the other argument or arguments remaining undetermined » . Alfred North Whitehead et Bertrand Russell, Principia Mathematica to *56, Cambridge at the University Press, Cambridge UK (1913, réédition de 1962) voir p. 162.</ref>. Ainsi, par exemple, une fonction Modèle:Math de deux variables Modèle:Mvar et Modèle:Mvar peut être réduite à une collection de fonctions d'une seule variable, par exemple Modèle:Mvar, en « considérant » la fonction pour toutes les valeurs Modèle:Mvar substituées à la variable Modèle:Mvar puis réduite à une « matrice » de valeurs en procédant de même pour Modèle:Mvar : Modèle:Math.

Alfred Tarski, dans son Introduction à la logique de 1946, utilise le mot « matrice » comme un synonyme de table de vérité<ref>{{#invoke:Langue|indicationDeLangue}} Alfred Tarski, Introduction to Logic and the Methodology of Deductive Sciences, Dover Publications, Inc, New York NY, 1946 Modèle:ISBN. (lire en ligne)</ref>.

Définitions

Une matrice à Modèle:Mvar lignes et Modèle:Mvar colonnes est un tableau rectangulaire de Modèle:Math nombres, rangés ligne par ligne. Il y a Modèle:Mvar lignes, et dans chaque ligne Modèle:Mvar éléments.

Plus formellement et plus généralement, soient Modèle:Mvar, Modèle:Mvar et Modèle:Mvar trois ensembles (Modèle:Mvar sera souvent muni d'une structure d'anneau ou même de corps commutatif).

Une matrice de type Modèle:Math<ref>Voir Modèle:Ouvrage, qui parle aussi de « matrice vide » dans le cas où Modèle:Mvar ou Modèle:Mvar est l'ensemble vide.</ref> à coefficients dans Modèle:Mvar, est une famille d'éléments de Modèle:Mvar indexée par le produit cartésien Modèle:Math, c'est-à-dire une application Modèle:Mvar de Modèle:Math dans Modèle:Mvar. Son type (I,J) fait partie de la spécification de la matrice, mais pas l'ensemble Modèle:Mvar (par exemple une matrice à coefficients réels est aussi une matrice à coefficients complexes).

Le plus souvent, comme dans toute la suite de cet article, les ensembles Modèle:Mvar et Modèle:Mvar sont finis et sont respectivement les ensembles de nombres entiers Modèle:Math et Modèle:Math. Dans ce cas, on dit que la matrice a Modèle:Mvar lignes et Modèle:Mvar colonnes, ou qu'elle est de dimension ou taille Modèle:Math. En notant Modèle:Math l'image d'un couple Modèle:Math par l'application Modèle:Mvar, la matrice peut alors être notée

<math>A=(a_{i,j})_{1\le i\le m,1\le j\le n}</math>

ou plus simplement Modèle:Math si le contexte s'y prête.

Dans le cas particulier où Modèle:Mvar ou Modèle:Mvar est l'ensemble vide, la matrice correspondante est appelée la matrice vide de type (I,J). Il est nécessaire de distinguer les matrices vides de différents types pour définir le produit matriciel, car le produit de matrices (vides) de tailles respectives Modèle:Math et Modèle:Math est une matrice (nulle, mais non vide) de taille Modèle:Math, et dépend donc des entiers m, n.

On représente généralement une matrice sous la forme d'un tableau rectangulaire. Par exemple, est représentée ci-dessous une matrice Modèle:Mvar, à coefficients entiers, et de dimension (3,4) :

<math>A=\begin{pmatrix}

0 &1 & 2 & 3\\ 4 & 5 & 6 & 7\\ 8 & 9 & 10 & 11\\

\end{pmatrix}</math>

Dans cette représentation, le premier coefficient de la dimension est le nombre de lignes, et le deuxième, le nombre de colonnes du tableau. Une matrice pour laquelle le nombre Modèle:Mvar de lignes est égal au nombre Modèle:Mvar de colonnes sera dite matrice carrée de taille (ou d’ordre) Modèle:Mvar. Une matrice ne comportant qu'une seule ligne et Modèle:Mvar colonnes est appelée matrice ligne (ou plus souvent vecteur ligne) de taille Modèle:Mvar. Une matrice comportant Modèle:Mvar lignes et une seule colonne est appelée matrice colonne (ou plus souvent vecteur colonne) de taille Modèle:Mvar.

Pour repérer un coefficient d'une matrice, on indique son indice de ligne puis son indice de colonne, les lignes se comptant du haut vers le bas et les colonnes de la gauche vers la droite. Par exemple, on notera Modèle:Math, les coefficients de la matrice Modèle:Mvar, Modèle:Mvar compris entre 1 et 3 désignant le numéro de la ligne sur laquelle figure le coefficient envisagé, et Modèle:Mvar compris entre 1 et 4 désignant son numéro de colonne ; ainsi Modèle:Math.

La disposition générale des coefficients d'une matrice Modèle:Mvar de taille Modèle:Math est donc la suivante

<math>A=\begin{pmatrix}

a_{1,1} & a_{1,2} & \cdots & a_{1,n}\\ a_{2,1} & a_{2,2} & \cdots & a_{2,n}\\ \vdots & \vdots & \ddots & \vdots\\ a_{m,1} & a_{m,2} & \cdots & a_{m,n}\\

\end{pmatrix}</math>

Les coefficients Modèle:Math avec Modèle:Math sont dits diagonaux, ceux avec Modèle:Math sont dits extradiagonaux.

Une sous-matrice de Modèle:Mvar est une matrice obtenue en sélectionnant une partie Modèle:Math de ses lignes et une partie Modèle:Math de ses colonnes ; on la note Modèle:Math. On dit qu'une sous-matrice est principale si Modèle:Math dans la définition précédente. La diagonale principale de Modèle:Mvar est le vecteur

<math>\operatorname{diag}(A):=\begin{pmatrix}a_{1,1}\\a_{2,2}\\\vdots\\a_{p,p}\end{pmatrix},</math>

Modèle:Math.

Pour effectuer certaines opérations, il peut être utile de travailler sur le système des lignes ou des colonnes d'une matrice. On pourra alors l'écrire sous une des formes suivantes

<math>A=\begin{pmatrix}

L_1\\L_2\\\vdots \\ L_m\\\end{pmatrix}\quad \text{ ou } \quad A= \begin{pmatrix}

C_1 & C_2 & \dots & C_n\\ \end{pmatrix}.</math>

L'ensemble des matrices à coefficients dans Modèle:Mvar possédant Modèle:Mvar lignes et Modèle:Mvar colonnes est noté Modèle:Math (ou parfois Modèle:Math).

Lorsque Modèle:Math on note plus simplement Modèle:Math.

Soit Modèle:Mvar un ensemble et Modèle:Math ; on appelle matrice transposée de Modèle:Mvar la matrice Modèle:Math. Si Modèle:Mvar est un magma, Modèle:MathModèle:Math est le magma opposé de Modèle:Mvar.

Par exemple, avec la matrice Modèle:Mvar des exemples précédents, on a

<math>A^\mathsf{T}=\begin{pmatrix}

0 & 4 & 8\\ 1 & 5 & 9\\ 2 & 6 & 10\\ 3 & 7 & 11\\ \end{pmatrix}.

</math>

Espaces de matrices

On suppose maintenant que Modèle:Mvar est muni d'une structure d'anneau ; les éléments de Modèle:Mvar seront appelés scalaires, par opposition aux matrices dont nous allons voir qu'elles peuvent être considérées comme des vecteurs.

Addition des matrices et multiplication par un scalaire

On définit sur Modèle:Math une loi de composition interne provenant de l'addition des scalaires :

<math> (a_{i,j})+(b_{i,j})=(c_{i,j}) ,\ \textrm{ avec } \ c_{i,j}=a_{i,j}+b_{i,j}</math>.

On ne peut additionner que deux matrices de même taille.

  • Exemple :
<math>

\begin{array}{l} \begin{pmatrix} 0 &1 & 2 & 3\\ 4 & 5 & 6 & 7\\ \end{pmatrix} + \begin{pmatrix} 0 &0 & 1 & 1\\ 0 & 1 & 0 & 1\\ \end{pmatrix} = \begin{pmatrix} 0 &1 & 3 & 4\\ 4 & 6 & 6 & 8\\ \end{pmatrix} \end{array} </math>

Pour chaque valeur du couple Modèle:Math, l'espace Modèle:Math devient alors un groupe abélien, d'élément neutre la matrice nulle, celle dont tous les coefficients valent 0.

On définit aussi une opération à droite de Modèle:Mvar sur chaque espace Modèle:Math en associant, à chaque scalaire Modèle:Mvar dans Modèle:Mvar et à chaque matrice Modèle:Math à coefficients dans Modèle:Mvar, la matrice Modèle:Math obtenue en effectuant la multiplication à droite, dans Modèle:Mvar, de tous les coefficients de la matrice initiale par Modèle:Mvar : c'est la multiplication par un scalaire. Lorsque l'anneau est commutatif, la multiplication peut également s'effectuer à gauche.

En reprenant toujours la matrice Modèle:Mvar du premier exemple Modèle:Supra :

<math>2A=\begin{pmatrix}

0 &2 & 4 & 6\\ 8 & 10 & 12 & 14\\ 16 & 18 & 20 & 22\\ \end{pmatrix} </math>

Les espaces Modèle:Math ainsi obtenus ont donc une structure de Modèle:Mvar-module à droite, et plus particulièrement de Modèle:Mvar-espace vectoriel, si Modèle:Mvar est un corps commutatif.

Base canonique de l'espace des matrices

Le Modèle:Mvar-module Modèle:Math est libre de rang Modèle:Mvar, c'est-à-dire qu'il possède une base de Modèle:Mvar éléments : il suffit de considérer la base canonique Modèle:Math. La matrice Modèle:Math est celle dont tous les coefficients sont nuls sauf celui d'indice Modèle:Math, qui vaut 1.

Les coordonnées dans la base canonique d'une matrice Modèle:Mvar sont ses coefficients :

<math> A = \sum _{1\leqslant i\leqslant m\atop 1\leqslant j\leqslant n} a_{i,j} E_{i,j} </math>
  • Exemple :

<math>\begin{pmatrix} 0 &1 & 2 \\ 4 & 3 & 1 \\ \end{pmatrix} = 0\cdot \begin{pmatrix} 1 &0 & 0 \\ 0 & 0 & 0 \\ \end{pmatrix} + 1\cdot \begin{pmatrix} 0 &1 & 0 \\ 0 & 0 & 0 \\ \end{pmatrix} + 2\cdot \begin{pmatrix} 0 &0 & 1 \\ 0 & 0 & 0 \\ \end{pmatrix} + 4\cdot \begin{pmatrix} 0 &0 & 0 \\ 1 & 0 & 0 \\ \end{pmatrix} + 3\cdot \begin{pmatrix} 0 &0 & 0 \\ 0 & 1 & 0 \\ \end{pmatrix} + 1\cdot \begin{pmatrix} 0 &0 & 0 \\ 0 & 0 & 1 \\ \end{pmatrix} </math>

Produit matriciel

Modèle:Article détaillé On commence par définir le produit d'une matrice ligne par une matrice colonne<ref>On peut remarquer que ce produit est donné par une formule analogue à celle donnant le produit scalaire usuel ; cette remarque sera exploitée plus loin.</ref>,<ref>Dans le cas plus général d'ensembles éventuellement infinis d'indices, on peut demander à Modèle:Mvar d'être muni d'une topologie, pour définir le produit comme la somme d'une série (convergente). Sans topologie, on peut également demander aux colonnes (ou aux lignes) des matrices de ne contenir qu'un nombre fini d'éléments non nuls ; c'est d'ailleurs toujours le cas quand ces matrices représentent des applications linéaires entre espaces vectoriels munis de bases, même infinies. Paul Halmos, qui donne ces diverses définitions, ajoute néanmoins que Modèle:Citation étrangère (la théorie des matrices s'étend peu aux espaces de dimension infinie, et ce qui s'étend n'est guère utile, mais peut parfois aider), dans P. Halmos, A Hilbert space problem book, 1982, Modèle:P..</ref>. Soit Modèle:Mvar un nombre entier, Modèle:Mvar une matrice ligne, Modèle:Mvar ses coefficients, Modèle:Mvar une matrice colonne, Modèle:Mvar ses coefficients. On les suppose toutes deux de taille Modèle:Mvar. On définit alors le produit, considéré comme un scalaire ou une matrice de dimension (1, 1) :

<math> LC = \begin{pmatrix}x_1&\dots&x_n\end{pmatrix}\begin{pmatrix}y_1\\\vdots\\ y_n\end{pmatrix}=\sum_{1\le i\le n} x_iy_i</math>

On remarque la condition de compatibilité sur les tailles des matrices (égalité du nombre de colonnes de la première avec le nombre de lignes de la deuxième). On définit maintenant plus généralement un produit entre deux matrices, la première, Modèle:Math dans Modèle:Math, la deuxième, Modèle:Math dans Modèle:Math, toujours avec une condition de compatibilité sur les tailles (et l'ordre des facteurs de la multiplication ne peut en général pas être changé). Le résultat obtenu est une matrice de Modèle:Math, dont les coefficients Modèle:Math sont obtenus par :

<math>z_{i,j}=\sum_{1\le k \le n} x_{i,k}y_{k,j}=x_{i,1}y_{1,j}+x_{i,2}y_{2,j}+\cdots+ x_{i,n}y_{n,j}</math>

À la lumière de l'exemple de la multiplication d'une matrice ligne par une matrice colonne, on peut reformuler cette définition en disant que ce coefficient est égal au produit de la ligne i de la première matrice par la colonne j de la deuxième, ce qui s'écrit de la manière suivante, si les Modèle:Mvar sont les lignes de la première matrice, et les Modèle:Mvar les colonnes de la deuxième, le produit est : <math> \begin{pmatrix}L_1\\\vdots\\ L_m\end{pmatrix}\begin{pmatrix}C_1&\dots&C_p\end{pmatrix}=\begin{pmatrix}L_1C_1 & L_1C_2 & \dots & L_1C_p\\L_2C_1 & L_2C_2 & \dots & L_2C_p\\\vdots & \vdots & \ddots & \vdots\\L_mC_1 & L_mC_2 & \dots & L_mC_p\\\end{pmatrix}</math>.

Le produit matriciel est associatif, distributif à droite et à gauche par rapport à l'addition matricielle. En revanche, même lorsque les dimensions permettent de donner un sens à la question et même si l'anneau des scalaires est commutatif, un produit de matrices ne commute en général pas : Modèle:Mvar n'est pas en général égal à Modèle:Mvar, par exemple :

<math>
 A =\begin{pmatrix}
    0 & 0 \\ 
    1 & 0
 \end{pmatrix}

\quad

 B =\begin{pmatrix} 
   1 & 0 \\ 
   0 & 0 \\ 
     \end{pmatrix}

\quad

 AB =\begin{pmatrix} 
   0 & 0 \\ 
   1 & 0 \\ 
     \end{pmatrix}

\quad

 BA =\begin{pmatrix} 
   0 & 0 \\ 
   0 & 0 \\ 
     \end{pmatrix}.

</math> Remarque : le produit de deux matrices non nulles peut être nul, comme ci-dessus ; on dit que l'anneau des matrices n'est pas intègre.

Il arrive même, selon les tailles respectives des matrices Modèle:Mvar et B, que l'un des deux produits existe et pas l'autre.

La transposition et le produit matriciel sont compatibles au sens suivant :

<math>\forall A\in M_{n,p}(K),\ \forall B\in M_{p,q}(K),\ (AB)^\mathsf{T}=B^\mathsf{T}\cdot A^\mathsf{T}</math>

([[Matrice transposée#Cas d'un anneau de scalaires non commutatif|même si l'anneau Modèle:Mvar n'est pas commutatif]], en se rappelant que les matrices transposées ont leurs coefficients dans l'anneau opposé Modèle:Math).

Matrice identité et inverse d'une matrice

Modèle:Article détaillé Pour chaque nombre entier n, on note In la matrice carrée de taille n dont les coefficients diagonaux sont égaux à 1 et dont les autres coefficients sont nuls ; elle est appelée matrice identité de taille n.

<math> I_1=\begin{pmatrix} 1 \end{pmatrix}\quad

I_2= \begin{pmatrix} 1 & 0\\ 0 & 1\end{pmatrix} \quad I_3=\begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0 \\0 & 0 & 1 \end{pmatrix} \quad I_n=(\delta_{i,j})_{1\le i\le n,1\le j\le n}</math> où δi,j désigne le symbole de Kronecker.

Sous réserve de compatibilité des tailles, les matrices In sont neutres à droite et à gauche pour la multiplication.

<math> \forall A\in M_{m,n}(K),\ I_m\,A=A\,I_n =A.</math>

Soit Modèle:Mvar une matrice de dimension (m, n). On dit que Modèle:Mvar est inversible à droite (respectivement à gauche) s'il existe une matrice B de taille (n, m) telle que Modèle:Math (respectivement Modèle:Math). Elle est simplement dite inversible si elle l'est à la fois à droite et à gauche. Le sous-ensemble de Modèle:Math constitué des matrices inversibles possède une structure de groupe pour le produit matriciel ; il est appelé groupe linéaire et noté Modèle:Math.

Pour une matrice carrée à coefficients dans un anneau commutatif Modèle:Mvar, être inversible à droite ou à gauche ou avoir un déterminant inversible dans Modèle:Mvar (c'est-à-dire non nul si Modèle:Mvar est un corps) sont trois propriétés équivalentes.

Algèbre des matrices carrées

Lorsque l'anneau Modèle:Mvar est commutatif, l'ensemble Modèle:Math des matrices carrées de taille n est donc muni d'une structure de Modèle:Mvar-algèbre associative et unitaire avec l'addition matricielle, le produit par un scalaire et le produit matriciel.

On appelle matrice scalaire une matrice de la forme Modèle:MvarModèle:Mvar est un élément de l'anneau Modèle:Mvar.

<math>I_n a=\begin{pmatrix}

a & 0 & \dots & 0\\ 0 & a & \dots & 0\\ \vdots &\vdots&\ddots& \vdots \\ 0 & 0 &\dots & a \end{pmatrix} </math>

Ces matrices s'appellent matrices scalaires car elles se comportent comme des scalaires, vis-à-vis de la multiplication :

<math> \forall\lambda\in K,\ \forall A\in M_n(K),\ A (I_n \lambda)= A \lambda ~.</math>

Lorsque Modèle:Mvar est commutatif, ou à défaut, lorsque Modèle:Mvar est central dans Modèle:Mvar, c'est-à-dire lorsque Modèle:Mvar commute avec tous les éléments de Modèle:Mvar, on a en outre :

<math> \forall\lambda \in K,\ \forall A\in M_n(K),(\lambda I_n)\ A = A\lambda~.</math>

Réciproquement, toute matrice Modèle:Mvar de Modèle:Math telle que Modèle:Math est une matrice scalaire Modèle:MvarModèle:Mvar est central dans Modèle:Mvar (ceci se démontre en prenant pour Modèle:Mvar les matrices de la base canonique).

Une matrice de la forme :

<math> \begin{pmatrix}

a_1 & 0 & \dots & 0\\ 0 & a_2 & \dots & 0\\ \vdots &\vdots&\ddots& \vdots \\ 0 & 0&\dots & a_n \end{pmatrix}</math> sera dite matrice diagonale.

Outre le déterminant, une autre fonction à noter est la trace. Toutes deux apparaissent dans un objet plus général, le polynôme caractéristique, qui à son tour permet d'obtenir certaines caractérisations des matrices diagonalisables (c'est-à-dire semblables à une matrice diagonale), ou de la trigonalisation.

Actions du groupe linéaire

Modèle:Article détaillé Il existe plusieurs manières de faire agir le groupe linéaire Modèle:Math sur les espaces de matrices, notamment :

On décrit maintenant les résultats classiques sur ces actions, lorsque les scalaires forment un corps commutatif. Les deux premières actions sont souvent considérées simultanément ; on s'intéresse donc à la question : deux matrices Modèle:Mvar et Modèle:Mvar de dimension Modèle:Math étant données, existe-t-il des matrices Modèle:Math et Modèle:Math telles que Modèle:Math ? Si tel est le cas, les deux matrices Modèle:Mvar et Modèle:Mvar sont dites équivalentes. Le résultat principal est que deux matrices sont équivalentes si et seulement si elles ont même rang, ce qui s'exprime encore en disant que le rang est un invariant complet pour les doubles classes définies par les deux actions de multiplication à gauche et à droite. Par ailleurs, une matrice étant donnée, on peut trouver d'autres matrices privilégiées (les matrices échelonnées) dans la même orbite pour une de ces actions par la méthode du pivot de Gauss.

Pour l'action par conjugaison, deux matrices carrées Modèle:Mvar et Modèle:Mvar de taille Modèle:Mvar dans la même orbite admettent une relation de la forme Modèle:Math, pour une certaine matrice Modèle:Mvar inversible de taille Modèle:Mvar ; deux telles matrices sont dites semblables. La description d'un système complet d'invariants (caractérisant des matrices semblables) est plus délicate. On appelle ces invariants les invariants de similitude. D'un point de vue algorithmique, la réduction d'une matrice quelconque à une matrice sous une forme privilégiée se fait par un algorithme inspiré de celui du pivot de Gauss, voir théorème des facteurs invariants.

Interprétations linéaires

Un intérêt principal des matrices est qu'elles permettent d'écrire commodément les opérations habituelles de l'algèbre linéaire, avec une certaine canonicité.

Coordonnées

Modèle:Article détaillé

Le premier point est de remarquer que le Modèle:Mvar-module Kn s'identifie canoniquement à l'espace de matrices colonne Modèle:Math : si Modèle:Mvar est le n-uplet de Modèle:Mvar dont tous les coefficients sont nuls, sauf le i-ème qui vaut 1, on lui associe la i-ème matrice colonne Modèle:Math de la base canonique de Modèle:Math (celle dont tous les coefficients sont nuls sauf le i-ème qui vaut 1), et on étend l'identification par linéarité ; la matrice associée à chaque n-uplet sera appelée matrice coordonnée canonique.

D'autres identifications sont cependant possibles ; lorsqu'on peut parler de base (si l'anneau des scalaires est un corps, par exemple), on peut associer les matrices colonnes élémentaires à n'importe quelle base de l'espace Modèle:Mvar (ou plus généralement d'un Modèle:Mvar-module libre), puis à nouveau étendre par linéarité ; les matrices associées seront appelées matrices coordonnées dans la base envisagée.

On peut juxtaposer les matrices coordonnées, dans une base fixée, de plusieurs n-uplets. On obtient ainsi la matrice coordonnée d'une famille de vecteurs. Le rang de la matrice est alors défini comme la dimension de la famille de ces vecteurs. En particulier la matrice d'une base dans une autre base est appelée matrice de passage entre ces deux bases, ou matrice de changement de base. Si X et X' sont les matrices coordonnées du même vecteur dans deux bases Modèle:Mvar et C, et que P est la matrice de passage de la base C dans la base Modèle:Mvar, on a la relation (une matrice de passage est toujours inversible) :

<math>X=PX'\quad X'=P^{-1} X </math>

Applications linéaires

Modèle:Voir Soient E et F deux espaces vectoriels de dimensions respectives n et m sur un corps commutatif<ref name=NonCommutatif>Cette définition et les propriétés associées se généralisent à des [[Module sur un anneau|Modèle:Mvar-modules à droite]] libres de type fini sur un anneau (non nécessairement commutatif).</ref> Modèle:Mvar, B une base de E, C une base de F et φ une application linéaire de E dans F.

On appelle matrice de φ dans le couple de bases (B, C) la matrice Modèle:Math de Modèle:Math telle que pour tout vecteur Modèle:Mvar de Modèle:Mvar, si l'on note Modèle:Math, Modèle:Math et Modèle:Math, alors :

<math>Y=\textrm{mat}_{B,C}(\varphi)\times X.</math>

Si ψ est une deuxième application linéaire, de F dans un troisième espace vectoriel G de base D, alors, relativement aux bases Modèle:Mvar, C, D, la matrice de la composée Modèle:Math est égale au produit des matrices de Modèle:Mvar et Modèle:Mvar. Plus précisément :

<math>\textrm{mat}_{B,D}(\psi\circ\varphi)=\textrm{mat}_{C,D}(\psi)\times \textrm{mat}_{B,C}(\varphi).</math>

L'application de L(E, F) dans Modèle:Math qui à chaque Modèle:Mvar associe sa matrice dans (B, C) est un isomorphisme d'espaces vectoriels.

Pour toute matrice Modèle:Mvar de Modèle:Math, l'application X MX du Modèle:Mvar-espace vectoriel Mn,1(K) dans le Modèle:Mvar-espace vectoriel Mm,1(K) est linéaire. C'est un point clef du lien entre algèbre linéaire et matrices. En conséquence, il arrive souvent que l'on identifie la matrice Modèle:Mvar avec cette application linéaire. On parlera alors de noyau de la matrice, d'espaces propres de la matrice, d'image de la matrice, etc.

Si Modèle:Mvar et Modèle:Mvar sont deux bases de E, C et C' deux bases de F, P = matB(B') la matrice de passage de Modèle:Mvar vers Modèle:Mvar et Q la matrice de passage de C vers C', alors les deux matrices M et M' d'une même application linéaire de E dans F, dans les couples de bases (B, C) et (B', C'), sont liées par : M' = QModèle:-1MP. On constate ainsi que deux matrices équivalentes sont deux matrices qui représentent la même application linéaire dans des bases différentes. En particulier, dans le cas d'un endomorphisme, si l'on impose Modèle:Math et Modèle:Math, la formule précédente devient : M' = PModèle:-1MP et deux matrices semblables sont deux matrices qui représentent le même endomorphisme dans des bases différentes.

Transposition

Modèle:Voir Soient de nouveau E et F deux Modèle:Mvar-espaces vectoriels de dimensions finies<ref name=NonCommutatif/>, de bases respectives Modèle:Mvar et C, et φ une application linéaire de E dans F. L'application linéaire transposée Modèle:Nobr entre leurs duals est définie par

<math>\forall y^*\in F^*,\forall x\in E,\quad\left\langle^{\operatorname t}\!\varphi\left( y^*\right),x\right\rangle =\left\langle y^*,\varphi\left(x\right)\right\rangle.</math>

Sa matrice dans le couple de bases duales (C*, B*) est liée à celle de φ dans (B, C) par :

<math>\textrm{mat}_{C^*,B^*}(^{\operatorname t}\!\varphi)={}^{\operatorname t}\!(\textrm{mat}_{B,C}(\varphi)).</math>

Remarque

Lorsque l'anneau n'est pas commutatif, si l'on représente les vecteurs par des matrices colonne, l'algèbre linéaire n'est compatible avec le calcul matriciel que si les modules ou espaces vectoriels considérés sont à droite, comme dans les articles détaillés signalés ci-dessus, une application linéaire correspondant à la multiplication à gauche d'un vecteur colonne par la matrice qui la représente. Si l'on tient à avoir des modules ou espaces vectoriels à gauche, il faut représenter les vecteurs par des matrices ligne, une application linéaire étant cette fois représentée par la multiplication à droite d'un vecteur ligne par la matrice qui la représente<ref>Voir par exemple : Modèle:Ouvrage, §§ 2.2.4-2.2.6 ; cette formulation est très courante dans la théorie des D-modules.</ref>.

Systèmes d'équations linéaires

Modèle:Article détaillé En général, un système de m équations linéaires à n inconnues peut être écrit sous la forme suivante :

<math>\left\{\begin{matrix} a_{1,1}x_1+a_{1,2}x_2+...+a_{1,n}x_n = b_1 \\ a_{2,1}x_1+a_{2,2}x_2+...+a_{2,n}x_n = b_2 \\ \vdots \\ \vdots \\ a_{m,1}x_{1}+a_{m,2}x_{2}+...+a_{m,n}x_n = b_m\end{matrix}\right.</math>

Modèle:Math sont les inconnues et les nombres Modèle:Math sont les coefficients du système.

Ce système peut s'écrire sous la forme matricielle :

<math>Ax=b</math>

avec :

<math>A=\begin{pmatrix}

a_{1,1} & a_{1,2} & \cdots & a_{1,n} \\ a_{2,1} & a_{2,2} & \cdots & a_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m,1} & a_{m,2} & \cdots & a_{m,n} \end{pmatrix}; \qquad x=\begin{pmatrix} x_1 \\ x_2\\ \vdots \\ x_n \end{pmatrix}\quad\text{et}\quad b=\begin{pmatrix} b_1 \\ b_2 \\ \vdots \\ b_m \end{pmatrix} ;</math> la théorie de la résolution des systèmes utilise les invariants liés à la matrice Modèle:Mvar (appelée matrice du système), par exemple son rang, et, dans le cas où Modèle:Mvar est inversible, son déterminant (voir l'article règle de Cramer).

Interprétations bilinéaires

Dans ce paragraphe, l'anneau Modèle:Mvar des scalaires sera supposé commutatif. Dans la plupart des applications, ce sera un corps commutatif.

Le cas non commutatif existe aussi mais il faut prendre quelques précautions et les notations deviennent trop lourdes pour cet article.

Matrice d'une forme bilinéaire

Soient E un Modèle:Mvar-module libre et B = (e1, … , en) une base de E.

Soit <math> f : E\times E \to K</math> une forme bilinéaire. On définit la matrice de <math> f </math> dans la base B par la formule suivante :

<math>\textrm{mat}_B\, f = (f(e_i,e_j))_{1\le i\le n,\ 1\le j\le n}=

\begin{pmatrix} f(e_1,e_1) & f(e_1,e_2) & \dots & f(e_1,e_n)\\ f(e_2,e_1) & f(e_2,e_2) & \dots & f(e_2,e_n)\\ \vdots & \vdots & \ddots & \vdots\\ f(e_n,e_1) & f(e_n,e_2) & \dots & f(e_n,e_n)\\ \end{pmatrix} </math>

Dans le cas particulier où K = ℝ et Modèle:Mvar est un produit scalaire, cette matrice est appelée matrice de Gram.

La matrice Modèle:Math est symétrique (respectivement antisymétrique) si et seulement si la forme bilinéaire <math> f </math> est symétrique (respectivement antisymétrique).

Soient Modèle:Mvar et Modèle:Mvar deux vecteurs de E. Notons Modèle:Mvar et Modèle:Mvar leurs coordonnées dans la base B et Modèle:Math. On a alors la formule : <math> f(x,y)={}^{\operatorname t}\!X~A~Y</math>.

Deux formes bilinéaires sont égales si et seulement si elles ont la même matrice dans une base donnée.

Matrice d'une forme quadratique

Lorsque Modèle:Mvar est un corps de caractéristique différente de 2, on appelle matrice d'une forme quadratique la matrice de la forme bilinéaire symétrique dont est issue la forme quadratique.

Formule de changement de base

Soient E un Modèle:Mvar-module libre et B, C deux bases de E. Soit <math> f : E\times E \to K</math> une forme bilinéaire.

Notons Modèle:Math la matrice de Modèle:Mvar dans la base B et Modèle:Math la matrice de Modèle:Mvar dans la base C. Notons Modèle:Math la matrice de passage. On a alors la formule de changement de base pour une forme bilinéaire (à ne pas confondre avec celle pour une application linéaire) :

<math>M'={}^{\operatorname t}\!P~M~P</math>

Matrices congruentes

Modèle:Article détaillé Deux matrices carrées Modèle:Mvar et Modèle:Mvar sont dites congruentes s'il existe une matrice inversible Modèle:Mvar telle que

<math> A={}^{\operatorname t}\!P~B~P~.</math>

Deux matrices congruentes sont deux matrices qui représentent la même forme bilinéaire dans deux bases différentes.

Lorsque Modèle:Mvar est un corps de caractéristique différente de 2, toute matrice symétrique est congruente à une matrice diagonale. L'algorithme utilisé s'appelle réduction de Gauss à ne pas confondre avec le pivot de Gauss.

Catalogue partiel

Modèle:Voir Une matrice est dite symétrique si elle est égale à sa transposée et antisymétrique si elle est opposée à sa transposée.

Une matrice Modèle:Mvar à coefficients complexes est dite hermitienne si elle est égale à la transposée de sa matrice conjuguée Modèle:Surligner.

Une matrice Modèle:Mvar est dite

  • orthogonale si elle est à coefficient réels et si Modèle:Math,
  • unitaire si elle est à coefficients complexes et si Modèle:Math

(Pour plus d'exemples, voir en bas de page : « Articles connexes » et palette « Matrices »)

Décomposition d'une matrice

On utilise abusivement le terme décomposition d'une matrice, qu'il s'agisse d'une véritable décomposition (en somme) comme dans la décomposition de Dunford ou d'une factorisation comme dans la plupart des autres décompositions.

Réduction d'une matrice carrée

Modèle:Article détaillé

Décomposition LU

Modèle:Article détaillé

  • C'est une factorisation en produit de deux matrices triangulaires.
  • En lien avec le pivot de Gauss, c'est une méthode qui permet d'inverser une matrice.

Décomposition QR

Modèle:Article détaillé

  • C'est un résultat sur les matrices à coefficients réels ou à coefficients complexes.
  • C'est une factorisation en produit d'une matrice orthogonale et d'une matrice triangulaire.
  • C'est une traduction matricielle du procédé de Gram-Schmidt.

Décomposition polaire

Modèle:Article détaillé

  • C'est un résultat sur les matrices à coefficients réels ou à coefficients complexes.
  • C'est une factorisation en produit d'une matrice orthogonale et d'une matrice symétrique définie positive dans le cas réel, en produit d'une matrice unitaire et d'une matrice hermitienne définie positive dans le cas complexe.
  • On peut décomposer à droite ou à gauche.
  • On a unicité de la factorisation pour les matrices inversibles.

Normes

Normes d'algèbre

Modèle:Article détaillé Dans tout ce paragraphe, Modèle:Math ou Modèle:Math.

Une norme matricielle est une norme d'algèbre sur l'algèbre Modèle:Math, c'est-à-dire une norme d'espace vectoriel qui est de plus sous-multiplicative.

Le rayon spectral d'une matrice carrée Modèle:Mvar à coefficients complexes est le plus grand module de ses valeurs propres. Il est égal à la borne inférieure des normes matricielles de Modèle:Mvar.

Sur Modèle:Math, toute norme Modèle:Mvar subordonnée à une norme sur Modèle:Mvar est une norme d'algèbre vérifiant de plus Modèle:Math (la réciproque est fausse).

Structure d'espace vectoriel euclidien

L'espace vectoriel Modèle:Math, canoniquement isomorphe à Modèle:Math, hérite de sa structure euclidienne. Le produit scalaire se transcrit en

<math> (A,B)\in M_{m,n}(\R)\times M_{m,n}(\R)\mapsto\langle A,B\rangle:=\operatorname{tr}({}^{\operatorname t}\!A~B)=\sum_{\scriptstyle 1\leq i\leq m\atop\scriptstyle 1\leq j\leq n}a_{ij}b_{ij}\in\R, </math>

où <math>\operatorname{tr}</math> désigne la trace (i.e., <math>\textstyle\operatorname{tr}\,M=\sum_{i=1}^nm_{ii}</math>) et les Modèle:Math (resp. Modèle:Math) désignent les éléments de Modèle:Mvar (resp. Modèle:Mvar). La norme associée à ce produit scalaire est la norme de Frobenius ou norme de Hilbert-Schmidt :

<math>

\|A\|_F=\left(\sum_{1\le i\le m\atop 1\le j\le n}a_{i,j}^2\right)^{\frac12}=\|\sigma(A)\|_2,

</math>

Modèle:Math est le vecteur des valeurs singulières de Modèle:Mvar et <math>\|\cdot\|_2</math> est la norme euclidienne.

Si Modèle:Math, il ne s'agit pas d'une norme subordonnée, puisque <math>\|I_n\|_F=\sqrt{n}\ne1.</math>

L'inégalité de Cauchy-Schwarz s'écrit (comme pour tout produit scalaire) :

<math>\forall A,B \in\R^{m\times n},

\langle A,B\rangle\leqslant\|A\|_F\,\|B\|_F.

</math>

Cette inégalité peut être renforcée par l'inégalité de trace de von Neumann<ref>J. von Neumann (1937). Some matrix inequalities and metrization of matrix-space. Tomsk University Review, 1, 286–300. Collected Works, Pergamon, Oxford, 1962, Volume IV, 205-218</ref> :

<math>\forall A,B \in\R^{m\times n},

\langle A,B\rangle\leqslant\sigma(A)^\mathsf{T}\sigma(B),

</math>

Modèle:Math est le vecteur des valeurs singulières de Modèle:Mvar, rangées en ordre décroissant. Elle a la même structure que l'inégalité de Ky Fan, laquelle suppose que les matrices sont carrées et symétriques (on peut alors remplacer Modèle:Math par le vecteur des valeurs propres).

L'espace vectoriel Modèle:Math est muni d'une structure similaire d'espace hermitien.

Exponentielle d'une matrice

Modèle:Article détaillé Soit Modèle:Math, soit Modèle:Mvar une norme d'algèbre et <math>\sum a_n z^n </math> une série entière de rayon de convergence Modèle:Mvar.

Alors si Modèle:Math, la série <math>\sum a_n A^n </math> est absolument convergente. (On le montre en utilisant que Modèle:Math.)

En particulier, on peut définir, pour toute matrice carrée complexe, la quantité

<math> \exp (A) = \sum_{k=0}^{+\infty} \frac1{k!} A^k</math>

Le calcul effectif de cette exponentielle se fait par réduction de la matrice.

L'exponentielle joue un rôle central dans l'étude des systèmes linéaires d'équations différentielles.

Notes et références

Modèle:Références

Voir aussi

Modèle:Autres projets

Bibliographie

  • J.-M. Arnaudiès et H. Fraysse, Cours de mathématiques, Dunod, 1980
  • Rached Mneimné, Réduction des endomorphismes, Calvage et Mounet, Paris, 2006 Modèle:ISBN
  • P. Wira, Un rappel sur les matrices, support de cours, Université de Haute Alsace, Mulhouse, 2000

Articles connexes

Modèle:Colonne

Liens externes

Modèle:Palette Modèle:Portail