Polynôme de Hurwitz
Un polynôme de Hurwitz, ainsi nommé en l'honneur du mathématicien allemand Adolf Hurwitz, est un polynôme d’une variable à coefficients réels dont les racines sont toutes à partie réelle strictement négative. De tels polynômes jouent un rôle important dans la théorie des équations différentielles linéaires à coefficients constants ainsi qu'en automatique, pour l’analyse de la stabilité des systèmes dynamiques. Le critère de Routh-Hurwitz, détaillé plus bas, permet de tester cette stabilité. Il a été obtenu indépendamment par le mathématicien anglais Edward Routh en 1875<ref>Modèle:Harvsp</ref> et par Hurwitz en 1895<ref>Modèle:Harvsp</ref> et a été amélioré en 1914 par les mathématiciens français Liénard et Chipart dont le test de stabilité (également détaillé plus bas) est probablement le plus simple et le plus efficace<ref>Modèle:Harvsp, Chap. XV.</ref>. L'intérêt pour ces différents critères a été relancé dans les années 1980 par le Modèle:Lien. Le lecteur pourra trouver quelques éléments historiques aux articles Automatique et Stabilité de Lyapunov. Le Modèle:Lien est l'équivalent du critère de Routh-Hurwitz pour les systèmes à temps discret.
Propriétés
Considérons un polynôme de degré <math>n</math> à coefficients réels et ses racines <math>z_i</math> réelles ou complexes (par couples de valeurs conjuguées dans ce cas). Les formes développée et factorisée sont les suivantes : Modèle:Retrait
Sans restreindre la généralité, supposons encore <math>a_n > 0</math>.
On montre aisément les propriétés suivantes :
- Les coefficients d’un polynôme de Hurwitz sont > 0.
- Si <math>P(z)</math> possède une racine réelle ≥ 0, alors au moins un coefficient est ≤ 0.
- <math>P(z)</math> est de Hurwitz si et seulement si <math>R(z) = z^n P\left(\frac1z\right) = \sum_{i=0}^n a_{n-i} \, z^i</math> l’est également.
- Pour n > 1, soit <math>Q(z)</math> le polynôme de degré n(n-1)/2 dont les racines sont les sommes deux à deux des racines de <math>P(z)</math>, soit les <math>z_i + z_j</math> avec <math>i < j</math>. Alors <math>P(z)</math> est de Hurwitz si et seulement si les coefficients de <math>P(z)</math> et de <math>Q(z)</math> sont > 0<ref>La détermination des coefficients de <math>Q(z)</math> sans connaître les racines de <math>P(z)</math> peut être obtenue au moyen des relations entre coefficients et racines, mais reste un problème non trivial.</ref>.
- Si les coefficients de <math>Q(z)</math> sont > 0, <math>P(z)</math> n’est pas nécessairement de Hurwitz.
Preuves
- Il suffit de développer la forme factorisée pour le montrer (en utilisant le coefficient de Newton).
- Il suffit de constater que <math>R(z) = a_n \prod_{i=1}^n (1 - z z_i)</math>.
- Au préalable, on vérifie que les coefficients de <math>Q(z)</math> sont réels.
- La nécessité se déduit de l’application de 1 pour <math>P(z)</math> et de sa preuve pour <math>Q(z)</math>.
- Pour la suffisance, on vérifie successivement à l’aide de 2 : a) les racines réelles de <math>P(z)</math> sont < 0 ; b) si une racine complexe de <math>P(z)</math> est à partie réelle ≥ 0, alors, en l’ajoutant à sa conjuguée, <math>Q(z)</math> possède une racine réelle ≥ 0, ce qui est exclu.
- Un contre-exemple : <math>P(z) = (z-1)(z+2)^2</math> et <math>Q(z) = (z+4)(z+1)^2</math>.
Conditions supplémentaires
En plus de satisfaire la propriété 1 ci-dessus sur la positivité des coefficients, d’autres conditions sont nécessaires pour assurer qu’un polynôme est de Hurwitz :
- <math>n<3</math> : pas d'autre condition<ref>Avec <math>n=2</math>, c’est une évidence pour un physicien habitué au circuit RLC.</ref>
- <math>n=3</math> : ajouter <math>a_1a_2 - a_0a_3 > 0\ </math>
- <math>n=4</math> : ajouter <math>a_2a_3 - a_1a_4 > \frac{a_3^2 a_0}{a_1}\ </math> qui s’écrit aussi <math>a_1a_2 - a_0a_3 > \frac{a_1^2 a_4}{a_3}\ </math>
- <math>n>4</math> : ajouter plus d’une condition (cf tableaux de Routh ci-dessous).
Remarques :
- La condition pour <math>n=3</math> se retient aisément par des considérations énergétiques (voir l'article filtre électrique linéaire).
- La condition pour <math>n=4</math> doit converger vers celle pour <math>n=3</math> lorsque <math>a_4</math> est quasi nul<ref>Par contre, il faut connaître la situation de deux oscillateurs couplés avec injection de puissance pour retrouver l'inéquation
Modèle:Retrait</ref>.
Cas général : le théorème de Routh-Hurwitz
Critère de Routh
Ce tableau est une construction numérique basée sur les coefficients <math>a_i</math> du polynôme dont les éléments permettent de vérifier un critère donnant une condition nécessaire et suffisante pour que le polynôme soit de Hurwitz.
Bien que le concept conserve toute sa pertinence, le critère décrit ici a significativement perdu de son importance en pratique avec l’avènement des moyens de calcul rapide : pour un polynôme dont les coefficients sont connus, il est en effet préférable de déterminer numériquement ses racines (car elles donnent des indications nuancées sur la stabilité), au lieu de mettre en œuvre le critère ne permettant que de trancher.
Pour un polynôme de degré n, ce tableau est une matrice <math>C</math> comportant n+1 lignes et au moins (n+1)/2 colonnes.
Les éléments des deux premières lignes <math>C_{i, j}</math> sont directement issues des coefficients, alors que les éléments des suivantes se déterminent par des calculs de déterminants :
- La Modèle:1re ligne du tableau, indexée par <math>z^{n}</math>, comporte les coefficients <math>a_{n}</math>, <math>a_{n-2}</math>, … soit <math>C_{1, j} = a_{n+2-2j}.</math>
- La Modèle:2e du tableau, indexée par <math>z^{n-1}</math>, comporte les coefficients <math>a_{n-1}</math>, <math>a_{n-3}</math>, … soit <math>C_{2, j} = a_{n+1-2j}.</math>
- Pour la ligne i, indexée par <math>z^{n-i}</math>, les éléments satisfont la relation récurrente suivante : Modèle:Retrait{C_{i, 1}}.</math> }}
Lorsque cette relation fait référence à des éléments qui sont hors de la matrice (j trop grand), ces derniers sont remplacés par 0.
Ce procédé conduit au tableau suivant :
<math> z^{n} </math> | <math> C_{1,1} = a_{n} \ </math> | <math> C_{1,2} = a_{n-2} \ </math> | <math>C_{1,3} = a_{n-4} \ </math> | <math>C_{1,4} = a_{n-6} \ </math> |
---|---|---|---|---|
<math> z^{n-1} </math> | <math> C_{2,1} = a_{n-1} \ </math> | <math> C_{2,2} = a_{n-3} \ </math> | <math> C_{2,3} = a_{n-5} \ </math> | <math> C_{2,4} = a_{n-7} \ </math> |
<math> z^{n-2} </math> | <math>C_{3,1} = \frac{-1}{C_{2,1}}\begin{vmatrix}
C_{1,1} & C_{1,2} \\ C_{2,1} & C_{2,2} \end{vmatrix}</math> |
<math>C_{3,2} = \frac{-1}{C_{2,1}}\begin{vmatrix}
C_{1,1} & C_{1,3} \\ C_{2,1} & C_{2,3} \end{vmatrix}</math> |
<math>C_{3,3} = \frac{-1}{C_{2,1}}\begin{vmatrix}
C_{1,1} & C_{1,4} \\ C_{2,1} & C_{2,4} \end{vmatrix}</math> |
… |
<math> z^{n-3} </math> | <math>C_{4,1} = \frac{-1}{C_{3,1}}\begin{vmatrix}
C_{2,1} & C_{2,2} \\ C_{3,1} & C_{3,2} \end{vmatrix}</math> |
<math>C_{4,2} = \frac{-1}{C_{3,1}}\begin{vmatrix}
C_{2,1} & C_{2,3} \\ C_{3,1} & C_{3,3} \end{vmatrix}</math> |
… | … |
<math> z^{n-4} </math> | <math>C_{5,1} = \frac{-1}{C_{4,1}}\begin{vmatrix}
C_{3,1} & C_{3,2} \\ C_{4,1} & C_{4,2} \end{vmatrix}</math> |
… | … | … |
Remarque : Concernant les unités physiques dans le cas d’un système dynamique, celles de <math>a_{i}</math> sont <math>[T^i]</math> où <math>T</math> est le temps. Partant de <math>C_{1, 1}</math> dont l’unité est <math>[T^n]</math>, chaque élément de la matrice <math>C</math> est d’unité homogène, ce qui permet un contrôle sur le traitement numérique. L’unité de <math>C_{i, j}</math> étant <math>[T^{n+3-i-2j}]</math>, on perd ainsi :
- deux unités en progressant d’une colonne,
- une unité en progressant d’une ligne.
Si l’un des éléments en première colonne est nul (<math>C_{i, 1} = 0</math>), le calcul des <math>C_{i+1, 1}</math> est impossible et le cas est dit « singulier ». C'est par exemple le cas du polynôme
- <math>P(z)=z^4+z^3+2z^2+2z+1</math>
qui a deux paires de racines complexes conjuguées, l'une à partie réelle positive, l'autre à partie réelle négative. Le critère de Routh est une conséquence du théorème de Routh ci-dessous:
Remarque sur les singularités (1)
Une singularité <math>C_{i, 1}=0</math> où les <math>C_{i, j} (j=2,3,...)</math> sont non nuls est dite du « premier type ». On peut contourner ce type de singularité en remplaçant l'égalité <math>C_{i, 1}=0</math> par <math>C_{i, 1}=\varepsilon</math> où <math>\varepsilon >0</math> est une quantité « infiniment petite », puis en continuant les calculs (« méthode du <math>\varepsilon</math> de Routh »). S'il n'y a que des singularités de ce type, <math>P(z)</math> n'a pas de racines imaginaires et l'énoncé ci-dessus du théorème de Routh reste valable. La singularité du polynôme <math>P(z)=z^4+z^3+2z^2+2z+1</math> est de ce type.
Le cas d'une singularité du « second type », c'est-à-dire qui n'est pas du premier type, est plus complexe. Une telle singularité se caractérise par le fait que toute une ligne de <math>C_{i,j} \left(j=1,2,3,...\right)</math> est nulle. C'est le cas du polynôme
- <math>P(z)=z^{10}+z^9-z^8-2z^7+z^6+3z^5+z^4-2z^3-z^2+z+1</math>
qui a une racine réelle <math><0</math>, 2 paires de racines complexes à partie réelle <math><0</math>, et 2 paires de racines complexes à partie réelle <math>>0</math>. C'est également le cas du polynôme
- <math>P(z)=z^6+z^5+3z^4+3z^3+3z^2+2z+1</math>
qui a 2 racines complexes conjuguées à partie réelle <math><0</math>, 2 racines complexes conjuguées à partie réelle <math>>0</math>, et les deux racines imaginaires pures <math>i,-i</math>.
Critère de Hurwitz
Les coefficients du polynôme permettent de définir une matrice explicitée dans l’article sur les déterminants de Hurwitz.
Considérons le polynôme
- <math>R\left( z\right) =\sum\limits_{i=0}^{n}a_{i}z^{n-i}=a_0 z^n+a_1 z^{n-1}+....+a_n</math>
où l'on suppose <math>a_0>0</math> sans perte de généralité. Dans certains ouvrages, plutôt que la matrice de Hurwitz associée à ce polynôme, on considère (de manière équivalente) sa transposée <math>\mathfrak H</math> donnée par
- <math>\mathfrak H=\left[
\begin{array}{cccccc} a_{1} & a_{0} & 0 & 0 & \cdots & 0 \\ a_{3} & a_{2} & a_{1} & a_{0} & & 0 \\ a_{5} & a_{4} & a_{3} & a_{2} & & 0 \\ \vdots & \vdots & \ddots & a_{4} & \ddots & \vdots\\ & & & & \ddots & a_{n-1}\\ 0 & 0 & 0 & 0 & \cdots & a_{n} \end{array} \right] </math>
que l'on construit colonne par colonne en notant la particularité des diagonales. Le critère de Hurwitz peut s'énoncer comme suit :
On a de plus le résultat suivant :
En utilisant le théorème de Routh, on en déduit le
Modèle:Théorème{\Delta _{1}},...,\frac{\Delta _{n}}{\Delta _{n-1}}\right\} \right)=V\left(\left\{1,\Delta_1,\Delta_3,...\right\}\right)+V\left(\left\{1,\Delta_2,\Delta_4,...\right\}\right)</math>.
où <math>V\left(.\right)</math> désigne le nombre de changements de signe dans la suite finie entre parenthèses. Les cas singuliers du premier type sont ceux pour lesquels un seul des <math>\Delta_i</math> est nul. Ces cas peuvent être traités en adaptant la « méthode du <math>\varepsilon</math> » de Routh.}}
La matrice de Hurwitz, ou de manière équivalente la matrice <math>\mathfrak H</math>, est plus simple à déterminer que le tableau de Routh. Dans certains cas, néanmoins, le calcul des mineurs <math>\Delta_i</math> nécessiterait plus d'opérations, inconvénient qui pourrait être pallié par le critère ci-dessous :
Critère de Liénard et Chipart
En conséquence, si les mineurs principaux d'ordre pair de la matrice de Hurwitz (ou, de manière équivalente, de <math>\mathfrak H</math>) sont tous <math>>0</math>, ceux d'ordre impair le sont aussi et réciproquement. Par ailleurs, si les <math>a_i</math> sont tous <math>>0</math> et l'une des suites finies ci-dessus ne prend pas la valeur 0 (suite notée <math>\delta</math>), le nombre de racines à partie réelle <math>> 0</math> de <math>R(z)</math> est nécessairement pair.
Remarque sur les singularités (2)
- Le critère de Liénard et Chipart fait « disparaître » les singularités du premier type, sans qu'il soit nécessaire de recourir à la « méthode du <math>\varepsilon</math> » de Routh. Si par exemple
- <math>R(z)=z^4+z^3+2z^2+2z+1</math>,
on vérifie facilement que <math>\Delta_1=1, \Delta_2=0, \Delta_3=\Delta_4=-1 </math>. Donc <math>\delta=\left\{1,\Delta_1,\Delta_3\right\}=\left\{1,1,-1\right\}</math> et le nombre de racines de <math>R(z)</math> à partie réelle <math>>0</math> est <math>2V \left( \delta \right)=2</math>.
- En revanche, les singularités du second type subsistent. Parmi celles-ci, on rencontre celles pour lesquelles le polynôme <math>R(z)</math> a des racines imaginaires (voir Modèle:Harvsp, Chap. XV, §§ 4, 8). Soit par exemple
- <math>R(z)=z^3+\alpha z^2+\omega^2z+\alpha \omega^2</math>.
avec <math>\alpha \omega \neq 0</math>. On a <math>\Delta_1=\alpha, \Delta_2=\Delta_3=0</math>, et l'on a donc une singularité du second type. On peut raisonner de la manière suivante : si l'on remplace z par <math>z+\eta, \eta \neq 0</math>, on constate, en négligeant les termes en <math>o(\eta)</math>, que cette fois <math>\Delta_2</math> est du signe de <math>\eta</math>, et que <math>\Delta_3</math> est du signe de <math>\eta \alpha</math>. On en déduit donc que le polynôme <math>R(z)</math> a pour racines <math>-\alpha</math> et deux complexes imaginaires purs conjugués. On vérifie du reste que <math>R(z)=\left(z+\alpha\right)\left(z^2+\omega^2\right)</math>.
Néanmoins, il existe des polynômes qui n'ont pas de racines imaginaires et qui présentent une singularité du second type (bien entendu, ces polynômes ne sont pas de Hurwitz). C'est par exemple le cas du polynôme
- <math>R(z)=2z^5+2z^4+z^3+z^2+4z+4</math>
qui a pour racines <math>-1</math>, et des racines complexes conjuguées <math>\alpha \pm i \beta</math> et <math>-\alpha \pm i \beta, \alpha \neq 0</math>.
- On peut déterminer le nombre de racines à partie réelle positive d'un polynôme quelconque (par exemple celui qui précède) grâce à un « tableau de Routh étendu », sans recourir à la « méthode du <math>\varepsilon</math> » ni à aucun artifice de ce type<ref>Modèle:Harvsp</ref>.
Application aux équations différentielles
Considérons l’équation différentielle linéaire à coefficients constants suivante : Modèle:Retrait
On dit que le point d'équilibre 0 est exponentiellement stable si, pour des conditions initiales quelconques, la solution converge exponentiellement vers 0 lorsque t tend vers l’infini.
Soit <math>H(p)=\sum_{j=0}^m b_j \; p^{j}</math> le polynôme caractéristique de cette équation. D'après un théorème classique<ref>N. Bourbaki, Fonctions d'une variable réelle, Hermann, 1976, n°IV.2.8.</ref>, la solution <math>y(t)</math> est une combinaison de termes du type <math>t^{k_i-1} e^{z_i t}</math> où les <math>z_i</math> sont les racines distinctes de <math>H(p)</math> et les <math>k_i</math> sont des entiers prenant toutes les valeurs entre 1 et l'ordre de multiplicité de la racine <math>z_i</math>. On en déduit la