Méthode de Newton

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}
Fichier:Newton iteration.png
Une itération de la méthode de Newton.

En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson<ref>Joseph Louis Lagrange et Louis Poinsot, Traité de la résolution des équations numériques de tous les degrés.</ref> est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle. Cette méthode doit son nom aux mathématiciens anglais Isaac Newton (1643-1727) et Joseph Raphson (peut-être 1648-1715), qui furent les premiers à la décrire pour la recherche des solutions d'une équation polynomiale. Thomas Simpson (1710-1761) élargit considérablement le domaine d'application de l'algorithme en montrant, grâce à la notion de dérivée, comment on pouvait l'utiliser pour calculer une solution d'une équation non linéaire, pouvant ne pas être un polynôme, et d'un système formé de telles équations.

Présentation

Sous sa forme moderne, l'algorithme peut être présenté brièvement comme suit : à chaque itération, la fonction dont on cherche un zéro est linéarisée en l'itéré (ou point) courant et l'itéré suivant est pris égal au zéro de la fonction linéarisée. Cette description sommaire indique qu'au moins deux conditions sont requises pour la bonne marche de l'algorithme : la fonction doit être dérivable aux points visités (pour pouvoir y linéariser la fonction) et les dérivées ne doivent pas s'y annuler (pour que la fonction linéarisée ait un zéro) ; s'ajoute à ces conditions la contrainte forte de devoir prendre le premier itéré assez proche d'un zéro régulier de la fonction (i.e., en lequel la dérivée de la fonction ne s'annule pas), pour que la convergence du processus soit assurée.

L'intérêt principal de l'algorithme de Newton est sa convergence quadratique locale. En termes imagés mais peu précis, cela signifie que le nombre de chiffres significatifs corrects des itérés double à chaque itération, asymptotiquement. Comme le nombre de chiffres significatifs représentables par un ordinateur est d’environ 15 chiffres décimaux (sur un ordinateur qui respecte la norme IEEE-754), on peut simplifier grossièrement les propriétés de convergence de l'algorithme de Newton en disant que, soit il converge en moins de 10 itérations, soit il diverge. En effet, si l'itéré initial n'est pas pris suffisamment proche d'un zéro, la suite des itérés générée par l'algorithme a un comportement erratique, dont la convergence éventuelle ne peut être que le fruit du hasard (un des itérés est par chance proche d'un zéro).

L'importance de l'algorithme a incité les numériciens à étendre son application et à proposer des remèdes à ses défauts. Par exemple, l'algorithme permet également de trouver un zéro d'une fonction de plusieurs variables à valeurs vectorielles, voire définie entre espaces vectoriels de dimension infinie ; la méthode conduit d'ailleurs à des résultats d'existence de zéro (utilisés dans certaines preuves du théorème des fonctions implicites, les théorèmes de Kantorovitch). On peut aussi l'utiliser lorsque la fonction est différentiable dans un sens plus faible (fonction différentiable par morceaux, B-différentiable, semi-lisse, obliquement différentiable, etc), ainsi que pour résoudre des systèmes d'inégalité non linéaire, des problèmes d'inclusion fonctionnelle, d'équations différentielles ou aux dérivées partielles, d’inéquations variationnelles, de complémentarité, etc. On a également mis au point des techniques de globalisation de l'algorithme, lesquelles ont pour but de forcer la convergence des suites générées à partir d'un itéré initial arbitraire (non nécessairement proche d'un zéro), comme la recherche linéaire et les régions de confiance agissant sur une fonction de mérite (souvent la fonction de moindres-carrés). Dans les versions dites inexactes ou tronquées, on ne résout le système linéaire à chaque itération que de manière approchée. Enfin, la famille des algorithmes de quasi-Newton propose des techniques permettant de se passer du calcul de la dérivée de la fonction. Toutes ces améliorations ne permettent toutefois pas d'assurer que l'algorithme trouvera un zéro existant, quel que soit l'itéré initial.

Appliqué à la dérivée d'une fonction réelle, cet algorithme permet d'obtenir des points critiques (i.e., des zéros de la fonction dérivée). Cette observation est à l'origine de son utilisation en optimisation sans ou avec contraintes.

Éléments d'histoire

Fichier:John Wallis by Sir Godfrey Kneller, Bt.jpg
John Wallis.
Fichier:Isaac Newton, English School, 1715-20.jpg
Isaac Newton.

La méthode de Newton fut décrite par le mathématicien anglais Isaac Newton dans De analysi per aequationes numero terminorum infinitas, écrit en 1669 et publié en 1711 par William Jones. Elle fut à nouveau décrite dans Modèle:Lang (De la méthode des fluxions et des suites infinies), écrit en 1671, traduit et publié sous le titre Methods of Fluxions en 1736 par John Colson. Toutefois, Newton n'appliqua la méthode qu'aux seuls polynômes. Comme la notion de dérivée et donc de linéarisation n'était pas définie à cette époque, son approche diffère de celle décrite dans l'introduction : Newton cherchait à affiner une approximation grossière d'un zéro d'un polynôme par un calcul polynomial.

L'exemple que Newton donne<ref>Dans Methodus fluxionum et serierum infinitorum selon J.-L. Chabert et al. (1994). Ypma (1995) renvoie aux pages 219-220 du volume II chez Whiteside (1967-1976).</ref> est celui du calcul de la racine réelle de l'équation cubique

<math> x^3-2x-5=0 </math>,

en prenant comme itéré initial le point Modèle:Math. qui diffère de moins de Modèle:Math de la vraie valeur de l'unique racine réelle. Il écrit alors Modèle:Math, où Modèle:Math est donc l'accroissement à donner à Modèle:Math pour obtenir la racine Modèle:Mvar. Il remplace Modèle:Mvar par Modèle:Math dans l'équation, qui devient

<math> d_1^3+6\,d_1^2+10\,d_1-1=0 </math>

et dont il faut trouver la racine pour l'ajouter à Modèle:Math. Il néglige Modèle:Math à cause de sa petitesse (on suppose que Modèle:Math), si bien qu'il reste Modèle:Math ou Modèle:Math, ce qui donne comme nouvelle approximation de la racine Modèle:Math. Il écrit ensuite Modèle:Math, où Modèle:Math est donc l'accroissement à donner à Modèle:Math pour obtenir la racine du polynôme précédent. Il remplace donc Modèle:Math par Modèle:Math dans le polynôme précédent pour obtenir

<math> d_2^3+6{,}3\,d_2^2+11{,}23\,d_2+0{,}061=0 </math>.

On obtiendrait la même équation en remplaçant Modèle:Mvar par Modèle:Math dans le polynôme initial. Négligeant les deux premiers termes, il reste Modèle:Math ou Modèle:Math, ce qui donne comme nouvelle approximation de la racine Modèle:Math. On peut poursuivre les opérations aussi longtemps qu'il convient.

Cette méthode fut l'objet de publications antérieures. En 1685, John Wallis en publia une première description<ref>Modèle:MathWorld.</ref> dans A Treatise of Algebra both Historical and Practical. En 1690, Joseph Raphson en publia une description simplifiée dans Analysis aequationum universalis. Raphson considérait la méthode de Newton toujours comme une méthode purement algébrique et restreignait aussi son usage aux seuls polynômes. Toutefois, il mit en évidence le calcul récursif des approximations successives d'un zéro d'un polynôme au lieu de considérer comme Newton une suite de polynômes.

C'est Thomas Simpson (1710-1761) qui généralisa cette méthode au calcul itératif des solutions d'une équation non linéaire, en utilisant les dérivées (qu'il appelait fluxions, comme Newton)<ref>Voir Simpson (1740), pages 83-84, selon Ypma (1995).</ref>. Simpson appliqua la méthode de Newton à des systèmes de deux équations non linéaires à deux inconnues<ref>Voir Simpson (1740), page 82, selon Ypma (1995).</ref>, en suivant l'approche utilisée aujourd'hui pour des systèmes ayant plus de 2 équations, et à des problèmes d'optimisation sans contrainte en cherchant un zéro du gradient<ref>{{#invoke:Langue|indicationDeLangue}} T. Simpson (1737), A New Treatise of Fluxions.</ref>. Arthur Cayley fut le premier à noter la difficulté de généraliser la méthode de Newton aux variables complexes en 1879<ref>{{#invoke:Langue|indicationDeLangue}} Arthur Cayley (1789). The Newton-Fourier imaginary problem.</ref>, par exemple aux polynômes de degré supérieur à 3.

On pourra consulter l'article de Ypma (1995) pour d'autres informations sur l'historique de l'algorithme. Cet auteur attribue l'absence de reconnaissance aux autres contributeurs de l'algorithme au livre influent de Fourier, intitulé Analyse des Équations Déterminées (1831), lequel décrivait la méthode newtonienne sans faire référence à Raphson ou Simpson.

Fonction réelle d'une variable réelle

L'algorithme

On va donc chercher à construire une bonne approximation d'un zéro de la fonction d'une variable réelle Modèle:Formule en considérant son développement de Taylor au premier ordre. Pour cela, partant d'un point Modèle:Formule que l'on choisit de préférence proche du zéro à trouver (en faisant des estimations grossières par exemple), on approche la fonction au premier ordre, autrement dit, on la considère asymptotiquement égale à sa tangente en ce point :

<math> f(x)\simeq f(x_0) + f'(x_0)(x-x_0). </math>

Partant de là, pour trouver un zéro de cette fonction d'approximation, il suffit de calculer l'intersection de la droite tangente avec l'axe des abscisses, c'est-à-dire résoudre l'équation affine :

<math> 0=f(x_0) + f'(x_0)(x-x_0). </math>

On obtient alors un point Modèle:Math qui en général a de bonnes chances d'être plus proche du vrai zéro de Modèle:Mvar que le point Modèle:Formule précédent. Par cette opération, on peut donc espérer améliorer l'approximation par itérations successives (voir illustration) : on approche à nouveau la fonction par sa tangente en <math>x_1</math> pour obtenir un nouveau point Modèle:Math, etc.

Fichier:Methode newton.png
Illustration de la méthode de Newton.
Fichier:NewtonIteration Ani.gif
Illustration animée de la méthode.

Cette méthode requiert que la fonction possède une tangente en chacun des points de la suite que l'on construit par itération, par exemple il suffit que Modèle:Mvar soit dérivable.

Formellement, on part d'un point Modèle:Formule appartenant à l'ensemble de définition de la fonction et on construit par récurrence la suite :

<math> x_{k+1} = x_k - \frac{f(x_k)}{f'(x_k)}, </math>

Modèle:Mvar désigne la dérivée de la fonction Modèle:Mvar. Le point Modèle:Formule est bien la solution de l'équation affine <math>f(x_k)+f'(x_k)(x-x_k)=0</math>.

Il se peut que la récurrence doive se terminer, si à l'étape Modèle:Mvar, Modèle:Mvar n'appartient pas au domaine de définition ou si la dérivée Modèle:Math est nulle ; dans ces cas, la méthode échoue.

Si le zéro inconnu Modèle:Mvar est isolé, alors il existe un voisinage de Modèle:Mvar tel que pour toutes les valeurs de départ Modèle:Formule dans ce voisinage, la suite Modèle:Math va converger vers Modèle:Mvar. De plus, si Modèle:Math est non nul, alors la convergence est (au moins) quadratique, ce qui signifie intuitivement que le nombre de chiffres corrects est approximativement doublé à chaque étape.

Bien que la méthode soit très efficace, certains aspects pratiques doivent être pris en compte. Avant tout, la méthode de Newton nécessite que la dérivée soit effectivement calculée. Dans les cas où la dérivée est seulement estimée en prenant la pente entre deux points de la fonction, la méthode prend le nom de méthode de la sécante, moins efficace (d'ordre 1,618 qui est le nombre d'or) et inférieure à d'autres algorithmes. Par ailleurs, si la valeur de départ est trop éloignée du vrai zéro, la méthode de Newton peut entrer en boucle infinie sans produire d'approximation améliorée. À cause de cela, toute mise en œuvre de la méthode de Newton doit inclure un code de contrôle du nombre d'itérations.

Exemple

Pour illustrer la méthode, recherchons le nombre positif Modèle:Mvar vérifiant Modèle:Math. Reformulons la question pour introduire une fonction devant s'annuler : on recherche le zéro positif (la racine) de Modèle:Math. La dérivation donne Modèle:Math.

Comme <math>\cos(x)\leqslant 1</math> pour tout Modèle:Formule et Modèle:Formule pour Modèle:Formule, nous savons que notre zéro se situe entre 0 et 1. Nous essayons une valeur de départ de Modèle:Math.

<math>\begin{matrix}
 x_1 & = & x_0 - \frac{f(x_0)}{f'(x_0)} & = &0,5-\frac{\cos(0,5) - 0,5^3}{-\sin(0,5) - 3 \times 0,5^2} & \simeq & 1,112\,141\,637\,1 \\
 x_2 & = & x_1 - \frac{f(x_1)}{f'(x_1)} & & \vdots & \simeq & 0,909\,672\,693\,736 \\
 x_3 & & \vdots & & \vdots & \simeq & 0,866\,263\,818\,209 \\
 x_4 & & \vdots & & \vdots & \simeq & 0,865\,477\,135\,298 \\
 x_5 & & \vdots & & \vdots & \simeq & 0,865\,474\,033\,111 \\
 x_6 & & \vdots & & \vdots & \simeq & 0,865\,474\,033\,101 \\
 x_7 & & \vdots & & \vdots & \simeq & 0,865\,474\,033\,102

\end{matrix} </math> Les 7 premiers chiffres de cette valeur coïncident avec les 7 premiers chiffres du vrai zéro.

Convergence

La vitesse de convergence d'une suite Modèle:Mvar obtenue par la méthode de Newton peut être obtenue comme application de la formule de Taylor-Lagrange. Il s'agit d'évaluer une majoration de Modèle:Math.

Modèle:Mvar est une fonction définie au voisinage de Modèle:Mvar et deux fois continûment différentiable. On suppose que Modèle:Mvar se trouve être un zéro de Modèle:Mvar qu'on essaie d'approcher par la méthode de Newton. On fait l'hypothèse que Modèle:Mvar est un zéro d'ordre 1, autrement dit que Modèle:Math est non nul. La formule de Taylor-Lagrange s'écrit :

<math>0=f (a) =f (x) +f'(x) (a-x) + \frac{ f (\xi)}{2}{ (a-x) ^2}</math>, avec Modèle:Mvar entre Modèle:Mvar et Modèle:Mvar.

Partant de l'approximation Modèle:Formule, la méthode de Newton fournit au bout d'une itération :

<math>N_f (x) -a=x-\frac{f (x)}{f'(x)} - a= \frac{f (\xi)}{2 \, f'(x)}(x-a) ^2</math>.

Pour un intervalle compact Modèle:Mvar contenant Modèle:Mvar et Modèle:Mvar et inclus dans le domaine de définition de Modèle:Mvar, on pose : Modèle:Math ainsi que Modèle:Math. Alors, pour tout Modèle:Math :

<math>\left|N_f (x) - a \right| \leqslant \frac{M_2}{2m_1} |x-a|^2</math>.

Par récurrence immédiate, il vient :

<math>K\left|x_n-a\right| \leqslant (K|x_0-a|)^{2^n}</math>

Modèle:Math. En passant au logarithme :

<math>\log\left|x_n-a\right| \leqslant 2^n\log (K|x_0-a|)-\log(K) </math>

La convergence de Modèle:Mvar vers Modèle:Mvar est donc quadratique, à condition que Modèle:Math.

Exemples de non-convergence

Fichier:NewtonsMethodConvergenceFailure.svg
Les tangentes à la courbe représentant la fonction <math>x\mapsto x^3-2x+2</math> en 0 et en 1 coupent l'axe des Modèle:Mvar en 1 et en 0 respectivement. Si l'on prend 0 ou 1 comme point de départ, la méthode oscille entre ces deux points et ne converge donc pas.
  • La tangente à la courbe peut couper l'axe des abscisses hors du domaine de définition de la fonction.
  • Si l'on utilise l'algorithme de Newton pour trouver l'unique zéro Modèle:Math de la fonction <math>x\in\R\mapsto|x|^{1/2}</math> en prenant un itéré initial Modèle:Math, on constate que, pour tout <math>k\in\mathbb{N}</math>, Modèle:Formule ; la suite générée ne converge donc pas, même localement (c'est-à-dire même si Modèle:Formule est pris proche du zéro Modèle:Math). Le problème provient ici, en particulier, de la non-différentiabilité de la fonction en l'unique zéro Modèle:Math.

Critère d'arrêt

Des critères d'arrêt possibles, déterminés relativement à une grandeur numériquement négligeable, sont :

<math>\| f(x_k)\|< \varepsilon_1\qquad\mathrm{ou}\qquad \| x_{k+1}-x_k\|<\varepsilon_2</math>

où <math> \varepsilon_1,\varepsilon_2\in\mathbb{R}^+ </math> représentent des erreurs d'approximations caractérisant la qualité de la solution numérique.

Dans tous les cas, il se peut que le critère d'arrêt soit vérifié en des points ne correspondant pas à des solutions de l'équation à résoudre.

Autres exemples

Racine carrée

Un cas particulier de la méthode de Newton est la méthode de Héron, aussi appelée méthode babylonienne : il s'agit, pour calculer la racine carrée de Modèle:Mvar, d'appliquer la méthode de Newton à la fonction Modèle:Mvar définie par

<math>f(x) = x^2 - a</math>.

On obtient alors, en utilisant la formule de la dérivée Modèle:Math, une méthode d'approximation de la solution Modèle:Racine donnée par la formule itérative suivante :

<math>

x_{k+1}:=x_k-\frac{x_k^2 - a}{2x_k}=\frac12 \left(x_k + \frac a{x_k}\right) </math>.

Pour tout Modèle:Math et tout point de départ Modèle:Formule, [[Méthode de Héron#Principe|cette méthode converge vers Modèle:Sqrt]].

On peut l'étendre au calcul de toute [[Racine d'un nombre|racine Modèle:Mvar-ième d'un nombre]] Modèle:Mvar avec la formule :

<math>x_{k+1}:=x_k-\frac{x_k^n - a}{nx_k^{n-1}}=\frac1n\left({(n-1)x_k+\frac a{x_k^{n-1}}}\right)</math>.

Intersection de graphes

On peut déterminer une intersection des graphes de deux fonctions réelles dérivables Modèle:Mvar et Modèle:Mvar, c'est-à-dire un point Modèle:Mvar tel que Modèle:Formule, en appliquant la méthode de Newton à la fonction Modèle:Formule.

Fonctions holomorphes

Fichier:Julia-set N z3-1.png
La méthode de Newton appliquée au polynôme Modèle:Math à variable complexe Modèle:Mvar converge à partir de tous les points du plan (des nombres complexes) colorés en rouge, vert ou bleu vers l'une des trois racines de ce polynôme, chacune des couleurs correspondant à une racine différente. Les points restants, se trouvant sur la structure plus claire — appelée fractale de Newton — sont les points de départ pour lesquels la méthode ne converge pas.

La méthode peut aussi être utilisée pour trouver des zéros de fonctions holomorphes. Dans ce cadre, on connaît bien les comportements que peut avoir la suite des itérés de Newton. On peut citer :

  • convergence vers un zéro ;
  • limite infinie ;
  • la suite admet un cycle limite autrement dit, la suite peut être découpée en Modèle:Mvar sous-suites disjointes de la forme Modèle:Math qui chacune convergent vers des points distincts (qui ne sont pas des zéros de Modèle:Mvar) formant un cycle périodique pour la fonction Modèle:Math ;
  • la suite se rapproche de l'ensemble des zéros de la fonction sans qu'il n'y ait toutefois de cycle limite, et à chaque étape de l'itération, on se retrouve proche d'un zéro différent des précédents ;
  • la suite a un comportement chaotique, etc.

Modèle:Article détaillé L'ensemble des points à partir desquels peut être obtenue une suite qui converge vers un zéro fixé s'appelle le bassin d'attraction de ce zéro. Pour beaucoup de fonctions complexes, le bassin d'attraction est une fractale.

L'étude de la méthode de Newton pour les polynômes à variables complexes trouve naturellement sa place dans l'étude dynamique des fractions rationnelles et a été une des motivations récentes de l'étude de la dynamique holomorphe.

Généralisations/variantes

Systèmes d'équations à plusieurs variables

On peut aussi utiliser la méthode de Newton pour résoudre un système de Modèle:Mvar équations (non linéaires) à Modèle:Mvar inconnues Modèle:Math, ce qui revient à trouver un zéro d'une fonction Modèle:Mvar de <math>\R^n</math> dans <math>\R^n</math>, qui devra être différentiable. Dans la formulation donnée ci-dessus, il faut multiplier par l'inverse de la matrice jacobienne Modèle:Math au lieu de diviser par Modèle:Math. Évidemment, pour économiser du temps de calcul, on ne calculera pas l'inverse de la jacobienne, mais on résoudra le système d'équations linéaires suivant

<math> F\,'(x_k) (x_{k+1} - x_k) = -F(x_k) </math>

en l'inconnue Modèle:Math. Encore une fois, cette méthode ne fonctionne que pour une valeur initiale Modèle:Math suffisamment proche d'un zéro de Modèle:Mvar.

Méthode de Newton approchée

Il arrive parfois que la dérivée (ou la matrice jacobienne pour un système d'équations à plusieurs variables) de la fonction Modèle:Mvar soit coûteuse à calculer. La dérivée peut alors être approchée au moyen de différences finies. Par exemple, en approchant la dérivée Modèle:Math par

<math>

\frac{f(x_k)-f(x_{k-1})}{x_k-x_{k-1}},

</math>

on obtient la méthode de la sécante. La convergence de cette méthode n'est plus quadratique, mais reste sur-linéaire (en fait, d'ordre Modèle:Math).

Méthode de Newton non lisse

Lorsque la fonction dont on cherche une racine est non-différentiable, mais seulement semi-lisse, la méthode de Newton ne génère pas nécessairement une suite Modèle:Math convergente, même si les itérés sont des points de différentiabilité de Modèle:Mvar, arbitrairement proches d'un zéro de Modèle:Mvar. Un contre-exemple est donné par Kummer (1988<ref>{{#invoke:Langue|indicationDeLangue}} B. Kummer (1988). Newton’s method for nondifferentiable functions. In Modèle:Ouvrage.</ref>).

Un algorithme analogue est encore possible en supposant un peu plus que la lipschitzianité de Modèle:Mvar, mais sa semi-lissité. L'algorithme de Newton pour une fonction Modèle:Mvar semi-lisse consiste alors à générer une suite <math>\{x_k\}\subset\mathbb{E}</math>, où le nouvel itéré Modèle:Math est calculé à partir de l'itéré courant Modèle:Mvar par la récurrence suivante

Modèle:Bloc emphase

Modèle:Mvar est une jacobienne inversible du différentiel de Clarke Modèle:Math, qui est supposée exister.

Comme la méthode de Newton classique, l'algorithme de Newton semi-lisse converge sous deux conditions. La première spécifie que la fonction dont on cherche un zéro Modèle:Math est suffisamment lisse : elle doit être semi-lisse. Il faut aussi qu'en ce zéro la fonction ait ses « pentes » qui ne s'annulent pas en Modèle:Math ; ceci s'exprime par l'hypothèse de C-régularité du zéro. Il s'agit aussi d'un résultat de convergence locale, ce qui veut dire qu'il faut que le premier itéré soit choisi suffisamment près d'un zéro satisfaisant les conditions ci-dessus pour que la convergence ait lieu.

Modèle:Théorème

Un état de l'art est donné par Izmailov et Solodov<ref>Modèle:Article.</ref>.

Méthode de Newton par intervalles

Modèle:Pertinence section Dans certains cas, il arrive que l'on veuille éviter la condition de proximité entre notre valeur de départ et le zéro de la fonction. Une solution est alors d'utiliser la méthode de Newton par intervalles<ref>Modèle:Ouvrage</ref>,<ref>Modèle:Article</ref>.

On considère <math>f \in \mathcal{C}^1(X)</math>, avec Modèle:Mvar un intervalle réel, et on suppose que l'on a une extension par intervalles Modèle:Mvar de Modèle:Mvar, c'est-à-dire une fonction Modèle:Mvar prenant en entrée un intervalle Modèle:Math et renvoyant un intervalle Modèle:Math tel que :

<math>\begin{align}
   F'([y,y]) &= \{f'(y)\}\\
   F'(Y) &\supseteq \{f'(y)~|~y \in Y\}
\end{align}</math>.

On suppose également que <math>0 \notin F'(X)</math>, donc en particulier Modèle:Mvar a au plus un zéro sur Modèle:Mvar. On peut maintenant définir l'opérateur :

<math>N(Y) = m + \frac{f(m)}{F'(Y)} = \left\{\left. m + \frac{f(m)}{z} ~\right|~ z \in F'(Y)\right\}</math>

pour tout intervalle Modèle:Mvar de centre Modèle:Mvar. On notera que l'hypothèse sur Modèle:Mvar implique que Modèle:Math est bien défini et est un intervalle (voir arithmétique d'intervalles pour plus de détails là dessus). On peut maintenant créer la suite d'intervalles suivante :

<math>

\begin{align} X_0 &= X\\ X_{k+1} &= N(X_k) \cap X_k \end{align}

</math>.

Le théorème des accroissements finis certifie que, s'il y a un zéro de Modèle:Mvar dans Modèle:Mvar, alors il est encore dans Modèle:Math. De plus, l'hypothèse de positivité sur Modèle:Mvar implique que la taille de Modèle:Math est au plus la moitié de celle de Modèle:Mvar, donc la séquence converge vers le singleton Modèle:Math, où Modèle:Math est le zéro de Modèle:Mvar sur Modèle:Mvar.

Annexes

Notes

Modèle:Références

Articles connexes

Liens externes

Références

  • {{#invoke:Langue|indicationDeLangue}} D. P. Bertsekas (1995), Nonlinear Programming. Athena Scientific. Modèle:ISBN.
  • {{#invoke:Langue|indicationDeLangue}} J. F. Bonnans, J. Ch. Gilbert, C. Lemaréchal, C. Sagastizábal (2006), Numerical Optimization - Theoretical and Practical Aspects Modèle:Détail des éditions.
  • J.-L. Chabert, É. Barbin, M. Guillemot, A. Michel-Pajus, J. Borowczyk, A. Djebbar, J.-C. Martzloff (1994). Histoire d’Algorithmes – Du Caillou à la Puce. Regards sur la Science. Belin, Paris.
  • J.-P. Dedieu (2006). Points Fixes, Zéros et la Méthode de Newton. Mathématiques et Applications 54. Springer Verlag, Berlin.
  • {{#invoke:Langue|indicationDeLangue}} P. Deuflhard (2004). Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive Algorithms. Springer Series in Computational Mathematics, Vol. 35. Springer, Berlin, Modèle:ISBN.
  • {{#invoke:Langue|indicationDeLangue}} A. F. Izmailov, M. V. Solodov (2014). Newton-Type Methods for Optimization and Variational Problems. Springer Series in Operations Research and Financial Engineering. Springer.
  • {{#invoke:Langue|indicationDeLangue}} J. Nocedal, S. J. Wright (2006), Numerical Optimization, Springer. Modèle:ISBN.
  • {{#invoke:Langue|indicationDeLangue}} J. M. Ortega, W. C. Rheinboldt (2000). Iterative Solution of Nonlinear Equations in Several Variables. Classics in Applied Mathematics. Society for Industrial and Applied Mathematics. Modèle:ISBN.
  • {{#invoke:Langue|indicationDeLangue}} T. Simpson (1740). Essays on Several Curious and Useful Subjects in Speculative and Mix'd Mathematicks, Illustrated by a Variety of Examples. Londres.
  • {{#invoke:Langue|indicationDeLangue}} D. T. Whiteside, éditeur (1967-1976) The Mathematical Papers of Isaac Newton, Volumes I-VII, Cambridge University Press, Cambridge.
  • {{#invoke:Langue|indicationDeLangue}} T. J. Ypma (1995). Historical development of the Newton-Raphson method. SIAM Review, 37, 531–551.

Modèle:Palette Modèle:Portail