Différence finie

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}

En mathématiques, et plus précisément en analyse, une différence finie est une expression de la forme f(x + b) − f(x + a) (où f est une fonction numérique) ; la même expression divisée par b − a s'appelle un taux d'accroissement (ou taux de variation), et il est possible, plus généralement, de définir de même des différences divisées. L'approximation des dérivées par des différences finies joue un rôle central dans les méthodes des différences finies utilisées pour la résolution numérique des équations différentielles, tout particulièrement pour les problèmes de conditions aux limites.

Les opérateurs mettant en jeu des différences finies, appelés opérateurs de différence, font l'objet d'une branche de l'analyse mathématique possédant de nombreux points communs avec la théorie des opérateurs différentiels ; certaines de ces analogies ont été systématisées et exploitées par le calcul ombral.

Opérateurs de différence finie

On considère en général uniquement les différences « en avant », « en arrière » et « centrées ».

L'opérateur de différence avant, <math>\Delta_h</math>, est défini par

<math> \Delta_h[f](x) =f(x + h) - f(x)</math>, où h est le plus souvent une constante, qu'on appelle le pas.

De même, l'opérateur de différence arrière, <math>\nabla_h</math>, est défini par

<math> \nabla_h[f](x) =f(x) - f(x-h)</math>.

Enfin, l'opérateur de différence centrée, <math>\delta_h</math>, est défini par

<math> \delta_h[f](x) =f(x+\tfrac12h)-f(x-\tfrac12h)</math>.

Relation avec les dérivées

Le nombre dérivé d'une fonction f en un point x est défini par la limite

<math> f'(x) = \lim_{h\to0} \frac{f(x+h) - f(x)}h</math>.

Si h a une valeur fixée (non nulle), le terme de droite est

<math> \frac{f(x + h) - f(x)}h=\frac{\Delta_h[f](x)}h</math>.

Ainsi, la différence avant divisée par h approxime le nombre dérivé quand h est petit. L'erreur de cette approximation peut être déterminée à l'aide de la formule de Taylor. Supposant que f est continument dérivable,

<math> \frac{\Delta_h[f](x)}{h} - f'(x) = O(h) \quad (h \to 0)</math> (où O est une notation de Landau).

La même formule est valable pour la différence arrière :

<math> \frac{\nabla_h[f](x)}h- f'(x) = O(h)</math>.

Cependant, la différence centrale donne une approximation plus précise ; son erreur est proportionnelle au carré du pas (si f est de classe <math>\mathcal{C}^2</math>) :

<math> \frac{\delta_h[f](x)}h- f'(x) =O(h^{2})</math>.

En analyse non standard, on définit directement la dérivée comme l’ombre (le réel standard le plus proche) d’une différence finie de pas infinitésimal.

Différences d'ordre supérieur

De manière analogue, on peut obtenir des approximations de dérivées d'ordre supérieur. Ainsi, appliquant la formule de différence centrale précédente à la dérivée de <math> f' </math> en x, et utilisant les différences centrales pour <math>f'(x+h/2)</math> et <math>f'(x-h/2)</math>, on obtient une approximation (par différences centrales) de la dérivée seconde de <math>f</math> :

<math> f(x) \approx \frac{\delta_h^2[f](x)}{h^2} =\frac{f(x+h) - 2 f(x) + f(x-h)}{h^2} . </math>

Plus généralement, les différences avant, arrière et centrale d'ordre n (où la notation <math>\Delta_h^n</math>, par exemple, correspond au n-ième itéré de <math>\Delta_h</math>, c'est-à-dire que <math>\Delta_h^n=\Delta_h\circ\Delta_h\circ\dots\circ\Delta_h</math> n fois), sont respectivement données par

<math>\Delta^n_h[f](x) =

\sum_{i = 0}^n(-1)^{n-i}\binom nif(x +ih) </math>,

<math>\nabla^n_h[f](x) =

\sum_{i = 0}^n(-1)^i \binom nif(x - ih) </math>,

<math>\delta^n_h[f](x) =

\sum_{i = 0}^n(-1)^i \binom nif\left(x + \left(\frac n2- i\right) h\right) </math>

On le déduit facilement (par récurrence) de la formule de Pascal sur les coefficients binomiaux <math>\binom ni</math>.

Il faut remarquer que dans le cas des différences centrales, pour tout <math>n</math> impair, <math>h</math> est multiplié par des non-entiers ; ce qui peut être un problème dans des applications où cela change l'intervalle de discrétisation ; dans ce cas, une solution peut être de prendre la moyenne de <math>\delta^n[f](x - h/2)</math> et de <math>\delta^n[f](x + h/2)</math>.

Il est enfin possible d'utiliser les différences itérées pour approximer des dérivées de tout ordre, et même d'employer un nombre de termes dissymétrique autour de la valeur centrale, ce qui est utile lorsqu'on effectue des calculs sur une grille, pour compenser les effets de bord<ref>Les détails sont analysés dans cette série de notes {{#invoke:Langue|indicationDeLangue}}.</ref>. La relation entre les différences itérées et les dérivées d'ordre correspondant est très simple :

<math>\frac{d^n f}{d x^n}(x)</math> <math>= \frac{\Delta_h^n[f](x)}{h^n}+O(h)</math> <math>= \frac{\nabla_h^n[f](x)}{h^n}+O(h)</math> <math>= \frac{\delta_h^n[f](x)}{h^n} + O(h^2).</math>

Les différences d'ordre supérieur peuvent être également utilisées pour obtenir de meilleures approximations. Comme on l'a vu, les différences du premier ordre approximent les dérivées (premières) à un terme d'ordre h près. Mais la combinaison

<math> \frac{\Delta_h[f](x) - \frac12 \Delta_h^2[f](x)}h= - \frac{f(x+2h)-4f(x+h)+3f(x)}{2h} </math>

est une approximation de f'(x) à un terme d'ordre h2 près ; ceci peut se montrer en développant l'expression précédente par la formule de Taylor, ou en utilisant le calcul symbolique des différences finies Modèle:Infra.

La suite <math>(\Delta_h^n[f](x))_{n\in\N}</math> des différences avant de <math>f</math> au point <math>x</math> est la transformée binomiale de la suite <math>(f(x+nh))_{n\in\N}</math> ; elle a diverses propriétés combinatoires remarquables. Ces différences avant peuvent notamment être évaluées en utilisant l'intégrale de Nörlund-Rice. La représentation intégrale de ce type de suites est importante car l'intégrale peut souvent être évaluée en utilisant un développement asymptotique ou une méthode du point col alors que ces suites peuvent être très difficiles à évaluer numériquement, car les coefficients binomiaux croissent rapidement avec n.

Ces différences itérées possèdent des propriétés formelles utiles :

Méthodes des différences finies

Modèle:Article détaillé

En analyse numérique, une importante application des différences finies est la résolution numérique des équations différentielles et des équations aux dérivées partielles : l'idée est de remplacer les dérivées apparaissant dans l'équation par des différences finies qui les approximent. Les diverses méthodes qui en résultent sont appelées méthodes des différences finies.

De nombreuses applications de ces méthodes se rencontrent en théorie du calcul numérique, ainsi que dans des disciplines scientifiques très variées, telles que la mécanique des fluides, et ses applications à la météorologie ou à l'aérodynamique.

Séries de Newton

Modèle:Voir Le développement en série de Newton<ref>Modèle:Ouvrage, Modèle:Langue.</ref> d'une fonction <math>f</math> au point <math>a</math> est la série suivante :

<math>\sum_{k=0}^\infty\frac{\Delta^k [f](a)}{k!}(x-a)_k

= \sum_{k=0}^\infty {x-a \choose k} \Delta^k [f](a) </math>, où

<math>{x \choose k} = \frac{(x)_k}{k!}</math>

désigne le coefficient binomial généralisé et

<math>(x)_k=x(x-1)(x-2)\cdots(x-k+1)</math>

est la « factorielle descendante », le produit vide (x)0 étant par convention égal à 1.

D'après le théorème d'interpolation de Newton et le lien entre différences finies et différences divisées, la somme partielle jusqu'à <math>n</math> est le polynôme d'interpolation de Lagrange de <math>f</math> aux points <math>a,a+1,\dots, a+n</math>. Par conséquent :

Modèle:Énoncé

Cette égalité permet par exemple de démontrer l'involutivité de la transformation binomiale.

Elle est valide aussi pour certaines fonctions analytiques, mais pas toutes<ref>Pour plus de précisions, voir Modèle:Ouvrage.</ref>.

Ce développement en série de Newton correspond au cas des différences finies de pas h = 1. Si l'on itère un opérateur ayant un pas quelconque, la formule devient

<math>f(x)=\sum_{k=0}{\frac{x-a}h \choose k} \sum_{j=0}^k (-1)^{k-j}{k\choose j}f(a+j h).</math>

On notera une similarité de ce développement de Newton avec le théorème de Taylor ; ce fut historiquement cette observation, ainsi que l'identité de Chu-Vandermonde, <math>(x+y)_n=\sum_{k=0}^n {n \choose k} (x)_{n-k} ~(y)_k</math>, qui en dérive, qui amenèrent au calcul ombral.

Pour illustrer comment l'on peut utiliser ce développement de Newton, considérons les trois points (1, 2), (2, 2) et (3, 4). On peut trouver leur polynôme d'interpolation en calculant d'abord une table de différences, et en substituant alors les différences qui correspondent à <math>a=1</math> (les valeurs soulignées de la table) dans la formule, comme suit :

<math>

\begin{matrix}

\begin{array}{|c||c|c|c|} \hline

x & f=\Delta^0 & \Delta^1 & \Delta^2 \\

\hline 1&\underline{2}& & \\

& &\underline{0}& \\

2&2& &\underline{2} \\

& &2& \\

3&4& & \\ \hline \end{array}

&

\quad \begin{align} f(x)&=\frac{\Delta^0}{0!}(x-a)_0+\frac{\Delta^1}{1!}(x-a)_1+\frac{\Delta^2}{2!}(x-a)_2\quad(a=1)\\ &=\frac211+\frac01(x-1)+\frac22(x-1)(x-2)\\ &=2+(x-1)(x-2). \end{align} \end{matrix} </math>

En analyse p-adique, le théorème de Mahler affirme que l'hypothèse que f soit un polynôme peut être relâchée, et il suffit que f soit continue.

Le théorème de Carlson fournit une condition nécessaire et suffisante pour que la série de Newton soit unique, si elle existe (car il est possible que la série de Newton n'existe pas).

Cette formule d'interpolation de Newton, comme celles de Stirling et de Selberg, sont un cas spécial de Modèle:Lien, toutes définies en termes de différences avant renormalisées.

Le calcul symbolique des différences finies

L'opérateur de différence avant envoie la fonction f vers Δh[f]. Cet opérateur vérifie <math>\Delta_h = T_h-I</math>, où <math>T_h</math> est l'opérateur de translation de pas <math>h</math>, défini par <math>T_h[f](x) = f(x+h)</math>, et <math>I</math> est l'identité (<math>I[f]=f</math>, et <math>I=T_0</math>). <math>\Delta_h</math> est un opérateur linéaire, et il satisfait à la règle du produit (on dit parfois que c'est une dérivation ; voir aussi à ce sujet l'article « Corps différentiel »). Les opérateurs de différence arrière et centrale obéissent à des règles similaires.

On a <math>\Delta^n_h = [T_h-I]^n</math>, <math>\nabla^n_h = [I-T_{-h}]^n</math>, et <math>\delta^n_h = [T_{h/2}-T_{-h/2}]^n</math>, expressions qui peuvent se développer par la formule du binôme (appliquée à l'algèbre des opérateurs), puisque <math>T_h</math> et <math>T_k</math> commutent. On vérifie alors que les formules données plus haut pour les différences d'ordre supérieur coïncident avec ces développements, ce qui justifie les notations choisies.

Appliquant le théorème de Taylor (par rapport à h), on obtient

<math> \Delta_h = hD + \frac12 h^2D^2 + \frac1{3!} h^3D^3 + \cdots = \mathrm{e}^{hD} - 1, </math>

D désigne l'opérateur de dérivation usuel, envoyant f vers sa dérivée f'. Inversant (formellement) l'exponentielle, on peut donc penser que

<math> hD = \log(1+\Delta_h) = \Delta_h - \frac12 \Delta_h^2 + \frac13 \Delta_h^3 + \cdots. \, </math>

Cette formule est correcte quand on l'applique à une fonction f polynomiale, car alors la série se réduit à une somme finie. En revanche, même si f est analytique, il n'est pas garanti que la série converge : ce pourrait n'être qu'un développement asymptotique. Elle peut cependant être utilisée pour obtenir des approximations plus précises de la dérivée de f. Ainsi, les deux premiers termes de la série donnent l'approximation du second ordre à <math>f'(x)</math> mentionnée à la fin de la section sur les différences d'ordre supérieur.

On a des formules analogues pour les différences arrière et centrale :

<math> hD = -\log(1-\nabla_h) \quad\mbox{et}\quad hD = 2 \, \operatorname{arg sh}(\tfrac12\delta_h). </math>

Toutes ces formules se généralisent encore à celles du calcul ombral et à d'autres formules de l'analyse combinatoire ; ainsi, l'opérateur inverse de l'opérateur de différence avant est celui de Modèle:Lien, ce qui a permis à Lagrange une « démonstration » abstraite de la formule d'Euler-Maclaurin, en l'interprétant comme l'inverse symbolique de la formule de Taylor<ref>Joseph-Louis Lagrange, Œuvres, vol. 3, p. 441 et suivantes.</ref>.

Généralisations

Une différence finie généralisée est d'habitude définie par

<math>\Delta_h^\mu[f](x) = \sum_{k=0}^N \mu_k f(x+kh),</math>

où <math>\mu = (\mu_0,\ldots,\mu_N)</math> est le vecteur de coefficients qui lui est associé. Une différence infinie en est une généralisation supplémentaire, où la somme finie précédente est remplacée par une série (infinie). Une autre sorte de généralisation consiste à faire dépendre les coefficients <math>\mu_k</math> du point <math>x</math> : <math>\mu_k=\mu_k(x)</math>, on parle alors de différences finies pondérées ; on peut aussi faire dépendre le pas <math>h</math> du point <math>x</math> : <math>h=h(x)</math>. Toutes ces généralisations sont utiles pour construire différents modules de continuité.

Différences finies à plusieurs variables

Il est possible de calculer des différences finies dans le cas de fonctions à plusieurs variables ; elles sont l'analogue discret des dérivées partielles. On obtient ainsi les approximations suivantes :

<math> \frac{\partial}{\partial x}f(x,y)=f_{x}(x,y) \approx\frac{f(x + h,y) - f(x-h,y)}{2h}</math>
<math> \frac{\partial}{\partial y}f(x,y)=f_{y}(x,y) \approx\frac{f(x,y + k) - f(x,y-k)}{2k}</math>
<math> \frac{\partial^2}{\partial x^2}f(x,y)=f_{xx}(x,y) \approx\frac{f(x + h,y) - 2 f(x,y) + f(x-h,y)}{h^2}</math>
<math> \frac{\partial^2}{\partial y^2}f(x,y)=f_{yy}(x,y) \approx\frac{f(x,y + k) - 2 f(x,y) + f(x,y-k)}{k^2}</math>
<math> \frac{\partial^2}{\partial x\partial y}f(x,y)=f_{xy}(x,y) \approx\frac{f(x+h,y + k) - f(x+h,y-k) - f(x-h,y+k) + f(x-h,y-k)}{4hk}</math>.

Notes et références

Modèle:Traduction/Référence Modèle:Références

Voir aussi

Bibliographie

Articles connexes

Liens externes

Modèle:Portail

ja:差分 fa:روش تفاضلات محدود