Complexité de Kolmogorov
Modèle:Autre4 Modèle:Méta bandeau d'avertissement{{#ifeq:
| | {{#if: | |[[{{#ifexist:Catégorie:Article à recycler{{#if:informatique|/informatique}}|Catégorie:Article à recycler{{#if:informatique|/informatique}}|Catégorie:Article à recycler}}|Complexité de Kolmogorov]]{{#if: juillet 2013||}} }}
}} En informatique théorique et en mathématiques, plus précisément en théorie de l'information, la complexité de Kolmogorov, ou complexité aléatoire, ou complexité algorithmique d'un objet — nombre, image numérique, chaîne de caractères — est la taille du plus petit algorithme (dans un certain langage de programmation fixé) qui engendre cet objet. Elle est nommée d'après le mathématicien Andreï Kolmogorov, qui publia sur le sujet dès 1963<ref>Modèle:Article</ref>,<ref>Modèle:Article</ref>. Elle est aussi parfois nommée complexité de Kolmogorov-SolomonoffModèle:Référence nécessaireModèle:Par qui. Cette quantité peut être vue comme une évaluation d'une forme de complexité de l'objet.
Exemples
Premier exemple - chaînes de texte
Considérons deux textes, chacun composé d'une chaîne de 32 caractères :
abababababababababababababababab
- et
4c1j5b2p0cv4w1x8rx2y39umgw5q85s7
Le premier de ces deux textes peut être engendré par l'algorithme « ab
Modèle:Nb » autrement dit par un algorithme de Modèle:Nb, alors que le second ne semble pas avoir de petit algorithme qui l'engendre mise à part l'algorithme qui consiste à écrire cette chaîne de caractères, c'est-à-dire un algorithme de Modèle:Nb. Ainsi, le premier texte semble avoir une complexité de Kolmogorov plus petite que celle du deuxième.
Deuxième exemple - une image
La figure de droite montre une image bitmap qui présente l'ensemble de Mandelbrot. Cette image de Modèle:Nb de palette pèse environ Modèle:Nb<ref>Page de description du fichier sur Wikimedia Commons.</ref>. Par contre, un petit algorithme peut reproduire cette image à partir de la définition mathématique de l'ensemble de Mandelbrot et des coordonnées des coins de l'image. Ainsi, la complexité de Kolmogorov de l'image bitmap (non compressée) est beaucoup moins que Modèle:Nb dans un modèle de calcul raisonnable.
Définition
Considérons une machine informatique Modèle:Mvar pouvant exécuter des programmes. On dit que cette machine est universelle lorsqu’elle peut émuler n'importe quelle autre machine informatique. La machine de Turing universelle en est un exemple.
On note Modèle:Mvar l'ensemble des programmes écrits pour la machine Modèle:Mvar. Pour un programme Modèle:Math, on note Modèle:Math sa longueur en nombre d’instructions pour la machine Modèle:Mvar et Modèle:Math sa sortie. La complexité de Kolmogorov Modèle:Math, ou complexité algorithmique, d’une suite Modèle:Mvar finie de caractères pour une machine Modèle:Mvar est définie par :
- <math>K_M (x) = \min_{p\in P_M} \{l(p), s(p) = x\}</math>.
C’est donc la longueur du plus petit programme écrit pour la machine Modèle:Mvar qui génère la suite Modèle:Mvar. Une suite constante a une complexité faible car les programmes qui la génèrent peuvent être très courts.
Reste à savoir dans quelle mesure la fonction Modèle:Math dépend de la machine Modèle:Mvar, car on peut tout à fait imaginer une machine possédant des instructions simples pour générer certaines suites complexes. La réponse est la suivante : il existe une machine universelle Modèle:Mvar (souvent qualifiée d'additivement optimale) telle que pour toute machine Modèle:Mvar il existe une constante Modèle:Math vérifiant pour toute suite Modèle:Mvar l'inégalité :
- <math> K_U(x) \leq K_M(x) + c_M </math>
Intuitivement, Modèle:Math est la longueur d'un interpréteur (ou d'un émulateur), écrit pour la machine Modèle:Mvar, du langage utilisé par la machine Modèle:Mvar. On parle alors d’universalité de la complexité de Kolmogorov, en ce sens qu'elle ne dépend pas, à une constante additive près, de la machine considérée.
Une suite peut alors être considérée comme d’autant plus « aléatoire » que sa complexité est grande par rapport à sa taille. De ce point de vue, les décimales des nombres Modèle:Math, Modèle:Math ou Modèle:Racine ne sont pas vraiment aléatoires puisqu'il existe des algorithmes très simples pour les calculer.
Une difficulté supplémentaire réside dans le fait que la complexité de Kolmogorov n'est pas décidable : on peut donner un algorithme produisant l'objet voulu, ce qui prouve que la complexité de cet objet est au plus la taille de cet algorithme. Mais on ne peut pas écrire de programme qui donne la complexité de Kolmogorov de tout objet que l'on voudrait lui donner en entrée.
La notion, manipulée avec précaution, se révèle néanmoins à l'origine de nombreux résultats théoriques.
Par exemple, on appelle nombre incompressible au sens de Kolmogorov un réel dont le développement p-adique (binaire pour plus de commodité) est comparable à la taille de l'algorithme qui permet de le calculer. En ce sens, tous les rationnels et certains irrationnels sont compressibles, en particulier les nombres transcendants comme [[Pi|Modèle:Math]], [[e (nombre)|Modèle:Math]], les nombres de Liouville ou 0,12345678910111213… dont le développement binaire est infini mais la suite des décimales parfaitement calculable. En revanche, le nombre dit [[Oméga de Chaitin|Modèle:Math de Chaitin]] ne l'est pas : ce nombre mesure la probabilité qu'une machine, alimentée par un programme composé de bits aléatoires, s'arrête. La topologie des nombres incompressibles est intéressante : on conçoit intuitivement que cet ensemble est dense dans <math>\mathbb R</math>, mais il est impossible d'exhiber de façon algorithmique un réel incompressible, puisque cela reviendrait à en donner une méthode de calcul efficace. De plus, on peut démontrer que tous les nombres incompressibles sont normaux, la suite de leurs décimales doit être aléatoire au sens fort.
Propriétés
La complexité de Kolmogorov n'est pas calculable. En d'autre termes il n'existe pas de programme informatique qui prenne en entrée s et renvoie K(s). Pour le prouver, raisonnons par l'absurde et supposons qu'une telle fonction Kolmo existe. On note k la taille de cette fonction (i.e. le nombre de caractères de son code source). On pourrait alors écrire l'algorithme suivant :
n := 1 Tant que Kolmo(n) < k + 100 faire: n := n + 1 Fin du Tant que écrire n
Ainsi cet algorithme écrit le plus petit nombre à avoir une complexité de Kolmogorov supérieure à k+100 (ce nombre existe nécessairement car il n'y a qu'un nombre fini de programmes de taille plus petite que k+100 et il y a une infinité de nombres entiers naturels).
Mais l'algorithme ci-dessus s'écrit justement avec moins de k+100 caractères : il est donc de complexité inférieure à k+100, or il écrit justement un nombre de complexité supérieure à k+100, ce qui est absurde (on peut rapprocher cette remarque de l'argument utilisé pour le paradoxe de Berry).
Donc il n'existe pas de fonction qui calcule la complexité de Kolmogorov.
Variantes avec ressources bornées
La définition de la complexité de Kolmogorov est défini en fonction du plus petit programme qui produit x. Mais ce programme pourrait consommer d'importantes ressources. C'est pourquoi il est important de prendre en compte les ressources utilisées par le programme<ref>Modèle:Ouvrage</ref>. Soit U une machine universelle. Voici une version bornée par le temps t :
<math> C^t(x) = \min_{p} \{|p| : U(p) \text{ écrit } x \text{ en } t(|x|) \text{ étapes}\} </math>
On notera que la complexité temporelle est définie en fonction de la sortie x et non pas de la taille du programme p. Sipser, en 1983<ref>Modèle:Article</ref>, a proposé une mesure de la taille du plus petit programme qui permet de distinguer une chaîne de caractère x. Buhrman, Fortnow et Laplante en 2002 en donnèrent une version non déterministe, en prenant une machine universelle non-déterministe<ref>Modèle:Article</ref>. On trouve d'autres définitions chez LevinModèle:Référence nécessaire, et chez Allender<ref>Modèle:Article</ref> où la définition de la complexité est la somme de la complexité de Kolmogorov et la contribution de la complexité temporelle.
Lien avec la théorie de la complexité algorithmique
Des liens entre complexité de Kolmogorov et théorie de la complexité ont établi en utilisant l'ensemble suivant comme oracle :
R = ensemble des chaînes de caractères x dont la complexité de Kolmogorov est au moins |x|/2
En 2002, Allender, Buhrman, Koucky, van Melkebeek et Ronnerbuger<ref name=":0">Modèle:Article</ref> démontrent que PSPACE est inclus dans PR et que EXPTIME est inclus dans NPR. Puis, en 2004, Allender, Buhrman, Koucky démontrent<ref>Modèle:Article</ref>, en utilisant les mêmes techniques, que NEXPTIME est inclus dans NPR.
Notes et références
Une partie de cet article (ou d'une version antérieure) est adaptée de « Petit manuel à l’usage des agrégatifs préparant l’oral de modélisation stochastique », écrit par Djèlil Chafaï et publié sous GFDL.
Notes
Références
Annexes
Bibliographie
- {{#invoke:Langue|indicationDeLangue}} Gregory Chaitin Hasard et complexité en mathématiques, la quête de Ω, Flammarion, janvier 2007 Modèle:ISBN.
- Ming Li and Paul Vitanyi. An Introduction to Kolmogorov Complexity and Its Applications. Springer Verlag 2008 Modèle:ISBN