Probabilité

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}
  1. REDIRECT Modèle:Voir homonymes

Modèle:Confusion

Fichier:6sided dice.jpg
Quatre dés à six faces de quatre couleurs différentes. Les six faces possibles sont visibles.

Le terme probabilité possède plusieurs sens : venu historiquement du latin probabilitas, il désigne l'opposé du concept de certitude ; il est également une évaluation du caractère probable d'un événement, c'est-à-dire qu'une valeur permet de représenter son degré de certitude ; récemment, la probabilité est devenue une science mathématique et est appelée théorie des probabilités ou plus simplement probabilités ; enfin une doctrine porte également le nom de probabilisme.

La probabilité d'un événement est un nombre réel compris entre 0 et 1. Plus ce nombre est grand, plus le risque, ou la chance, que l'événement se produise est grand. L'étude scientifique des probabilités est relativement récente dans l'histoire des mathématiques. L'étude des probabilités a connu de nombreux développements depuis le Modèle:S mini- siècleModèle:Vérification siècle grâce à l'étude de l'aspect aléatoire et en partie imprévisible de certains phénomènes, en particulier les jeux de hasard. Ceux-ci ont conduit les mathématiciens à développer une théorie qui a ensuite eu des implications dans des domaines aussi variés que la météorologie, la finance ou la chimie.

Historique

Modèle:Article détaillé À l'origine, dans les traductions d'Aristote, le mot Modèle:Citation ne désigne pas une quantification du caractère aléatoire d'un fait, mais la perception qu'une idée est communément admise par tous. Ce n'est qu'au cours du Moyen Âge, puis de la Renaissance, autour des commentaires successifs et des imprécisions de traduction de l'œuvre d'Aristote, que ce terme connaîtra un glissement sémantique pour finir par désigner la vraisemblance d'une idée.

L'apparition de la notion de Modèle:Citation, préalable à l'étude des probabilités, n'est apparue qu'au Modèle:S mini- siècleModèle:Vérification siècle, pour l'évaluation de contrats commerciaux avec le Traité des contrats de Pierre de Jean Olivi<ref>Modèle:Lien web.</ref>, et s'est développée au Modèle:S mini- siècleModèle:Vérification siècle, avec la généralisation des contrats d'assurance maritime<ref>Modèle:Lien web.</ref>. À part quelques considérations élémentaires par Girolamo Cardano<ref>http://www.cict.fr/~stpierre/histoire/node1.html site sur l'histoire des probabilités</ref> au début du Modèle:S mini- siècleModèle:Vérification siècle, et par Galilée au début du Modèle:S mini- siècleModèle:Vérification siècle, le véritable début de la théorie des probabilités date de la correspondance entre Pierre de Fermat et Blaise Pascal, en 1654.

C'est dans la seconde moitié du Modèle:S mini- siècleModèle:Vérification siècle, à la suite des travaux de Blaise Pascal, Pierre de Fermat et Christian Huygens<ref group="b">Ces trois auteurs n'ont jamais utilisé le terme Modèle:Citation dans le sens qu'il prend par la suite avec le Modèle:Citation. </ref>,<ref name="meusnier" group="a">Modèle:Article.</ref> sur le problème des partis, que le terme Modèle:Citation prend peu à peu son sens actuel, avec les développements du traitement mathématique du sujet par Jakob Bernoulli.

Au Modèle:S mini- siècleModèle:Vérification siècle, Gabriel Cramer donne un cours sur la logique probabiliste qui deviendra une base à l'article probabilité de l'encyclopédie de Diderot, écrite à la fin de ce même siècle<ref group="a" name="martin">Modèle:Article</ref>. Ce n'est alors qu'au Modèle:S mini- siècleModèle:Vérification siècle qu'apparaît ce qui peut être considéré comme la théorie moderne des probabilités en mathématiques.

Le calcul des probabilités prend un nouvel essor au début du Modèle:S mini- siècleModèle:Vérification siècle, avec l'axiomatique de Kolmogorov; commence alors la théorie des probabilités. Les probabilités deviennent une science et une théorie, comme branche des mathématiques<ref name="aslangul1">Modèle:Harvsp</ref>.

Terminologies

Ainsi, il existe plusieurs notions que nous détaillerons dans les sections suivantes :

  • la probabilité d'un fait caractérise la possibilité que ce fait se produise, une vraisemblance, une apparence de vérité<ref group="a" name="CNRTL">Modèle:Lien web</ref>. (définition 2 du Larousse<ref group="a" name="larousse">Modèle:Lien web</ref>). Le probable, la connaissance probable ou la logique probabiliste<ref group="a" name="martin"/> sont des termes utilisés, notamment au Modèle:S mini- siècleModèle:Vérification siècle, pour désigner une connaissance intermédiaire entre la certitude de la vérité et la certitude de la fausseté.

Modèle:Retrait

  • les probabilités d'un fait donnent le pourcentage de chance qu'un fait se produise, c'est-à-dire qu'elles donnent une ou plusieurs valeurs (ou pourcentages) de la possibilité qu'il se produise. Cette notion se rapproche de la notion mathématique de loi de probabilité (définition 1 du Larousse<ref group="a" name="larousse"/>). Plus formellement, c'est le rapport du nombre de cas favorables au nombre de cas possibles<ref group="a" name="CNRTL"/>.

Modèle:Retrait

  • les probabilités ou le calcul des probabilités ou la théorie des probabilités sont la théorie mathématique qui étudie le caractère probable des événements (définition 1 du Larousse<ref group="a" name="larousse"/>).

Modèle:Retrait

  • la doctrine des probabilités ou probabilisme est une doctrine de théologie morale qui enseigne qu'on peut suivre une opinion, pourvu qu'elle soit probable<ref group="a" name="CNRTL"/>.Modèle:Retrait

Probabilité et certitude

Le premier usage du mot probabilité apparaît en 1370 avec la traduction de l'éthique à Nicomaque d'Aristote par Oresme, et désigne alors « le caractère de ce qui est probable »<ref group="a" name="CNRTL"/>. Le concept de probable chez Aristote (Modèle:Grec ancien, en grec) est ainsi défini dans les Topiques<ref name="tricot16">Modèle:Harvsp</ref> :

Modèle:Citation bloc

Ce qui rend une opinion probable chez Aristote est son caractère généralement admis<ref name="macé" group="a">Modèle:Article</ref>; ce n'est qu'avec la traduction de Cicéron des Topiques d'Aristote, qui traduit par probabilis ou par verisimilis, que la notion de vraisemblance est associée à celle de « probabilité », ce qui aura un impact au cours du Moyen Âge puis de la Renaissance, avec les commentaires successifs de l'œuvre d'Aristote<ref name="spranzi" group="a">Modèle:Article</ref>.

Une phrase, situation ou proposition est vraie ou fausse. Sa probabilité est la Modèle:Citation<ref group="a" name="martin"/>. La notion d'incertitude est quant à elle le défaut de cette connaissance. Pour une proposition, il existe alors trois cas<ref group="a" name="martin"/> :

  • la proposition est reconnue comme vraie avec certitude ;
  • la proposition est reconnue comme fausse avec certitude ;
  • elle est probable si on ne peut la reconnaître vraie ou fausse. Dans ce cas, il est possible de mesurer une certaine vraisemblance par la connaissance du nombre de conditions requises pour être reconnue vraie.

Cette représentation développée par Cramer permet de faire apparaître une manière de mesurer la notion d'incertitude ou de probabilité. Il donne alors la définition suivante de la probabilité :

Modèle:Théorème

Probabilités d'un événement

Modèle:Article détaillé Comme précisé précédemment, la notion de probabilité permet de quantifier le hasard. La formalisation du début du Modèle:S mini- siècleModèle:Vérification siècle est aujourd'hui unanimement utilisée. (par exemple, voir l'ouvrage de Jacod et Protter<ref name="jacod7">Modèle:Harvsp</ref> pour cette section)

La probabilité d'un certain événement Modèle:Mvar, notée <math>\mathbb{P}(A)</math>, associe une valeur entre 0 et 1 que l'événement se réalise. Lorsque <math>\mathbb{P}(A)=1</math>, l'événement est dit presque sûr (ou quasi certain), c'est-à-dire qu'il a « toutes les chances » de se réaliser. À l'inverse si <math>\mathbb{P}(A)=0</math>, Modèle:Mvar est dit négligeable (ou quasi impossible), c'est-à-dire qu'il a une chance nulle de se réaliser.

La probabilité d'un événement Modèle:Mvar peut s'obtenir de manière fréquentiste, notamment lorsqu'il est possible de faire une expérience plusieurs fois et de compter le nombre de succès de l'expérience. En effet, si on effectue Modèle:Mvar fois une expérience indépendamment et que dans Modèle:Mvar fois des cas, l'événement Modèle:Mvar est réalisé, alors, la probabilité de Modèle:Mvar est donnée par : Modèle:Retrait De manière plus probabiliste, lorsque le nombre de résultats possibles de l'expérience est fini et que ces résultats sont équiprobables, la probabilité de Modèle:Mvar est obtenue par : Modèle:Retrait \text{ } A \text{ se r}\mathrm{\acute{e}} \text{alise}}{\text{nombre de cas possibles}}</math>.}}

Mathématiquement, l'événement Modèle:Mvar est un sous-ensemble d'un ensemble Modèle:Math qui représente toutes les éventualités possibles. Pour obtenir une théorie, des axiomes ont été proposés par Kolmogorov : la probabilité <math>\mathbb{P}</math> doit vérifier :

  1. pour tout événement Modèle:Mvar, <math> 0\leq \mathbb P(A)\leq 1</math>,
  2. <math> \mathbb P(\Omega) = 1</math>,
  3. <math> \mathbb P(A \cup B)=\mathbb P(A) + \mathbb P(B)</math> pour <math> A\cap B=\emptyset</math>.

Plus rigoureusement, l’ensemble Omega est muni d’une tribu, les événements sont les éléments de cette tribu, et la probabilité P est une application de Omega vers [0,1] vérifiant les propriétés précédentes, la propriété 3 étant demandée pour des unions dénombrables d’événements disjoints deux à deux.

Grâce à cette description, plusieurs notions peuvent s'écrire de manière mathématique.

Modèle:Article détaillé Deux événements sont dits indépendants si le fait de connaître la probabilité du premier événement ne nous aide pas pour prévoir la probabilité du second et inversement. Mathématiquement, cela s'écrit : <math> \mathbb P(A\cap B)=\mathbb P(A)\mathbb P(B)</math>. Par exemple, la probabilité d'obtenir un 1 à un premier jeté de dé (à 6 faces) et d'obtenir un 1 au deuxième jeté de dé est la multiplication des deux probabilités et vaut 1/36.

Modèle:Article détaillé Il est possible de considérer la probabilité d'un événement (notons le Modèle:Mvar) conditionnellement à un autre (noté Modèle:Mvar). Lorsque les deux événements ne sont pas indépendants, le fait de connaître la probabilité de l'un influence la probabilité de l'autre par la formule : <math> \mathbb P(A\mid B)=\mathbb P(A\cap B)/\mathbb P(B)</math>. Par exemple, la probabilité d'obtenir la somme des deux dés égale à 12 lorsque le premier dé a donné 6 vaut 1/6.

Modèle:Article détaillé Des formules existent pour pouvoir calculer beaucoup de types de probabilités. C'est le cas par exemple de la formule de Poincaré, de la formule des probabilités totales ou du théorème de Bayes.

Théorie des probabilités

Modèle:Article détaillé Encouragé par Pascal, Christian Huygens publie De ratiociniis in ludo aleae (raisonnements sur les jeux de dés) en 1657. Ce livre est le premier ouvrage important sur les probabilités. Il y définit la notion d'espérance et y développe plusieurs problèmes de partages de gains lors de jeux ou de tirages dans des urnes<ref>Les probabilités : Approche historique et définition.</ref>. Deux ouvrages fondateurs sont également à noter : Ars Conjectandi de Jacques Bernoulli (posthume, 1713) qui définit la notion de variable aléatoire et donne la première version de la loi des grands nombres<ref>http://www.cict.fr/~stpierre/histoire/node3.html, une histoire de la probabilité jusqu'à Laplace</ref>, et Théorie de la probabilité d' Abraham de Moivre (1718) qui généralise l'usage de la combinatoire<ref>Ian Hacking L'émergence des probabilités</ref>.

La théorie de la probabilité classique ne prend réellement son essor qu'avec les notions de mesure et d'ensembles mesurables qu'Émile Borel introduit en 1897. Cette notion de mesure est complétée par Henri Léon Lebesgue et sa théorie de l'intégration<ref>http://www.cict.fr/~stpierre/histoire/node4.html histoire des probabilités de Borel à la seconde guerre mondiale</ref>. La première version moderne du théorème central limite est donnée par Alexandre Liapounov en 1901<ref>Entre De Moivre et Laplace</ref> et la première preuve du théorème moderne est donnée par Paul Lévy en 1910. En 1902, Andrei Markov introduit les chaînes de Markov<ref>DicoMaths : Chaine de Markov Modèle:Lien archive</ref> pour entreprendre une généralisation de la loi des grands nombres pour une suite d'expériences dépendant les unes des autres. Ces chaînes de Markov connaîtront de nombreuses applications, entre autres pour modéliser la diffusion ou pour l'indexation de sites internet par Google.

Il faudra attendre 1933 pour que la théorie des probabilités sorte d'un ensemble de méthodes et d'exemples divers et devienne une véritable théorie, axiomatisée par Kolmogorov<ref>un article sur la mise en place de l'axiomatisation des probabilités.</ref>.

Kiyoshi Itô met en place une théorie et un lemme qui porte son nom dans les années 1940<ref>Biographie d'Itô sur le site de Mac Tutor</ref>. Ceux-ci permettent de relier le calcul stochastique et les équations aux dérivées partielles, faisant ainsi le lien entre analyse et probabilités. Le mathématicien Wolfgang Doeblin avait de son côté ébauché une théorie similaire avant de se suicider à la défaite de son bataillon en Modèle:Date-. Ses travaux furent envoyés à l'Académie des sciences dans un pli cacheté qui ne fut ouvert qu'en 2000<ref>Bernard Bru et Marc Yor (éd.), « Sur l'équation de Kolmogoroff, par W Doeblin », C. R. Acad. Sci. Paris, Série I 331 (2000). Sur la vie de Doeblin, voir Bernard Bru, « La vie et l'œuvre de W. Doeblin (1915-1940) d'après les archives parisiennes », Math. Inform. Sci. Humaines 119 (1992), 5-51 et, en anglais, Biographie de Doeblin sur le site de Mac Tutor</ref>.

Axiomatique

Modèle:Article détaillé Au début du Modèle:S mini- siècleModèle:Vérification siècle, Kolmogorov définit des axiomes mathématiques afin de pouvoir étudier le hasard. Ainsi il construit l'espace des possibles, appelé univers, qui contient tous les hasards possibles, il le munit d'un ensemble qui contient des sous-ensembles de l'univers, appelé tribu et vérifiant certaines hypothèses, et d'une mesure de probabilité qui permet de calculer les probabilités correspondantes. L'espace <math> (\Omega, \mathcal A, \mathbb P)</math> ainsi construit vérifie les trois axiomes des probabilités<ref name="Sinai6">Modèle:Harvsp</ref> :

  1. (Positivité) la probabilité d'un événement est une valeur entre 0 et 1 : pour tout <math> A\in \mathcal A</math>, <math> 0\leq \mathbb P(A)\leq 1</math> ;
  2. (Masse unitaire) la probabilité de l'univers est 1 : <math> \mathbb P(\Omega) = 1</math> ;
  3. (Additivité) pour toute suite dénombrable d'événements <math> A_1,A_2,\dots \in \mathcal A</math> disjoints deux à deux, c'est-à-dire tels que <math> A_i\cap A_j=\emptyset</math> pour tous <math> i\neq j</math>, alors : <math> \mathbb{P} \left( \bigcup_{i\geq 1}A_i \right) = \sum_{i\geq 1}\mathbb{P} (A_i)</math>.

Variables aléatoires, lois et caractérisations

Modèle:Article détaillé Afin de pouvoir mieux manipuler le hasard, il est commode d'utiliser une variable aléatoire. Elle peut être réelle, mais peut aussi être multidimensionnelle, ou même plus générale. Cette variable aléatoire réelle est, en théorie, une application (mesurable) : <math> X:\Omega \rightarrow \mathbb R</math> <ref name="Le Gall93">Modèle:Harvsp</ref> qui à chaque aléa <math>\omega\in \Omega</math>, associe le résultat de l'expérience : <math> X(\omega)</math>.

Modèle:Article détaillé Cette variable possède une répartition de ses valeurs donnée par sa loi de probabilité, qui est une mesure. Cette dernière peut être représentée de nombreuses manières, les plus communes étant par l'utilisation de la fonction de répartition, la densité de probabilité (si elle existe) ou la fonction de masse, le cas échéant. De nombreuses propriétés des lois de probabilité, et donc des variables aléatoires, peuvent être étudiées : espérance, moments, indépendance entre plusieurs variables, etc.

Convergence et théorèmes limites

Modèle:Article détaillé Il est possible de considérer une infinité de variables aléatoires : <math> (X_n, n\in \mathbb N)</math>. Dans ce cas, y a-t-il une limite possible? La question de notion de convergence aléatoire se pose alors. Il existe plusieurs types de convergences<ref name="Bertoin34">Modèle:Harvsp</ref> : la convergence en loi qui est la convergence de la loi de la variable (en tant que mesure), la convergence en probabilité, la convergence presque sûre ou encore la convergence en moyenne.

Modèle:Article détaillé De nombreux théorèmes limites existent alors. Les plus connus sont : la loi des grands nombres qui annonce que la moyenne des Modèle:Math premières variables aléatoires converge vers la moyenne théorique de la loi commune des variables aléatoires<ref name="Le Gall120">Modèle:Harvsp</ref> ; le théorème central limite, qui donne la bonne renormalisation de la somme des variables aléatoires pour avoir une limite non triviale<ref name="Le Gall138">Modèle:Harvsp</ref>.

Calcul stochastique

Modèle:Article détaillé Le calcul stochastique est l'étude des phénomènes qui évoluent au cours du temps de manière aléatoire<ref name="Yor15">Modèle:Harvsp</ref>. Le temps peut être modélisé de manière discrète, c'est-à-dire par les valeurs entières : <math> 0,1,2,\dots </math>, dans ce cas le phénomène est représenté par une suite (infinie) de variables aléatoires : <math> (X_n,n\geq 0)</math>, c'est par exemple le cas d'une marche aléatoire ou d’une chaîne de Markov. Le temps peut également être modélisé de manière continue, c'est-à-dire par des valeurs réelles <math> t\in \mathbb R_+</math> ou <math> t\in \mathbb R</math>, il s'agit alors d'un processus stochastique <math> (X_t,t\geq 0)</math>.

Plusieurs propriétés sont alors liées au calcul stochastique : la propriété de Markov annonce que le mouvement futur du phénomène ne dépend que de l'état présent et non pas du mouvement passé ; la récurrence et la transience d'une chaîne de Markov assurent le retour ou le passage un nombre fini de fois en un état donné ; une martingale est un processus tel que l'état futur est déterminé en moyenne par l'état présent, etc.

Doctrine des probabilités

Modèle:Article détaillé La doctrine de la probabilité, autrement appelée probabilisme, est une théologie morale catholique qui s'est développée au cours du Modèle:S mini- siècleModèle:Vérification siècle, sous l'influence, entre autres, de Bartolomé de Medina et des jésuites. Avec l'apparition de la doctrine de la probabilité, ce terme connaîtra un glissement sémantique pour finir par désigner, au milieu du Modèle:S mini- siècleModèle:Vérification siècle, le caractère vraisemblable d'une idée.

La probabilité d'une opinion désigne alors, au milieu du Modèle:S mini- siècleModèle:Vérification siècle, la probabilité qu'une opinion soit vraie. Ce n'est qu'à partir de la fin du Modèle:S mini- siècleModèle:Vérification siècle, avec l'émergence de la probabilité mathématique, que la notion de probabilité ne concernera plus seulement les opinions et les idées, mais aussi les faits, et se rapprochera de la notion de hasard<ref group="b">Pour désigner cette mathématique du probable, Pascal, en 1654, parle de Modèle:Citation.</ref> que l'on connaît aujourd'hui.

Interprétations de la probabilité

Modèle:Article détaillé Lors de l'étude d'un phénomène aléatoire, il existe plusieurs façons d'aborder la notion de probabilité liée à ce phénomène<ref group="a">Modèle:Lien web</ref>.

  • La conception subjective de la probabilité d'un événement s'applique dans le cas où il est difficile, voire impossible, de connaître les différentes probabilités des résultats d'une expérience aléatoire. Notamment dans le cas où l'expérience ne peut se réaliser plusieurs fois dans les mêmes conditions. Les probabilités attribuées ne correspondent alors pas exactement à la réalité, et leurs estimations peuvent varier selon les personnes et les situations. On parle dans ce cas de probabilité épistémique ou de probabilité bayésienne. Il s'agit d'une probabilité s'appliquant au jugement que l'on porte plus que sur l'événement lui-même<ref>Thierry Martin, La probabilité, un concept pluriel,Pour la Science, n°385, novembre 2009, p.46-50</ref>,<ref>Mikaël Cozic, Isabelle Drouet, Interpréter les probabilités, Pour la Science, n°385, novembre 2009, p.52-58</ref>.

Modèle:Retrait

  • La conception fréquentiste des probabilités d'un événement est plus historique. Elle permet d'attribuer les chances de réalisation de chaque événement par une méthode statistique, c'est-à-dire en réalisant plusieurs fois l'expérience et d'en déduire une estimation des probabilités liées aux événements. Idéalement il faudrait répéter l'expérience à l'infini pour obtenir les probabilités réelles de l'expérience, cependant, puisque ce n'est pas possible, les méthodes expérimentales donnent des probabilités empiriques. (voir la section Les probabilités d'un événement ci-dessus). Cette notion s'appelle également probabilité statistique ou probabilité a posteriori<ref group="a" name="CNRTL"/>.Modèle:Retrait
  • La conception classique de la probabilité s'utilise dans le cas de situations prédéfinies considérées comme connues. Beaucoup de situations sont considérées comme aléatoires et équiprobables, c'est-à-dire que chaque événement élémentaire à la même chance d'apparaître. Cette conception est également appelée objective, probabilité mathématique ou probabilité a priori<ref group="a" name="CNRTL"/>.Modèle:Retrait

Une notion philosophique apparaît alors : puisque nous ne connaissons la nature et le monde autour de nous que par notre expérience et notre point de vue, nous ne le connaissons que de manière subjective et ne pouvons estimer précisément les lois objectives qui les dirigent.

Vulgarisation

Le Giec utilise pour les résumés pour décideurs de ses rapports un langage naturel calibré<ref>Modèle:Lien web</ref>.

Modèle:Citation

Applications

Les jeux de hasard sont l'application la plus naturelle des probabilités mais de nombreux autres domaines s'appuient ou se servent des probabilités. Citons entre autres :


Liens avec la statistique

Modèle:Article détaillé Il existe plusieurs façons d'aborder les probabilités : le calcul a priori et le calcul a posteriori<ref name="Saporta319">Modèle:Harvsp</ref>. (voir la section interprétation des probabilités ci-dessus). Le calcul des probabilités a posteriori correspond à une attribution des valeurs des probabilités inconnues grâce au théorème de Bayes.

Pour estimer les probabilités, les estimateurs statistiques sont utilisés afin de mieux approcher la variable recherchée<ref name="Saporta289">Modèle:Harvsp</ref>. Un estimateur est une valeur calculée à partir d'un échantillon de la population totale étudiée. Un estimateur est bien choisi, c'est-à-dire qu'il donnera une bonne estimation des valeurs recherchées, si c'est un estimateur sans biais et convergent ; autrement dit la moyenne empirique approche la moyenne théorique et l'estimateur converge vers la bonne variable aléatoire lorsque la taille de l'échantillon augmente. La méthode du maximum de vraisemblance permet de choisir un bon estimateur.

Par ces méthodes, il est possible d’estimer les paramètres inconnus d'une loi de probabilité associée au phénomène étudié<ref name="Saporta292">Modèle:Harvsp</ref>.

La révision bayésienne est une autre méthode pour le calcul des probabilités a posteriori<ref group="a">Modèle:Article</ref>. Celle-ci se fait grâce au théorème de Bayes :Modèle:Retrait Dans cette formule, l'hypothèse représente ce que l'on suppose a priori sur le phénomène aléatoire, la preuve est une partie du phénomène que l'on connaît et que l'on peut mesurer. Le terme <math>\mathbb P(\textrm{preuve}|\textrm{hypothese})</math> est appelé vraisemblance. Ainsi <math>\mathbb P(\textrm{hypothese}|\textrm{preuve})</math> permet de mesurer la probabilité a posteriori de l'hypothèse que l'on fixe en tenant compte de la preuve.

Exemple 1

La fréquence empirique permet d'estimer les probabilités. Dans un échantillon de Modèle:Math individus, il suffit de compter le nombre de fois où l'individu appartient à la catégorie Modèle:Math recherchée<ref name="Saporta278">Modèle:Harvsp</ref>. En notant <math> n_A</math> ce nombre parmi les Modèle:Math tirages, la fréquence <math> \frac{n_A}{n}</math> est proche de la probabilité <math> \mathbb P(A)</math> recherchée. Lors de 400 lancers de pièces, s'il apparaît 198 fois le côté face, alors on en déduit que la probabilité d'obtenir face est approximativement <math> \mathbb P(\text{obtenir face})\simeq\frac{198}{400}= 0,495</math>. C'est un cas particulier de la loi des grands nombres. 0,495 est la valeur estimée de <math> \mathbb P(\text{obtenir face})</math>.

Exemple 2

Une liste de valeurs <math> x_1,x_2,\dots,x_n</math> est connue, elle est supposée être le résultat d’expériences indépendantes de loi normale dont la moyenne Modèle:Mvar est connue<ref name="Saporta292"/>. La question est de trouver l'écart type Modèle:Math de la loi normale. La statistique Modèle:Mvar définie par <math> T^2={1 \over n } \sum_{i=1}^n (x_i-m)^2</math> est un estimateur de Modèle:Math, c'est-à-dire qu'il tend vers Modèle:Math lorsque Modèle:Mvar tend vers l'infini.

Exemple 3

On se demande quel temps il fera demain, la météo permet d'obtenir des informations supplémentaires. Certaines données sont alors connues : dans cet exemple, la probabilité que la météo annonce un beau temps sachant qu'il fera effectivement beau : <math> \mathbb P(M|\text{beau})=0,9</math>, la probabilité que la météo annonce un beau temps sachant qu'il pleuvra : <math> \mathbb P(M|\text{pleut})=0,2</math>.

Une hypothèse est choisie : par exemple <math> \mathbb P(\text{beau})=1/2</math>, c'est-à-dire que l'on considère, a priori, qu'il y a une chance sur deux qu'il fera beau demain.

Il est alors possible de calculer la probabilité que la météo annonce un beau temps :Modèle:Retrait c'est-à-dire que la météo annonce un beau temps dans 55 % des cas. La probabilité qu'il fera beau demain sachant que la météo a annoncé beau temps est alors donnée par :Modèle:Retrait

Il est alors possible de réviser une deuxième fois l'hypothèse qu'il fera beau en regardant un deuxième bulletin météo d'une source différente. On prendrait alors comme nouvelle hypothèse la probabilité d'avoir un beau temps nouvellement calculée.

Notes et références

Notes

Modèle:Références

Références

Ouvrages

Modèle:Références

Articles et autres sources

Modèle:Références

Voir aussi

Modèle:Autres projets

Bibliographie


Articles connexes

Modèle:Colonnes

Liens externes

Modèle:Palette Modèle:Portail