Loading AI tools
moyenne des valeurs prises par une variable aléatoire, pondérées par leurs probabilités De Wikipédia, l'encyclopédie libre
En théorie des probabilités, l'espérance mathématique (ou tout simplement espérance, ou premier moment) d'une variable aléatoire réelle est, intuitivement, la moyenne des valeurs obtenues si l'on répète un grand nombre de fois la même expérience aléatoire. Étant donné que c'est une moyenne, il se peut qu'elle ne soit pas dans les valeurs réalisables, et donc ce n'est pas forcément une valeur que l'on s'attend à trouver durant une expérience. Si est une variable aléatoire, l'espérance de se note (ou [1]).
Elle correspond à une moyenne pondérée des valeurs que peut prendre cette variable. Dans le cas où celle-ci prend un nombre fini de valeurs, il s'agit d'une moyenne pondérée par les probabilités d'apparition de chaque valeur. Dans le cas où la variable aléatoire possède une densité de probabilité, l'espérance est la moyenne des valeurs pondérées par cette densité. De manière mathématiquement plus précise et plus générale, l'espérance d'une variable aléatoire est l'intégrale de cette variable selon la mesure de probabilité de l'espace probabilisé de départ.
La présentation intuitive de l'espérance exposée ci-dessus est la conséquence de la loi des grands nombres : l'espérance, si elle existe[2], est la limite presque-sûre de la moyenne des résultats au cours de plusieurs expériences, quand leur nombre augmente à l'infini.
L'espérance est une caractéristique importante d'une loi de probabilité : c'est un indicateur de position. Ainsi, une variable aléatoire est dite centrée si son espérance est nulle. Elle forme, avec la variance, indicateur de dispersion, l'ensemble des indicateurs qui sont presque systématiquement donnés quand est présentée une variable aléatoire.
L'espérance joue un rôle important dans un grand nombre de domaines, comme dans la théorie des jeux, la théorie de la décision, ou encore en théorie du signal et en statistique inférentielle où un estimateur est dit sans biais si son espérance est égale à la valeur du paramètre à estimer.
La notion d'espérance est popularisée par Christian Huygens dans son Traité du hasard de 1656 sous le nom de « valeur de la chance ».
La répartition des mises d'un jeu de hasard si la partie est interrompue avant sa fin, ou encore l'estimation des sommes qu'on peut espérer gagner dans un tel jeu, ont suscité l'intérêt des mathématiciens dès le 15e siècle (Luca Pacioli), et de nombreuses contributions et controverses jusque vers le milieu du 17e siècle, notamment de la part de Tartaglia, Forestani et Cardan[3]. Cette question est celle examinée, et largement résolue, par Blaise Pascal dans son problème des partis[4] en 1654 et par Christian Huygens dans son ouvrage Du calcul dans les jeux de hasard[5]en 1657.
Dans une lettre à Fermat datée du 29 juillet 1654, Blaise Pascal mentionne un problème qui lui a été posé par le chevalier de Méré[6], auquel il donne une esquisse de solution. Pascal reprend ce sujet et en approfondit les solutions dans son "Traité du triangle arithmétique", publié en 1655, dans la partie intitulée "Usage du triangle arithmétique pour déterminer les partis qu'on doit faire entre deux Joueurs qui jouent plusieurs parties"[7].
Pascal imagine un jeu de pile ou face avec un pot commun de 64 pistoles, et le premier joueur à voir apparaître trois fois la face qu'il a choisie remporte la mise. Si le jeu s'interrompt à un moment où chacun des deux joueurs a la même chance de gagner, il est équitable de répartir les 64 pistoles à parts égales entre chaque joueur, mais si la partie s'interrompt alors qu'un des joueurs a pris un avantage, la répartition doit se faire autrement. Pascal imagine ainsi que le jeu s'interrompt alors que les lancers de pièces ont été PPF (pile-pile-face). Il envisage alors ce qu'aurait été le coup suivant :
Pour Pascal, le joueur ayant misé sur P doit obtenir 32 pistoles à coup sûr mais a une chance sur deux de gagner 32 pistoles supplémentaires. Il doit donc récupérer 48 pistoles.
Pascal ne parle pas de probabilité ni d'espérance de gain mais son idée intuitive reste d'associer un gain à une chance de l'obtenir[8]. Les 48 pistoles que Pascal propose de donner au joueur ayant misé sur P correspondent de fait à son espérance de gain : si la partie s'arrête au quatrième coup, ce joueur a une chance sur deux de gagner 64 pistoles (si la pièce tombe sur P) et une chance sur deux de gagner seulement 32 pistoles (si la pièce tombe sur F et que le jeu s'interrompt). Son espérance de gain est alors de (on multiplie chaque gain par la probabilité de l'obtenir puis on fait la somme de tous ces produits).
Christian Huygens publie en 1657 son ouvrage De ratiociniis in Ludo Aleae, petit traité en latin d'une vingtaine de pages[9], qui sera traduit ensuite en néerlandais, puis en français et bien d'autres langues. Ce traité est considéré comme le premier livre sur le calcul des probabilités dans les jeux de hasard, et une des fondations de la théorie des probabilités. Il contient 14 "propositions". La proposition 4[5]reprend le problème des partis étudié peu de temps auparavant par Pascal. La proposition 3[5]s’intéresse à la somme à miser pour que le jeu soit équitable, c'est-à-dire que le joueur, sur un très grand nombre de parties, équilibre ses mises et ses gains[10]. Huygens y établit que, si dans un jeu, on a p chances de gagner la somme a pour q chances de gagner la somme b, il faut miser : pour que le jeu soit équitable. Il considère que cette mise est aussi le juste prix auquel un joueur devrait céder sa place à une personne désirant le remplacer pour la suite d'une partie en cours.
Dans son traité, il formalise ainsi la notion d'espérance, qu'il nomme la « valeur de ma chance »[11], et l'étend à d'autres domaines que la théorie des jeux. En particulier, avec son frère, il s'intéresse à l'espérance de vie[12].
L'espérance est fortement liée à l'idée de moyenne[13]. En effet, la notion de hasard empêche de prédire le résultat d'une seule expérience aléatoire mais la loi des grands nombres permet de mieux maitriser le résultat si on exécute un grand nombre d'expériences aléatoires de même type. Ainsi, au cours d'un seul lancer de dé, chaque face a normalement une chance sur 6 d'apparaître et il est difficile de prédire le résultat moyen sur trois lancers de dé. Mais, en renouvelant mille fois ou dix mille fois le lancer, les résultats se répartissent presque équitablement entre les différents nombres de 1 à 6[14]. La moyenne des nombres obtenus au cours de ces nombreux lancers s'approche alors de qui correspond à l'espérance de cette expérience de lancer de dé. L'espérance sert donc à prévoir la valeur moyenne obtenue pour la variable que l'on mesure si l'expérience est renouvelée un très grand nombre de fois. Elle sert par exemple, en théorie des jeux, à prévoir la somme moyenne que chaque joueur va remporter[15]. Elle sert aussi dans le domaine des assurances pour déterminer le coût moyen d'une assurance permettant de couvrir les frais consécutifs aux accidents.
L'espérance et la loi des grands nombres permettent aussi d'invalider une loi de probabilité. On raconte qu'Henri Poincaré s'en serait servi, avec d'autres indices, pour mettre en évidence la malhonnêteté de son boulanger[16]. En effet, le poids d'un pain est soumis à des fluctuations aléatoires mais son espérance est fixée par la loi. Le poids d'un pain annoncé à 1 kg, par exemple, peut fluctuer autour de cette valeur. Poincaré aurait pesé sur une grande période le pain acheté chez son boulanger et aurait trouvé que son poids moyen était largement inférieur à 1 kg. Cette moyenne était trop loin de l'espérance et indiquait une malversation du commerçant.
L'espérance d'une variable aléatoire est définie, si elle existe, de façon mathématiquement précise par rapport à un espace probabilisé, généralement noté , où est l'univers des possibles, la tribu (l'ensemble) des évènements possibles et une loi de probabilité telle que =1.
Selon la nature de , la définition et la preuve d'existence de l'espérance sont plus ou moins simples, et explicitées ci-dessous.
Si la variable X prend les valeurs x1, x2, ... , xn avec les probabilités p1, p2, ... , pn, l'espérance de X est définie comme :
Comme la somme des probabilités est égale à 1, l'espérance peut être considérée comme la moyenne des xi pondérée par les pi
Exemple : Le jeu de la roulette française consiste à lancer une petite bille sur une roulette contenant 37 cases. Un joueur mise une certaine somme M sur une des cases. Si la bille s'arrête dans sa case, on lui rembourse 36 fois sa mise (son gain est alors de 35M = 36M – M), sinon il perd sa mise (son gain est alors de – M = 0 – M). Son espérance de gain est alors de : Ce résultat signifie qu'en moyenne, le joueur perd 2,7 % de sa mise à chaque jeu et inversement que le casino gagne en moyenne 2,7 % de la mise de chaque joueur. Le nombre de joueurs dans un casino est suffisamment important pour que cette espérance corresponde effectivement au gain moyen par joueur pour le casino. Ce jeu est donc défavorable aux joueurs, et favorable au casino[15].
Si la variable X prend une infinité dénombrable de valeurs x1, x2, ... avec les probabilités p1, p2, ..., l'espérance de X est définie comme à condition que cette somme soit absolument convergente[17]. Ainsi la série qui prendrait les valeurs 1, -2, 3, -4... avec les probabilités c12, c22, c32, c42..., où c = 6⁄π2 est choisi de telle sorte que la somme des probabilités donne 1[18], donnerait pour somme infinie : Cette somme infinie vaut[19] c ln(2) = 0,421488.... Cependant il serait incorrect d'en conclure que l'espérance de X est égale à ce nombre : en fait, l'espérance de X n'existe pas car la série n'est pas absolument convergente (voir série harmonique).
Si la variable aléatoire continue réelle X admet une densité de probabilité f, son espérance est définie comme : à condition que l'intégrale soit absolument convergente.
La définition permet de retrouver toutes les définitions précédentes. Cette définition est basée sur la théorie de la mesure et l'intégrale de Lebesgue. Soit X une variable aléatoire de l'espace probabilisé vers . Si X est intégrable selon la mesure , l'espérance de X est définie par[13] : D'après le théorème de transfert, elle est alors égale à Il s’agit donc du centre de masse, ou en encore du moment d'ordre 1, du support de X muni de la mesure de probabilité associée.
Mais l'espérance de la variable aléatoire peut aussi être définie au graphe de sa fonction de répartition par une égalité des aires qui s'offre. En effet, avec un nombre réel si et seulement si les deux surfaces dans le plan - décrites par
respectivement, ont la même aire finie, c'est-à-dire si
et les deux intégrales de Riemann impropres convergent. Enfin, cela est équivalent à la représentation
également avec des intégrales convergentes[20].
X étant une variable aléatoire à valeur dans un espace mesurable , une fonction φ mesurable de dans définit une nouvelle variable aléatoire réelle notée φ(x) dont l'espérance, lorsqu'elle existe, s'écrit en remplaçant x par φ(x) dans les formules précédentes (théorème de transfert)[21].
Son espérance est définie par :
D'après le théorème de transfert, elle est alors égale à
C'est notamment le cas quand S est fini. En notant ses valeurs x1, ..., xn et p1, ..., pn les probabilités correspondantes, l'espérance devient :
En particulier, il est intéressant de considérer la variable aléatoire à valeurs complexes φ(X) = eiθX (où θ est un réel) dont l'espérance mathématique est la transformée de Fourier inverse de fX (dans le cas où ) :
Il s'agit de la fonction caractéristique d'une variable aléatoire. L'exponentielle se développe en série de Taylor :
Si les probabilités sont toujours sans dimensions, les espérances s'expriment toujours avec les mêmes unités physiques (mètres, kilogrammes, secondes, ampères), monétaires (euros) ou abstraites (points, jetons, buts) que les variables aléatoires correspondantes[22].
Dans tout le reste de cet article, les variables aléatoires mentionnées sont supposées remplir les conditions d'existence d'une espérance.
Si X est une variable aléatoire positive ou nulle, alors . Plus généralement, si est positive, continument dérivable, croissante sur , et si , on a . Un cas particulier important est celui des moments de X : pour , , la première égalité étant l'instance de l'égalité précédente. Dans le cas d'une variable aléatoire à valeurs entières, ces formules se réécrivent, après un petit calcul intermédiaire, respectivement : .
Définition —
qui signifie que est une fonction de y (en fait une variable aléatoire). L'espérance itérée vérifie
En général, l'opérateur espérance ne respecte pas les fonctions de variable aléatoire, c'est-à-dire qu'en général :
Une inégalité célèbre à ce propos est l'inégalité de Jensen pour des fonctions convexes (ou concaves).
On utilise souvent comme estimateur de l'espérance la moyenne empirique, qui est un estimateur :
On considère fréquemment l'espérance comme le centre de la variable aléatoire, c'est-à-dire la valeur autour de laquelle se dispersent les autres valeurs.
En particulier, si et ont même loi de probabilité, c'est-à-dire si la loi de probabilité est symétrique par rapport à , et si admet une espérance, alors .
Mais ce point de vue n'est plus valable lorsque la loi est dissymétrique. Pour s'en persuader il suffit d'étudier le cas d'une loi géométrique, une loi particulièrement dissymétrique. Si représente le nombre de lancers nécessaires pour obtenir le chiffre 1 avec un dé cubique, on démontre que ce qui veut dire qu'il faut en moyenne 6 lancers pour obtenir le chiffre 1. Pourtant, la probabilité que 5 essais ou moins suffisent vaut près de 0,6 et la probabilité que 7 lancers ou plus soient nécessaires est de 0,33. Les valeurs de X ne se répartissent donc pas équitablement de part et d'autre de l'espérance. La qui possède cette propriété est la médiane.
Dans certains cas, les indications de l'espérance mathématique ne coïncident pas avec un choix rationnel. Imaginons par exemple qu'on vous fasse la proposition suivante : si vous arrivez à faire un double six avec deux dés, vous gagnez un million d'euros, sinon vous perdez 10 000 euros. Il est probable que vous refuserez de jouer. Pourtant l'espérance de ce jeu vous est très favorable : la probabilité de tirer un double 6 est de 1/36 ; on obtient donc :
à chaque partie vous gagnez en moyenne 18 000 euros.
Le problème tient justement sur ce « en moyenne » : si les gains sont extrêmement importants, ils n'interviennent que relativement rarement, et pour avoir une garantie raisonnable de ne pas finir ruiné, il faut donc avoir suffisamment d'argent pour participer à un grand nombre de parties. Si les mises sont trop importantes pour permettre un grand nombre de parties, le critère de l'espérance mathématique n'est donc pas approprié.
Ce sont ces considérations et de risque de ruine qui conduisirent, à partir de son « paradoxe de Saint-Pétersbourg », le mathématicien Daniel Bernoulli à introduire en 1738 l'idée d'aversion au risque qui conduit à assortir l'espérance mathématique d'une prime de risque pour son application dans les questions de choix.
Plutôt que de passer par une notion de prime, on peut directement établir une fonction d'utilité, associant à tout couple {gain, probabilité} une valeur. L'espérance mathématique constitue alors la plus simple des fonctions d'utilité, appropriée dans le cas d'un joueur neutre au risque disposant de ressources au moins très grandes à défaut d'infinies.
Émile Borel adopta cette notion d'utilité pour expliquer qu'un joueur ayant peu de ressources choisisse rationnellement de prendre un billet de loterie chaque semaine : la perte correspondante n'est en effet pour lui que quantitative, tandis que le gain – si gain il y a – sera qualitatif, sa vie entière en étant changée. Une chance sur un million de gagner un million peut donc valoir dans ce cas précis bien davantage qu'un euro.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.