Remove ads
concept en statistique De Wikipédia, l'encyclopédie libre
En statistique et en théorie des probabilités, la variance est une mesure de la dispersion des valeurs d'un échantillon ou d'une variable aléatoire. Elle exprime la moyenne des carrés des écarts à la moyenne, aussi égale à la différence entre la moyenne des carrés des valeurs de la variable et le carré de la moyenne, selon le théorème de König-Huygens. Ainsi, plus l'écart à la moyenne est grand plus il est prépondérant dans le calcul total (voir la fonction carré) de la variance qui donnerait donc une bonne idée sur la dispersion des valeurs.
La variance est toujours positive, et ne s’annule que s’il n’y a essentiellement qu’une seule valeur. Sa racine carrée définit l’écart type σ, d’où la notation .
La variance est quadratique et invariante par translation. Elle peut être estimée à l’aide d’un échantillon et de la moyenne empirique ou déterminée grâce à l’espérance si celle-ci est connue.
La variance apparait comme un cas particulier de covariance. Elle se généralise aussi pour des vecteurs aléatoires.
Étant donné une série statistique d’une variable réelle (x1, x2, ..., xn), dont on a calculé la moyenne , la variance est la moyenne des carrés des écarts à cette moyenne :
Un développement du carré mène à la reformulation suivante[1] :
autrement dit la variance est la différence entre la moyenne des carrés et le carré de la moyenne.
Quand la série prend les valeurs x1, x2, ..., xn avec les fréquences f1, f2, ..., fn, sa variance est :
La variance est un indicateur de dispersion des valeurs, c’est-à-dire qu’elle est toujours positive, ne s’annule que pour une série statistique dont tous les termes ont la même valeur, elle est d’autant plus grande que les valeurs sont étalées, et invariante par ajout d’une constante. Son calcul peut sembler plus compliqué que celui d’autres indicateurs de dispersion, comme l’écart interquartile ou l’écart absolu moyen, mais contrairement à ces derniers, elle est cumulative : si on rassemble k séries statistiques en une seule, la variance globale peut être calculée à partir de l’effectif ni, la variance Vi et la moyenne de chaque série initiale par la formule
où est l’effectif total et , est la moyenne globale. Autrement dit, la variance globale est la somme de la variance des moyennes et de la moyenne des variances, même si cette deuxième composante est souvent négligée.
Si on applique une fonction affine aux termes d’une série statistique (x1, x2, ..., xn), la variance est multipliée par a2. Autrement dit, la variance est homogène de degré 2 et invariante par translation.
Le calcul effectif de la variance pour une série statistique ne repose pas sur la traduction directe des formules ci-dessus, sauf pour le calcul à la main sur de petites séries. On utilise plutôt un algorithme itératif qui améliore la précision[a] :
c = 0 s = x1 pour j de 2 à n s = s+xj c = c+(j xj − s)2/(j(j−1)) renvoyer c/n
Étant donné une variable aléatoire réelle X admettant une espérance , la variance[b] est le moment centré d’ordre 2 : . La formule de Koenig-Huygens donne l’expression équivalente .
Ces deux formules n’ont de sens que si existe[2], autrement dit si la variable admet un moment d’ordre 2. Cela est toujours le cas pour une variable aléatoire bornée, et en particulier pour une variable aléatoire qui n’a qu’un nombre fini de valeurs possibles. Mais pour une variable aléatoire non bornée, l’existence de l’espérance et du moment d’ordre 2 dépendent de la convergence d’une série ou d’une intégrale. Ainsi, une loi de Pareto n’admet une espérance que si son paramètre k est strictement supérieur à 1, et n’admet une variance que si k > 2.
Pour une variable aléatoire n’admettant qu’un nombre fini de valeurs notées (x1, ... , xk), et en notant (p1, ... , pk) les probabilités associées, on retrouve l’expression de la variance
Pour une variable aléatoire discrète avec un nombre infini de valeurs, on reprend la même formule en remplaçant la somme par une série[3].
Dans le cas d’une variable aléatoire à densité, la variance est définie par :
où f est la densité de probabilité et μ est l'espérance mathématique de la variable aléatoire X
La variance d'une variable aléatoire continue X peut aussi se calculer de la façon suivante :
Comme pour une série statistique, l’effet d’une transformation affine sur une variable aléatoire affecte celle-ci par la formule[4],[c] : .
Si deux variables aléatoires X et Y admettent une variance, alors leur somme aussi et elle s’écrit[d] , où est la covariance. La relation s’étend à toute combinaison linéaire de variables admettant une variance[e] :
Si X et Y sont deux variables indépendantes, leur covariance est nulle donc on trouve mais la réciproque est fausse[d]. Cette relation ne doit pas être confondue avec la linéarité satisfaite par l’espérance. En particulier et plus généralement .
Plus généralement, la variance d’une somme de variables indépendantes est égale à la somme des variances. Ce résultat implique que pour un échantillon de n variables de même variance σ2, la variance de la moyenne empirique s’écrit[5],[f] .
La variance d'un produit de deux variables aléatoires indépendantes X et Y de variances finies est exprimée en fonction de celles des deux variables par la formule suivante[d],[note 1]
À partir d’un échantillon de variables aléatoires réelles (X1, ... , Xn) indépendantes et relevant d’une même loi de probabilité, la variance σ2 de cette loi peut être estimée à l’aide de la variance empirique[g]
où est la moyenne empirique.
Cet estimateur est cependant biaisé, car .
Si n > 1, on définit alors un estimateur non biaisé par linéarité de l’espérance.
Pour estimer la variance d'une population entière à partir de celle mesurée sur un échantillon de taille n, la variance estimée est obtenue en multipliant la variance mesurée sur l'échantillon par nn – 1. Dans le cas (plus rare en pratique) d'un tirage sans remise dans une population de taille N, il faut utiliser l'estimateur[6] . Dans le cas où l’espérance μ des variables de l’échantillon est connue, l’estimateur direct est déjà sans biais.
Ces trois estimateurs sont convergents.
L’obtention d’un intervalle de confiance pour la variance d’une loi de probabilité à partir d’un échantillon dépend du type de loi.
Pour une famille de lois dépendant d’un seul paramètre, comme les lois de Bernoulli, les lois géométriques, exponentielles ou les lois de Poisson, il suffit d’utiliser un intervalle de confiance sur le paramètre. Pour une famille de lois dépendant d’au moins deux paramètres, on utilise un estimateur convergent ayant un seul paramètre directement relié à la variance de la loi initiale. Ainsi, pour un échantillon de n variables gaussiennes (X1, ... , Xn) dont l’espérance est inconnue, le quotient de la variance empirique sans biais multiplié par (n-1) par la variance réelle suit une loi de khi-deux avec n – 1 degrés de liberté d’après le théorème de Cochran.
Ronald Fisher employa, le premier, le mot de variance, dans un article de 1918 intitulé « The Correlation between Relatives on the Supposition of Mendelian Inheritance » [@ 1] où il définit la variance comme le carré de l'écart type. Dans ce document il préfère clairement la variance à l'écart type en tant que mesure de la variabilité d'un phénomène observé. Il utilise ce terme à nouveau au congrès de mathématiques de Toronto en 1924[@ 2]. C'est lui qui définit aussi l'analyse de la variance telle qu'on la pratique aujourd'hui dans son livre « Statistical methods for research workers » paru en 1925[@ 3],[g].
Le calcul de la variance permet d’en déduire l’écart type[h] , qui est homogène à la variable aléatoire, au sens mathématique du terme comme en analyse dimensionnelle.
La variance d’une série statistique apparait dans le calcul des coefficients de la régression linéaire.
L’analyse de la variance (ANOVA) rassemble des méthodes d’études de comparaisons entre échantillons sur une ou plusieurs variables quantitatives.
La variance d’une variable aléatoire intervient dans le théorème central limite ainsi que dans l’inégalité de Bienaymé-Tchebychev.
Soient deux variables aléatoires Y et X. On appelle variance conditionnelle de Y sachant X la variable aléatoire correspondant à l'espérance conditionnelle sachant X du carré de l'écart de Y à l'espérance conditionnelle :
Comme toute variable conditionnelle, elle est fonction de X.
La variance de Y est liée à la variance et l'espérance conditionnelles par le théorème de la variance totale :
Si l'on définit Xk × 1 comme un vecteur aléatoire qui comporte k variables et Μ comme le vecteur des k espérances de X, on définit alors la variance comme :
Définition —
Il s'agit alors d'une matrice carrée de taille k, appelée matrice de variance-covariance, qui comporte sur sa diagonale les variances de chaque composante du vecteur aléatoire et en dehors de la diagonale les covariances. Cette matrice est symétrique et semi-définie positive ; elle est définie positive si et seulement si la seule combinaison linéaire certaine (c'est-à-dire presque sûrement constante) des composantes du vecteur aléatoire est celle dont tous les coefficients sont nuls. Le cas contraire signifie que les réalisations du vecteur X sont presque sûrement confinées à un hyperplan.
On a les propriétés suivantes :
Propriété — Si V est une matrice carrée de taille
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.