Comment traiter le théorème de la limite centrale et est-il lié à la distribution normale?
Il doit y avoir une raison pour laquelle la distribution normale est si populaire. Je veux dire, si nous considérons qu'une distribution normale avec une moyenne de \(\mu\) et une variance \({{\sigma }^{2}}\) a une fonction de densité comme celle ci-dessous
\[f\left( x \right)=\frac{1}{\sqrt{2\pi {{\sigma }^{2}}}}\exp \left( -\frac{{{\left( x-\mu \right)}^{2}}}{2{{\sigma }^{2}}} \right)\]
alors il faut penser qu'il est populaire non précisément en raison de la simplicité de sa fonction de densité.
Manipuler la distribution normale
En effet, les étudiants de Stats redoutent de devoir gérer la distribution normale en ce qui concerne sa manipulation algébrique car, d'accord, elle peut être lourde. Par exemple, la fonction de densité \(f\left( x \right)\) présentée ci-dessus est bien une densité, car il peut être prouvé (même si ce n'est pas élémentaire de le faire) que
\[\int\limits_{-\infty }^{\infty }{\frac{1}{\sqrt{2\pi {{\sigma }^{2}}}}\exp \left( -\frac{{{\left( x-\mu \right)}^{2}}}{2{{\sigma }^{2}}} \right)dx}=1\]
Et puisque cette densité \(f\left( x \right)\) est une densité valide, il faut alors avoir que
\[\int\limits_{-\infty }^{\infty }{\frac{x}{\sqrt{2\pi {{\sigma }^{2}}}}\exp \left( -\frac{{{\left( x-\mu \right)}^{2}}}{2{{\sigma }^{2}}} \right)dx}=\mu\]
and\[\int\limits_{-\infty }^{\infty }{\frac{{{x}^{2}}}{\sqrt{2\pi {{\sigma }^{2}}}}\exp \left( -\frac{{{\left( x-\mu \right)}^{2}}}{2{{\sigma }^{2}}} \right)dx}={{\mu }^{2}}+{{\sigma }^{2}}\]
qui ne sont pas anodins à prouver (surtout le dernier). Donc, oui, il est difficile de traiter algébriquement la distribution normale. Mais alors, pourquoi est-il si populaire?
Distribution normale standard et scores Z
Une bonne raison, qui est probablement une raison suffisamment forte en soi, est que via un très simple standardisation processus, nous pouvons réduire TOUTE distribution normale \(N\left( \mu ,{{\sigma }^{2}} \right)\) à la distribution normale standard, avec la distribution normale qui a une moyenne de zéro et un écart-type de 1, ou \(N\left( 0,1 \right)\). La standardisation consiste à réduire la variable d'origine X à scores z en utilisant l'expression suivante:
\[Z=\frac{X-\mu }{\sigma }\]
En effet, il peut être prouvé que si X a une distribution normale de moyenne \(\mu\) et de variance \({{\sigma }^{2}}\), \(N\left( \mu ,{{\sigma }^{2}} \right)\), alors \(Z\) défini comme
\[Z=\frac{X-\mu }{\sigma}\]
a également une distribution normale, mais avec une moyenne de 0 et un écart type de 1. Cette petite réduction s'avère extrêmement efficace, car en utilisant nous pouvons réduire le calcul de TOUTES les probabilités de distribution normale au calcul des probabilités pour la distribution normale standard. Vous êtes-vous même demandé pourquoi le dos des manuels de statistiques est livré avec des tableaux de distribution normale UNIQUEMENT pour la distribution normale standard? C'est parce que toutes les distributions normales peuvent être réduites aux distributions normales standard, via les scores z, et il serait vraiment peu pratique, voire impossible, d'imprimer TOUS les tableaux possibles pour toutes les distributions normales possibles.
Exemple: Supposons que le poids moyen des enfants en cinquième année soit de 72 livres, avec un écart type de 8 livres, et que la distribution suit la distribution normale. Calculez la probabilité qu'un enfant aléatoire pèse moins de 75,5 livres.
Solution: Observez que l'événement \(X<75.5\) peut être exprimé de manière équivalente comme
\[X-72<75.5-72\]
Pourquoi? Parce que nous avons simplement soustrait 72 aux deux côtés de l'inégalité, ce qui ne change pas les solutions de l'inégalité. Dans le même raisonnement, je peux diviser les deux côtés par 8 pour obtenir un événement équivalent
\[\frac{X-72}{8}<\frac{75.5-72}{8}\]
S'IL VOUS PLAÎT, NE VOUS CONFUSEZ PAS ICI: Tout ce que nous disons, c'est que si X est une solution de \(X<75.5\), alors X est aussi une solution de \(X-72<75.5-72\), et alors X est aussi une solution de \(\frac{X-72}{8}<\frac{75.5-72}{8}\). Et inversement, si X est une solution de \(\frac{X-72}{8}<\frac{75.5-72}{8}\), alors X est aussi une solution de \(X-72<75.5-72\) et X est aussi une solution de \(X<75.5\). C'est ce que nous voulons dire lorsque nous disons que les événements \(\left\{ X<75.5 \right\}\), \(\left\{ X-72<75.5-72 \right\}\) et \(\left\{ \frac{X-72}{8}<\frac{75.5-72}{8} \right\}\) sont EQUIVALENTS (c'est-à-dire qu'ils définissent le même ensemble de solutions).
Par conséquent, dans cet exemple, nous devons calculer la probabilité suivante:
\[\Pr \left( X<75.5 \right)=\Pr \left( \frac{X-72}{8}<\frac{75.5-72}{8} \right)=\Pr \left( Z<0.4375 \right)=0.6691\]
Comme vous pouvez le voir, en standard avec une certaine distribution normale, j'ai effectué la transformation pour obtenir un événement équivalent qui implique un score Z, puis je peux utiliser n'importe quelle table de distribution normale standard (ou Excel) pour calculer la probabilité finale.
Le théorème central des limites (CLT)
Si ce qui précède n'était pas une raison suffisante pour que vous aimiez la distribution normale (malgré sa forme algébrique encombrante), je vous donnerai une raison pour laquelle vous ne pouvez pas résister. Il s'avère qu'il existe de nombreux types de distributions de probabilité (je veux dire, BEAUCOUP), qui peuvent avoir des propriétés complètement différentes de la distribution normale. Mais, si vous prenez des répétitions d'une variable aléatoire, de N'IMPORTE QUELLE distribution, et que vous calculez leur moyenne, ces moyennes ressembleront (ce que vous pensez?) Dangereusement à une distribution normale, en particulier lorsque la taille de l'échantillon (nombre de répétitions) est grande .
Ainsi donc, le processus de prise des moyennes d'un échantillon de valeurs provenant de TOUTE distribution de probabilité et maintenant l'analyse de la distribution de ces moyennes, nous commençons à voir une distribution normale (lorsque la taille de l'échantillon est grande). D'une manière ou d'une autre, prendre des moyennes modifie la forme originale de la distribution et la transforme en normale, quelle que soit la distribution sous-jacente. Ce fait est l'une des découvertes les plus étonnantes de la statistique, faite par Carl Friederich Gauss. Un mot d'avertissement, le Théorème Central Limite a une formulation statistique formelle, que nous n'inclurons pas ici, mais il déclare que l'échantillon fait en moyenne CONVERGE en une distribution normale, dans un certain sens de probabilité. Sans entrer dans trop de détails techniques, cela signifie que dans la plupart des cas, les moyennes de l'échantillon ont une distribution normale APPROXIMATIVE pour une taille d'échantillon suffisamment grande. Il est trop courant que les instructeurs donnent parfois une mauvaise interprétation en disant que la distribution des moyennes de l'échantillon DEVIENT une distribution normale, ce qui n'est pas vrai en général (en fait, ce n'est vrai que lorsque la distribution originale sous-jacente est normale).
C'est pourquoi la distribution normale est très chère: c'est parce qu'elle a ce genre de propriété magique En prenant des moyennes de n'importe quelle distribution, vous obtiendrez quelque chose qui semble assez normal, si vous prenez une taille d'échantillon suffisamment grande.