¿Cómo lidiar con el teorema del límite central y está relacionado con la distribución normal?
Debe haber una razón por la que la distribución normal sea TAN popular. Quiero decir, si consideramos que una distribución normal con una media de \(\mu\) y varianza \({{\sigma }^{2}}\) tiene una función de densidad como la que se muestra a continuación
\[f\left( x \right)=\frac{1}{\sqrt{2\pi {{\sigma }^{2}}}}\exp \left( -\frac{{{\left( x-\mu \right)}^{2}}}{2{{\sigma }^{2}}} \right)\]
entonces hay que pensar que es popular no precisamente por la simplicidad de su función de densidad.
Manipulación de la distribución normal
De hecho, los estudiantes de Stats temen tener que lidiar con la distribución normal en lo que respecta a su manipulación algebraica porque, por supuesto, puede ser engorroso. Por ejemplo, la función de densidad \(f\left( x \right)\) presentada anteriormente es de hecho una densidad, ya que se puede demostrar (aunque no es elemental hacerlo) que
\[\int\limits_{-\infty }^{\infty }{\frac{1}{\sqrt{2\pi {{\sigma }^{2}}}}\exp \left( -\frac{{{\left( x-\mu \right)}^{2}}}{2{{\sigma }^{2}}} \right)dx}=1\]
Y dado que esta densidad \(f\left( x \right)\) es una densidad válida, debemos tener entonces que
\[\int\limits_{-\infty }^{\infty }{\frac{x}{\sqrt{2\pi {{\sigma }^{2}}}}\exp \left( -\frac{{{\left( x-\mu \right)}^{2}}}{2{{\sigma }^{2}}} \right)dx}=\mu\]
and\[\int\limits_{-\infty }^{\infty }{\frac{{{x}^{2}}}{\sqrt{2\pi {{\sigma }^{2}}}}\exp \left( -\frac{{{\left( x-\mu \right)}^{2}}}{2{{\sigma }^{2}}} \right)dx}={{\mu }^{2}}+{{\sigma }^{2}}\]
que no son triviales de probar (especialmente el último). Entonces, sí, es difícil tratar algebraicamente con la distribución normal. Pero entonces, ¿por qué es tan popular?
Distribución normal estándar y puntuaciones Z
Una buena razón, que probablemente sea una razón lo suficientemente sólida por sí misma, es que a través de una Estandarización proceso, podemos reducir CUALQUIER distribución normal \(N\left( \mu ,{{\sigma }^{2}} \right)\) a la distribución normal estándar, con una distribución normal que tiene una media de cero y una desviación estándar de 1, o \(N\left( 0,1 \right)\). La estandarización consiste en reducir la variable original X a puntuaciones z usando la siguiente expresión:
\[Z=\frac{X-\mu }{\sigma }\]
De hecho, se puede probar que si X tiene una distribución normal con media \(\mu\) y varianza \({{\sigma }^{2}}\), \(N\left( \mu ,{{\sigma }^{2}} \right)\), entonces \(Z\) definido como
\[Z=\frac{X-\mu }{\sigma}\]
también tiene una distribución normal, pero con media 0 y desviación estándar 1. Esta pequeña reducción resulta ser EXTREMADAMENTE eficiente, porque al usarla podemos reducir el cálculo de CUALQUIER probabilidad de distribución normal al cálculo de probabilidades para la distribución normal estándar. ¿Se ha preguntado siquiera por qué la parte posterior de los libros de texto de Estadísticas viene con tablas de distribución normal SOLO para la distribución normal estándar? Esto se debe a que todas las distribuciones normales se pueden reducir a las distribuciones normales estándar, mediante puntuaciones z, y sería realmente poco práctico, o imposible, imprimir TODAS las tablas posibles para todas las distribuciones normales posibles.
Ejemplo: Suponga que el peso medio de los niños de quinto grado es de 72 libras, con una desviación estándar de 8 libras, y la distribución sigue una distribución normal. Calcule la probabilidad de que un niño al azar pese menos de 75,5 libras.
Solución: Observe que el evento \(X<75.5\) se puede expresar de manera equivalente como
\[X-72<75.5-72\]
¿Por qué? Porque simplemente restamos 72 a ambos lados de la desigualdad, lo que no cambia las soluciones de la desigualdad. Siguiendo el mismo razonamiento, puedo dividir ambos lados entre 8 para obtener un evento equivalente
\[\frac{X-72}{8}<\frac{75.5-72}{8}\]
POR FAVOR, NO SE CONFUNDE AQUÍ: Todo lo que decimos es que si X es una solución de \(X<75.5\), entonces X también es una solución de \(X-72<75.5-72\), y luego X es también una solución de \(\frac{X-72}{8}<\frac{75.5-72}{8}\). Y a la inversa, si X es una solución de \(\frac{X-72}{8}<\frac{75.5-72}{8}\), entonces X también es una solución de \(X-72<75.5-72\) y X también es una solución de \(X<75.5\). Eso es lo que queremos decir cuando decimos que los eventos \(\left\{ X<75.5 \right\}\), \(\left\{ X-72<75.5-72 \right\}\) y \(\left\{ \frac{X-72}{8}<\frac{75.5-72}{8} \right\}\) son EQUIVALENTES (es decir, definen el mismo conjunto de soluciones).
Por lo tanto, en este ejemplo, necesitamos calcular la siguiente probabilidad:
\[\Pr \left( X<75.5 \right)=\Pr \left( \frac{X-72}{8}<\frac{75.5-72}{8} \right)=\Pr \left( Z<0.4375 \right)=0.6691\]
Como puede ver, estándar con una cierta distribución normal, hice la transformación para obtener un evento equivalente que involucra una puntuación Z, y luego puedo usar cualquier tabla de distribución normal estándar (o Excel) para calcular la probabilidad final.
El teorema del límite central (CLT)
Si lo anterior no fue una razón suficientemente fuerte para AMAR la distribución normal (a pesar de su engorrosa forma algebraica), le daré una razón por la que no puede resistirse. Resulta que hay muchos tipos de distribuciones de probabilidad (quiero decir, MUCHAS), que pueden tener propiedades completamente diferentes a las de la distribución normal. Pero, si toma repeticiones de una variable aleatoria, de CUALQUIER distribución, y calcula su promedio, esos promedios serán (¿qué piensa?) Peligrosamente parecidos a una distribución normal, especialmente cuando el tamaño de la muestra (número de repeticiones) es grande. .
Entonces, el proceso de tomar promedios de una muestra de valores provenientes de CUALQUIER distribución de probabilidad y ahora analizando la distribución de esos promedios, comenzamos a ver una distribución normal (cuando el tamaño de la muestra es grande). De alguna manera, tomar promedios dobla la forma original de la distribución y la convierte en normal, INDEPENDIENTEMENTE de la distribución subyacente. Este hecho es uno de los descubrimientos más asombrosos en Estadística, realizado por Carl Friederich Gauss. Una advertencia, el Teorema del límite central tiene una formulación estadística formal, que no incluiremos aquí, pero establece que los promedios de la muestra CONVERGEN a una distribución normal, en un cierto sentido de probabilidad. Sin entrar en demasiados tecnicismos, eso significa que para la mayoría de los casos, los promedios muestrales tienen una distribución normal APROXIMADA para un tamaño de muestra suficientemente grande. Es muy común que a veces los instructores den una interpretación incorrecta al decir que la distribución de los promedios muestrales SE CONVIERTE en una distribución normal, lo cual no es cierto en general (en realidad, solo es cierto cuando la distribución original subyacente es normal).
Es por eso que la distribución normal es muy apreciada: es porque tiene este tipo de propiedad mágica que al tomar promedios de cualquier distribución, obtendrá algo que parece bastante normal, si toma un tamaño de muestra lo suficientemente grande.