Distribución normal escalar

Distribución continua ampliamente usada, permite modelar numerosos fenómenos naturales, sociales y psicológicos,

Parámetros de la distribución

Esta distribución depende de los parámetros de localización y escala, determinados por la media \(\mu\) y la desviación estándar \(\sigma\).

Distribución de probabilidad normal

Una variable aleatoria x se distribuye normal con media \(\Large \mu\) y varianza \(\Large \sigma^2\), se denota de la forma

\[ \Large X \sim N(\mu,\sigma^2) \]

Con valor esperado y varianza

\[\Large E(X)=\mu, \quad \sigma^2=var, \quad \sigma=sd\]

Función de distribución de probabilidad normal

La función de distribución de probabilidad está dada por:

\[ \Large f(x)=\frac{1}{ \sigma \sqrt{2\pi}}e^{\frac{-(x-\mu)^2}{2 \sigma^2} } \]

Distribución normal bivariada

Sean dos variables aleatorias:

\(\Large Y_1\sim N(\mu_1,\sigma_1^2)\)

\(\Large Y_2\sim N(\mu_2,\sigma_2^2)\)

Donde:

\(\mu_i\) Corresponde al valor de las medias \(\Large \varepsilon\) \(\Large \mathbb R^2\)

\(\sigma_i\) corresponde a las desviaciones estándar con \(\sigma_1>0, \sigma_2>0\)

\(\rho\) corresponde a la correlación entre las variables aleatorias.

Definición se dice que el vector continuo \((y_1,y_2)\) tiene distribución normal de parámetros \(\Large (\mu_1,\sigma_1^2;\mu_2,\sigma_2^2;\rho)\), con función de densidad:

\[\Large f(y_1,y_2)=\frac{1}{2\pi\sigma_1 \sigma_2\sqrt {1-\rho^2}}e^{-\frac{1}{1-\rho^2}[\frac{(y_1-\mu_1)^2}{\sigma_1^2}-2\rho\frac{(y_1-\mu_1)(y_2-\mu_2)}{\sigma_1 \sigma_2}+\frac{(y_2-\mu_2)^2}{\sigma-2^2}]}\] Donde la matriz de varianzas y covarianzas está definda como \(\Sigma\)

\[\Large \Sigma=var(x,y)=\begin{pmatrix} Var(x) & cov(x,y) \\ cov(y,x) & var(y) \end{pmatrix}=\begin{pmatrix} \sigma_2^2 & \rho \sigma_1\sigma_2 \\ \rho \sigma_1\sigma_2 & \sigma_1^2 \end{pmatrix}\]

Esta distribución cumple:

  1. La matriz \(\Large \Sigma\) es simétrica y definida positiva

  2. \(det \Sigma=(1-\rho^2) \sigma_1^2 \sigma_2^2\)

  3. \[\Sigma^{-1}=\frac{1}{(1-\rho^2) \sigma_1^2 \sigma_2^2}\begin{pmatrix} \sigma_2^2 & -\rho \sigma_1\sigma_2 \\ -\rho \sigma_1\sigma_2 & \sigma_1^2 \end{pmatrix}\]

  4. \(\Large Cov(Y_1, Y_2)=\rho \sigma_1 \sigma_2\)

  5. \(E(x,y)=(\mu_1,\mu_2)\)

En este gráfico se puede observar que la distribución normal bivariada cuando la correlación entre las variables x y Y es cero (ρ=0), la superficie dibuja la clásica campana de gauss, en la posición marcada por el vector de medias de la distribución.

Distribución Normal Bivariada \(\mu=(0,0)\), \(\sigma=(5,5)\), \(cov=12.5\) \(\rho=0.5\)

\[\begin{pmatrix} X_1 \\ X_2 \end{pmatrix} \sim \mathcal{N} \left( \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix} , \begin{pmatrix} \sigma^2_1 & \rho \sigma_1 \sigma_2 \\ \rho \sigma_1 \sigma_2 & \sigma^2_2 \end{pmatrix} \right)\]

Distribución normal multivariada

La función de densidad normal multivariante se define para k variables aleatorias continuas, \(Y_1, Y_2, . . . , Y_k\).

Se dice que el vector \((X_1,...,X_n)\) tiene una distribución normal multivariada si su función de densidad es:

\[\large f(\bar x)=\frac{1}{2\pi^{n/2}\sqrt{det \Sigma}}exp(-\frac{1}{2}(\bar x-\bar \mu)\Sigma^{-1}(\bar x-\bar \mu)^t)\]

Donde:

Algunas propiedades

Teorema central del límite

Versión univariable

Sea una muestra aleatoria \(x_1,...,x_n\) de tamaño n, de variables aleatorias independientes e idénticamente distribuidas, tomada de una distribución con media \(\mu\) y varianza \(\sigma^2\), el media muestral de estas variables aleatorias está dado por:

\[S_n=\frac{x_1+...+x_n}{n}\] Se establece que en la medida de que n tiende a infinito, la distribución de la diferencia entre la media muestral y su límite cuando se múltiplica por el factor\(\sqrt n\), que es \(\sqrt n(S_n-\mu)\) aproxim a la distribución normal con media cero y varianza \(\sigma/n\), es decir

\[\sqrt n (S_n-\mu)\sim N(0,\sigma^2)\]

Teórema central del límite multivariable

Sea el vector aleatorio: \[\bf X_i=\begin{pmatrix} X_{i(1)} \\ \vdots\\ X_{i(k)} \end{pmatrix}\]

La suma de los vectores aleatorios es:

\[\begin{pmatrix} X_{1(1)} \\ \vdots\\ X_{1(k)} \end{pmatrix}+\begin{pmatrix} X_{2(1)} \\ \vdots\\ X_{2(k)} \end{pmatrix}+\cdots+\begin{pmatrix} X_{n(1)} \\ \vdots\\ X_{n(k)} \end{pmatrix}=\begin{pmatrix} \sum_{i=1} ^n X_{i(1)} \\ \vdots\\ \sum_{i=1} ^n X_{i(k)} \end{pmatrix}=\sum_{i=1} ^n X_i\] el promedio es:

\[\frac{1}{n}\sum_{i=1} ^n \bf X_i=\frac{1}{n}\begin{pmatrix} \sum_{i=1} ^n X_{i(1)} \\ \vdots\\ \sum_{i=1} ^n X_{i(k)} \end{pmatrix}=\begin{pmatrix} \bar X_{i(1)} \\ \vdots\\ \bar X_{i(k)} \end{pmatrix}=\bar x_n\]

Para estandarizar la variable se hace uso de \[\Large Z=\frac{X_i-\mu}{\sigma/ \sqrt{n}}\]

lo cual es equivalente a:

\[\frac{\sqrt n \sum_{i=1}^n [X_i-\mu]}{\sigma}\sim N(0,1)\]

El teorema central del límite establece que

\[\sqrt n(\bar X_n-\mu)\longrightarrow N_k(0,\Sigma)\]



Copyright © 2019, webpage made with Rmarkdown.