Variables aleatorias

1. Variable aleatoria:

A una variable aleatoria, $X$, se le asigna un determinado valor numérico según sea el resultado de un experimento aleatorio.

Las variables aleatorias pueden ser:

Una variable aleatoria discreta toma sólo unos ciertos valores aislados, mientras que una variable aleatoria continua puede tomar cualquier valor de un intervalo (i.e. entre dos valores).

En realidad todo es discreto, pero es más fácil considerar continuas las cosas.

2. Función de densidad:

Para una variable aleatoria continua existe una función $f(x)$, conocida como función de densidad (de probabilidad), tal que:

  1.  $ \underset{ \begin{subarray}{c} \uparrow \\ \llap{\text{Proba}}\text{b}\rlap{\text{ilidad}} \end{subarray} }{{\rm Prob}}\mspace{1mu}(x_1 < X < x_2) = \displaystyle \int_{x_1}^{x_2} f(x) \, dx $
  2.  $f(x) \geq 0$
  3.  $\displaystyle \int_{-\infty}^{+\infty} f(x) \, dx = 1$

3. Función de distribución:

La función de distribución, $F(x)$, se define como:

$F(x) = {\rm Prob}(X \leq x) = \displaystyle \int_{-\infty}^x f(u) \, du$

4. Distribuciones típicas:

Describen cómo se distribuye la probabilidad total, que es igual a 1, sobre los valores de $X$ posibles.

  1. Uniforme:

    $f(x) = \dfrac{1}{b-a}\,,$   si $a < x < b$

    Una recta horizontal:

    Siendo:

    ${\rm Prob}(x_1 < X < x_2) = \dfrac{x_2 - x_1}{b-a}$

    Se cumple:

    $ \begin{align} \int_{-\infty}^{+\infty} f(x) \, dx &= \int_{a}^b \dfrac{1}{b-a} \, dx = \\[1ex] &= \dfrac{1}{b-a} [x]_a^b = \dfrac{b-a}{b-a} = 1 \end{align} $

  2. Normal:

    $f(x) = \dfrac{1}{\sqrt{2\pi} \sigma} \exp \left( - \dfrac{(x-\mu)^2}{2\sigma^2} \right)$

    Una curva de campana:

    Siendo:

    • $\lim\limits_{x \, \to \, \pm \infty} f(x) = 0$
    • Máximo:   $x = \mu$
    • Inflexiones:   $ \begin{aligned}[t] x &= \mu + \sigma\,, \\[1ex] &= \mu - \sigma \end{aligned} $
    • Simétrica.

    Si:

    $ \begin{align} \int_{-\infty}^{+\infty} f(u) \, du &= \int_{-\infty}^{+\infty} \dfrac{1}{\sqrt{2\pi} \sigma} e^{-\tfrac{(u-\mu)^2}{2\sigma^2}} \, du \underset{ \begin{subarray}{c} \uparrow \\[.5ex] \llap{y \,} = \rlap{\, \tfrac{u-\mu}{\sigma},} \\[.5ex] \llap{dy \,} = \rlap{\, \tfrac{du}{\sigma}} \end{subarray} }{=} \\[1ex] &= \dfrac{1}{\sqrt{2\pi}} \underbrace{ \int_{-\infty}^{+\infty} e^{-\tfrac{y^2}{2}} \, dy }_{A} = \dfrac{1}{\sqrt{2\pi}} \, A \end{align} $

    Entonces:

    $ \begin{align} A^2 &= \int_{-\infty}^{+\infty} e^{-\tfrac{x^2}{2}} \, dx \int_{-\infty}^{+\infty} e^{-\tfrac{y^2}{2}} \, dy \mspace{-30mu} \underset{ \begin{subarray}{c} \uparrow \\[.5ex] x,\,y \\ \text{independientes} \end{subarray} }{=} \\[1ex] &= \int_{-\infty}^{+\infty} e^{-\tfrac{y^2}{2}} \left( \int_{-\infty}^{+\infty} e^{-\tfrac{x^2}{2}} \, dx \right) \, dy = \\[1ex] &= \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} e^{-\tfrac{x^2+y^2}{2}} \, dx \, dy \end{align} $

    Esta integral doble es el volumen bajo la supeficie $e^{-(x^2+y^2){∕}2}$:

    Forma acampanada, simétrica con respecto al eje vertical. Así que, si $r$ es la distancia entre el origen y un punto del plano $xy$, esto es $r^2 = x^2 + y^2$, siendo $S$ la superficie de dicho plano, entonces, también el volumen $A^2$ es:

    $A^2 = \displaystyle \int_S e^{-r^2{∕}2} \, dS$

    Donde:

    $dS = 2\pi r \, dr$

    Por tanto:

    $A^2 = \displaystyle \int_0^\infty 2\pi r e^{-r^2{∕}2} \, dr = 2\pi [-e^{-r^2{∕}2}]_0^\infty = 2\pi (e^0 - e^{-\infty}) = 2\pi$

    Demostrándose:

    $\displaystyle \int_{-\infty}^{+\infty} f(u) \, du = \dfrac{1}{\sqrt{2\pi}} \, A = \dfrac{1}{\sqrt{2\pi}} \sqrt{2\pi} = 1$

  3. Exponencial:

    $ \begin{alignat}{2} f(x) &= \lambda e^{-\lambda x} &\quad &\text{si } x \geq 0 \,, \\[1ex] &= 0 &&\text{si } x < 0 \end{alignat} $

    Una curva decreciente:

    Valores positivos que son más probables a medida que se acercan al cero.

    Se comprueba:

    $\displaystyle \int_{-\infty}^{+\infty} f(x) \, dx = \int_{0}^{+\infty} \lambda e^{-\lambda x} \, dx = [-e^{-\lambda x}]_0^{+\infty} = e^0 - e^{-\infty} = 1$

5. Media y varianza:

a) Media:

Se define la media, $\mu$ (también $m$ ó $\overline{x}$), de una distribución continua como:

$\mu = \displaystyle \int_{-\infty}^{+\infty} x \, f(x) \, dx$


Ejemplo:

  1. Distribución uniforme:

    $ \begin{aligned} \mu &= \displaystyle \int_a^b x \dfrac{1}{b-a} \, dx = \\[1ex] &= \dfrac{1}{b-a} \left[ \dfrac{x^2}{2} \right]_a^b = \dfrac{1}{b-a} \dfrac{b^2 - a^2}{2} = \\[1ex] &= \dfrac{1}{b-a} \dfrac{(b+a)(b-a)}{2} = \dfrac{b+a}{2} \end{aligned} $

  2. Distribución normal:

    $ \displaystyle \int_{-\infty}^{+\infty} x \dfrac{1}{\sqrt{2\pi} \sigma} e^{-\tfrac{(x-\mu)^2}{2\sigma^2}} \, dx \underset{ \begin{subarray}{c} \uparrow \\[.5ex] \llap{z \,} = \rlap{\, \tfrac{x-\mu}{\sigma}} \\[.5ex] \llap{dz \,} = \rlap{\, \tfrac{dx}{\sigma}} \end{subarray} }{=} \quad $

    $ \begin{array}{l} = \displaystyle \int_{-\infty}^{+\infty} \dfrac{z\sigma + \mu}{\sqrt{2\pi}} e^{-\tfrac{z^2}{2}} \, dz = \\[1ex] = \dfrac{\sigma}{\sqrt{2\pi}} \displaystyle \int_{-\infty}^{+\infty} z e^{-\tfrac{z^2}{2}} \, dz + \mu \mspace{-9mu} \underbrace{ \int_{-\infty}^{+\infty} \dfrac{1}{\sqrt{2\pi}} e^{-\tfrac{z^2}{2}} \, dz }_{ \begin{subarray}{c} 1 \\ (\text{dist. normal con } \mu \, = \, 0,\, \sigma \, = \, 1) \end{subarray} } \mspace{-9mu} = \\[1ex] = \dfrac{\sigma}{\sqrt{2\pi}} \underbrace{ \left[ -e^{-\tfrac{z^2}{2}} \right]_{-\infty}^{+\infty} }_{0} + \mu = \mu \end{array} $

  3. Distribución exponencial:

    No hay simetría y, a diferencia de las anteriores, no se puede situar $\mu$ a simple vista sobre la gráfica.

    $ \begin{align} \mu &= \int_0^{+\infty} x \lambda e^{-\lambda x} \, dx = -\lambda \int_0^{+\infty} \dfrac{\partial}{\partial \lambda} (e^{-\lambda x}) \, dx = \\[1ex] &\underset{(*)}{=} -\lambda \dfrac{d}{d\lambda} \left( \int_0^{+\infty} e^{-\lambda x} \, dx \right) = -\lambda \dfrac{d}{d\lambda} \left[ -\dfrac{1}{\lambda} e^{-\lambda x} \right]_0^{+\infty} = \\[1ex] &= -\lambda \dfrac{d}{d\lambda} \left( \dfrac{1}{\lambda} e^0 - \dfrac{1}{\lambda} e^{-\infty} \right) = -\lambda \dfrac{d}{d\lambda} \left( \dfrac{1}{\lambda} \right) = -\lambda \left( -\dfrac{1}{\lambda^2} \right) = \dfrac{1}{\lambda} \end{align} $

    (*) Regla de Leibniz de derivación bajo el signo integral.


b) Varianza:

El promedio de los cuadrados de las desviaciones de la variable aleatoria respecto a la media. Para una variable aleatoria continua la varianza, $\sigma^2$, es:

$\sigma^2 = \displaystyle \int_{-\infty}^{+\infty} (x-\mu)^2 \, f(x) \, dx$

Es una medida de la dispersión de la distribución.

Para la distribución normal, integrando por partes:

$ \displaystyle \int_{-\infty}^{+\infty} \dfrac{(x-\mu)^2}{\sqrt{2}\sigma} e^{-\tfrac{(x-\mu)^2}{2\sigma^2}} \, dx \underset{ \begin{subarray}{c} \big\uparrow \\[.5ex] \llap{z \,} = \rlap{\, \tfrac{x-\mu}{\sigma}} \\[.5ex] \llap{dz \,} = \rlap{\, \tfrac{dx}{\sigma}} \end{subarray} }{=} \int_{-\infty}^{+\infty} \dfrac{z^2 \sigma^2}{\sqrt{2\pi}} e^{-\tfrac{z^2}{2}} \, dz $

Entonces, teniéndose en cuenta que:

$ \begin{array}{c} d(uv) = u \, dv + v \, du \\[1ex] \Downarrow \\[1ex] u \, dv = d(uv) - v \, du \\[1ex] \Downarrow \\[1ex] \displaystyle \int u \, dv = uv - \int v \, du \end{array} $

Si:

$ \begin{array}{lcl} u = z & \Rightarrow & du = dz \\[1ex] dv = z e^{-\tfrac{z^2}{2}} \, dz & \Rightarrow & v = -e^{-\tfrac{z^2}{2}} \end{array} $

Por tanto:

$ \displaystyle \dfrac{\sigma^2}{\sqrt{2\pi}} \int_{-\infty}^{+\infty} z^2 e^{-\tfrac{z^2}{2}} \, dz = \dfrac{\sigma^2}{\sqrt{2\pi}} \underbrace{ \left[ -z e^{-\tfrac{z^2}{2}} \right]_{-\infty}^{+\infty} }_{ \begin{subarray}{c} 0 \\[.25ex] \text{Regla de} \\ \text{L'Hôpital} \end{subarray} } + \sigma^2 \underbrace{ \int_{-\infty}^{+\infty} \dfrac{1}{\sqrt{2\pi}} e^{-\tfrac{z^2}{2}} \, dz }_{ \begin{subarray}{c} 1 \\ (\text{dist. normal con } \mu = 0,\, \sigma = 1) \end{subarray} } = \sigma^2 $

En la distribución normal significaría una mayor o menor amplitud de la campana:

Para la distribución uniforme:

$ \sigma^2 = \displaystyle \int_a^b \left(x - \dfrac{b+a}{2} \right)^2 \dfrac{1}{b-a} \, dx \underset{ \begin{subarray}{c} \uparrow \\ \llap{z \,} = \rlap{\, x - \tfrac{b+a}{2}} \\[.5ex] \llap{dz \,} = \rlap{\, dx} \end{subarray} }{=} $

$ \begin{array}{l} = \dfrac{1}{b-a} \displaystyle \int_{z(a)}^{z(b)} z^2 dz = \dfrac{1}{b-a} \left[ \dfrac{z^3}{3} \right]_{z(a)}^{z(b)} \underset{ \big\uparrow \\ \llap{z(a) \,} = \rlap{\, \tfrac{a-b}{2}} \\[.5ex] \llap{z(b) \,} = \rlap{\, \tfrac{b-a}{2}} }{=} \\[1ex] = \dfrac{1}{b-a} \dfrac{(b-a)^3 - (a-b)^3}{3(2^3)} = \\[1ex] = \dfrac{1}{b-a} \dfrac{(b-a)^3 - (-1)^3 (b-a)^3}{24} = \\[1ex] = \dfrac{1}{b-a} \dfrac{2(b-a)^3}{24} = \dfrac{(b-a)^2}{12} \end{array} $

Para la distribución exponencial:

$ \begin{align} \int_0^\infty \left( x - \dfrac{1}{\lambda} \right)^2 \lambda e^{-\lambda x} \, dx &= \int_0^\infty \left( x^2 - \dfrac{2x}{\lambda} + \dfrac{1}{\lambda^2} \right) \lambda e^{-\lambda x} \, dx = \\[1ex] &= \lambda \int_0^\infty x^2 e^{- \lambda x} \, dx - \dfrac{2}{\lambda} \underbrace{ \int_0^\infty x \lambda e^{-\lambda x} \, dx }_{\tfrac{1}{\lambda}} + \dfrac{1}{\lambda^2} \underbrace{ \int_0^\infty \lambda e^{-\lambda x} \, dx }_{1} = \\[1ex] &= -\lambda \int_0^\infty \dfrac{\partial}{\partial \lambda} ( x e^{-\lambda x} ) \, dx - \dfrac{2}{\lambda^2} + \dfrac{1}{\lambda^2} = \\[1ex] & \underset{ \begin{subarray}{c} \uparrow \\ \llap{\text{Re}}\text{g}\rlap{\text{la}} \\ \text{de} \\ \llap{\text{Lei}}\text{b}\rlap{\text{niz}} \end{subarray} }{=} - \lambda \dfrac{d}{d\lambda} \biggl( \dfrac{1}{\lambda} \underbrace{ \int_0^\infty x \lambda e^{-\lambda x} \, dx }_{\tfrac{1}{\lambda}} \biggr) - \dfrac{1}{\lambda^2} = \\[1ex] &= -\lambda \dfrac{d}{d\lambda} \left( \dfrac{1}{\lambda^2} \right) - \dfrac{1}{\lambda^2} = -\lambda \dfrac{-2}{\lambda^3} - \dfrac{1}{\lambda^2} = \dfrac{2}{\lambda^2} - \dfrac{1}{\lambda^2} = \\[1ex] &= \dfrac{1}{\lambda^2} \end{align} $

También, se denomina:

$\sqrt{\sigma^2} = \sigma \leftarrow$ Desviación típica o estándar.

6. Distribución normal:

$\underbrace{X \sim N(\mu,\sigma)}_{\uparrow}$ $\hphantom{X \sim {}} X$, variable aleatoria, tiene distribución normal con parámetros $\mu$ y $\sigma$.

Si $X$ es una variable aleatoria con media $\mu$ y desviación típica $\sigma$:

$\llap{\Rightarrow {}} X+a$ es una variable aleatoria con media $\mu + a$ y desviación típica $\sigma$.

$ \begin{array}{l} \begin{aligned} \int_{-\infty}^{+\infty} (x+a) \, f(x) \, dx &= \underbrace{\int_{-\infty}^{+\infty} x \, f(x) \, dx}_\mu + a \underbrace{\int_{-\infty}^{+\infty} f(x) \, dx}_1 = \\[1ex] &= \mu + a \end{aligned} \\[1em] \begin{aligned} \int_{-\infty}^{+\infty} (x+a - (\mu+a))^2 \, f(x) \, dx &= \int_{-\infty}^{+\infty} (x-\mu)^2 \, f(x) \ dx = \\[1ex] &= \sigma^2 \end{aligned} \end{array} $

$\llap{\Rightarrow {}} \alpha X$, con $\alpha >0$, es una variable aleatoria con media $\alpha \mu$ y desviación típica $\alpha \sigma$.

$ \begin{array}{l} \displaystyle \int_{-\infty}^{+\infty} \alpha x \, f(x) \, dx = \alpha \underbrace{\int_{-\infty}^{+\infty} x \, f(x) \, dx}_{\mu} = \alpha \mu \\[1em] \displaystyle \int_{-\infty}^{+\infty} (\alpha x - \alpha \mu)^2 \, f(x) \, dx = \alpha^2 \underbrace{ \int_{-\infty}^{+\infty} (x - \mu)^2 \, f(x) \, dx }_{\sigma ^2} = \alpha^2 \sigma^2 \end{array} $

Donde se ha tenido en cuenta que la probabilidad para una variable derivada de $X$, i.e. función de $X$, es la misma que $X$.

Se define:

$Z = \dfrac{X - \mu}{\sigma} \,,$   variable reducida, estandarizada ó normalizada.

Para la variable $Z$, por tanto, se tiene $\mu = 0$ y $\sigma = 1$. En consecuencia, puede transformarse cualquier problema de distribución normal, por medio de $Z$, a uno con $\mu = 0$ y $\sigma = 1$:

$X \sim N(\mu,\sigma) \, \to \, Z \sim N(0,1)$

Siendo:

$\phi(z) = \dfrac{1}{\sqrt{2\pi}} e^{-\tfrac{z^2}{2}}\,,$ función de densidad normal
reducida.
$\mathit\Phi(z) = {\rm Prob}(Z < z) = \displaystyle \int_{-\infty}^{z} \dfrac{1}{\sqrt{2\pi}} e^{-\tfrac{z^2}{2}} \, dz\,,$ función de distribución normal
reducida.

Entonces:

${\rm Prob}\mspace{1mu}(X < x) = {\rm Prob} \biggl( \underbrace{\dfrac{X - \mu}{\sigma}}_Z < \dfrac{x-\mu}{\sigma} \biggr) = {\rm Prob} \! \left( Z < \dfrac{x-\mu}{\sigma} \right) = \mathit\Phi \! \left( \dfrac{x-\mu}{\sigma} \right)$

En sentido inverso:

$\mathit\Phi(z) = {\rm Prob}\mspace{1mu}(Z < z) = {\rm Prob} \mspace{1mu} ( \underbrace{\mu + Z\sigma}_X < \mu + z\sigma ) = {\rm Prob}\mspace{1mu}( X < \mu + z\sigma )$

Existen tablas que siempre dan la probabilidad desde $z = a$, con $a \geq 0$, hasta $-\infty$. Para saber la probabilidad del complementario, i.e. $z = a$ hasta $+\infty$, sólo hay que restar a $1$, ya que ambas probabilidades juntas, el área total bajo la curva, es $1$.

La probabilidad de $z < -a$ es igual, por simetría, a la de $z = a$ hasta $+\infty$. La probabilidad de la parte central entre los valores $-a$ y $a$, i.e. ${\rm Prob} \mspace{1mu} (|z| < a)$, es el área comprendida entre ambos valores.


Ejemplo:

${\rm Prob}\mspace{1mu}(0{,}54 < z < 1{,}67) = 0{,}95254 - 0{,}70540 = 0{,}24714$

$\boldsymbol{z}$ 0,00 0,01 0,02 0,03 0,04
0,5 0,69146 0,69497 0,69847 0,70194 0,70540
1,6 0,94520 0,94630 0,94738 0,94845 0,94950
$\boldsymbol{z}$ 0,05 0,06 0,07 0,08 0,09
0,5 0,70884 0,71226 0,71566 0,71904 0,72240
1,6 0,95053 0,95154 0,95254 0,95352 0,95449

Un ejemplo de afrontar la integración:

$ \begin{array}{l} z = 1{,}5 \\[1ex] \begin{aligned} {\rm Prob}\mspace{1mu}(Z < 1{,}5) &= \int_{-\infty}^{1{,}5} \dfrac{1}{\sqrt{2\pi}} \exp \left( -\dfrac{z^2}{2} \right) \, dz = \\[1ex] &= \underbrace{ \int_{-\infty}^0 \dfrac{1}{\sqrt{2\pi}} \exp \left( -\dfrac{z^2}{2} \right) \, dz }_{0{,}5 \vphantom{\text{integración numérica}}} + \underbrace{ \int_0^{1{,}5} \dfrac{1}{\sqrt{2\pi}} \exp \left( -\dfrac{z^2}{2} \right) \, dz }_{ \begin{subarray}{c} \text{integración numérica} \\ (\text{CASIO $\textit{fx-3900Pv}$}) \end{subarray} } = \\[1ex] &= 0{,}5 + 0{,}43319 = 0{,}93319 \end{aligned} \end{array} $

De esta manera se han construido las tablas del último ejemplo. Normalmente algo innecesario, ya que se encuentran publicadas.

Generalizando:

$ \begin{array}{l} \begin{aligned} {\rm Prob}\mspace{1mu}(\mu - 2 \sigma < X < \mu + 2 \sigma) &= {\rm Prob} \left( -2 < \dfrac{X - \mu}{\sigma} < 2 \right) = \\[1ex] &= {\rm Prob}\mspace{1mu}(-2 < Z < 2) = \\[1ex] &= {\rm Prob}\mspace{1mu}(Z < 2) - {\rm Prob}\mspace{1mu} (Z < -2) = \\[1ex] &= {\rm Prob}\mspace{1mu}(Z < 2) - (1 - {\rm Prob}\mspace{1mu}(Z < 2)) = \\[1ex] &= 2 \times {\rm Prob}\mspace{1mu}(Z < 2) - 1 = 2 \times 0{,}97725 - 1 = \\[1ex] &= 0{,}9545 = \pu{95,45 \%} \end{aligned} \\[1em] \begin{aligned} {\rm Prob}\mspace{1mu}(\mu - \sigma < X < \mu + \sigma) &= {\rm Prob}\mspace{1mu}(-1 < Z < 1) = \\[1ex] &= {\rm Prob}\mspace{1mu}(Z < 1) - {\rm Prob}\mspace{1mu} (Z < -1) = \\[1ex] &= 2 \times {\rm Prob}\mspace{1mu}(Z < 1) - 1 = 2 \times 0{,}84134 - 1 = \\[1ex] &= 0{,}6827 = \pu{68,27 \%} \end{aligned} \end{array} $

Para un químico es de interés cuantificar la precisión de un método de análisis.


Ejemplo:

Se suministra:

sosa   $\pu{50 \pm 1 \%} \leftarrow {}$ Porcentaje masa/volumen, (g soluto/$\pu{100 ml}$ solución).

En su admisión, para determinar su pureza, se lleva a cabo un método de análisis para el cual:

$\sigma = 0{,}21$

Esto es, en $\pm \, \pu{0,42 \%}$ en torno de la media, que sin errores sistemáticos sería el valor real de la concentración, estarán comprendidos el $\pu{95 \%}$ de los valores que se obtengan.

Entonces, en dos análisis de la muestra, si:

$\pu{48,17 \%} \leftarrow {}$ No sería bueno tenerlo en cuenta, ya que estaría fuera de los valores probables. Posible error de análisis.

$\pu{48,79 \%} \leftarrow {}$ Estaría dentro de los valores que son muy probables.