Ejercicios Resueltos Probabilidad y Estadística - Parte VI

Probabilidad y Estadística
Variables Aleatorias
Funciones de Distribución
2026-01-29
55 min de lectura

Exámenes

Examen 1

Ejercicio 1 Sean PP y QQ dos puntos sobre los ejes coordenados XX e YY respectivamente tal y como indica el dibujo. Estos puntos definen dos variables aleatorias independientes con distribución uniforme en el intervalo [0,1][0, 1].

TikZ Graph

  • Planteamiento del problema, definiendo las variables correspondientes, indicando su función de densidad marginal y conjunta y el soporte.

📐Demostración

Se definen dos variables aleatorias XX e YY independientes tales que:

XU[0,1]YU[0,1]\begin{align*} X \rightsquigarrow U[0,1] \quad Y \rightsquigarrow U[0,1] \end{align*}

La función de densidad marginal de XX es:

fX(x)={1 si x[0,1]0 en el resto \begin{align*} f_X(x) = \left\{ \begin{array}{ll} 1 & \text{ si } x \in [0, 1]\\ 0 & \text{ en el resto } \end{array} \right. \end{align*}

Análogamente, la de YY es:

fY(y)={1 si y[0,1]0 en el resto \begin{align*} f_Y(y) = \left\{ \begin{array}{ll} 1 & \text{ si } y \in [0, 1]\\ 0 & \text{ en el resto } \end{array} \right. \end{align*}

La función de densidad conjunta es:

f(x,y)=fX(x)fY(y)={1 si x,y[0,1]0 en el resto \begin{align*} f(x, y) = f_X(x) \cdot f_Y(y) = \left\{ \begin{array}{ll} 1 & \text{ si } x, y \in [0, 1]\\ 0 & \text{ en el resto } \end{array} \right. \end{align*}

El soporte de la función de densidad conjunta es, claramente, el cuadrado unidad, es decir:

{(x,y)R2 ⁣:0x1,0y1}\begin{align*} \{(x, y) \in \mathbb{R}^2 \colon 0 \leq x \leq 1, 0 \leq y \leq 1\} \end{align*}
  • Obtener la función de densidad conjunta de una variable aleatoria bidimensional Z,TZ, T siendo ZZ la distancia euclídea de PP a QQ y TT el ángulo que forma la recta que une ambos puntos con el eje XX

📐Demostración

Considerar la distancia euclídea como, dados dos puntos A=(x1,y1)A = (x_1, y_1) y B=(x2,y2)B = (x_2, y_2) en el plano:

d(A,B)=(x2x1)2+(y2y1)2\begin{align*} d(A, B) = \sqrt{(x_2 - x_1)^2 + (y_2 - y_1)^2} \end{align*}

Y las definiciones trigonométricas siguientes:

sinθ=cateto opuestohipotenusacosθ=cateto adyacentehipotenusatanθ=cateto opuestocateto adyacente\begin{align*} \sin \theta = \dfrac{\text{\small cateto opuesto}}{\text{\small hipotenusa}} \quad \cos \theta = \dfrac{\text{\small cateto adyacente}}{\text{\small hipotenusa}} \quad \tan \theta = \dfrac{\text{\small cateto opuesto}}{\text{\small cateto adyacente}} \end{align*}

Así, vamos a hallar primero la función de densidad de ZZ, es decir, la distancia euclídea entre PP y QQ. Notar que, cualquier punto QQ en el plano se puede expresar como (0,y)(0, y) y cualquier punto PP como (x,0)(x, 0). Así, la distancia euclídea entre ambos puntos es:

d(P,Q)=x2+y2\begin{align*} d(P, Q) = \sqrt{x^2 + y^2} \end{align*}

Esta es la variable aleatoria ZZ, es decir:

Z=X2+Y2\begin{align*} Z = \sqrt{X^2 + Y^2} \end{align*}

Ahora, para hallar la función de densidad TT, tenemos que viene determinada por el ángulo de la recta que une PP y QQ con el eje XX. Así, este ángulo es:

T=arctan(YX)\begin{align*} T = \arctan \left(\dfrac{Y}{X}\right) \end{align*}

Ahora, vamos a ver cual es el soporte de estas dos variables (Z,T)(Z, T). Al recorrer [0,1]×[0,1][0, 1] \times [0,1] la distancia euclídea (el valor de ZZ) va de 00 a:

max{x2+y2 tq (x,y)[0,1]×[0,1]}=12+12=2\begin{align*} \max \left\{\sqrt{x^2 + y^2} \text{ tq }(x, y) \in [0, 1] \times [0, 1]\right\} = \sqrt{1^2 + 1^2} = \sqrt{2} \end{align*}

Es decir, que el soporte de ZZ es [0,2][0, \sqrt{2}].

Para hallar el de TT tenemos que, al recorrer dicho cuadrado, el ángulo va de 00 a π2\frac{\pi}{2} por lo que el soporte de TT es [0,π2][0, \frac{\pi}{2}].

Así, el soporte del (Z,T)(Z, T) es:

{(z,t)R2 tq 0z2,0tπ2}\begin{align*} \{(z, t) \in \mathbb{R}^2 \text{ tq } 0 \leq z \leq \sqrt{2}, 0 \leq t \leq \frac{\pi}{2}\} \end{align*}

Ahora, vamos a hallar la densidad conjunta en términos de ZZ y TT, para ello, usamos el jacobiano de la transformación. Vamos a hallar la inversa de la transformación, es decir:

Z=X2+Y2    Z2=X2+Y2\begin{align*} Z = \sqrt{X^2 + Y^2} \implies Z^2 = X^2 + Y^2 \end{align*}

Por otra parte:

T=arctan(YX)    tanT=YX    Y=XtanT\begin{align*} T = \arctan \left(\dfrac{Y}{X}\right) \implies \tan T = \dfrac{Y}{X} \implies Y = X \tan T \end{align*}

Así, sustituyendo en la ecuación de Z2Z^2, tenemos que:

X2+(XtanT)2=Z2    X2+X2tan2T=Z2        X2(1+tan2T)=Z2\begin{align*} X^2 + (X \tan T)^2 = Z^2 & \implies X^2 + X^2 \tan^2 T = Z^2 \implies\\[2ex] & \implies X^2(1 + \tan^2 T) = Z^2 \end{align*}

Así, despejando XX tenemos que:

X=Z(1+tan2(T))\begin{align*} X = \dfrac{Z}{\sqrt{(1 + \tan^2(T))}} \end{align*}

(como he encontrado que sec2(T)=1+tan2(T)\sec^2(T) = 1 + \tan^2(T)) podemos simplificar todo lo anterior como:

X=ZsecT=ZcosT\begin{align*} X = \dfrac{Z}{\sec T} = Z \cos T \end{align*}

Ahora, falta encontrar esta misma relación para YY, para ello, tenemos que:

Y=XtanT    Y=ZcosTtanT=ZcosTsinTcosT=ZsinT\begin{align*} Y = X \tan T \implies Y = Z \cos T \tan T = Z \cos T \dfrac{\sin T}{\cos T} = Z \sin T \end{align*}

Así, hemos encontrado las relaciones inversas de la transformación y, por tanto, al ser ambas variables aleatorias continuas, podemos hallar el determinante del jacobiano de la transformación que viene dado por:

J=XZXTYZYT=cosTZsinTsinTZcosT==cosTZcosT(ZsinTsinT)=Zcos2T+Zsin2T==Z(cos2T+sin2T)=Z\begin{align*} |J| &= \left|\begin{array}{cc} \dfrac{\partial X}{\partial Z} & \dfrac{\partial X}{\partial T}\\[2ex] \dfrac{\partial Y}{\partial Z} & \dfrac{\partial Y}{\partial T} \end{array} \right| = \left|\begin{array}{cc} \cos T & -Z \sin T\\[2ex] \sin T & Z \cos T \end{array} \right| =\\[2ex] & = \cos T \cdot Z \cos T - ( - Z\sin T \cdot \sin T) =\, Z \cos^2T + Z \sin^2T = \\[2ex] & = Z (\cos^2T + \sin^2T) = Z \end{align*}

Por tanto, la densidad conjunta de ZZ y TT es:

fZ,T(z,t)=fX,Y(x,y)J={Z si (z,t)[0,2]×[0,π2]0 en el resto \begin{align*} f_{Z,T}(z, t) = f_{X, Y}(x, y) \cdot |J| = \left\{ \begin{array}{ll} Z & \text{ si } (z, t) \in \left[0, \sqrt{2}\right] \times \left[0, \dfrac{\pi}{2}\right]\\ 0 & \text{ en el resto } \end{array} \right. \end{align*}
  • Dibujar el dominio/recinto de la función obtenida

📐Demostración

{(z,t)R2 tq 0z2,0tπ2}\begin{align*} \{(z, t) \in \mathbb{R}^2 \text{ tq } 0 \leq z \leq \sqrt{2}, 0 \leq t \leq \frac{\pi}{2}\} \end{align*}
  • Calcular la esperanza de la variable 2Z+T2Z + T (con el cálculo concreto, específico para dicha distribución)

📐Demostración

Notar que la esperanza de una variable aleatoria bidimensional se calcula como:

E(2Z+T)=R2(2z+t)fZ,T(z,t)dzdt=020π2(2z+t)zdtdz==02[2z2t+t2z2]0π2dz=02(πz2+π2z8)dz==[πz33+π2z216]02=2π23+π28\begin{align*} E(2Z + T) & = \int_{\mathbb{R}^2} (2z + t) \cdot f_{Z, T}(z, t) \, dz \, dt = \int_{0}^{\sqrt{2}} \int_{0}^{\frac{\pi}{2}} (2z + t) \cdot z \, dt \, dz = \\[2ex] & = \int_{0}^{\sqrt{2}} \left[2z^2t + \dfrac{t^2z}{2}\right]_{0}^{\frac{\pi}{2}} \, dz = \int_{0}^{\sqrt{2}} \left(\pi z^2 + \dfrac{\pi^2 z}{8} \right) \, dz = \\[2ex] & = \left[\dfrac{\pi z^3}{3} + \dfrac{\pi^2 z^2}{16} \right]_0^{\sqrt{2}} = \dfrac{2\pi \sqrt{2}}{3} + \dfrac{\pi^2}{8} \end{align*}

Ejercicio 2

Sea (X,Y)(X, Y) una variable aleatoria con función de densidad conjunta:

f(x,y)={cx2y si x2y10 en el resto \begin{align*} f(x, y) = \left\{ \begin{array}{ll} cx^2y & \text{ si } x^2 \leq y \leq 1\\ 0 & \text{ en el resto } \end{array} \right. \end{align*}
  • Calcular el valor de cc

📐Demostración

Para que f(x,y)f(x, y) sea una función de densidad de una variable aleatoria tiene que cumplir que:

  • f(x,y)0(x,y)R2f(x, y) \geq 0 \quad \forall (x, y) \in \mathbb{R}^2 como x20x^2 \geq 0 e yx2y \geq x^2 entonces:
x2y0 si escogemos c0    cx2y0\begin{align*} x^2 y \geq 0 \quad \text{ si escogemos } c \geq 0 \implies cx^2y \geq 0 \end{align*}
  • R2f(x,y)dxdy=1\int_{\mathbb{R}^2} f(x, y) \, dx \, dy = 1, es decir:
R2f(x,y)dxdy=11u21f(u,v)dvdu=11u21cu2vdvdu=11[cu2v22]u21du=c211(u2u6)du==c2[u33u77]11=c2(1317+1317)==c2821=4c21\begin{align*} \iint_{\mathbb{R}^2} f(x, y) \, dx \, dy & = \int_{ - 1}^{1} \int_{u^2}^{1} f(u, v) \, dv \, du = \int_{ - 1}^1 \int_{u^2}^{1} cu^2v \, dv \, du\\[2ex] & =\int_{ - 1}^1 \left[\dfrac{cu^2v^2}{2}\right]_{u^2}^1 \, du = \dfrac{c}{2} \int_{ - 1}^1 \left(u^2 - u^6 \right) \, du =\\[2ex] & = \dfrac{c}{2} \left[\dfrac{u^3}{3} - \dfrac{u^7}{7}\right]_{ - 1}^1 = \dfrac{c}{2} \left(\dfrac{1}{3} - \dfrac{1}{7} + \dfrac{1}{3} - \dfrac{1}{7}\right) = \\[2ex] & = \dfrac{c}{2} \cdot \dfrac{8}{21} = \dfrac{4c}{21} \end{align*}

Así, para que sea función de densidad, se tiene que cumplir que:

4c21=1    c=214\begin{align*} \dfrac{4c}{21} = 1 \implies c = \dfrac{21}{4} \end{align*}
  • Calcular la probabilidad de que XYX \geq Y

📐Demostración

Para hallar la probabilidad de que XYX \geq Y tenemos que calcular:

P(XY)=X>Yf(x,y)dxdy\begin{align*} P(X \geq Y) & = \iint_{X > Y} f(x, y) \, dx \, dy \end{align*}

Como el soporte donde X>YX > Y viene restringido por x2y1x^2 \leq y \leq 1, tenemos que:

y[x2,1]    x[0,1]y[0,1]\begin{align*} y \in [x^2, 1] \implies x \in [0, 1] \quad y \in [0, 1] \end{align*}

Así, el area a calcular viene dada por:

TikZ Graph

Así, lo que queremos integrar es:

P(X>Y)=01x2xf(x,y)dydx=01x2x214x2ydydx==21401[x2y22]x2xdx=21801(x4x6)dx==218[x55x77]01=218(1517)=218235=320\begin{align*} P(X > Y) & = \int_0^1 \int_{x^2}^x f(x, y) \, dy \, dx = \int_0^1 \int_{x^2}^x \dfrac{21}{4}x^2y \, dy \, dx = \\[2ex] & = \dfrac{21}{4} \int_0^1 \left[\dfrac{x^2y^2}{2}\right]_{x^2}^x \, dx = \dfrac{21}{8} \int_0^1 \left(x^4 - x^6\right) \, dx = \\[2ex] & = \dfrac{21}{8} \left[\dfrac{x^5}{5} - \dfrac{x^7}{7}\right]_0^1 = \dfrac{21}{8} \left(\dfrac{1}{5} - \dfrac{1}{7}\right) = \dfrac{21}{8} \cdot \dfrac{2}{35} = \dfrac{3}{20} \end{align*}

Ejercicio 3

Una fábrica produce paquetes de margarina con un peso nominal del 160g. Debido a ciertas variables en el envasado, este valor fluctúa de un paquete a otro siguiendo una distribución normal. Sabemos que el 10% de los paquetes producidos pesan menos de 160g, mientras que el 5% pesa más de 162.5g.

  • Calcular la media y la desviación típica del peso de los paquetes con una precisión de 5 decimales:

📐Demostración

Para hallar la media y la desviación típica de la variable aleatoria que mide el peso de los paquetes, definimos dicha variable aleatoria como XX y sabemos que:

XN(μ,σ)\begin{align*} X \rightsquigarrow N(\mu, \sigma) \end{align*}

Además, sabemos que:

P(X<160)=0.1P(X>162.5)=0.05    P(X162.5)=0.95\begin{align*} & P(X < 160) = 0.1\\[2ex] & P(X > 162.5) = 0.05 \implies P(X \leq 162.5) = 0.95 \end{align*}

Así, procedemos a tipificar para poder hallar los parámetros de la normal que define el comportamiento de XX siguiendo que:

P(Xμσ<cμσ)\begin{align*} P\left(\dfrac{X - \mu}{\sigma} < \dfrac{c - \mu}{\sigma}\right) \end{align*}

Entonces, podemos aplicar esto a los dos valores que conocemos:

P(X<160)=P(Xμσ160μσ)==P(N(0,1)160μσ)=0.1    160μσ=1.29P(X<162.5)=P(Xμσ162.5μσ)==P(N(0,1)162.5μσ)=0.95    162.5μσ=1.65\begin{align*} P(X < 160) & = P\left(\dfrac{X - \mu}{\sigma} \leq \dfrac{160 - \mu}{\sigma}\right) =\\[2ex] & = P\left(\mathcal{N}(0, 1) \leq \dfrac{160- \mu}{\sigma}\right) = 0.1 \implies \dfrac{160 - \mu}{\sigma} = -1.29\\[5ex] P(X < 162.5) & = P\left(\dfrac{X - \mu}{\sigma} \leq \dfrac{162.5 - \mu}{\sigma}\right) = \\[2ex] & = P\left(\mathcal{N}(0, 1) \leq \dfrac{162.5 - \mu}{\sigma}\right) = 0.95 \implies \dfrac{162.5 - \mu}{\sigma} = 1.65 \end{align*}

Así, podemos plantear el siguiente sistema de ecuaciones:

{160μσ=1.29162.5μσ=1.65    {μ=160+1.29σμ=162.51.65σ\begin{align*} \left\{ \begin{array}{l} \dfrac{160 - \mu}{\sigma} = -1.29\\[1ex] \dfrac{162.5 - \mu}{\sigma} = 1.65 \end{array} \right. \iff \left\{ \begin{array}{l} \mu = 160 + 1.29\sigma\\[2ex] \mu = 162.5 - 1.65 \sigma \end{array} \right. \end{align*}

Igualando tenemos que:

160+1.29σ=162.51.65σ    2.5=2.94σ    σ=2.52.94=0.85034\begin{align*} 160 + 1.29\sigma = 162.5 - 1.65\sigma \iff - 2.5 = - 2.94 \sigma \iff \sigma = \dfrac{ - 2.5}{ - 2.94} = 0.85034 \end{align*}

Y ahora, sustituyendo en la primera ecuación:

μ=1601.290.85034=158.90306\begin{align*} \mu = 160 - 1.29 \cdot 0.85034 = 158.90306 \end{align*}
  • Sabemos que se producen 375000 paquetes de margarina por día y que el coste de producción de cada paquete viene dado por la función 0.00108X2+0.5378X+3.550.00108X^2 + 0.5378X + 3.55. Si tras un cambio en la producción este coste viene dado por 0.00078X2+0.559X+3.4680.00078X^2 + 0.559X + 3.468. Calcular el cambio en el coste medio de producción de cada paquete

📐Demostración

Para calcular la diferencia del coste medio de producción de cada paquete podemos hallar la esperanza de ambas funciones definiendo como variables aleatorias a estas funciones:

Y=0.00108X2+0.5378X+3.55yZ=0.00078X2+0.559X+3.468\begin{align*} Y = 0.00108X^2 + 0.5378X + 3.55 \quad \text{y} \quad Z = 0.00078X^2 + 0.559X + 3.468 \end{align*}

Así, para calcular la media o esperanza de YY tenemos que:

E[Y]=E[0.00108X2+0.5378X+3.55]=0.00108E[X2]+0.5378E[X]+3.55E[Z]=E[0.00078X2+0.559X+3.468]=0.00078E[X2]+0.559E[X]+3.468\begin{align*} E[Y] &= E[0.00108X^2 + 0.5378X + 3.55] = 0.00108E[X^2] + 0.5378E[X] + 3.55\\ E[Z] &= E[0.00078X^2 + 0.559X + 3.468] = 0.00078E[X^2] + 0.559E[X] + 3.468 \end{align*}

Así, vamos a calcular tanto la esperanza de XX como la de X2X^2:

E[X]=μ=158.90306\begin{align*} E[X] = \mu = 158.90306 \end{align*}

Como sabemos que Var(X)=E[X2]E2[X]Var(X) = E[X^2] - E^2[X] entonces:

E[X2]=Var(X)+E2[X]=0.850342+158.903062=252550.90556\begin{align*} E[X^2] = Var(X) + E^2[X] = 0.85034^2 + 158.90306^2 = 252550.90556 \end{align*}

Así, tenemos que la variación del coste viene dada por:

Δ[C]=E[Z]E[Y]=0.00078E[X2]+0.559E[X]+3.468(0.00108E[X2]+0.5378E[X]+3.55)=4.28852\begin{align*} \Delta[C] & = E[Z] - E[Y] = 0.00078E[X^2] + 0.559E[X] + 3.468 -\\[1ex] & - (0.00108E[X^2] + 0.5378E[X] + 3.55) = -4.28852 \end{align*}
  • Si se considera que un paquete es defectuoso si pesa menos de 155g o más de 162.5 y se guardan los paquetes en cajas de 10:

Tema 2

Ejercicio 2

Una urna contiene 12 bolas de las cuales 6 son blancas, 4 negras y 2 rojas. Se extraen al azar 5 bolas con reemplazamiento. Calcular la probabilidad de obtener:

  • Exactamente 3 bolas blancas

📐Demostración

Sea (X1,X2,X3)(X_1, X_2, X_3) un vector aleatorio donde:

Xi=nº de bolas Ai\begin{align*} X_i = \text{nº de bolas } A_i \end{align*}

donde A1A_1 son las blancas, A2A_2 las negras y A3A_3 las rojas. Así, tenemos que:

p1=P(A1)=12p2=P(A2)=13p3=P(A3)=16\begin{align*} p_1 = P(A_1) = \dfrac{1}{2} \quad p_2 = P(A_2) = \dfrac{1}{3} \quad p_3 = P(A_3) = \dfrac{1}{6} \end{align*}

Así, tenemos que (X1,X2,X3)M(5,12,13,16)(X_1, X_2, X_3) \rightsquigarrow \mathcal{M}(5, \dfrac{1}{2}, \dfrac{1}{3}, \dfrac{1}{6}). Así, la probabilidad de que se extraigan 3 bolas blancas es:

P(X1=3)\begin{align*} P(X_1 = 3) \end{align*}

Y tenemos que X1B(5,12)X_1 \rightsquigarrow B(5, \dfrac{1}{2})

  • 2 bolas blancas, 1 negra y 2 rojas

📐Demostración

P(X1=2,X2=1,X3=2)\begin{align*} P(X_1 = 2, X_2 = 1, X_3 = 2) \end{align*}

Ejercicio 1

Sea (X1,X2)M(n,p1,p2)(X_1, X_2) \rightsquigarrow \mathcal{M}(n, p_1, p_2). Obtener la distribución de X2X_2 condicionada por un valor genérico de X1X_1

📐Demostración

Queremos hallar la distribución de X2X1X_2|_{X_1}, suponemos que X2X_2 toma el valor k{0,,n}k \in \{0, \ldots, n\} y suponemos X1=x1X_1 = x_1 entonces:

P(X2=kX1=x1)=P(X1=x1X2=k)P(X1=x1)==n!x1!k!p1x1p2k(nx1)p1x1(1p1)nx1==n!x1!k!p1x1p2kn!x1!(nx1)!p1x1(1p1)nx1==(nx1)!k!(1p1)nx1p2k\begin{align*} P(X_2 = k|_{X_1 = x_1}) & = \frac{P(X_1 = x_1 \cap X_2 = k)}{P(X_1 = x_1)} = \\[2ex] & = \dfrac{\dfrac{n!}{x_1!k!}{p_1}^{x_1} p_2^{k}}{\displaystyle \binom{n}{x_1} p_1^{x_1} (1 - p_1)^{n - x_1} } = \\[2ex] & = \dfrac{\dfrac{n!}{x_1!k!}{p_1}^{x_1} p_2^{k}}{\dfrac{n!}{x_1!(n - x_1)!} p_1^{x_1} (1 - p_1)^{n - x_1}} = \\[2ex] & =\dfrac{(n - x_1)!}{k! (1 - p_1)^{n - x_1}} \cdot p_2^k \end{align*}

Entonces, la distribución vendrá dada por:

P(X2=kX1=x1)={1 si k=nx10 si knx1\begin{align*} P(X_2 = k|_{X_1 = x_1}) = \left\{ \begin{array}{ll} 1 & \text{ si } k = n - x_1\\ 0 & \text{ si } k \neq n - x_1 \end{array} \right. \end{align*}

Que ocurre si la multinomial es de 3 y se pide la de X2 condicionada por X1

📐Demostración

Sea (X1,X2,X3)M(n,p1,p2,p3)(X_1, X_2, X_3) \rightsquigarrow \mathcal{M}(n, p_1, p_2, p_3), queremos la distribución de (X2X1=x1)\left(X_2 |_{X_1 = x_1}\right), supongamos que X2=kX_2 = k y X1=x1X_1 = x_1 entonces:

P(X2=kX1=x1)=P(X1=x1X2=k)P(X1=x1)=n!x1!k!(nx1k)!p1x1p2kp3nx1kn!x1!(nx1)!p1x1(1p1)nx1=(nx1)!k!(nx1k)!p2kp3nx1k(1p1)nx1\begin{align*} P(X_2 = k|_{X_1 = x_1}) & = \dfrac{P(X_1 = x_1 \cap X_2 = k)}{P(X_1 = x_1)} = \dfrac{\dfrac{n!}{x_1!k!(n - x_1 - k)!} p_1^{x_1} p_2^k p_3^{n - x_1 - k}}{\dfrac{n!}{x_1!(n - x_1)!} p_1^{x_1} (1 - p_1)^{n - x_1}}\\[2ex] & = \dfrac{(n - x_1)!}{k! (n - x_1 - k)!} \cdot \dfrac{p_2^k p_3^{n - x_1 - k}}{(1 - p_1)^{n - x_1}}\\[2ex] \end{align*}

Notamos que podemos reescribir la expresión anterior como:

P(X2=kX1=x1)=(nx1k)(p21p1)k(p31p1)nx1k\begin{align*} P(X_2 = k|_{X_1 = x_1}) = \binom{n - x_1}{k} \left(\dfrac{p_2}{1 - p_1}\right)^k \left(\dfrac{p_3}{1 - p_1}\right)^{n - x_1 - k} \end{align*}

Es decir, que es una binomial de la forma:

X2=kX1=x1B(nx1;p21p1)\begin{align*} X_2 = k|_{X_1 = x_1} \rightsquigarrow B\left(n - x_1; \dfrac{p_2}{1 - p_1}\right) \end{align*}

Ejercicio 2

Una urna contiene 12 bolas de las cuales 6 son blancas, 4 negras y 2 rojas. Se extraen al azar 5 bolas con reemplazamiento. Calcular la probabilidad de obtener:

  • 3 bolas blancas:

📐Demostración

Sea (X1,X2,X3)(X_1, X_2, X_3) un vector aleatorio donde:

Xi=nº de bolas Ai con {A1=blancasA2=negrasA3=rojas\begin{align*} X_i = \text{nº de bolas } A_i \quad \text{ con } \left\{ \begin{array}{l} A_1 = \text{blancas}\\ A_2 = \text{negras}\\ A_3 = \text{rojas} \end{array} \right. \end{align*}

y queremos ver la probabilidad de que P(X1=3)P(X_1 = 3). Como sabemos que los sucesos son independientes, podemos aplicar una multinomial:

P(X1=3)=5!3!2!p13(1p1)2=5!3!2!(612)3(1612)2==120121814=10132=516\begin{align*} P(X_1 = 3) & = \dfrac{5!}{3!2!} p_1^3 (1 - p_1)^2 = \dfrac{5!}{3!2!} \left(\frac{6}{12}\right)^3 \cdot \left(1 - \dfrac{6}{12}\right)^2 = \\[2ex] & = \dfrac{120}{12} \cdot \dfrac{1}{8} \cdot \dfrac{1}{4} = 10 \cdot \frac{1}{32} = \dfrac{5}{16} \end{align*}

Así, la probabilidad de que se extraigan 3 bolas blancas es:

P(X1=3)=5160.3125\begin{align*} P(X_1 = 3) = \dfrac{5}{16} \approx 0.3125 \end{align*}
  • 2 bolas blancas, 1 negra y 2 rojas:

📐Demostración

Siguiendo el mismo planteamiento que antes, tenemos que:

P(X1=2,X2=1,X3=2)=5!2!1!2!p12p21p32=1204(12)2(13)1(16)2==301413136=301432=572\begin{align*} P(X_1 = 2, X_2 = 1, X_3 = 2) & = \dfrac{5!}{2!1!2!} p_1^2 p_2^1 p_3^2 = \dfrac{120}{4} \cdot \left(\frac{1}{2}\right)^2 \cdot \left(\frac{1}{3}\right)^1 \cdot \left(\frac{1}{6}\right)^2 = \\[2ex] & = 30 \cdot \frac{1}{4} \cdot \frac{1}{3} \cdot \frac{1}{36} = 30 \cdot \dfrac{1}{432} = \dfrac{5}{72} \end{align*}

Así, la probabilidad de que se extraigan 2 bolas blancas, 1 negra y 2 rojas es:

P(X1=2,X2=1,X3=2)=5720.0694\begin{align*} P(X_1 = 2, X_2 = 1, X_3 = 2) = \dfrac{5}{72} \approx 0.0694 \end{align*}

Ejercicio 3

Sea (Xi)(X_i), 1i21 \leq i \leq 2 dos variables aleatorias con distribución N(i,i)\mathcal{N}(i, i) e independientes. Se define el vector (Y1,Y2)=(X1+2X2,X1+4X2)(Y_1, Y_2) = (X_1 + 2X_2, - X_1 + 4X_2). Determinar su función de densidad conjunta.

📐Demostración

Partimos de las variables aleatorias:

X1N(1,1) y X2N(2,2)\begin{align*} X_1 \rightsquigarrow \mathcal{N}(1, 1) \quad \text{ y } \quad X_2 \rightsquigarrow \mathcal{N}(2, 2) \end{align*}

que son independientes, lo que implica que su función de densidad conjunta es el producto de sus densidades marginales, es decir:

f(X1,X2)(x1,x2)=fX1(x1)fX2(x2)\begin{align*} f_{(X_1, X_2)}(x_1, x_2) = f_{X_1}(x_1) \cdot f_{X_2}(x_2) \end{align*}

donde tenemos que:

fX1(x1)=12πe12(x11)2fX2(x2)=122πe18(x22)2\begin{align*} f_{X_1}(x_1) & = \dfrac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x_1 - 1)^2}\\ f_{X_2}(x_2) & = \dfrac{1}{2\sqrt{2\pi}} e^{-\frac{1}{8}(x_2 - 2)^2} \end{align*}

Por lo tanto:

f(X1,X2)(x1,x2)=12πe12(x11)2122πe18(x22)2==14πe12(x11)218(x22)2\begin{align*} f_{(X_1, X_2)}(x_1, x_2) &=\dfrac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x_1 - 1)^2} \dfrac{1}{2\sqrt{2\pi}} e^{-\frac{1}{8}(x_2 - 2)^2} = \\[2ex] & = \dfrac{1}{4\pi} e^{-\frac{1}{2}(x_1 - 1)^2 - \frac{1}{8}(x_2 - 2)^2} \end{align*}

A continuación, se nos plantea la transformación:

{Y1=X1+2X2=g1(X1,X2)Y2=X1+4X2=g2(X1,X2)\begin{align*} \left\{ \begin{array}{l} Y_1 = X_1 + 2X_2 = g_1(X_1, X_2)\\ Y_2 = -X_1 + 4X_2 = g_2(X_1, X_2) \end{array} \right. \end{align*}

Así, lo que tenemos es que:

(Ω,A,P)(X1,X2)(R2,BR2,P(X1,X2))g(R2,BR2,Pg(X1,X2))(Ω,A,P)(Y1,Y2)=g(X1,X2)(R2,BR2,P(Y1,Y2))\begin{align*} (\Omega, \mathcal{A}, P) & \xrightarrow{(X_1, X_2)} (\mathbb{R}^2, \mathcal{B}_{\mathbb{R}^2}, P_{(X_1, X_2)}) \xrightarrow[]{g} (\mathbb{R}^2, \mathcal{B}_{\mathbb{R}^2}, P_{g(X_1, X_2)})\\ (\Omega, \mathcal{A}, P) & \xrightarrow[]{(Y_1, Y_2) = g(X_1, X_2)} (\mathbb{R}^2, \mathcal{B}_{\mathbb{R}^2}, P_{(Y_1, Y_2)}) \end{align*}

Para hallar la función de densidad de Y1,Y2Y_1, Y_2 vamos a aplicar el teorema del cambio de variable. Para ello, vamos a ver que se cumplen las condiciones del teorema:

  • La función gg es biyectiva y diferenciable

Para ver si gg es biyectiva, vamos a ver si existe la inversa para gg, es decir, si podemos expresar X1X_1 y X2X_2 en función de Y1Y_1 y Y2Y_2:

Y1=X1+2X2Y2=X1+4X2}    {X1=2Y1Y26X2=Y2+Y16\begin{align*} \left. \begin{array}{l} Y_1 = X_1 + 2X_2\\[2ex] Y_2 = -X_1 + 4X_2 \end{array} \right\} \implies \left\{ \begin{array}{l} X_1 = \dfrac{2Y_1 - Y_2}{6}\\[2ex] X_2 = \dfrac{Y_2 + Y_1}{6} \end{array} \right. \end{align*}

y claramente es diferenciable.

  • El jacobiano de la transformación es distinto de 0
J=X1g1X1g2X2g1X2g2=23131616=19+118=160\begin{align*} J = \left| \begin{array}{ll} \dfrac{\partial X_1}{\partial g_1} & \dfrac{\partial X_1}{\partial g_2}\\[2ex] \dfrac{\partial X_2}{\partial g_1} & \dfrac{\partial X_2}{\partial g_2} \end{array} \right| = \left| \begin{array}{cc} \, \dfrac{2}{3} & -\dfrac{1}{3}\\[2ex] \, \dfrac{1}{6} & \dfrac{1}{6} \end{array} \right| = \dfrac{1}{9} + \dfrac{1}{18} = \dfrac{1}{6} \neq 0 \end{align*}

Entonces, la densidad conjunta de (Y1,Y2)(Y_1, Y_2) se obtiene aplicando la fórmula:

f(Y1,Y2)(y1,y2)=f(X1,X2)(x1,x2)J\begin{align*} f_{(Y_1, Y_2)}(y_1, y_2) = f_{(X_1, X_2)}(x_1, x_2) \cdot |J| \end{align*}

Sustituyendo en la fórmula tenemos que:

fY(y1,y2)=f(X1,X2)(2y1y23,y2+y16)16==146πe[12(2y1y231)218(y2+y162)2]==124πe12[(2y1y231)2+14(y2+y162)2]\begin{align*} f_Y(y_1, y_2) & = f_{(X_1, X_2)}\left(\dfrac{2y_1 - y_2}{3}, \dfrac{y_2 + y_1}{6}\right) \cdot \dfrac{1}{6} = \\[2ex] & = \dfrac{1}{4 \cdot 6\pi} e^{\displaystyle \left[-\frac{1}{2}\left(\dfrac{2y_1 - y_2}{3} - 1\right)^2 - \frac{1}{8}\left(\dfrac{y_2 + y_1}{6} - 2\right)^2\right]} = \\[2ex] & = \dfrac{1}{24\pi} e^{\displaystyle -\frac{1}{2}\left[\left(\dfrac{2y_1 - y_2}{3} - 1\right)^2 + \frac{1}{4}\left(\dfrac{y_2 + y_1}{6} - 2\right)^2\right]} \end{align*}

Ahora, vamos a hallar la μ\mu y la σ\sigma de (Y1,Y2)(Y_1, Y_2). Para hallar la μ\mu tenemos que:

μ=(E[Y1]E[Y2])\begin{align*} \mu = \left( \begin{array}{l} E[Y_1]\\ E[Y_2] \end{array} \right) \end{align*}

Para hallar E[Y1]E[Y_1] y E[Y2]E[Y_2] vamos a hallar las esperanzas de Y1Y_1 y Y2Y_2:

E[Y1]=E[X1+2X2]=E[X1]+2E[X2]=1+22=5E[Y2]=E[X1+4X2]=E[X1]+4E[X2]=1+42=7\begin{align*} E[Y_1] & = E[X_1 + 2X_2] = E[X_1] + 2E[X_2] = 1 + 2 \cdot 2 = 5\\ E[Y_2] & = E[-X_1 + 4X_2] = -E[X_1] + 4E[X_2] = -1 + 4 \cdot 2 = 7 \end{align*}

Entonces, nuestra μ\mu es:

μ=(57)\begin{align*} \mu = \left( \begin{array}{l} 5\\ 7 \end{array} \right) \end{align*}

Ahora, vamos a hallar la matriz de covarianzas de (Y1,Y2)(Y_1, Y_2) que viene dada por:

Σ=(Var(Y1)Cov(Y1,Y2)Cov(Y1,Y2)Var(Y2))\begin{align*} \Sigma = \left( \begin{array}{ll} Var(Y_1) & Cov(Y_1, Y_2)\\ Cov(Y_1, Y_2) & Var(Y_2) \end{array} \right) \end{align*}

Entonces, vamos a hallar primero la varianza de Y1Y_1 y de Y2Y_2:

Var(Y1)=Var(X1+2X2)=1Var(X1)+4Var(X2)=1+422=17Var(Y2)=Var(X1+4X2)=11Var(X1)+16Var(X2)=1+1622=65\begin{align*} Var(Y_1) & = Var(X_1 + 2X_2) \overset{1}{ = } Var(X_1) + 4Var(X_2) = 1 + 4 \cdot 2^2 = 17\\ Var(Y_2) & = Var(-X_1 + 4X_2) \overset{1}{ = } 1 Var(X_1) + 16Var(X_2) = 1 + 16 \cdot 2^2 = 65 \end{align*}
  1. Se cumple porque X1X_1 y X2X_2 son independientes.

Ahora, vamos a hallar la covarianza de Y1Y_1 y Y2Y_2:

Cov(Y1,Y2)=E[Y1Y2]E[Y1]E[Y2]=E[(X1+2X2)(X1+4X2)]57==E[X12+4X1X22X1X2+8X22]35==E[X12+2X1X2+8X22]35==E[X12]+2E[X1X2]+8E[X22]35\begin{align*} Cov(Y_1, Y_2) & = E[Y_1Y_2] - E[Y_1]E[Y_2] = E[(X_1 + 2X_2)(-X_1 + 4X_2)] - 5 \cdot 7 = \\[2ex] & = E[-X_1^2 + 4X_1X_2 - 2X_1X_2 + 8X_2^2] - 35 = \\[2ex] & = E[ - X_1^2 + 2X_1X_2 + 8X_2^2] - 35 = \\[2ex] & = -E[X_1^2] + 2E[X_1X_2] + 8E[X_2^2] - 35 \end{align*}

Entonces vamos a hallar E[X12]E[X_1^2], E[X1X2]E[X_1X_2] y E[X22]E[X_2^2]:

E[X12]=Var(X1)+E2[X1]=1+1=2E[X1X2]=E[X1]E[X2]=12=2E[X22]=Var(X2)+E2[X2]=4+22=8\begin{align*} E[X_1^2] & = Var(X_1) + E^2[X_1] = 1 + 1 = 2\\ E[X_1X_2] & = E[X_1]E[X_2] = 1 \cdot 2 = 2\\ E[X_2^2] & = Var(X_2) + E^2[X_2] = 4 + 2^2 = 8 \end{align*}

Por lo tanto, la covarianza de Y1Y_1 y Y2Y_2 es:

Cov(Y1,Y2)=2+2+8835=29\begin{align*} Cov(Y_1, Y_2) = -2 + 2 + 8 \cdot 8 - 35 = 29 \end{align*}

Entonces, la matriz de covarianzas es:

Σ=(17292965)\begin{align*} \Sigma = \left( \begin{array}{ll} 17 & 29\\ 29 & 65 \end{array} \right) \end{align*}

Ejercicio 4

Sea (X,Y)(X, Y) un vector aleatorio con función de densidad:

f(x,y)=1120.84πe[12(x+1,y2)(42.42.49)1(x+1y2)]\begin{align*} f(x, y) = \dfrac{1}{12 \sqrt{0.84} \pi}e^{\left[ - \dfrac{1}{2}(x + 1, y - 2)\begin{pmatrix} 4 & 2.4\\2.4 & 9 \end{pmatrix}^{ - 1} \begin{pmatrix} x + 1\\y - 2 \end{pmatrix} \right]} \end{align*}
  • Obtener las medias y varianzas de XX e YY, así como su coeficiente de correlación

📐Demostración

Podemos notar que la función de densidad es de la forma de una normal bidimensional, es decir, N2(μ,Σ)\mathcal{N}_2(\mu, \Sigma), por lo que podemos identificar la μ\mu y la Σ\Sigma:

μ=(12)yΣ=(42.42.49)\begin{align*} \mu = \begin{pmatrix} - 1 \\ 2 \end{pmatrix} \quad \text{y} \quad \Sigma = \begin{pmatrix} 4 & 2.4 \\ 2.4 & 9 \end{pmatrix} \end{align*}

Para hallar el coeficiente de correlación, tenemos que:

Cov(X,Y)=Σ12=2.4\begin{align*} Cov(X, Y) = \Sigma_{12} = 2.4 \end{align*}

Por lo que la correlación es:

ρ=Cov(X,Y)Var(X)Var(Y)=2.449=2.46=0.4\begin{align*} \rho = \dfrac{Cov(X, Y)}{\sqrt{Var(X)} \sqrt{Var(Y)}} = \dfrac{2.4}{\sqrt{4}\sqrt{9}} = \dfrac{2.4}{6} = 0.4 \end{align*}

Así, tenemos que:

  • E[X]=1E[X] = - 1
  • E[Y]=2E[Y] = 2
  • Var(X)=4Var(X) = 4
  • Var(Y)=9Var(Y) = 9
  • ρ=0.4\rho = 0.4
  • Obtener las distribuciones condicionadas y marginales

📐Demostración

Al ser una normal bidimensional y notando que la matriz de covarianzas es simétrica, ya que Σ=ΣT\Sigma = \Sigma^T y observando que:

det(Σ)=49(2.4)2=365.76=30.24>0\begin{align*} det(\Sigma) = 4 \cdot 9 - (2.4)^2 = 36 - 5.76 = 30.24 > 0 \end{align*}

Podemos ver que la matriz de covarianzas es positiva definida, por lo que podemos aplicar que las variables unidimensionales componentes XiN(μi,Σii)X_i \rightsquigarrow \mathcal{N}(\mu_i, \sqrt{\Sigma_{ii}}) son normales unidimensionales. Por lo que:

XN(1,2)YN(2,3)\begin{align*} X & \rightsquigarrow \mathcal{N}(-1, 2)\\ Y & \rightsquigarrow \mathcal{N}(2, 3) \end{align*}

Para hallar la distribución marginal de XX y YY condicionada a XX e YY, tenemos que las condicionadas son de la fórmula:

XY=yN(μXY=y,σXY=y)\begin{align*} X |_{Y = y} \rightsquigarrow \mathcal{N} \left(\mu_{X|_{Y = y}}, \sqrt{\sigma_{X|_{Y = y}}}\right) \end{align*}

Así, tenemos que:

μXY=y=μX+ΣXYΣYY(yμY)=1+2.49(y2)σXY=y=ΣXXΣXY2ΣYY=4(2.4)29=40.64=3.36\begin{align*} \mu_{X|_{Y = y}} & = \mu_X + \dfrac{\Sigma_{XY}}{\Sigma_{YY}}(y - \mu_Y) = -1 + \dfrac{2.4}{9}(y - 2)\\ \sigma_{X|_{Y = y}} & = \sqrt{\Sigma_{XX} - \dfrac{\Sigma_{XY}^2}{\Sigma_{YY}}} = \sqrt{4 - \dfrac{(2.4)^2}{9}} = \sqrt{4 - 0.64} = \sqrt{3.36} \end{align*}

Por lo que la distribución condicionada de XX es:

XY=yN(1+2.49(y2),3.36)\begin{align*} X |_{Y = y} \rightsquigarrow \mathcal{N} \left(-1 + \dfrac{2.4}{9}(y - 2), \sqrt{3.36}\right) \end{align*}

De forma análoga, podemos hallar la distribución de YY condicionada a XX:

YX=xN(μYX=x,σYX=x)\begin{align*} Y |_{X = x} \rightsquigarrow \mathcal{N} \left(\mu_{Y|_{X = x}}, \sqrt{\sigma_{Y|_{X = x}}}\right) \end{align*}

Así, tenemos que:

μYX=x=μY+ΣXYΣXX(xμX)=2+2.44(x+1)σYX=x=ΣYYΣXY2ΣXX=9(2.4)24=91.44=7.56\begin{align*} \mu_{Y|_{X = x}} & = \mu_Y + \dfrac{\Sigma_{XY}}{\Sigma_{XX}}(x - \mu_X) = 2 + \dfrac{2.4}{4}(x + 1)\\ \sigma_{Y|_{X = x}} & = \sqrt{\Sigma_{YY} - \dfrac{\Sigma_{XY}^2}{\Sigma_{XX}}} = \sqrt{9 - \dfrac{(2.4)^2}{4}} = \sqrt{9 - 1.44} = \sqrt{7.56} \end{align*}

Ejercicio 5

Supóngase que el cociente intelectual XX y la calificación YY de alumnos de una determinada edad, tiene distrubución conjunta normal con vector de medias (100,3)(100, 3) y matriz de variaznas-covarianzas:

(102.252.253)\begin{align*} \begin{pmatrix} 10 & 2.25\\ 2.25 & 3 \end{pmatrix} \end{align*}
  • Si el cociente intelectual de un alumno es 120, ¿qué calificación promedio cabe esperar que tenga?

📐Demostración

Así, tenemos que las variables son:

X=Cociente intelectual de cada alumnoY=Calificacioˊn en la prueba de cada alumno\begin{align*} X & = \text{Cociente intelectual de cada alumno}\\ Y & = \text{Calificación en la prueba de cada alumno} \end{align*}

Y tenemos que:

(X,Y)((1003),(102.252.253))\begin{align*} (X, Y) \rightsquigarrow \left(\begin{pmatrix} 100\\3 \end{pmatrix}, \begin{pmatrix} 10 & 2.25\\ 2.25 & 3 \end{pmatrix}\right) \end{align*}

Entonces, queremos hallar la esperanza de YY condicionada a que X=120X = 120, es decir, queremos hacer una restricción en una aplicación. Como la matriz de covarianzas no es diagonal, sabemos a priori que no son independientes.

Así, la esperanza de YY condicionada a X=120X = 120 es:

E(YX=120)=yf(yX=120)dy=yf(x,y)fX(120)dy\begin{align*} E(Y|_{X = 120}) = \int_{ - \infty}^{\infty} y \cdot f(y|_{X = 120}) \, dy = \int_{ - \infty}^{\infty} y \cdot \dfrac{f(x, y)}{f_X(120)} \, dy \end{align*}

Y tenemos que:

YX=xN(μ2+(xμ1)σρσ2,σ21ρ2)\begin{align*} Y|_{X = x} \rightsquigarrow \mathcal{N}\left(\mu_2 + \dfrac{(x - \mu_1)}{\sigma} \rho \sigma_2, \sigma_2 \sqrt{1 - \rho^2}\right) \end{align*}

Entonces, la esperanza de YY condicionada a X=120X = 120 es:

E(YX=120)=μ2+(120μ1)σρσ2=3+(120100)102.2510=3+20102.2510\begin{align*} E(Y|_{X = 120}) = \mu_2 + \dfrac{(120 - \mu_1)}{\sigma} \rho \sigma_2 = 3 + \dfrac{(120 - 100)}{\sqrt{10}} \dfrac{2.25}{\sqrt{10}} = 3 + \dfrac{20}{\sqrt{10}} \dfrac{2.25}{\sqrt{10}} \end{align*}

donde ρ\rho viene dado por:

ρ=Cov(X,Y)σXσY=2.25103\begin{align*} \rho = \dfrac{\text{Cov}(X, Y)}{\sigma_X \sigma_Y} = \dfrac{2.25}{\sqrt{10} \cdot \sqrt{3}} \end{align*}

Y oprando tenemos que:

YX=120N(7.5,1.5792)\begin{align*} Y|_{X = 120} \rightsquigarrow \mathcal{N}\left(7.5, 1.5792\right) \end{align*}
  • Si el cociente intelectual es 120, obtener la probabilidad de que la calificación sea mayor que 3.5

📐Demostración

Para ello, vamos a hallar la probabilidad de que la calificación sea mayor que 3.5 condicionada a que el cociente intelectual sea 120, es decir:

P(Y>3.5X=120)=1P(Y3.5X=120)=0.9943\begin{align*} P(Y > 3.5|_{X = 120}) = 1 - P(Y \leq 3.5|_{X = 120}) = 0.9943 \end{align*}