Tema 4 Variables aleatòries multidimensionals (2013)

Apunte Español
Universidad Universidad Politécnica de Cataluña (UPC)
Grado Ingeniería de Diseño Industrial y Desarrollo del Producto - 2º curso
Asignatura Probabilitat i estadística
Año del apunte 2013
Páginas 6
Fecha de subida 17/05/2014
Descargas 7
Subido por

Vista previa del texto

J. Gibergans Báguena / DMA3 – EET / UPC Tema 4: Variables aleatorias multidimensionales TEMA 4 VARIABLES ALEATORIAS MULTIDIMENSIONALES 5.1 5.2 5.3 5.4 5.1.
Distribuciones conjuntas Distribuciones condicionales Variables aleatorias independientes Combinación lineal de dos variables aleatorias DISTRIBUCIONES CONJUNTAS DE PROBABILIDAD Los conceptos que vimos en el tema anterior se generalizan fácilmente a dos o más variables aleatorias. Consideraremos el caso típico de dos variables aleatorias que son ambas discretas o ambas continuas. En los casos donde una variable es discreta y la otra es continua, se hacen fácilmente modificaciones apropiadas. También pueden hacerse generalizaciones a más de dos variables.
 Caso discreto Si X, Y son dos variables aleatorias discretas, definimos la función de probabilidad conjunta por: donde: f(x,y) = P(X=x, Y=y) a) f(x,y)  0 b)  f ( x, y )  1 x y Supongamos que:  X puede tomar cualquiera de los m valores x1, x2, ..., xm  Y puede tomar cualquiera de los n valores y1, y2, ..., yn Entonces, la probabilidad del suceso: X tome valor xj e Y tome valor yk, está dada por: P(X=xj, Y=yk) = f(xj,yk) Una función de probabilidad conjunta para (X,Y) puede representarse por una tabla de probabilidad conjunta: X\Y x1 x2 ...
xj ...
xm totales y1 f(x1,y1) f(x2,y1) ...
f(xj,y1) ...
f(xm,y1) f2(y1) P(Y=y1) y2 f(x1,y2) f(x2,y2) ...
f(xj,y1) ...
f(xm,y2) f2(y2) P(Y=y2) ...
...
...
...
...
...
...
...
...
yk f(x1,yk) f(x2,yk) ...
f(xj,yk) ...
f(xm,yk) f2(yk) P(Y=yk) ...
...
...
...
...
...
...
...
...
yn f(x1,yn) f(x2,yn) ...
f(xj,yn) ...
f(xm,yn) f2(yn) P(Y=yn) totales f1(x1) f1(x2) ...
f1(xj) ...
f1(xm) 1 P(X=x1) P(X=x2) ...
P(X=xj) ...
P(X=xm) La probabilidad de que X=xj se obtiene sumando todas las celdas de la fila correspondiente a xj: IV - 1 PROBABILIDAD I ESTADISTICA - 2013-14-T J. Gibergans Báguena / DMA3 – EET / UPC n P( X  x j )  f1( x j )   f ( x j , yk ) j  1,2 ,...m k 1 Analogamente, la probabilidad de que Y=yk se obtiene sumando todas las celdas de la fila correspondiente a yk: m P( Y  yk )  f 2 ( yk )   f ( x j , yk ) k  1,2 ,...n j 1 Debido a que estas probabilidades se obtienen de los márgenes de la tabla, frecuentemente nos referimos a f1(x) y f2(y) como las funciones de probabilidad marginal de X, Y respectivamente.
Observamos también que: m f (x j 1 1 j n f (y ) 1; k 1 2 k ) 1 Que es lo mismo que escribir: m n  f ( x , y j 1 k 1 j k ) 1 La función de distribución conjunta de X, Y se define por: F( x, y )  P( X  x, Y  y )   f ( u,v ) u x v y También podemos definir las funciones de distribución marginales: F1( x j )  F( x, )  P( X  x j )  P( X  x j ,Y   )  F2 ( yk )  F(  , yk )  P( Y  y j )  P( X   ,Y  yk )   f (x xj x 1 j  f (y yk  y 2 ) k ) Ejemplo 4.1: Consideremos el experimento aleatorio de lanzar 2 monedas al aire. El espacio muestral será: ={(c,c), (c,s), (s,c), (s,s)}. Definimos las variables aleatorias: X = número de sellos Y = {1:si sale cara, 2: si no sale cara} (X,Y)(c,c) = (0,1) (X,Y)(s,c) = (1,1) (X,Y)(c,s) = (1,1) (X,Y)(s,s) = (2,2) P(X=0, Y=1)=P(c,c)=1/4 P(X=1, Y=1)=P(c,s) + P(s,c) =1/4 + 1/4 = 1/2 P(X=2, Y=2)=P(s,s)=1/4 X/Y 0 1 2 1 P(0,1)=1/4 P(1,1)=2/4 P(2,1)=0 P(Y=1)=3/4 2 P(0,2)=0 P(1,2)=0 P(2,2)=1/4 P(Y=2)=1/4 IV - 2 P(X=0)=1/4 P(X=1)=2/4 P(X=2)=1/4 1 J. Gibergans Báguena / DMA3 – EET / UPC Tema 4: Variables aleatorias multidimensionales  Caso continuo El caso donde ambas variables son continuas se obtiene fácilmente por analogía con el caso discreto al reemplazar las sumas por integrales.
Así la función de densidad de probabilidad conjunta para las variables X,Y, se define por: a) f(x,y)  0   b)  f ( x, y )dx dy  1   Gráficamente z=f(x,y) representa una superficie, llamada superficie de probabilidad: z=f(x,y) z c d y a b x Figura 4.1: Superficie de probabilidad El volumen total limitado por esta superficie y el plano XY es igual a 1 de acuerdo con la propiedad (b) anterior. La probabilidad de que X esté entre a y b en tanto que Y esté entre c y d está dada gráficamente por el volumen del paralelepípedo curvilíneo de la figura 4.1, y matemáticamente por: b P( a  X  b,c  Y  d )  d   f ( x, y ) dx dy x a y c Generalizando, si A representa un suceso, habrá una región del plano RA que corresponde a él. En tal caso podemos hallar la probabilidad de A efectuando la integración sobre A, es decir: P( A )   f ( x, y ) dx dy RA La función de distribución conjunta de X, Y, en este caso se define por: x F( x , y )  P ( X  x , Y  y )  y   f (u, v) du dv u   v  Igual que en el caso unidimensional, puede hallarse la función de densidad de probabilidad conjunta derivando la función de distribución, pero ahora:  2F  f ( x, y )  x y IV - 3 PROBABILIDAD I ESTADISTICA - 2013-14-T J. Gibergans Báguena / DMA3 – EET / UPC A partir de la función de distribución conjunta podemos definir las funciones de distribución marginal, o simplemente, las funciones de distribución de X e Y, respectivamente por: x F1( x )  P( X  x )  x  f1( u )du   f 2 ( v )dv  u  y F2 ( x )  P( Y  y )     f ( u,v ) du dv   f ( u,v ) du dv u  v  y  v  u  v  Y a las derivadas de éstas respecto x e y, se llaman funciones de densidad marginal, o simplemente funciones de densidad de X e Y:  f1 ( x )    f2( x )  f ( x,v ) dv ; v  5.2.
 f ( u, y ) du u  DISTRIBUCIONES CONDICIONALES  Caso discreto Sea (X,Y) una variable aleatoria bidimensional discreta de función de probabilidad conjunta f(x,y).
 Se define la función de probabilidad condicional de Y dada X, a: f ( y,x )  P( yk / x j )   P( X  x j ,Y  yk ) P( X  x j )  f ( x, y ) f1( x ) Se define la función de probabilidad condicional de X dada Y, a: f ( x, y )  P( x j / yk )  P( X  x j ,Y  yk ) P( Y  yk )  f ( x, y ) f 21( y )  Caso continuo Sea (X,Y) una variable aleatoria bidimensional continua de función de densidad de probabilidad conjunta f(x,y).
 Se define la función de distribución condicionada de X al valor de Y = y: x F( x / y )   f ( u, y )du  (la y es un valor fijo) f2 ( y ) Y la función de densidad marginal condicionada de X al valor de Y = y: f(x/ y) dF( x / y ) f ( x, y )  dx f2( y ) IV - 4 J. Gibergans Báguena / DMA3 – EET / UPC  Tema 4: Variables aleatorias multidimensionales Se define la función de distribución condicionada de Y al valor de X = x: y F( y / x )   f ( x,v )dv  (la x es un valor fijo) f1 ( x ) Y la función de densidad marginal condicionada de Y al valor de X = x: f( y/ x) 5.3.
dF( y / x ) f ( x, y )  dy f1 ( x ) VARIABLES ALEATORIAS INDEPENDIENTES  Caso discreto: Sean X, Y dos variables aleatorias discretas. Decimos que X e Y son dos variables aleatorias independientes si: P(X = x,Y = y) = P(X = x) · P(Y = y) o lo que es igual: f(x,y) = f1(x) · f2(y)  Caso continuo: Sean X, Y dos variables aleatorias continuas. Decimos que X e Y son dos variables aleatorias independientes si: P(X  x,Y  y) = P(X  x) · P(Y  y) o lo que es igual: F(x,y) = F1(x) · F2(y) y por tanto, f(x,y) =  2F  f1(x) · f2(y)  x y Consecuencia importante: si X e Y son independientes, entonces E( XY )  E( X )E( Y ) . Para el caso continuo la demostración es como sigue (en el caso discreto es análoga pero con sumatorios en lugar de integrales):   E( XY )     xy f ( x, y ) dx dy      xy f ( x ) f ( y ) dx dy  1 2          x f1 ( x ) dx   y f 2 ( y ) dy   E( X )E( Y ).
     Y la covarianza de dos variables aleatorias viene dada por: Cov( X ,Y )  E[( X  E( X )( Y  E( Y )]  E[ XY  E( X )Y  E( Y )X  E( X )E( Y )]   E( XY )  E( X )E( Y )  E( X )E( Y )  E( X )E( Y )  E( XY )  E( X )E( Y ).
Si las variables aleatorias son independientes, se tiene que: Cov( XY )  0.
IV - 5 PROBABILIDAD I ESTADISTICA - 2013-14-T 5.4.
J. Gibergans Báguena / DMA3 – EET / UPC COMBINACIÓN LINEAL DE DOS VARIABLES ALEATORIAS En este apartado vamos a examinar algunos procedimientos sencillos para analizar la suma de dos variables aleatorias, S = X + Y. Y, generalizando, para la suma ponderada, W = a X + b Y, donde a y b pueden ser cualesquiera coeficientes, llamados ponderaciones.
 Esperanza matemática de S = X + Y Veamos que: E ( X + Y ) = E ( X ) + E( Y ) E( X  Y )   ( x  y ) f ( x, y )   x f ( x, y )   y f ( x, y )  E( X )  E( Y ) x Puesto que: y x y x  y   x f ( x, y )  x   f ( x, y )   x f ( x )  E( X )  y  x   y f ( x, y )   y   f ( x, y )   y f ( y )  E( Y )  x y y  x  y x y x Ejercicio: a) Comprobar lo mismo para X e Y variables aleatorias continuas.
b) Verificar que: E( a X + b Y ) = a E( X ) + b E( Y )  Varianza de S = X + Y La varianza de una suma S = X + Y es un poco más complicada que su media: Var( X + Y) = Var( X ) + Var( Y ) + 2 Cov(X,Y) En efecto: Var( S )  E ( X  Y )  (  X  Y )  E ( X   X )  ( Y  Y )  2 2  E ( X   X )2  2( X   X )( Y  Y )  ( Y  Y )2    E ( X   X )2   2 E ( X   X )( Y  Y )  E ( Y  Y )2    Var( X )  2 Cov( X ,Y )  Var( Y ) Observación: si las variables X e Y son independientes, entonces: Var(X+Y) = Var(X) + Var(Y).
 Generalizando a W = a X + b Y Var( a X + b Y) = a2 Var( X ) + b2 Var( Y ) + 2 a b Cov(X,Y) Observación: si las variables X e Y son independientes, entonces: Var(aX+bY) = a2Var(X) + b2 Var(Y).
IV - 6 ...