12.07.2015 Views

Operaciones básicas con sucesos aleatorios

Operaciones básicas con sucesos aleatorios

Operaciones básicas con sucesos aleatorios

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Repaso de Cálculo de ProbabilidadesExperimentos y <strong>sucesos</strong> <strong>aleatorios</strong>Se dice que un experimento es aleatorio si se verifican las siguientes <strong>con</strong>diciones:— Se puede repetir indefinidamente, siempre en las mismas <strong>con</strong>diciones;— Antes de realizarlo, no se puede predecir el resultado que se va a obtener;— El resultado que se obtenga, e, perteneceaun<strong>con</strong>junto<strong>con</strong>ocidopreviamentederesultados posibles. A este <strong>con</strong>junto, de resultados posibles, lo denominaremos espaciomuestral y lo denotaremos normalmente mediante la letra E. Loselementosdel espacio muestral se denominan <strong>sucesos</strong> elementales.e 1 ,e 2 ∈ E =⇒ e 1 ,e 2 son <strong>sucesos</strong> elementales.Cualquier sub<strong>con</strong>junto de E se denominará suceso aleatorio, y se denotará normalmente<strong>con</strong> las letras A, B, ...A, B ⊂ E =⇒ A, B son <strong>sucesos</strong> <strong>aleatorios</strong>.Se puede observar que los <strong>sucesos</strong> elementales son <strong>sucesos</strong> <strong>aleatorios</strong> compuestos por unsólo elemento. Por supuesto los <strong>sucesos</strong> <strong>aleatorios</strong> son más generales que los elementales,ya que son <strong>con</strong>juntos que pueden <strong>con</strong>tener no a uno sólo, sino a una infinidad de <strong>sucesos</strong>elementales (y también no <strong>con</strong>tener ninguno). Sucesos <strong>aleatorios</strong> que aparecen <strong>con</strong> granfrecuencia en el cálculo de probabilidades son los siguientes:Suceso seguro: Es aquel que siempre se verifica después del experimento aleatorio,es decir, el mismo EE ⊂ E =⇒ E es el suceso seguro.1


Probabilidad <strong>con</strong>dicionada e independencia de <strong>sucesos</strong>En numerosas ocasiones, tendremos que modelizar una situación en la que se disponede información adicional, debiendo <strong>con</strong>dicionarse a <strong>sucesos</strong> o circunstancias. Formalmente,suponemos que estamos interesados en un suceso A; hemos asignado P (A) ynosinformande que ha ocurrido B y queremos saber cómo cambian mis creencias sobre A.Obviamente, en algunos casos no cambiarán tales creencias. Por ejemplo, si nos dicenque A = E (esto es, no nos dicen nada nuevo, no aportan información), P (B) no debecambiar. En la mayor parte de los casos, sin embargo, el aporte de nueva informaciónmodifica la probabilidad.El <strong>con</strong>cepto básico para modelizar tales ideas es la probabilidad <strong>con</strong>dicionada P (B|A).Su definición es la siguiente.Sea B ⊂ E un suceso aleatorio de probabilidad no nula, P (B) > 0. Para cualquierotro suceso A ⊂ E, se llama probabilidad <strong>con</strong>dicionada de A respecto de B alacantidadque representamos mediante P (A|B) , y se calcula comoEjemploP (A|B) =P (A ∩ B).P (B)Se lanza un dado al aire ¿Cuál es la probabilidad de que salga el número 4? Si sabemosque el resultado ha sido un número par, ¿se modifica esta probabilidad?Solución: El espacio muestral que corresponde a este experimento es E = {1, 2, 3, 4, 5, 6}y se ha de calcular la probabilidad del suceso A = {4}.Sieldadonoestátrucado,todoslosnúmeros tienen la misma probabilidad de salir y, siguiendo la definición de probabilidadde Laplace,casos favorablesP (A) = = 1 casos posibles 6Obsérvese que para calcular la probabilidad de A según la definición de Laplace hemostenido que suponer previamente que todos los elementos del espacio muestral tienen lamisma probabilidad de salir, es decir:P (1) = P (2) = P (3) = P (4) = P (5) = P (6).Porotrolado,sisesabequehasalidounnúmeropar,denuevoporladefinición deprobabilidad de Laplace tendríamosP (A|par) =casos favorablescasos posibles=número de elementos en {4}número de elementos en {2, 4, 6} = 1 3 .5


los que <strong>con</strong>ocemos su probabilidad. Para ello necesitamos introducir un nuevo <strong>con</strong>cepto:se dice que la colección A 1 ,A 1 ,...,A n ⊂ E es un sistema exhaustivo y excluyente de<strong>sucesos</strong> si se verifica:n[A i = Ei=1A i ∩ A j = ∅, ∀i 6= jTeorema de la Probabilidad totalSea A 1 ,A 1 ,...,A n ⊂ E un sistema exhaustivo y mutuamente excluyente de <strong>sucesos</strong>.Entonces, ∀B ⊂ E, se verifica queP (B) =nXP (B|A i ) P (A i ).i=1Demostración:Observando la figurase deduce que los <strong>sucesos</strong> A i forman un sistema exhaustivo y excluyente de <strong>sucesos</strong>, y sepuede calcular la probabilidad de B a partir de las cantidades P (B ∩ A i ) , oloqueeslomismo, P (B|A i ) · P (A i ):Ã Ã n!![P (B) = P (B ∩ E) =P B ∩ A i =Ã n![= P (B ∩ A i ) =i=1nXP (B ∩ A i )=i=1i=1i=1nXP (B|A i ) · P (A i ) .8


EjemploSe tienen dos urnas, y cada una de ellas <strong>con</strong>tiene un número diferente de bolas blancasyrojas:— Primera urna, U 1 : 3 bolas blancas y 2 rojas;— Segunda urna, U 2 : 4 bolas blancas y 2 rojas.Se realiza el siguiente experimento aleatorio: Se tira una moneda al aire y si sale carase elige una bola de la primera urna, y si sale cruz de la segunda. ¿Cuál es la probabilidadde que salga una bola blanca?Solución: La situación que tenemos puede ser esquematizada como3B 2R U 1 P (U 1 )=1/2 P (B|U 1 )=3/54B 2R U 2 P (U 2 )=1/2 P (B|U 2 )=4/6Como U 1 y U 2 forman un sistema incompatible y excluyente de <strong>sucesos</strong> (la bola resultadodebe provenir de una de esas dos urnas y de una sólo de ellas), el teorema de laprobabilidad total permite afirmar entonces queP (B) =P (B|U 1 ) · P (U 1 )+P (B|U 2 ) · P (U 2 )= 3 5 · 12 + 4 6 · 12 = 1930 .Teorema de BayesSea A 1 ,A 1 ,...,A n ⊂ E un sistema exhaustivo y excluyente de <strong>sucesos</strong>. Sea B ⊂ E unsuceso del que <strong>con</strong>ocemos las siguientes probabilidades: P (B|A i ) para todo i =1,...n, alas que denominamos verosimilitudes, entonces se verifica, para todo j =1,...n,P (A j |B) = P (B|A j) · P (A j )P ni=1 P (B|A i) · P (A i ) .Demostración:Es una <strong>con</strong>secuencia de la definición de probabilidad <strong>con</strong>dicionada en términos de laintersección, y del teorema de la probabilidad total:P (A j |B) = P (A j ∩ B)P (B)= P (B|A j) · P (A j )P ni=1 P (B|A i) · P (A i ) . ¤9


P (U 3 |B) ==P (B|U 3 ) · P (U 3 )P (B|U 1 ) · P (U 1 )+P (B|U 2 ) · P (U 2 )+P (B|U 3 ) · P (U 3 ) =0 · 133 · 1 + 4 · 1 +0· 1 =0.5 3 6 3 3Variables AleatoriasIntroducciónNormalmente, los resultados posibles (espacio muestral E) de un experimento aleatoriono son valores numéricos. Por ejemplo, si un experimento <strong>con</strong>siste en lanzar de modoordenado tres monedas al aire, para observar el número de caras (C) ycruces(R) queseobtienen, el espacio muestral asociado a dicho experimento aleatorio sería:E = {CCC, CCR, CRC, CRR, RCC, RCR, RRC, RRR} .En Cálculo de Probabilidades resulta más fácil utilizar valores numéricos en lugar detrabajar directamente <strong>con</strong> los elementos de un espacio muestral como el anterior. Así, seprefiere identificar los <strong>sucesos</strong> {CRR, RCR, RRC} <strong>con</strong> el valor numérico 1 que representael número de caras obtenidas al realizar el experimento.De este modo, aparece el <strong>con</strong>cepto de variable aleatoria unidimensional como el deuna funciónX : E −→ Re −→ X(e)que a cada suceso elemental e le atribuye un único número real del espacio muestral E.En el ejemplo anterior, se puede definir la variable aleatoria X ≡ número de caras,delsiguiente modo:X : E −→ RX (CCR) = X (CRC) =X (RCC) =2X (RRC) = X (RCR) =X (CRR)=1X (RRR) = 011


DefiniciónDada la v.a. X sobre el espacio E, asociado a un experimento aleatorio, se define sudistribución de probabilidad comoVariables aleatorias discretasP (X ∈ A) =P {e ∈ E : X(e) ∈ A}Dada una v.a. discreta X : E −→ N, f,se define su función de masa de probabilidad,demodoquef(x i ) es la probabilidad de que X tome ese valor <strong>con</strong>creto:f : N −→ [0, 1]x i −→ f (x i )=P [X = x i ]=P [{e, tal que X(e) =x i }]Si x i no es uno de los valores que puede tomar X, entoncesf(x i )=0.Larepresentacióngráfica de la función de masa de probabilidad se realiza mediante un diagrama de barrasanálogo al de distribución de frecuencias relativas para variables discretas en EstadísticaDescriptiva.Por ejemplo, si se <strong>con</strong>sidera el caso del lanzamiento de 3 monedas de forma que cadauna de ellas tenga probabilidad 1/2 de obtener el resultado de cara o cruz, se tiene quef(3) = P [X =3]=P [{CCC}] = 1 2 · 12 · 12 = 1 8f(2) = P [X =2]=P [{RCC, CCR, CRC}] = 1 8 + 1 8 + 1 8 = 3 8f(1) = P [X =1]=P [{RRC, RCR, CRR}]= 1 8 + 1 8 + 1 8 = 3 8f(0) = P [X =0]=P [{RRR}] = 1 2 · 12 · 12 = 1 8Observación: Obsérvese que X está definido sobre el espacio muestral de <strong>sucesos</strong> E,mientras que f lo está sobre el espacio de números reales R.Las propiedades de la función de masa de probabilidad de v.a. se deducen de formainmediata de los axiomas de probabilidad:13


ProposiciónLa función de distribución F , es una función monótona no decreciente, esdecir,x 1 x) = 1− F (x)P (x 1


- La desviación típicas Xσ =i(x i − µ) 2 f(x i ).-Lamedianaex definida como el valor tal queP (X ≤ ex) ≥ 0,5P (X ≥ ex) ≥ 0,5,que <strong>con</strong>stituye otra medida de centralización.Distribución de BernoulliConsiste en realizar un experimento aleatorio una sola vez y observar si cierto sucesoocurre o no, siendo p la probabilidad de éxito y q =(1− p) de fracaso .Enrealidad,setrata de una variable dicotómica, que únicamente puede tomar dos valores. Podríamos,por tanto, definir este experimento mediante una v.a. discreta X que toma los valoresX =0si el suceso no ocurre, y X =1en caso <strong>con</strong>trario, denotándose X ∼ Ber(p) si⎧⎨ 0 −→ q =(1− p) =P (X =0)X =⎩1 −→ p = P (X =1)Por ejemplo, se lanza una moneda y se <strong>con</strong>sidera la v.a. X = número de caras obtenidas,X =1<strong>con</strong> p = 1 y X =0<strong>con</strong> q = 1.2 2Para una v.a. de Bernouilli, su función de masa de probabilidad es:y 0 en el resto.Su función de distribución esP (X =1) = pP (X =0) = 1− p,⎧⎨F (x) =⎩Los principales momentos de la X son0 si x


Distribución binomialSe utiliza la distribución binomial para modelizar el número de veces que se da unresultado al realizar varias pruebas idénticas e independientes de un experimento <strong>con</strong> dosresultados posibles.Las hipótesis específicas que se hacen son:—Se<strong>con</strong>siderann repeticiones independientes de un experimento.— El experimento tiene dos resultados posibles: éxito o fracaso.— La probabilidad p de éxito es la misma en cada repetición (o ensayo).El espacio muestral del experimento es el <strong>con</strong>junto E de n-uplas (éxito o fracaso). Lavariable X de interés es el número de éxitos obtenidos en esas n pruebas.Entonces,sedicequeX tiene distribución binomial de parámetros n y p, yseescribecomo X ∼ Bin(n, p) , siendo la distribuciónµ nP (X = x) = pxx (1 − p) n−x .Ejemplo Hay una probabilidad de 0.05 de que un dispositivo falle, bajo <strong>con</strong>dicionesintensas de uso, en un día. Una central hidroeléctrica tiene 16 dispositivos operando en<strong>con</strong>diciones similares. ¿Cuál es la probabilidad de que a lo sumo fallen 2 dispositivos? ¿yque al menos fallen 4?Solución:Si X designa el número de fallos de los dispositivos en un día bajo <strong>con</strong>diciones intensasde uso, y se puede suponer que X ∼ Bin(16, 0,05) .Nos piden primeroµ µ µ 1616 16P (X ≤ 2) = 0,05 0 0,95 16 + 0,05 1 0,95 15 + 0,05 2 0,95 14 =0,957 0601 2Después,P (X ≥ 4) = 1 − P (X ≤ 3) =µµ µ 16 160,05 0 0,95 16 +0 1= 1−= 0,007010,05 1 0,95 15 +17µ µ 16 160,05 2 0,95 14 +0,05 3 0,95 13 =2 3


Específicamente, supongamos que X ∼ Bin(n, p), esto es,µ nP (X = x) = pxx (1 − p) n−x<strong>con</strong> n −→ ∞,np= λ, esto es, p = λ −→ 0. Sustituyendo, se tienenµ x µn! λ1 − λ n−xn (n − 1) ···(n − x +1) 1=µ1x!(n − x)! n nn · n ···n x! λx − λ n−x=n¡ ¢¡ ¢ ¢1 −1n 1 −2n ···¡1 −x−1µn=λ x 1 − λ n−x,x!nPor otro lado, se tiene queµ1 − 1 µ1 − 2 µ··· 1 − x − 1 −→n nn1n→∞µ1 − λ n n−x=à µ !1 −nnλ λ µλ1 −n λ −x−→ e −λ .n→∞De este modo, si X ∼ Bin(n, p), siendo np = λ,x =0, 1, 2,...−λ λxP (X = x) −→ en→∞ x! ,ProposiciónSe dice que una variable aleatoria X tiene una distribución de Poisson de parámetroλ, X ∼ Po(λ) si−λλkP (X = k) =ek! ,donde k =0, 1, 2,...Observación:Se observa que∞X−λλxex! = X ∞λ xe−λ x! = e−λ · e λ =1.x=0x=0ProposiciónSi X ∼ Po(λ) entoncesE [X] =∞Xx=0x · λx e −λx!= λe −λ ∞Xy=0= λ∞Xx=1λ x−1 e −λ(x − 1)! =λ yy! = λ · e−λ · e λ = λ.19


En forma similar se calculaVar[X] =λ.Ejemplo El 5 % de los objetos que produce una línea de producción sale <strong>con</strong> defectos.Calcular la probabilidad de que 2 de 100 objetos tengan defectos.Solución:Si X designa el número de objetos defectuosos de 100, se tiene que X ∼ Bin(100, 0,05) .Se pideµ 100P (X =2)= 0,05 2 · 0,95 98 =0,0812Alternativamente, como n es grande y p es pequeño, y aplicamos la aproximación dePoisson, se tiene que λ = np = 100 · 0,05 = 5, y−5 52P (X =2)≈ e2! =0,084Observación: La aproximación de la distribución de Poisson a la binomial es buenacuando n ≥ 20 y p ≤ 0,05 y es muy buena cuando n ≥ 100 y np ≤ 10.Variables aleatorias <strong>con</strong>tinuasSe presentan ahora los <strong>con</strong>ceptos básicos sobre variables aleatorias <strong>con</strong>tinuas. Se repitenlas mismas ideas que en el caso discreto, <strong>con</strong> funciones de densidad en lugar de funcionesde masa, eintegrales en lugar de sumas.En este caso, lo que generaliza de modo natural el <strong>con</strong>cepto de suma es el de integral.Por otro lado, para variables <strong>con</strong>tinuas no tiene interés hablar de la probabilidad de queX = x ∈ R, yaqueéstadebedevalersiempre0,paraquelasumainfinita no numerablede las probabilidades de todos los valores de la variable no sea infinita.De este modo, es necesario introducir un nuevo <strong>con</strong>cepto que sustituya en v.a. <strong>con</strong>tinuas,al de función de probabilidad de una v.a. discreta.Este <strong>con</strong>cepto es el de función de densidad de una v.a. <strong>con</strong>tinua, que se define comouna función f : R −→ R, integrable no negativa sobre la recta real, que verifica las dos20


propiedades siguientes:Z +∞−∞f(x) ≥ 0,f(x)dx = 1,ZP (X ∈ A) = f(x)dx.AAsí, dados a


Además, por el teorema fundamental del CálculodF (x)dx= f(x),si existe la derivada.MomentosComo en el caso discreto, en ocasiones se está interesado en resumir la distribución deX a través de sus momentos.La esperanza de una variable X esylavarianzaesσ 2 =Z ∞µ =Z ∞−∞(x − µ) 2 f(x)dx =xf(x)dxZ ∞−∞−∞x 2 f(x)dx − µ 2 .EjemploPara la v.a. del ejemplo anterior se tiene queµ =σ 2 =Z ∞−∞Z ∞−∞xf(x)dx =Z ∞x 2 2e −2x dx − 1 4 = 1 4 .0x2e −2x dx = 1 2 ,Como en el caso de las variables discretas, se muestran a <strong>con</strong>tinuación las distribuciones<strong>con</strong>tinuas más importantes en Ciencias.La distribución uniformeMuchos fenómenos pueden asociarse a situaciones de incertidumbre uniforme.DefiniciónUna v.a. tiene distribución uniforme en (a, b) (y se representa como X ∼ U (a, b) )sisu función de densidad es⎧1⎪⎨ a


Su función de distribución⎧⎨ 0 x ≤ ax−aF (x) = a


Observación: Una propiedad importante, y característica de esta distribución, es supérdida de memoria. SetienequeP (T >t+ h| T>t) =P (T >t+ h, T > t)P (T >t)== e−α(t+h)e −αt = e −αh = P (T >h) .P (T >t+ h)P (T >t)=Esta propiedad hace útil a la exponencial en algunas aplicaciones de Fiabilidad de Sistemas.La distribución gammaLa distribución exponencial, en realidad, está incluída dentro de una familia másamplia: la distribución gamma.Se dice que una v.a. tiene una distribución gamma de parámetro de forma p>0 yparámetro de escala s>0, si su función de densidad esf(x; a, p) = 1 h−s p Γ(p) exp x i· x p−1sdonde x>0.Los momentos de la distribución gamma sonµ = spVar(X) = s 2 p25


Una propiedad importante es la siguiente:PropiedadSi X 1 ,X 2 ,...,X n son v.a. independientes γ(p 1 ,s),γ(p 2 ,s),...,γ(p n ,s) respectivamenteentonces la suma de variablesT = X 1 + X 2 + ...+ X nse distribuye como otra distribución gammaà nX!γ p i ,s .i=1La distribución normalLa distribución normal ocupa un lugar central en la Estadística. Su origen está enel descubrimiento de regularidades en los errores de medición por parte del matemático26


Gauss: los patrones que se observan se aproximan por la denominada curva normal deerrores.En Ciencias tendrá importancia por tres razones básicas:Estaremos interesados en mediciones de diversas magnitudes, sometidas a erroresque, típicamente, modelizaremos como una distribución normal.Por sus propiedades estadísticas y probabilísticas, los cálculos de interés de carácterestadístico son relativamente sencillos.El Teorema Central del Límite nos asegura que, para muestras grandes y bajo <strong>con</strong>dicionesapropiadas, muchas funciones de las observaciones se aproximan, en distribución,mediante la normalDefiniciónUna v.a. tiene distribución normal de parámetros µ y σ (y se representa como X ∼N (µ, σ) ), si su función de densidad esà !f(x|µ, σ) = √ 1 (x − µ)2exp −2πσ 2σ 2donde −∞


Se comprueba fácilmente queZ ∞−∞E (X) =f(x|µ, σ)dx =1Var(X) =Z ∞−∞Z ∞xf(x|µ, σ)dx = µ−∞(x − µ) 2 f(x|µ, σ)dx = σ 2 ,estoes,elparámetroµ es la media y σ 2 es la varianza. Además la distribución es simétrica(respecto de µ) por lo que la mediana es también µ.Se <strong>con</strong>sidera ahora, específicamente, la denominada distribución z normal estándar,<strong>con</strong> µ =0y σ =1, es decir,f(z) = √ 1expµ− z2,2π 2donde −∞


Distribuciones discretas multivariantesSupongamos que se estudia los tipos de viajes <strong>con</strong>tratados por una agencia de viajes,que pueden ser de tres tipos (0, 1, 2), bajo dos modos de operación (0, 1). Se dispone delas probabilidades de tipo (X 1 ), bajo el modo (X 2 ) de operación indicado, en un tiempodado, que se expresa en la siguiente tabla.X 10 1 2X 2 0 0.1 0.4 0.1 0.61 0.2 0.2 0 0.40.3 0.6 0.1 1Así, se tiene que P (X 1 =1,X 2 =0)=0,4La tabla define la distribución <strong>con</strong>junta de (X 1 ,X 2 ) mediante su función de masade probabilidad.f (X 1 ,X 2 )=P (X 1 = x 1 ,X 2 = x 2 ) .A partir de ella podemos definir diversas distribuciones de interés. Por ejemplo, se puedendefinir:— La distribución marginal de X 1 mediantef 1 (X 1 )=P (X 1 = x 1 )= X x 2P (X 1 = x 1 ,X 2 = x 2 )= X x 2f (X 1 ,X 2 )—LamarginaldeX 2 mediantef 2 (X 2 )=P (X 2 = x 2 )= X x 1P (X 1 = x 1 ,X 2 = x 2 )= X x 1f (X 1 ,X 2 )— La distribución de X 2 <strong>con</strong>dicionada a X 1 = x 1 mediantef 2 (X 2 |X 1 ) = P (X 2 = x 2 |X 1 = x 1 )= P (X 1 = x 1 ,X 2 = x 2 )P (X 1 = x 1 )= f (X 1,X 2 )f 1 (X 1 )— La distribución de X 1 <strong>con</strong>dicionada a X 2 = x 2 mediantef 1 (X 1 |X 2 ) = P (X 1 = x 1 |X 2 = x 2 )= P (X 1 = x 1 ,X 2 = x 2 )P (X 2 = x 2 )= f (X 1,X 2 )f 2 (X 2 )==29


— SedicequeX 1 y X 2 son independientes siP (X 1 = x 1 ,X 2 = x 2 )=P (X 1 = x 1 ) · P (X 2 = x 2 ) ,para x 1 y x 2 cualesquiera, o equivalentemente,f (X 1 ,X 2 )=f 1 (X 1 ) · f 2 (X 2 ) .EjemploEn el ejemplo anterior se tienef 1 (0) = P (X 1 =0)=P (X 1 =0,X 2 =0)+P (X 1 =0,X 2 =1)== 0,1+0,2 =0,3f 2 (0) = 0,1+0,4+0,1 =0,6f (0, 0) = 0,1 6= 0,3 · 0,6 =f 1 (0) · f 2 (0) ,por lo que X 1 y X 2 no son independientes.Estas ideas se pueden extender al caso k-variante. La distribución <strong>con</strong>junta seráf (X 1 ,...,X n )=P (X 1 = x 1 ,...,X n = x n )y, por ejemplo, la distribución marginal de X 1 esf 1 (X 1 )= Xf (X 1 ,...,X n )x 2 ,...x kDistribuciones multivariantes <strong>con</strong>tinuasLas ideas anteriores se pueden extender fácilmente al caso <strong>con</strong>tinuo. Para un vectoraleatorio de variables aleatorias <strong>con</strong>tinuas (X 1 ,...,X k ) se tendrá una función de densidadmultivariante f (x 1 ,...,x k ) que satisfaceyZ ZP (a 1 ≤ X 1 ≤ b 1 ,...,a k ≤ X k ≤ b k )=f (x 1 ,...,x k ) ≥ 0Z··· f (x 1 ,...,x k ) dx 1 ...dx k = 1R kZ bka k···Z b1a 1f (x 1 ,...,x k ) dx 1 ...dx k30


La función de distribución esEjemploSe tieneF (x 1 ,...,x k ) = P (X 1 ≤ x 1 ,...,X k ≤ x k )==Z xk−∞···Z x1−∞f (t 1 ,...,t k ) dt 1 ...dt k .Consideramos la función de densidad½ 6e−2x 1ef(x 1 ,x 2 )=−3x 2x 1 > 0,x 2 > 00 en el restoZ Zf (x 1 ,x 2 ) dx 2 dx 1 =Z ∞ Z ∞006e −2x 1e −3x 2dx 2 dx 1 =1por lo que se demuestra que es una función de densidad. Para calcular probabilidades sehace, por ejemplo,P (1 ≤ X 1 ≤ 2, 2 ≤ X 2 ≤ 3) =Z 3 Z 2216e −2x 1e −3x 2dx 1 dx 2 == ¡ e −4 − e −2¢¡ e −9 − e −6¢ =0,0003P (0 ≤ X 1 ≤ 2, 2 ≤ X 2 ≤∞) =La función de distribución esZ 2 Z ∞026e −2x 1e −3x 2dx 2 dx 1 == ¡ 1 − e −4¢ e −6 =0,0024F (x 1 ,x 2 ) =Z x1Z x2−∞−∞6e −2t 1e −3t 2dt 2 dt 1 =¡1 − e−2x 1¢¡1 − e−3x 2¢.La marginal de X 1 se calcula comof 1 (x 1 )=Z ∞···Z ∞−∞ −∞f (x 1 ,...,x k ) dx k ...dx 2 .Se dice que X 1 ,...,X k son independientes siF (x 1 ,...,x k )=F 1 (x 1 ) · F 2 (x 2 ) ...F k (x k )o, equivalentemente,f (x 1 ,...,x k )=f 1 (x 1 ) · f 2 (x 2 ) ...f k (x k ) .31


Ejemplo En el caso anterior, la marginal de X 1 es⎧Z ∞⎨ 0 para x 1 ≤ 0f 1 (x 1 )= f (x 1 ,x 2 ) dx 2 =−∞⎩ R ∞6e −2x 1e −3x 2dx0 2 =2e −2x 1para x 1 > 0Análogamente,Así,Como se tenía que⎧⎨ 0 para x 2 ≤ 0f 2 (x 2 )=⎩3e −3x 1para x 2 > 0⎧⎨ 0 para x 1 ≤ 0F 1 (x 1 )=⎩(1 − e −2x 1) para x 1 > 0⎧⎨ 0 para x 2 ≤ 0F 2 (x 2 )=⎩(1 − e −3x 2) para x 2 > 0⎧⎨ 0 para x 1 ≤ 0 ó x 2 ≤ 0F (x 1 ,x 2 )=⎩(1 − e −2x 1)(1− e −3x 2) para x 1 ,x 2 > 0de modo que F (x 1 ,x 2 )=F 1 (x 1 ) · F 2 (x 2 ) , <strong>con</strong> lo que se puede afirmar que X 1 y X 2son independientes.De manera similar al caso discreto se introducen las distribuciones <strong>con</strong>dicionadas. Porejemplo, X 1 |X 2 = x 2 <strong>con</strong> función de densidadpara f 2 (x 2 ) 6= 0.f (x 1 |x 2 )= f (x 1,x 2 )f 2 (x 2 )EjemploConsideramos la densidad bivariante⎧⎨f (x 1 ,x 2 )=⎩La marginal de X 2 es23 (x 1 +2x 2 ) para 0


⎧Z ∞⎨f 2 (x 2 )= f (x 1 ,x 2 ) dx 1 =−∞⎩0 x 2 /∈ (0, 1)R 102(x 3 1 +2x 2 ) dx 1 = 1 (1 + 4x 3 2) para 0


4. Si un vector aleatorio (X, Y ) tiene distribución N (µ, Σ) y cov(X, Y )=0entoncesX e Y son independientes. Comoµ σ2Σ = 1 00 σ 2 ,2sustituyendo en la expresión de la función de densidad, se obtiene quePropiedades del operador esperanzaf (x, y) =f (x) · f (y)Dada una v.a. X se puede definir la transformación g (X) y calcular su esperanzadefinida mediante⎧⎨E [g (X)] =⎩R ∞−∞Para Y = g (X 1 ,...,X k ) se tiene queg (x) f (x) dx en el caso <strong>con</strong>tinuoPig (x i ) f (x i ) en el caso discreto⎧⎨E [Y ]=⎩R ∞−∞R ∞−∞ ···R ∞−∞ g (x 1,...,x k ) f (x 1 ,...,x k ) dx k ...dx 1 en el caso <strong>con</strong>tinuoPx 1 ···Px kg (x 1 ,...,x k ) f (x 1 ,...,x k )Un caso particular esLa esperanza de g (x 1 ,x 2 ) esg (x 1 ,x 2 )=(x 1 − µ 1 )(x 2 − µ 2 ) .E [(X 1 − µ 1 )(X 2 − µ 2 )] = Cov (X 1 ,X 2 ) ,en el caso discretose llama covarianza y es una medida de la relación de crecimiento <strong>con</strong>junto de ambasvariables. Cuando toma valor positivo es porque predominan valores de X 1 ,X 2 grandesa la vez, o ambos pequeños a la vez. Cuando es negativo, resulta que X 1 es grande y X 2pequeñoalavez,oalainversa.En el caso de independencia se tieneCov (X 1 ,X 2 )=0.34


Propiedades útilesSe pueden <strong>con</strong>siderar las siguientes:1. E [kX] =kE [X] .2. E [X + Y ]=E [X]+E [Y ] .3. Var[kX] =k 2 Var[X] .4. Si X e Y son incorreladas entonces E [XY ]=E [X] E [Y ] .5. Var[X 1 + ···+ X n ]=Var[X 1 ]+···+ Var[X n ]+2 X i


Teorema Central del LímiteSi X 1 ,...,X n son v.a. independientes <strong>con</strong> media µ y varianza común σ 2 < ∞, la v.a.Zdefinida comoZ = X − µσ/ √ nes una v.a. cuya función de densidad se aproxima a la distribución normal cuando n esgrande:Z ∼ N (0, 1)esto es, para n grandeX 1 + ···+ X nn= X ' Nµ σµ, √ n36

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!