12.07.2015 Views

Operaciones básicas con sucesos aleatorios

Operaciones básicas con sucesos aleatorios

Operaciones básicas con sucesos aleatorios

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Repaso de Cálculo de ProbabilidadesExperimentos y <strong>sucesos</strong> <strong>aleatorios</strong>Se dice que un experimento es aleatorio si se verifican las siguientes <strong>con</strong>diciones:— Se puede repetir indefinidamente, siempre en las mismas <strong>con</strong>diciones;— Antes de realizarlo, no se puede predecir el resultado que se va a obtener;— El resultado que se obtenga, e, perteneceaun<strong>con</strong>junto<strong>con</strong>ocidopreviamentederesultados posibles. A este <strong>con</strong>junto, de resultados posibles, lo denominaremos espaciomuestral y lo denotaremos normalmente mediante la letra E. Loselementosdel espacio muestral se denominan <strong>sucesos</strong> elementales.e 1 ,e 2 ∈ E =⇒ e 1 ,e 2 son <strong>sucesos</strong> elementales.Cualquier sub<strong>con</strong>junto de E se denominará suceso aleatorio, y se denotará normalmente<strong>con</strong> las letras A, B, ...A, B ⊂ E =⇒ A, B son <strong>sucesos</strong> <strong>aleatorios</strong>.Se puede observar que los <strong>sucesos</strong> elementales son <strong>sucesos</strong> <strong>aleatorios</strong> compuestos por unsólo elemento. Por supuesto los <strong>sucesos</strong> <strong>aleatorios</strong> son más generales que los elementales,ya que son <strong>con</strong>juntos que pueden <strong>con</strong>tener no a uno sólo, sino a una infinidad de <strong>sucesos</strong>elementales (y también no <strong>con</strong>tener ninguno). Sucesos <strong>aleatorios</strong> que aparecen <strong>con</strong> granfrecuencia en el cálculo de probabilidades son los siguientes:Suceso seguro: Es aquel que siempre se verifica después del experimento aleatorio,es decir, el mismo EE ⊂ E =⇒ E es el suceso seguro.1


Probabilidad <strong>con</strong>dicionada e independencia de <strong>sucesos</strong>En numerosas ocasiones, tendremos que modelizar una situación en la que se disponede información adicional, debiendo <strong>con</strong>dicionarse a <strong>sucesos</strong> o circunstancias. Formalmente,suponemos que estamos interesados en un suceso A; hemos asignado P (A) ynosinformande que ha ocurrido B y queremos saber cómo cambian mis creencias sobre A.Obviamente, en algunos casos no cambiarán tales creencias. Por ejemplo, si nos dicenque A = E (esto es, no nos dicen nada nuevo, no aportan información), P (B) no debecambiar. En la mayor parte de los casos, sin embargo, el aporte de nueva informaciónmodifica la probabilidad.El <strong>con</strong>cepto básico para modelizar tales ideas es la probabilidad <strong>con</strong>dicionada P (B|A).Su definición es la siguiente.Sea B ⊂ E un suceso aleatorio de probabilidad no nula, P (B) > 0. Para cualquierotro suceso A ⊂ E, se llama probabilidad <strong>con</strong>dicionada de A respecto de B alacantidadque representamos mediante P (A|B) , y se calcula comoEjemploP (A|B) =P (A ∩ B).P (B)Se lanza un dado al aire ¿Cuál es la probabilidad de que salga el número 4? Si sabemosque el resultado ha sido un número par, ¿se modifica esta probabilidad?Solución: El espacio muestral que corresponde a este experimento es E = {1, 2, 3, 4, 5, 6}y se ha de calcular la probabilidad del suceso A = {4}.Sieldadonoestátrucado,todoslosnúmeros tienen la misma probabilidad de salir y, siguiendo la definición de probabilidadde Laplace,casos favorablesP (A) = = 1 casos posibles 6Obsérvese que para calcular la probabilidad de A según la definición de Laplace hemostenido que suponer previamente que todos los elementos del espacio muestral tienen lamisma probabilidad de salir, es decir:P (1) = P (2) = P (3) = P (4) = P (5) = P (6).Porotrolado,sisesabequehasalidounnúmeropar,denuevoporladefinición deprobabilidad de Laplace tendríamosP (A|par) =casos favorablescasos posibles=número de elementos en {4}número de elementos en {2, 4, 6} = 1 3 .5


los que <strong>con</strong>ocemos su probabilidad. Para ello necesitamos introducir un nuevo <strong>con</strong>cepto:se dice que la colección A 1 ,A 1 ,...,A n ⊂ E es un sistema exhaustivo y excluyente de<strong>sucesos</strong> si se verifica:n[A i = Ei=1A i ∩ A j = ∅, ∀i 6= jTeorema de la Probabilidad totalSea A 1 ,A 1 ,...,A n ⊂ E un sistema exhaustivo y mutuamente excluyente de <strong>sucesos</strong>.Entonces, ∀B ⊂ E, se verifica queP (B) =nXP (B|A i ) P (A i ).i=1Demostración:Observando la figurase deduce que los <strong>sucesos</strong> A i forman un sistema exhaustivo y excluyente de <strong>sucesos</strong>, y sepuede calcular la probabilidad de B a partir de las cantidades P (B ∩ A i ) , oloqueeslomismo, P (B|A i ) · P (A i ):Ã Ã n!![P (B) = P (B ∩ E) =P B ∩ A i =Ã n![= P (B ∩ A i ) =i=1nXP (B ∩ A i )=i=1i=1i=1nXP (B|A i ) · P (A i ) .8


EjemploSe tienen dos urnas, y cada una de ellas <strong>con</strong>tiene un número diferente de bolas blancasyrojas:— Primera urna, U 1 : 3 bolas blancas y 2 rojas;— Segunda urna, U 2 : 4 bolas blancas y 2 rojas.Se realiza el siguiente experimento aleatorio: Se tira una moneda al aire y si sale carase elige una bola de la primera urna, y si sale cruz de la segunda. ¿Cuál es la probabilidadde que salga una bola blanca?Solución: La situación que tenemos puede ser esquematizada como3B 2R U 1 P (U 1 )=1/2 P (B|U 1 )=3/54B 2R U 2 P (U 2 )=1/2 P (B|U 2 )=4/6Como U 1 y U 2 forman un sistema incompatible y excluyente de <strong>sucesos</strong> (la bola resultadodebe provenir de una de esas dos urnas y de una sólo de ellas), el teorema de laprobabilidad total permite afirmar entonces queP (B) =P (B|U 1 ) · P (U 1 )+P (B|U 2 ) · P (U 2 )= 3 5 · 12 + 4 6 · 12 = 1930 .Teorema de BayesSea A 1 ,A 1 ,...,A n ⊂ E un sistema exhaustivo y excluyente de <strong>sucesos</strong>. Sea B ⊂ E unsuceso del que <strong>con</strong>ocemos las siguientes probabilidades: P (B|A i ) para todo i =1,...n, alas que denominamos verosimilitudes, entonces se verifica, para todo j =1,...n,P (A j |B) = P (B|A j) · P (A j )P ni=1 P (B|A i) · P (A i ) .Demostración:Es una <strong>con</strong>secuencia de la definición de probabilidad <strong>con</strong>dicionada en términos de laintersección, y del teorema de la probabilidad total:P (A j |B) = P (A j ∩ B)P (B)= P (B|A j) · P (A j )P ni=1 P (B|A i) · P (A i ) . ¤9


P (U 3 |B) ==P (B|U 3 ) · P (U 3 )P (B|U 1 ) · P (U 1 )+P (B|U 2 ) · P (U 2 )+P (B|U 3 ) · P (U 3 ) =0 · 133 · 1 + 4 · 1 +0· 1 =0.5 3 6 3 3Variables AleatoriasIntroducciónNormalmente, los resultados posibles (espacio muestral E) de un experimento aleatoriono son valores numéricos. Por ejemplo, si un experimento <strong>con</strong>siste en lanzar de modoordenado tres monedas al aire, para observar el número de caras (C) ycruces(R) queseobtienen, el espacio muestral asociado a dicho experimento aleatorio sería:E = {CCC, CCR, CRC, CRR, RCC, RCR, RRC, RRR} .En Cálculo de Probabilidades resulta más fácil utilizar valores numéricos en lugar detrabajar directamente <strong>con</strong> los elementos de un espacio muestral como el anterior. Así, seprefiere identificar los <strong>sucesos</strong> {CRR, RCR, RRC} <strong>con</strong> el valor numérico 1 que representael número de caras obtenidas al realizar el experimento.De este modo, aparece el <strong>con</strong>cepto de variable aleatoria unidimensional como el deuna funciónX : E −→ Re −→ X(e)que a cada suceso elemental e le atribuye un único número real del espacio muestral E.En el ejemplo anterior, se puede definir la variable aleatoria X ≡ número de caras,delsiguiente modo:X : E −→ RX (CCR) = X (CRC) =X (RCC) =2X (RRC) = X (RCR) =X (CRR)=1X (RRR) = 011


DefiniciónDada la v.a. X sobre el espacio E, asociado a un experimento aleatorio, se define sudistribución de probabilidad comoVariables aleatorias discretasP (X ∈ A) =P {e ∈ E : X(e) ∈ A}Dada una v.a. discreta X : E −→ N, f,se define su función de masa de probabilidad,demodoquef(x i ) es la probabilidad de que X tome ese valor <strong>con</strong>creto:f : N −→ [0, 1]x i −→ f (x i )=P [X = x i ]=P [{e, tal que X(e) =x i }]Si x i no es uno de los valores que puede tomar X, entoncesf(x i )=0.Larepresentacióngráfica de la función de masa de probabilidad se realiza mediante un diagrama de barrasanálogo al de distribución de frecuencias relativas para variables discretas en EstadísticaDescriptiva.Por ejemplo, si se <strong>con</strong>sidera el caso del lanzamiento de 3 monedas de forma que cadauna de ellas tenga probabilidad 1/2 de obtener el resultado de cara o cruz, se tiene quef(3) = P [X =3]=P [{CCC}] = 1 2 · 12 · 12 = 1 8f(2) = P [X =2]=P [{RCC, CCR, CRC}] = 1 8 + 1 8 + 1 8 = 3 8f(1) = P [X =1]=P [{RRC, RCR, CRR}]= 1 8 + 1 8 + 1 8 = 3 8f(0) = P [X =0]=P [{RRR}] = 1 2 · 12 · 12 = 1 8Observación: Obsérvese que X está definido sobre el espacio muestral de <strong>sucesos</strong> E,mientras que f lo está sobre el espacio de números reales R.Las propiedades de la función de masa de probabilidad de v.a. se deducen de formainmediata de los axiomas de probabilidad:13


ProposiciónLa función de distribución F , es una función monótona no decreciente, esdecir,x 1 x) = 1− F (x)P (x 1


- La desviación típicas Xσ =i(x i − µ) 2 f(x i ).-Lamedianaex definida como el valor tal queP (X ≤ ex) ≥ 0,5P (X ≥ ex) ≥ 0,5,que <strong>con</strong>stituye otra medida de centralización.Distribución de BernoulliConsiste en realizar un experimento aleatorio una sola vez y observar si cierto sucesoocurre o no, siendo p la probabilidad de éxito y q =(1− p) de fracaso .Enrealidad,setrata de una variable dicotómica, que únicamente puede tomar dos valores. Podríamos,por tanto, definir este experimento mediante una v.a. discreta X que toma los valoresX =0si el suceso no ocurre, y X =1en caso <strong>con</strong>trario, denotándose X ∼ Ber(p) si⎧⎨ 0 −→ q =(1− p) =P (X =0)X =⎩1 −→ p = P (X =1)Por ejemplo, se lanza una moneda y se <strong>con</strong>sidera la v.a. X = número de caras obtenidas,X =1<strong>con</strong> p = 1 y X =0<strong>con</strong> q = 1.2 2Para una v.a. de Bernouilli, su función de masa de probabilidad es:y 0 en el resto.Su función de distribución esP (X =1) = pP (X =0) = 1− p,⎧⎨F (x) =⎩Los principales momentos de la X son0 si x


Distribución binomialSe utiliza la distribución binomial para modelizar el número de veces que se da unresultado al realizar varias pruebas idénticas e independientes de un experimento <strong>con</strong> dosresultados posibles.Las hipótesis específicas que se hacen son:—Se<strong>con</strong>siderann repeticiones independientes de un experimento.— El experimento tiene dos resultados posibles: éxito o fracaso.— La probabilidad p de éxito es la misma en cada repetición (o ensayo).El espacio muestral del experimento es el <strong>con</strong>junto E de n-uplas (éxito o fracaso). Lavariable X de interés es el número de éxitos obtenidos en esas n pruebas.Entonces,sedicequeX tiene distribución binomial de parámetros n y p, yseescribecomo X ∼ Bin(n, p) , siendo la distribuciónµ nP (X = x) = pxx (1 − p) n−x .Ejemplo Hay una probabilidad de 0.05 de que un dispositivo falle, bajo <strong>con</strong>dicionesintensas de uso, en un día. Una central hidroeléctrica tiene 16 dispositivos operando en<strong>con</strong>diciones similares. ¿Cuál es la probabilidad de que a lo sumo fallen 2 dispositivos? ¿yque al menos fallen 4?Solución:Si X designa el número de fallos de los dispositivos en un día bajo <strong>con</strong>diciones intensasde uso, y se puede suponer que X ∼ Bin(16, 0,05) .Nos piden primeroµ µ µ 1616 16P (X ≤ 2) = 0,05 0 0,95 16 + 0,05 1 0,95 15 + 0,05 2 0,95 14 =0,957 0601 2Después,P (X ≥ 4) = 1 − P (X ≤ 3) =µµ µ 16 160,05 0 0,95 16 +0 1= 1−= 0,007010,05 1 0,95 15 +17µ µ 16 160,05 2 0,95 14 +0,05 3 0,95 13 =2 3


Específicamente, supongamos que X ∼ Bin(n, p), esto es,µ nP (X = x) = pxx (1 − p) n−x<strong>con</strong> n −→ ∞,np= λ, esto es, p = λ −→ 0. Sustituyendo, se tienenµ x µn! λ1 − λ n−xn (n − 1) ···(n − x +1) 1=µ1x!(n − x)! n nn · n ···n x! λx − λ n−x=n¡ ¢¡ ¢ ¢1 −1n 1 −2n ···¡1 −x−1µn=λ x 1 − λ n−x,x!nPor otro lado, se tiene queµ1 − 1 µ1 − 2 µ··· 1 − x − 1 −→n nn1n→∞µ1 − λ n n−x=à µ !1 −nnλ λ µλ1 −n λ −x−→ e −λ .n→∞De este modo, si X ∼ Bin(n, p), siendo np = λ,x =0, 1, 2,...−λ λxP (X = x) −→ en→∞ x! ,ProposiciónSe dice que una variable aleatoria X tiene una distribución de Poisson de parámetroλ, X ∼ Po(λ) si−λλkP (X = k) =ek! ,donde k =0, 1, 2,...Observación:Se observa que∞X−λλxex! = X ∞λ xe−λ x! = e−λ · e λ =1.x=0x=0ProposiciónSi X ∼ Po(λ) entoncesE [X] =∞Xx=0x · λx e −λx!= λe −λ ∞Xy=0= λ∞Xx=1λ x−1 e −λ(x − 1)! =λ yy! = λ · e−λ · e λ = λ.19


En forma similar se calculaVar[X] =λ.Ejemplo El 5 % de los objetos que produce una línea de producción sale <strong>con</strong> defectos.Calcular la probabilidad de que 2 de 100 objetos tengan defectos.Solución:Si X designa el número de objetos defectuosos de 100, se tiene que X ∼ Bin(100, 0,05) .Se pideµ 100P (X =2)= 0,05 2 · 0,95 98 =0,0812Alternativamente, como n es grande y p es pequeño, y aplicamos la aproximación dePoisson, se tiene que λ = np = 100 · 0,05 = 5, y−5 52P (X =2)≈ e2! =0,084Observación: La aproximación de la distribución de Poisson a la binomial es buenacuando n ≥ 20 y p ≤ 0,05 y es muy buena cuando n ≥ 100 y np ≤ 10.Variables aleatorias <strong>con</strong>tinuasSe presentan ahora los <strong>con</strong>ceptos básicos sobre variables aleatorias <strong>con</strong>tinuas. Se repitenlas mismas ideas que en el caso discreto, <strong>con</strong> funciones de densidad en lugar de funcionesde masa, eintegrales en lugar de sumas.En este caso, lo que generaliza de modo natural el <strong>con</strong>cepto de suma es el de integral.Por otro lado, para variables <strong>con</strong>tinuas no tiene interés hablar de la probabilidad de queX = x ∈ R, yaqueéstadebedevalersiempre0,paraquelasumainfinita no numerablede las probabilidades de todos los valores de la variable no sea infinita.De este modo, es necesario introducir un nuevo <strong>con</strong>cepto que sustituya en v.a. <strong>con</strong>tinuas,al de función de probabilidad de una v.a. discreta.Este <strong>con</strong>cepto es el de función de densidad de una v.a. <strong>con</strong>tinua, que se define comouna función f : R −→ R, integrable no negativa sobre la recta real, que verifica las dos20


propiedades siguientes:Z +∞−∞f(x) ≥ 0,f(x)dx = 1,ZP (X ∈ A) = f(x)dx.AAsí, dados a


Además, por el teorema fundamental del CálculodF (x)dx= f(x),si existe la derivada.MomentosComo en el caso discreto, en ocasiones se está interesado en resumir la distribución deX a través de sus momentos.La esperanza de una variable X esylavarianzaesσ 2 =Z ∞µ =Z ∞−∞(x − µ) 2 f(x)dx =xf(x)dxZ ∞−∞−∞x 2 f(x)dx − µ 2 .EjemploPara la v.a. del ejemplo anterior se tiene queµ =σ 2 =Z ∞−∞Z ∞−∞xf(x)dx =Z ∞x 2 2e −2x dx − 1 4 = 1 4 .0x2e −2x dx = 1 2 ,Como en el caso de las variables discretas, se muestran a <strong>con</strong>tinuación las distribuciones<strong>con</strong>tinuas más importantes en Ciencias.La distribución uniformeMuchos fenómenos pueden asociarse a situaciones de incertidumbre uniforme.DefiniciónUna v.a. tiene distribución uniforme en (a, b) (y se representa como X ∼ U (a, b) )sisu función de densidad es⎧1⎪⎨ a


Su función de distribución⎧⎨ 0 x ≤ ax−aF (x) = a


Observación: Una propiedad importante, y característica de esta distribución, es supérdida de memoria. SetienequeP (T >t+ h| T>t) =P (T >t+ h, T > t)P (T >t)== e−α(t+h)e −αt = e −αh = P (T >h) .P (T >t+ h)P (T >t)=Esta propiedad hace útil a la exponencial en algunas aplicaciones de Fiabilidad de Sistemas.La distribución gammaLa distribución exponencial, en realidad, está incluída dentro de una familia másamplia: la distribución gamma.Se dice que una v.a. tiene una distribución gamma de parámetro de forma p>0 yparámetro de escala s>0, si su función de densidad esf(x; a, p) = 1 h−s p Γ(p) exp x i· x p−1sdonde x>0.Los momentos de la distribución gamma sonµ = spVar(X) = s 2 p25


Una propiedad importante es la siguiente:PropiedadSi X 1 ,X 2 ,...,X n son v.a. independientes γ(p 1 ,s),γ(p 2 ,s),...,γ(p n ,s) respectivamenteentonces la suma de variablesT = X 1 + X 2 + ...+ X nse distribuye como otra distribución gammaà nX!γ p i ,s .i=1La distribución normalLa distribución normal ocupa un lugar central en la Estadística. Su origen está enel descubrimiento de regularidades en los errores de medición por parte del matemático26


Gauss: los patrones que se observan se aproximan por la denominada curva normal deerrores.En Ciencias tendrá importancia por tres razones básicas:Estaremos interesados en mediciones de diversas magnitudes, sometidas a erroresque, típicamente, modelizaremos como una distribución normal.Por sus propiedades estadísticas y probabilísticas, los cálculos de interés de carácterestadístico son relativamente sencillos.El Teorema Central del Límite nos asegura que, para muestras grandes y bajo <strong>con</strong>dicionesapropiadas, muchas funciones de las observaciones se aproximan, en distribución,mediante la normalDefiniciónUna v.a. tiene distribución normal de parámetros µ y σ (y se representa como X ∼N (µ, σ) ), si su función de densidad esà !f(x|µ, σ) = √ 1 (x − µ)2exp −2πσ 2σ 2donde −∞


Se comprueba fácilmente queZ ∞−∞E (X) =f(x|µ, σ)dx =1Var(X) =Z ∞−∞Z ∞xf(x|µ, σ)dx = µ−∞(x − µ) 2 f(x|µ, σ)dx = σ 2 ,estoes,elparámetroµ es la media y σ 2 es la varianza. Además la distribución es simétrica(respecto de µ) por lo que la mediana es también µ.Se <strong>con</strong>sidera ahora, específicamente, la denominada distribución z normal estándar,<strong>con</strong> µ =0y σ =1, es decir,f(z) = √ 1expµ− z2,2π 2donde −∞


Distribuciones discretas multivariantesSupongamos que se estudia los tipos de viajes <strong>con</strong>tratados por una agencia de viajes,que pueden ser de tres tipos (0, 1, 2), bajo dos modos de operación (0, 1). Se dispone delas probabilidades de tipo (X 1 ), bajo el modo (X 2 ) de operación indicado, en un tiempodado, que se expresa en la siguiente tabla.X 10 1 2X 2 0 0.1 0.4 0.1 0.61 0.2 0.2 0 0.40.3 0.6 0.1 1Así, se tiene que P (X 1 =1,X 2 =0)=0,4La tabla define la distribución <strong>con</strong>junta de (X 1 ,X 2 ) mediante su función de masade probabilidad.f (X 1 ,X 2 )=P (X 1 = x 1 ,X 2 = x 2 ) .A partir de ella podemos definir diversas distribuciones de interés. Por ejemplo, se puedendefinir:— La distribución marginal de X 1 mediantef 1 (X 1 )=P (X 1 = x 1 )= X x 2P (X 1 = x 1 ,X 2 = x 2 )= X x 2f (X 1 ,X 2 )—LamarginaldeX 2 mediantef 2 (X 2 )=P (X 2 = x 2 )= X x 1P (X 1 = x 1 ,X 2 = x 2 )= X x 1f (X 1 ,X 2 )— La distribución de X 2 <strong>con</strong>dicionada a X 1 = x 1 mediantef 2 (X 2 |X 1 ) = P (X 2 = x 2 |X 1 = x 1 )= P (X 1 = x 1 ,X 2 = x 2 )P (X 1 = x 1 )= f (X 1,X 2 )f 1 (X 1 )— La distribución de X 1 <strong>con</strong>dicionada a X 2 = x 2 mediantef 1 (X 1 |X 2 ) = P (X 1 = x 1 |X 2 = x 2 )= P (X 1 = x 1 ,X 2 = x 2 )P (X 2 = x 2 )= f (X 1,X 2 )f 2 (X 2 )==29


— SedicequeX 1 y X 2 son independientes siP (X 1 = x 1 ,X 2 = x 2 )=P (X 1 = x 1 ) · P (X 2 = x 2 ) ,para x 1 y x 2 cualesquiera, o equivalentemente,f (X 1 ,X 2 )=f 1 (X 1 ) · f 2 (X 2 ) .EjemploEn el ejemplo anterior se tienef 1 (0) = P (X 1 =0)=P (X 1 =0,X 2 =0)+P (X 1 =0,X 2 =1)== 0,1+0,2 =0,3f 2 (0) = 0,1+0,4+0,1 =0,6f (0, 0) = 0,1 6= 0,3 · 0,6 =f 1 (0) · f 2 (0) ,por lo que X 1 y X 2 no son independientes.Estas ideas se pueden extender al caso k-variante. La distribución <strong>con</strong>junta seráf (X 1 ,...,X n )=P (X 1 = x 1 ,...,X n = x n )y, por ejemplo, la distribución marginal de X 1 esf 1 (X 1 )= Xf (X 1 ,...,X n )x 2 ,...x kDistribuciones multivariantes <strong>con</strong>tinuasLas ideas anteriores se pueden extender fácilmente al caso <strong>con</strong>tinuo. Para un vectoraleatorio de variables aleatorias <strong>con</strong>tinuas (X 1 ,...,X k ) se tendrá una función de densidadmultivariante f (x 1 ,...,x k ) que satisfaceyZ ZP (a 1 ≤ X 1 ≤ b 1 ,...,a k ≤ X k ≤ b k )=f (x 1 ,...,x k ) ≥ 0Z··· f (x 1 ,...,x k ) dx 1 ...dx k = 1R kZ bka k···Z b1a 1f (x 1 ,...,x k ) dx 1 ...dx k30


La función de distribución esEjemploSe tieneF (x 1 ,...,x k ) = P (X 1 ≤ x 1 ,...,X k ≤ x k )==Z xk−∞···Z x1−∞f (t 1 ,...,t k ) dt 1 ...dt k .Consideramos la función de densidad½ 6e−2x 1ef(x 1 ,x 2 )=−3x 2x 1 > 0,x 2 > 00 en el restoZ Zf (x 1 ,x 2 ) dx 2 dx 1 =Z ∞ Z ∞006e −2x 1e −3x 2dx 2 dx 1 =1por lo que se demuestra que es una función de densidad. Para calcular probabilidades sehace, por ejemplo,P (1 ≤ X 1 ≤ 2, 2 ≤ X 2 ≤ 3) =Z 3 Z 2216e −2x 1e −3x 2dx 1 dx 2 == ¡ e −4 − e −2¢¡ e −9 − e −6¢ =0,0003P (0 ≤ X 1 ≤ 2, 2 ≤ X 2 ≤∞) =La función de distribución esZ 2 Z ∞026e −2x 1e −3x 2dx 2 dx 1 == ¡ 1 − e −4¢ e −6 =0,0024F (x 1 ,x 2 ) =Z x1Z x2−∞−∞6e −2t 1e −3t 2dt 2 dt 1 =¡1 − e−2x 1¢¡1 − e−3x 2¢.La marginal de X 1 se calcula comof 1 (x 1 )=Z ∞···Z ∞−∞ −∞f (x 1 ,...,x k ) dx k ...dx 2 .Se dice que X 1 ,...,X k son independientes siF (x 1 ,...,x k )=F 1 (x 1 ) · F 2 (x 2 ) ...F k (x k )o, equivalentemente,f (x 1 ,...,x k )=f 1 (x 1 ) · f 2 (x 2 ) ...f k (x k ) .31


Ejemplo En el caso anterior, la marginal de X 1 es⎧Z ∞⎨ 0 para x 1 ≤ 0f 1 (x 1 )= f (x 1 ,x 2 ) dx 2 =−∞⎩ R ∞6e −2x 1e −3x 2dx0 2 =2e −2x 1para x 1 > 0Análogamente,Así,Como se tenía que⎧⎨ 0 para x 2 ≤ 0f 2 (x 2 )=⎩3e −3x 1para x 2 > 0⎧⎨ 0 para x 1 ≤ 0F 1 (x 1 )=⎩(1 − e −2x 1) para x 1 > 0⎧⎨ 0 para x 2 ≤ 0F 2 (x 2 )=⎩(1 − e −3x 2) para x 2 > 0⎧⎨ 0 para x 1 ≤ 0 ó x 2 ≤ 0F (x 1 ,x 2 )=⎩(1 − e −2x 1)(1− e −3x 2) para x 1 ,x 2 > 0de modo que F (x 1 ,x 2 )=F 1 (x 1 ) · F 2 (x 2 ) , <strong>con</strong> lo que se puede afirmar que X 1 y X 2son independientes.De manera similar al caso discreto se introducen las distribuciones <strong>con</strong>dicionadas. Porejemplo, X 1 |X 2 = x 2 <strong>con</strong> función de densidadpara f 2 (x 2 ) 6= 0.f (x 1 |x 2 )= f (x 1,x 2 )f 2 (x 2 )EjemploConsideramos la densidad bivariante⎧⎨f (x 1 ,x 2 )=⎩La marginal de X 2 es23 (x 1 +2x 2 ) para 0


⎧Z ∞⎨f 2 (x 2 )= f (x 1 ,x 2 ) dx 1 =−∞⎩0 x 2 /∈ (0, 1)R 102(x 3 1 +2x 2 ) dx 1 = 1 (1 + 4x 3 2) para 0


4. Si un vector aleatorio (X, Y ) tiene distribución N (µ, Σ) y cov(X, Y )=0entoncesX e Y son independientes. Comoµ σ2Σ = 1 00 σ 2 ,2sustituyendo en la expresión de la función de densidad, se obtiene quePropiedades del operador esperanzaf (x, y) =f (x) · f (y)Dada una v.a. X se puede definir la transformación g (X) y calcular su esperanzadefinida mediante⎧⎨E [g (X)] =⎩R ∞−∞Para Y = g (X 1 ,...,X k ) se tiene queg (x) f (x) dx en el caso <strong>con</strong>tinuoPig (x i ) f (x i ) en el caso discreto⎧⎨E [Y ]=⎩R ∞−∞R ∞−∞ ···R ∞−∞ g (x 1,...,x k ) f (x 1 ,...,x k ) dx k ...dx 1 en el caso <strong>con</strong>tinuoPx 1 ···Px kg (x 1 ,...,x k ) f (x 1 ,...,x k )Un caso particular esLa esperanza de g (x 1 ,x 2 ) esg (x 1 ,x 2 )=(x 1 − µ 1 )(x 2 − µ 2 ) .E [(X 1 − µ 1 )(X 2 − µ 2 )] = Cov (X 1 ,X 2 ) ,en el caso discretose llama covarianza y es una medida de la relación de crecimiento <strong>con</strong>junto de ambasvariables. Cuando toma valor positivo es porque predominan valores de X 1 ,X 2 grandesa la vez, o ambos pequeños a la vez. Cuando es negativo, resulta que X 1 es grande y X 2pequeñoalavez,oalainversa.En el caso de independencia se tieneCov (X 1 ,X 2 )=0.34


Propiedades útilesSe pueden <strong>con</strong>siderar las siguientes:1. E [kX] =kE [X] .2. E [X + Y ]=E [X]+E [Y ] .3. Var[kX] =k 2 Var[X] .4. Si X e Y son incorreladas entonces E [XY ]=E [X] E [Y ] .5. Var[X 1 + ···+ X n ]=Var[X 1 ]+···+ Var[X n ]+2 X i


Teorema Central del LímiteSi X 1 ,...,X n son v.a. independientes <strong>con</strong> media µ y varianza común σ 2 < ∞, la v.a.Zdefinida comoZ = X − µσ/ √ nes una v.a. cuya función de densidad se aproxima a la distribución normal cuando n esgrande:Z ∼ N (0, 1)esto es, para n grandeX 1 + ···+ X nn= X ' Nµ σµ, √ n36

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!