Estadis c.sociales II

April 6, 2018 | Author: Anonymous | Category: Documents
Report this link


Description

Estadística aplicada a las Ciencias Sociales II Licenciatura de Sociología. Curso 2001/02 Mayte Rodríguez PROGRAMA Primera parte. Probabilidad 1. Azar y Probabilidad 1.1 Introducción 1.2 Experimentos aleatorios. Sucesos 1.3 Operaciones básicas con sucesos aleatorios 1.4 Frecuencia y Probabilidad 1.5 Propiedades de la Probabilidad 1.6 Ejercicios 2. Probabilidad condicionada e independencia 2.1 Probabilidad condicionada 2.2 Independencia 2.3 Teoremas fundamentales del cálculo de probabilidades 2.4 Ejercicios 3. Variables aleatorias 3.1 Distribución de una variable aleatoria 3.2 Variables aleatorias discretas 3.3 Variables aleatorias continuas 3.4 Ejercicios 4. Variables aleatorias discretas 4.1 El modelo de Bernoulli 4.2 La distribución binomial 4.3 La distribución geométrica 4.4 La distribución de Poisson 4.5 Ejercicios 5. Variables aleatorias continuas 5.1 La distribución uniforme 5.2 La distribución exponencial 5.3 La distribución normal 1 5.4 La dsitribución logarítmico-normal 5.5 Ejercicios Segunda parte. Inferencia 6 Estimación de una proporción 6.1 Introducción a la inferencia 6.2 Distribución en el muestreo de una proporción 6.3 Estimadores centrados 6.4 El error típico de estimación de la proporción 6.5 Intervalos de confianza 6.6 Estimación en poblaciones pequeñas 6.7 Determinación del tamaño muestral 6.8 Ejercicios 7 Estimación de una media 7.1 Distribución en el muestreo de una media 7.2 Estimadores centrados 7.3 El error típico de estimación 7.4 Intervalos de confianza 7.5 Corrección por poblaciones finitas 7.6 Determinación del tamaño muestral 7.7 Ejercicios 8 Contrastes de hipótesis 8.1 Introducción 8.2 Tipos de hipótesis 8.3 La hipótesis nula y la alternativa 8.4 Nivel de significación 8.5 Metodología del contraste de hipótesis 8.6 Contraste para una proporción 8.7 Contraste para una media 8.8 Ejercicios 2 BIBLIOGRAFÍA • Peña, D. y Romo, J. (1997). Introducción a la Estadística para las Ciencias Sociales. McGraw-Hill. • De la Horra, J. (1995). Estadística Aplicada. Diaz de Santos. • Álvarez, S. J. (2000). Estadística Aplicada. Clag. • Peña, D. (2001). Fundamentos de Estadística. Alianza Editorial. 3 Parte I Probabilidad 4 Capítulo 1 Azar y Probabilidad 1.1 Introdución Si el único propósito del investigador es describir los resultados de un experimento concreto, los métodos descriptivos pueden considerarse suficientes. No obstante, si lo que se pretende es utilizar la información obtenida para extraer conclusiones generales sobre todos aquellos objetos del tipo de los que han sido estudiados, entonces estos métodos constituyen sólo el principio del análisis, y debe recurrirse a métodos de inferencia estadística, los cuales implican el uso de la teoría de la probabilidad. La probabilidad constituye por sí misma un concepto básico que refleja su relación con la faceta del mundo exterior que pretende estudiar: los fenómenos aleatorios, que suponen unas ciertas reglas de comportamiento. De alguna manera el concepto de probabilidad se relaciona o recuerda las propiedades de la frecuencia relativa. A partir de ella, y junto con las definiciones de probabilidad condicionada y la de sucesos independientes, que se estudiarán en el siguiente capítulo, se deducen los resultados fundamentales del Cálculo de Probabilidades. El nexo que une la teoría de la probabilidad y la estadística es la noción de variable aleatoria, mostrando de esta manera cómo puede emplearse la teoría de la probabilidad para extraer conclusiones precisas acerca de una población sobre la base de una muestra extraída de ella. Muchos de los análisis estadísticos son, de hecho, estudio de las propiedades de una o más variables aleatorias. 1.2 Experimentos aleatorios. Sucesos Se dice que un experimento es aleatorio si se verifican las siguientes condiciones: • Se puede repetir indefinidamente, siempre en las mismas condiciones; 5 • Antes de realizarlo, no se puede predecir el resultado que se va a obtener; • El resultado que se obtenga, e, pertenece a un conjunto conocido previamente de resultados posibles. A este conjunto, de resultados posibles, lo denominaremos espacio muestral y lo denotaremos normalmente mediante la letra E. Los elementos del espacio muestral se denominan sucesos elementales. Cualquier subconjunto de E se denominará suceso aleatorio, y se denotará normalmente con las letras A, B, ... Se puede observar que los sucesos elementales son sucesos aleatorios compuestos por un sólo elemento. Por supuesto los sucesos aleatorios son más generales que los elementales. Sucesos aleatorios que aparecen con gran frecuencia en el cálculo de probabilidades son los siguientes: Suceso seguro: Es aquel que siempre se verifica después del experimento aleatorio, es decir, el mismo E. Suceso imposible: Es aquel que nunca se verifica como resultado del experimento aleatorio. Como debe ser un subconjunto de E, la única posibilidad es que el suceso imposible sea el conjunto vacío: ∅ ⊂ E. Suceso complementario a un suceso A: También se denomina contrario de A, y es el suceso que se verifica si, como resultado del experimento aleatorio, no se verifica A. Se acostumbra a denotar con el símbolo A ó Ac . Así, A = {e ∈ E : e ∈ A} . / Sucesos incompatibles: son aquellos que no pueden ocurrir a la vez. Ejemplo Si realizamos el experimento aleatorio de lanzar un dado al aire, tenemos: Sucesos elementales Espacio muestral −→ 1, 2, 3, 4, 5, 6 −→ E = {1, 2, 3, 4, 5, 6}   ∅ suceso imposible   E suceso seguro     {1, 2, 3} −→ {4, 5}     {2, 4, 6} = {1, 2, 3}    ··· Sucesos aleatorios Para trabajar con el cálculo de probabilidades es necesario fijar previamente cierta terminología. Vamos a introducir parte de ella a continuación. 1.3 Operaciones básicas con sucesos aleatorios Al ser los sucesos aleatorios nada más que subconjuntos de un conjunto E, espacio muestral, podemos aplicar las conocidas operaciones con conjuntos, como son la unión, intersección y diferencia: Unión: Dados dos sucesos aleatorios A, B ⊂ E, se denomina suceso unión de A y B al conjunto formado por todos los sucesos elementales que pertenecen 6 a A o bien pertenecen a B, incluyendo los que están en ambos simultáneamente, es decir A ∪ B = {e ∈ E : e ∈ A ó e ∈ B} . Como ejemplo, tenemos que la unión de un suceso cualquiera con su complementario es el suceso seguro. Volviendo al ejemplo del lanzamiento de un dado, si A = {1, 2, 3} y B = {3, 4}, el suceso unión de A y B es A ∪ B = {1, 2, 3, 4} . Intersección: Dados dos sucesos aleatorios A, B ⊂ E, se denomina suceso intersección de A y B al conjunto formado por todos los sucesos elementales que pertenecen a A y B a la vez, es decir, A ∩ B = {e ∈ E : e ∈ A y además e ∈ B} . Un ejemplo de intersección es la de un suceso aleatorio cualquiera, A ⊂ E, con su complementario, que es el suceso imposible. Volviendo al ejemplo del dado, si A = {1, 2, 3} y B = {3, 4}, el suceso intersección de A y B es A ∩ B = {3} . En este mismo ejemplo, si A = {1, 2, 3} y B = {4, 5}, entonces A∩B = {∅} , es decir, A y B son incompatibles o disjuntos. Diferencia: Dados dos sucesos aleatorios aleatorios A, B ⊂ E, se llama suceso diferencia de A y B, y se representa mediante A\B, o bien A − B, al suceso formado por todos los sucesos elementales que pertenecen a A, pero no a B: A − B = {e ∈ E : e ∈ A y además e ∈ B} = A ∩ B c . / Por ejemplo, si A = {1, 2, 3} y B = {3, 4}, A − B = {1, 2} y B − A = {4} Obsérvese que el suceso complementario de un suceso A, puede escribirse ¯ como la diferencia del suceso seguro menos éste, o sea, A = {e ∈ E : e ∈ A} = / E\A. Hay ciertas propiedades que relacionan la unión, intersección y suceso contrario, que son conocidas bajo el nombre de Leyes de Morgan: A∪B A∩B = A∩B = A∪B 1.4 Frecuencia y Probabilidad En los experimentos aleatorios que se pueden repetir indefinidamente bajo condiciones similares, se observa que cuando el número de experimentos aumenta, las frecuencias relativas con las que ocurre cierto suceso se estabilizan y tienden 7 a converger hacia cierta cantidad que recibe el nombre de probabilidad del suceso. Por ejemplo, en la Figura 1 se presenta la evolución de la frecuencia relativa del número de caras obtenido en el lanzamiento de una moneda en 100 ocasiones (simulado por un ordenador). En principio la evolución de las frecuencias relativas es errática, pero a medida que el número de tiradas aumenta, tiende a lo que entendemos por probabilidad de cara. Figura 1: Convergencia a 1/2 de la frecuencia relativa del número de caras obtenido en lanzamientos sucesivos de una moneda (simulación en ordenador). Supongamos, en general, que un suceso A ocurre An veces en n repeticiones del experimento. Resultaría, entonces, la definición frecuentista de la probabilidad de A como P (A) = lim n An , n supuesto que existe el límite. Con esta definición se tiene • P (A) ≥ 0 para todo suceso A • P (E) = 1, siendo E el suceso seguro • P (A ∪ B) = P (A) + P (B), supuestos A y B incompatibles. Observación: Si generalizamos lo anterior a un número mayor de sucesos, A = A1 ∪ A2 ∪ · · · , con Ai ∩ Aj = ∅, entonces P (A) = P (A1 ) + P (A2 ) + · · · 8 En muchas ocasiones, por razones de simetría física o lógica, encontramos todos los resultados igualmente verosímiles y se apela al concepto clásico de probabilidad que se define mediante el cociente entre el número de casos favorables al suceso y al número de casos posibles. Si un experimento cualquiera puede dar lugar a un número finito de resultados posibles, y no existe ninguna razón que privilegie unos resultados en contra de otros, se calcula la probabilidad de un suceso aleatorio A, según la regla de Laplace, como el cociente entre el número de casos favorables a A, y el de todos los posibles resultados del experimento: P (A) = Ejemplo Calcular la probabilidad de que al lanzar un dado se obtenga un número impar. Solución: El espacio muestral es E = {1, 2, 3, 4, 5, 6} . Vamos a llamar A, al suceso consistente en que el resultado es impar, A = {1, 3, 5} . Como no suponemos que ninguna de las caras ofrece una probabilidad de ocurrencia diferente a las demás, podemos aplicar la regla de Laplace para obtener que P (A) = = Ejemplo Deseamos calcular la probabilidad de que al extraer una carta de una baraja de póker (52 cartas) obtengamos una pica. Si A es el suceso obtener pica se tiene P (A) = 1 13 = . 52 4 número de casos favorables a A = número de casos posibles 3 número de elementos en A = = 0.5 6 número de elementos en E número de casos favorables a A . número de casos posibles Ejemplo Tiramos dos dados, uno blanco y otro negro. Se desea calcular las probabilidades de los sucesos: - Sacar un 4 en el dado negro: P (A) = 6 1 = . 36 6 - Sacar más puntuación en el dado blanco que en el negro: P (B) = 5+4+3+2+1 15 5 = = . 36 36 12 9 - Sacar 2, 3 ó 12 P (C) = - La mayor puntuación es 5: P (D) = 9 1 = . 36 4 1 1+2+1 = . 36 9 Es fácil comprobar que las probabilidades así definidas son, en efecto, probabilidades. Si nA designa el número de casos favorables al suceso A y n al número de casos posibles, resulta que nA ≥ 0, pues nA ≥ 0. n n nE = =1 • P (E) = n n nA∪B nA + nB nA nB • P (A ∪ B) = = = + = P (A) + P (B), si A ∩ B = ∅. n n n n • P (A) = 1.5 Propiedades de la probabilidad P (Ac ) = 1 − P (A). Esto en realidad puede deducirse del siguiente razonamiento: 1 = P (E) = P (A ∪ Ac ) = P (A) + P (Ac ) =⇒ P (Ac ) = 1 − P (A). • La probabilidad del suceso contrario de A, debe valer • 0 ≤ P (A) ≤ 1 • P (∅) = 0 • P (A ∩ B) = 0 si A y B son incompatibles • La probabilidad de la intersección de dos sucesos debe ser menor o igual que la probabilidad de cada uno de los sucesos por separado, P (A ∩ B) ≤ P (A) P (A ∩ B) ≤ P (B) 10 • La probabilidad de la unión de sucesos debe ser mayor o igual que la de cada uno de los sucesos por separado, P (A ∪ B) ≥ P (A) P (A ∪ B) ≥ P (B) Más aún, si los sucesos son incompatibles debe ocurrir que A ∩ B = ∅ =⇒ P (A ∪ B) = P (A) + P (B) • En general, P (A ∪ B) = P (A) + P (B) − P (A ∩ B) 1.6 Ejercicios 1. Cada muestra de cuatro hipotecas para vivienda está clasificada como de interés fijo (F) o interés variable (V). (a) Construir el espacio muestral. (b) ¿Qué elementos del espacio muestral están en el suceso de que exactamente tres de las hipotecas seleccionadas sean de interés fijo? (c) ¿Qué elementos están en el suceso de que las cuatro hipotecas sean del mismo tipo? (d) ¿Qué elementos están en el suceso de que a lo sumo una de las cuatro hipotecas sea de interés variable? (e) ¿Cual es la unión de los sucesos de las partes c) y d)? ¿Cual es su intersección? (f) ¿Cual es la unión de los sucesos de las partes b) y c)? ¿Cual es su intersección? (g) Si hay el mismo número de hipotecas de interés fijo y de interés variable, calcular la probabilidad de todos los sucesos anteriores. (h) Si tres de cada cuatro hipotecas es de interés variable, calcular la probabilidad de todos los sucesos elementales y la del suceso del apartado c). 2. Un departamento de la Universidad Carlos III de Madrid acaba de terminar una votación secreta para elegir al director de departamento. La urna contiene cuatro papeletas con tres votos para el candidato A y dos para el candidato B, correspondientes a las cinco personas que han ejercido su derecho a voto. Supongamos que esas papeletas se sacan de la urna una por una. Mostrar todos los posibles resultados en los cuales el candidato A permanece siempre delante de B conforme se van obteniendo los votos. Calcular la probabilidad del suceso anterior. 11 3. En una ciudad se publican tres periódicos A, B y C. El 30% de la población lee A, el 20% lee B y el 15% lee C; el 12% lee A y B, el 9% lee A y C, el 6% lee B y C; y finalmente, el 3% lee A, B y C. Se pide: (a) ¿Cuál es el espacio muestral? (b) Dar dos ejemplos de sucesos incompatibles (c) Calcular la probabilidad de que sólo se lea el periódico A (d) Calcular la probabilidad de que se lea B o C, pero no A (e) Calcular la probabilidad de que se lean, al menos, uno de los tres periódicos 4. Hallar la probabilidad de sacar por suma 8 puntos al lanzar dos dados. Construir primero el espacio muestral. 5. Sea un dado tal que la probabilidad de las distintas caras es proporcional al número de puntos inscritos en ellas. Hallar la probabilidad de obtener con este dado un número par. 6. En un taller de máquinas de una escuela de formación profesional, el 60% de todos los daños a la maquinaria ocurre en tornos y el 15% en taladros. Sean los sucesos: A=”el siguiente daño a una maquina es un torno”, B=”el siguiente daño a una máquina es un taladro”. Calcular las probabilidades ¯ ¯ ¯ de los sucesos A, A ∪ B y A ∩ B. 7. Se escriben al azar las cinco vocales. ¿Cuál es la probabilidad de que la ”e” aparezca la primera y la ”o” la última? 8. En una urna hay 50 bolas numeradas del 1 al 50. ¿Qué probabilidad hay de sacar, una a una, las 50 bolas en el orden natural? 9. Se lanza un dado seis veces, ¿cuál es la probabilidad de sacar algún 1 en los seis lanzamientos? 10. Si la probabilidad de que se realice un suceso es 1/3. ¿Cuál es la probabilidad de que se realice efectuando 4 pruebas? 12 Capítulo 2 Probabilidad condicionada e independencia 2.1 Probabilidad condicionada En numerosas ocasiones, tendremos que modelizar una situación en la que se dispone de información adicional, debiendo condicionarse a sucesos o circunstancias. Suponemos que estamos interesados en un suceso A; hemos calculado P (A), nos informan de que ha ocurrido B y queremos saber cómo cambia la probabilidad de A. Obviamente, en algunos casos no cambiará dicha probabilidad, pero en la mayor parte de los casos, sin embargo, el aporte de nueva información modifica la probabilidad. El concepto básico para modelizar tales ideas es la probabilidad condicionada P (A|B). Su definición es la siguiente. Sea B ⊂ E un suceso aleatorio de probabilidad no nula, P (B) > 0. Para cualquier otro suceso A ⊂ E, se llama probabilidad condicionada de A respecto de B a la cantidad que representamos mediante P (A|B) , y se calcula como P (A|B) = P (A ∩ B) . P (B) Ejemplo Se lanza un dado al aire ¿Cuál es la probabilidad de que salga el número 4? Si sabemos que el resultado ha sido un número par, ¿se modifica esta probabilidad? Solución: El espacio muestral que corresponde a este experimento es E = {1, 2, 3, 4, 5, 6} y se ha de calcular la probabilidad del suceso A = {4}. Si el dado no está trucado, todos los números tienen la misma probabilidad de salir y, siguiendo la definición de probabilidad de Laplace, P (A) = 1 casos favorables = 6 casos posibles 13 Obsérvese que para calcular la probabilidad de A según la definición de Laplace hemos tenido que suponer previamente que todos los elementos del espacio muestral tienen la misma probabilidad de salir, es decir: P (1) = P (2) = P (3) = P (4) = P (5) = P (6). Por otro lado, si se sabe que ha salido un número par, de nuevo por la definición de probabilidad de Laplace tendríamos P (A|par) = 1 número de elementos en {4} casos favorables = = . 3 casos posibles número de elementos en {2, 4, 6} Esta misma probabilidad se podría haber calculado siguiendo la definición de la probabilidad condicionada, ya que si escribimos P (A) = P (par) = P (A ∩ par) = y entonces P (A|par) = P (A ∩ par) 1/6 1 = = , P (par) 1/2 3 1 , 6 1 1 1 1 + + = 6 6 6 2 1 , 6 que por supuesto coincide con el mismo valor que calculamos usando la definición de probabilidad de Laplace. Observación Obsérvese que según la definición de probabilidad condicionada, se puede escribir la probabilidad de la intersección de dos sucesos de probabilidad no nula como P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B), o sea, la probabilidad de la intersección de dos sucesos, es la probabilidad de uno cualquiera de ellos, multiplicada por la probabilidad del segundo sabiendo que ha ocurrido el primero. 2.2 Independencia Si entre dos sucesos no existe ninguna relación cabe esperar que el conocimiento de la ocurrencia de uno de los sucesos no aporte ninguna información sobre la probabilidad del otro suceso. De este modo introducimos el concepto de independencia de dos sucesos A y B como: A es independiente de B ⇐⇒ P (A ∩ B) = P (A)P (B). 14 Esta relación puede ser escrita de modo equivalente: dados dos sucesos de probabilidad no nula (de manera que P (A) 6= 0 6= P (B)) diremos que A es independiente de B si y sólo si P (A) = P (A|B) ó equivalentemente P (B) = P (B|A). 2.3 Teoremas fundamentales del cálculo de probabilidades Hay algunos resultados importantes del cálculo de probabilidades que son conocidos bajo los nombres de teorema de la probabilidad compuesta, teorema de la probabilidad total y teorema de Bayes. Veamos cuáles son estos teoremas, pero previamente vamos a enunciar, a modo de recopilación, una serie de resultados elementales: Proposición Sean A, B ⊂ E no necesariamente disjuntos. Se verifican entonces las siguientes propiedades: • Probabilidad de la unión de sucesos: P (A ∪ B) = P (A) + P (B) − P (A ∩ B). • Probabilidad de la intersección de sucesos: P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B). • Probabilidad del suceso contrario: P (Ac ) = 1 − P (A). • Probabilidad condicionada del suceso contrario: P (Ac |B) = 1 − P (A|B). Ejemplo En una universidad el 50% de los alumnos habla inglés, el 20% francés y el 5% los dos idiomas ¿Cuál es la probabilidad de encontrar alumnos que hablen alguna lengua extranjera? Solución: Sea A el suceso hablar inglés: P (A) = 0.5. Sea B el suceso hablar francés: P (B) = 0.2 y sea A ∩ B el suceso hablar francés e inglés: P (A ∩ B) = 0.05. Así, P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = 0.5 + 0.2 − 0.05 = 0.65. Ejemplo 15 En una estación de esquí, para navidades, la experiencia indica que hay tiempo soleado sólo el 15% de los días. Por otro lado, se ha calculado que cuando un día es soleado, hay una probabilidad del 20% de que el día posterior también lo sea. Calcular la probabilidad de que, en navidades, un fin de semana completo sea soleado. Solución: Llamemos S al suceso sábado soleado y D al suceso domingo soleado. La única manera en que un fin de semana completo sea soleado es que lo sea en primer lugar el sábado, y que el domingo posterior también. Es decir: P (S ∩ D) = P (S)P (D|S) = 0.15 · 0.2 = 0.03. Luego sólo el 3% de los fines de semana son soleados. El primero de los teoremas que vamos a enunciar es una generalización de la probabilidad de la intersección de dos sucesos a la de un número cualquiera, pero finito, de ellos. Teorema (Ley multiplicativa) Sea A1 , A1 , . . . , An ⊂ E una colección de sucesos aleatorios, entonces P (A1 ∩ A2 ∩ . . . ∩ An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) · · · P (An |A1 ∩ A2 ∩ . . . ∩ An−1 ). Los siguientes teoremas nos dicen cómo calcular las probabilidades de sucesos cuando tenemos que el suceso seguro está descompuesto en una serie de sucesos incompatibles de los que conocemos su probabilidad. Para ello necesitamos introducir un nuevo concepto: se dice que la colección A1 , A1 , . . . , An ⊂ E es una partición si se verifica: n [ Ai = E = ∅, ∀i 6= j i=1 Ai ∩ Aj Teorema de la Probabilidad total Sea A1 , A1 , . . . , An ⊂ E una partición. Entonces, ∀B ⊂ E, se verifica que P (B) = n X i=1 P (B|Ai ) P (Ai ). Ejemplo Se tienen dos urnas, y cada una de ellas contiene un número diferente de bolas blancas y rojas: • Primera urna, U1 : 3 bolas blancas y 2 rojas; • Segunda urna, U2 : 4 bolas blancas y 2 rojas. 16 Se realiza el siguiente experimento aleatorio: Se tira una moneda al aire y si sale cara se elige una bola de la primera urna, y si sale cruz de la segunda. ¿Cuál es la probabilidad de que salga una bola blanca? Solución: La situación que tenemos puede ser esquematizada como 3B 2R U1 P (U1 ) = 1/2 P (B|U1 ) = 3/5 4B 2R U2 P (U2 ) = 1/2 P (B|U2 ) = 4/6 Como U1 y U2 forman un sistema incompatible y excluyente de sucesos (la bola resultado debe provenir de una de esas dos urnas y de una sólo de ellas), el teorema de la probabilidad total permite afirmar entonces que P (B) = P (B|U1 ) · P (U1 ) + P (B|U2 ) · P (U2 ) = 19 3 1 4 1 · + · = . 5 2 6 2 30 Teorema de Bayes Sea A1 , A1 , . . . , An ⊂ E una partición. Sea B ⊂ E un suceso del que conocemos las siguientes probabilidades: P (B|Ai ) para todo i = 1, . . . n, entonces se verifica, para todo j = 1, . . . n, P (B|Aj ) · P (Aj ) P (Aj |B) = Pn . i=1 P (B|Ai ) · P (Ai ) Ejemplo Se tienen tres urnas. Cada una de ellas contiene un número diferente de bolas blancas y rojas: • Primera urna, U1 : 3 bolas blancas y 2 rojas; • Segunda urna, U2 : 4 bolas blancas y 2 rojas; • Tercera urna, U3 : 3 bolas rojas. Se realiza el siguiente experimento aleatorio: Alguien elige al azar y con la misma probabilidad una de las tres urnas, y saca una bola. Si el resultado del experimento es que ha salido una bola blanca, ¿cuál es la probabilidad de que provenga de la primera urna? Calcular lo mismo para las otras dos urnas. Solución: Vamos a representar en un esquema los datos de que disponemos: 3B 2R U1 P (U1 ) = 1/3 P (B|U1 ) = 3/5 4B 2R U2 P (U2 ) = 1/3 17 P (B|U2 ) = 4/6 0B 3R U3 P (U3 ) = 1/3 P (B|U3 ) = 0 En este caso U1 , U2 y U3 forman un sistema incompatible y excluyente de sucesos (la bola resultado debe provenir de una de esas tres urnas y de una sólo de ellas), por tanto es posible aplicar el teorema de Bayes: P (U1 |B) = = P (B|U1 ) · P (U1 ) = P (B|U1 ) · P (U1 ) + P (B|U2 ) · P (U2 ) + P (B|U3 ) · P (U3 ) 3 1 9 5 · 3 = . 3 1 19 · 3 + 4 · 1 +0· 1 5 6 3 3 Con respecto a las demás urnas es lo mismo: P (B|U2 ) · P (U2 ) = P (B|U1 ) · P (U1 ) + P (B|U2 ) · P (U2 ) + P (B|U3 ) · P (U3 ) 4 1 10 6 · 3 = . 3 1 19 · 3 + 4 · 1 +0· 1 5 6 3 3 P (B|U3 ) · P (U3 ) = P (B|U1 ) · P (U1 ) + P (B|U2 ) · P (U2 ) + P (B|U3 ) · P (U3 ) 0· 1 3 = 0. 3 1 · 3 + 4 · 1 +0· 1 5 6 3 3 P (U2 |B) = = P (U3 |B) = = Ejemplo Tenemos una bolsa con 5 bolas con dos posibles colores, blanco y rojo. Se necesita tener una idea de cuántas bolas blancas hay. Sea j tal número. Este puede ser 0, 1, 2, 3, 4 ó 5. En ausencia de información suponemos que todos los valores son igualmente probables, esto es, 1 P (0) = P (1) = · · · = P (5) = . 6 Podemos realizar un experimento informativo consistente en sacar una bola y observar su color. En este experimento, si B designa sacar bola blanca, se tiene que P (B|0) = 0 P (B|1) = 1/5 P (B|2) = 2/5 ··· P (B|5) = 1. Se realiza el experimento y se obtiene bola blanca. Las probabilidades de interés son P (j|B). Se tiene que P (j|B) = P (B|j)P (j) P (j ∩ B) =P . P (B) i P (B|i)P (i) 18 Por ejemplo, P (4|B) = 4/5 · 1/6 . 0 · 1/6 + 1/5 · 1/6 + · · · + 1 · 1/6 1 1/6 1/15 2 1/6 2/15 3 1/6 3/15 4 1/6 4/15 5 1/6 5/15 Se obtiene la siguiente tabla: j P (j) P (j|B) 0 1/6 0 Así, la composición 5 pasa a ser la más probable. A continuación, deseamos saber las probabilidades de sacar otra bola blanca, esto es, deseamos calcular P (B2 |B1 ), si la extracción se hace con reemplazamiento. En este ejemplo, si sabemos j (la composición de la bolsa), B1 no aporta información para predecir B2 , por lo que P (B2 |j ∩ B1 ) = P (B2 |j). Por ser con reemplazamiento, P (B2 |j) = P (B1 |j), como antes, esto es, j P (B2 |j) = 5 . Así, P (B2 |B1 ) = P (B2 |0) · P (0|B1 ) + · · · + P (B2 |5) · P (5|B1 ) = 5 11 1 1 +··· +1 · = . = 0·0+ · 5 15 15 15 Se obtiene fácilmente que P (B2 ) = Como P (B2 ) 6= P (B2 |B1 ), B2 y B1 son sucesos dependientes, más aún, como P (B2 |B1 ) > P (B2 ), están relacionados positivamente. X j 1 P (B2 |j) · P (j) = . 2 2.4 Ejercicios 1. Una urna contiene 12 bolas blancas y 8 negras. Si se sacan dos bolas al azar, ¿cuál es la probabilidad de que sean del mismo color? 19 2. Se extraen tres cartas de una baraja de 40 cartas. (a) ¿Cuál es la probabilidad de que sean tres sotas? (b) ¿Y de que sean un as, un dos y un tres? (c) ¿Y de que salga un rey, seguido de un cinco y éste de un siete? 3. Se considera el experimento aleatorio ”lanzar dos veces un dado”. ¿Cuál es la probabilidad de obtener un número par en el segundo lanzamiento condicionado a obtener impar en el primero? Probar que estos dos sucesos son independientes. 4. Se tienen tres urnas de igual aspecto. En la primera hay 3 bolas blancas y 4 negras; en la segunda hay 5 negras y en la tercera 2 blancas y 3 negras. Se desea saber: (a) Si se extrae una bola de una urna, elegida al azar, ¿cuál es la probabilidad de que la bola extraída sea negra? (b) Se ha extraído una bola negra de una de las urnas. ¿Cuál es la probabilidad de que haya sido extraída de la segunda urna? 5. En un hospital especializado en enfermedades de torax, ingresan un 50% de enfermos con bronquitis, un 30% con neumonía y un 20% con gripe. La probabilidad de curación completa en cada una de dichas enfermedades es, respectivamente, 0.7, 0.8 y 0.9. Un enfermo internado en el hospital ha sido dado de alta completamente curado. Hallar la probabilidad de que el enfermo dado de alta hubiera ingresado con bronquitis. 6. La probabilidad de que un artículo provenga de una fábrica A1 es 0.7, y la probabilidad de que provenga de otra fábrica A2 es 0.3. Se sabe que la fábrica A1 produce un 4 por mil (40 /00 ) de artículos defectuosos y la A2 un 80 /00 . (a) Se observa un artículo y se ve que está defectuoso. ¿Cuál es la probabilidad de que provenga de la fábrica A2 ? (b) Se pide un artículo a una de las dos fábricas, elegida al azar. ¿Cuál es la probabilidad de que esté defectuoso? 7. En una población animal hay una epidemia. El 10% de los machos y el 18% de las hembras están enfermos. Se sabe además que hay doble número de hembras que de machos y se pide: (a) Elegido al azar un individuo de esa población, ¿cuál es la probabilidad de que esté enfermo? (b) Un individuo de esa población se sabe que está enfermo, ¿qué probabilidad hay de que el citado individuo sea macho? 20 8. Un trasnochador disone de un llavero con tres llaves indistinguibles en la oscuridad, de las cuales sólo una abre la puerta de su casa. Para dar con la llave en cuestión sigue uno de los siguientes métodos: PRIMER MÉTODO: Prueba las llaves una tras otra teniendo cuidado de no volver a usar la misma llave. SEGUNDO MÉTODO: Prueba una llave y, si no sirve, agita el llavero y prueba otra vez (con el riesgo de volverla a usar). (a) ¿Cuál es la probabilidad de que abra al tercer intento si usa el primer método? (b) ¿Cuál es la probabilidad de que abra al tercer intento si usa el segundo método? (c) Además, se sabe que usa el segundo método cuando ha bebido un poco más de la cuenta (lo que ocurre uno de cada tres días) y el primero si está sobrio. Si se sabe que los dos primeros intentos han fracasado, ¿cuál es la probabilidad de que esté borracho? 9. En cierto municipio, para ascender de barrendero a jefe de escoba hay una gran competencia. Se puede ascender por tres caminos: por oposición, por concurso de méritos y por enchufe con el concejal delegado de limpieza pública. La probabilidad de que un opositor alcance plaza es 0.25. El 78% de los concursantes también consiguen plaza y todos los enchufados del concejal de limpieza consiguen el puesto. Sabiendo que el 75% de los aspirantes a jefes de escoba son opositores, el 20% concursantes y el 5% consiguen el enchufe, calcular: (a) ¿Cuántos de los 300 jefes de escoba que hay en activo consiguieron el puesto por enchufe? (b) La probabilidad de que un determinado jefe de escoba haya conseguido el puesto por oposición. 21 Capítulo 3 Variables aleatorias 3.1 Distribución de una variable aleatoria En este tema se introducen algunos resultados básicos sobre variables aleatorias y se introducen las familias de distribuciones más relevantes para este curso. En ocasiones nos interesarán una o más transformaciones de los resultados de un experimento aleatorio, lo que conduce al concepto de variable aleatoria. Ejemplo Normalmente, los resultados posibles (espacio muestral E) de un experimento aleatorio no son valores numéricos. Por ejemplo, si un experimento consiste en lanzar de modo ordenado tres monedas al aire, para observar el número de caras (C) y cruces (R) que se obtienen, el espacio muestral asociado a dicho experimento aleatorio sería: E = {CCC, CCR, CRC, CRR, RCC, RCR, RRC, RRR} . En Cálculo de Probabilidades resulta más fácil utilizar valores numéricos en lugar de trabajar directamente con los elementos de un espacio muestral como el anterior. Así, se prefiere identificar los sucesos {CRR, RCR, RRC} con el valor numérico 1 que representa el número de caras obtenidas al realizar el experimento. De este modo, aparece el concepto de variable aleatoria unidimensional como el de una función X : E −→ R e −→ X(e) que a cada suceso elemental e del espacio muestral E, le atribuye un único número real, X(e). 22 En el ejemplo anterior, se puede definir la variable aleatoria X ≡ número de caras, del siguiente modo: X : E −→ R X (CCR) = X (CRC) = X (RCC) = 2 X (RRC) = X (RCR) = X (CRR) = 1 X (RRR) = 0 Observación La variable X no recibe el calificativo de aleatoria por el hecho de que atribuya de modo imprevisible un valor cualquiera a un elemento e ∈ E ya que este valor está definido de forma precisa (determinística). Lo que es aleatorio, en realidad, es que al realizar el experimento, no sabemos qué elemento de E puede ocurrir. En función de los valores que tome la variable, ésta puede ser clasificada en discreta o continua del siguiente modo: v.a. discreta: es aquella que sólo puede tomar un número finito o infinito numerable de valores. Por ejemplo, X : E −→ N v.a. continua: es la que puede tomar un número infinito no numerable de valores. X : E −→ R Observación Si sobre los elementos de E existe una distribución de probabilidad, ésta se transmite a los valores que toma la variable X. Es decir, podemos calcular las probabilidades: P [X = x] = P [{e ∈ E : X (e) = x}] P [X ∈ (a, b)] = P [{e ∈ E : X (e) ∈ (a, b)}] En general, dada la v.a. X sobre el espacio E, asociado a un experimento aleatorio, se define la probabilidad de que la variable pertenezca a cualquier subconjunto A de la recta real como: P (X ∈ A) = P {e ∈ E : X(e) ∈ A} Vamos a estudiar los conceptos más importantes relacionados con la distribución de probabilidad de una v.a., diferenciando entre los casos de v.a. discreta y v.a. continua. 23 3.2 Variables aleatorias discretas Dada una v.a. discreta X : E −→ N, f, se define su función de masa de probabilidad , de modo que f (xi ) es la probabilidad de que X tome ese valor concreto: f : R −→ [0, 1] xi −→ f (xi ) = P [X = xi ] = P [{e, tal que X(e) = xi }] Si xi no es uno de los valores que puede tomar X, entonces f (xi ) = 0. La representación gráfica de la función de masa de probabilidad se realiza mediante un diagrama de barras análogo al de distribución de frecuencias relativas para variables discretas en Estadística Descriptiva. Por ejemplo, si se considera el caso del lanzamiento de 3 monedas de forma que cada una de ellas tenga probabilidad 1/2 de obtener el resultado de cara o cruz, se tiene que f (3) = P [X = 3] = P [{CCC}] = 1 1 1 1 · · = 2 2 2 8 3 1 1 1 f (2) = P [X = 2] = P [{RCC, CCR, CRC}] = + + = 8 8 8 8 3 1 1 1 f (1) = P [X = 1] = P [{RRC, RCR, CRR}] = + + = 8 8 8 8 1 1 1 1 f (0) = P [X = 0] = P [{RRR}] = · · = 2 2 2 8 Observación Obsérvese que X está definido sobre el espacio muestral de sucesos E, mientras que f lo está sobre el espacio de números reales R. Proposición Si x1 , x2 , . . . xk son todos los valores que puede tomar la v.a. X, entonces la suma de las probabilidades de todos los posibles valores de la variable es 1. k X i=1 f(xi ) = k X i=1 P [X = xi ] = 1 y además todas las probabilidades son no negativas: f (xi ) ≥ 0 ∀i = 1, . . . , k Otro concepto importante es el de función de distribución de una variable aleatoria discreta, F , que se define de modo que si xi ∈ R, F (xi ) es igual a la probabilidad de que X tome un valor inferior o igual a xi : F : R −→ [0, 1] xi −→ F (xi ) = P [X ≤ xi ] = P [{e, tal que X(e) ≤ xi }] 24 Volviendo al ejemplo de las tres monedas, se tiene que F (0) = P [X ≤ 0] = P [X = 0] = f (0) = F (1) = P [X ≤ 1] = f (0) + f (1) = 1 8 4 1 3 + = 8 8 8 7 1 3 3 F (2) = P [X ≤ 2] = f (0) + f (1) + f (2) = + + = 8 8 8 8 8 1 3 3 1 F (3) = P [X ≤ 3] = f (0) + f (1) + f (2) + f (3) = + + + = = 1 8 8 8 8 8 La función de distribución está definida para toda la recta real, incluidos los valores no admisibles de la variable aleatoria. Por ejemplo, F (−1) = P [X ≤ −1] = P [∅] = 0 Figura: Función de masa de probabilidad a la izquierda, y función de distribución a la derecha de una v.a. discreta Proposición La función de distribución F , es una función monótona no decreciente, es decir, x1 < x2 =⇒ F (x1 ) ≤ F (x2 ) Además, es continua a la derecha x→a+ lim F (x) = F (a) y F (−∞) = F (+∞) = xi →−∞ xi →+∞ lim F (xi ) = 0 lim F (xi ) = 1 Nota: De lo anterior se deduce que P (X > x) = 1 − F (x) P (x1 < X ≤ x2 ) = F (x2 ) − F (x1 ). Ejemplos 25 • Sea la función x−2 , 5 con soporte {1, 2, 3, 4} . No es una función de masa de probabilidad porque, por ejemplo, f (1) = −1/5 < 0. f(x) = h(x) = • Sea la función • Sea la función x2 , 25 con soporte {0, 1, 2, 3, 4} . No es una función de masa de probabilidad P porque 4 h(i) > 1. i=0 g(x) = 1 , 5 con soporte {0, 1, 2, 3, 4} . Es una función de masa de probabilidad porque P4 g(i) ≥ 0, i = 0, . . . 4 y i=0 g(i) = 1. La correspondiente función de distribución tiene como gráfica: 26 Momentos de una variable aleatoria discreta En ocasiones se está interesado en resumir una variable aleatoria, típicamente a través de sus momentos. Los principales son: - La esperanza o media de la variable aleatoria X X xi f(xi ), E [X] = µ = i que constituye una medida de localización. Se puede observar en esta medida, así como en las que siguen, el paralelismo con los momentos muestrales, aunque no se deben confundir. - La varianza X (xi − µ)2 f (xi ), V ar[X] = σ2 = i que constituye una medida de dispersión. Alternativamente, se tiene que X X¡ ¢ x2 − 2µxi + µ2 f(xi ) = (xi − µ)2 f (xi ) = σ2 = i = X i i i x2 f(xi ) − µ2 . i - La desviación típica σ= sX i (xi − µ)2 f(xi ). Ejemplo Para la v.a. con soporte {0, 1, 2, 3, 4} y función de masa de probabilidad g(x) = 1 , se tiene 5 µ = σ2 σ 0+1+2+3+4 =2 5 4 X X 1 30 −4 =2 = x2 f (xi ) − µ2 = i2 − 4 = i 5 5 i i=0 √ = 2, 3.3 Variables aleatorias continuas Se presentan ahora los conceptos básicos sobre variables aleatorias continuas. Se repiten las mismas ideas que en el caso discreto, con funciones de densidad en lugar de funciones de masa e integrales en lugar de sumas. 27 En numerosos experimentos, los resultados podrán ser valores en un conjunto continuo; por ejemplo, si estamos midiendo tiempos de espera en la cola de un cine, las mediciones serían valores en el intervalo (0, ∞] . Es necesario introducir un nuevo concepto que sustituya en v.a. continuas, al de función de masa de una v.a. discreta. Este concepto es el de función de densidad de una v.a. continua, que se define como una función f : R −→ R, no negativa sobre la recta real, que verifica las dos propiedades siguientes: Z f (x) ≥ 0, +∞ −∞ f(x)dx = 1, Z f(x)dx. P (X ∈ A) = A Así, dados a < b, se tiene que P [a ≤ X ≤ b] = Z b f (x)dx. a Se puede observar que la probabilidad de un punto es nula: Z a P [X = a] = P [a ≤ X ≤ a] = f (x)dx = 0, a y por ello, calcular la probabilidad de un intervalo no afecta nada el que éste sea abierto o cerrado por cualquiera de sus extremos, pues estos son puntos y por tanto de probabilidad nula: P [a ≤ X ≤ b] = P [a ≤ X < b] = P [a < X ≤ b] = P [a < X < b] Ejemplo Determinar k para que la función ½ 0 x≤0 2 f (x) = kxe−4x x > 0 sea una función de densidad. Solución: En primer lugar, debe ser k ≥ 0. Además, Z Z ∞ Z ∞ i 2 2 ∞ k ∞ kh k −4x2 −8xe−4x dx = − e−4x f (x)dx = kxe dx = − = = 1, 8 0 8 8 0 −∞ 0 por lo que k = 8. ¥ 28 Función de distribución La función de distribución se define de manera que dado x ∈ R , F (x) es la probabilidad de que X sea menor o igual que x, es decir Z x f (t)dt. F (x) = P (X ≤ x) = −∞ Se verifican las propiedades ya mencionadas en el caso discreto: P [a < X ≤ b] = F (b) − F (a) F es monótona no decreciente. F (−∞) = 0, F (+∞) = 1 F es continua por la derecha. Además, dF (x) = f (x), dx si existe la derivada. Ejemplo Sea la función de densidad f(x) = Resulta que F (x) = cuya gráfica es   0  1 x 5 ½ 0 1 5 x ∈ [0, 5] resto x5 29 Para 0 ≤ a ≤ b ≤ 5, queda P [a ≤ X ≤ b] = F (b) − F (a) = Ejemplo Dada la función de densidad f(x) = La función de distribución es F (x) = ½ 0 x≤0 1 − e−2x x > 0 ½ 2e−2x x > 0 0 resto b−a . 5 ¥ 30 Calcular la probabilidad de obtener un valor entre 1 y 3. Calcular la probabilidad de obtener un valor mayor que 0.5. Resulta Z 3 ¤3 £ 2e−2t dt = −e−2t 1 = e−2 − e−6 = 0.133 P (1 < X ≤ 3) = Z1 ∞ ¤∞ £ 2e−2t dt = −e−2t 0.5 = e−1 = 0.368. ¥ P (X ≥ 0.5) = 0.5 Momentos Como en el caso discreto, en ocasiones se está interesado en resumir la distribución de X a través de sus momentos. La esperanza de una variable X es Z ∞ µ= xf(x)dx −∞ y la varianza es σ = 2 Ejemplo Para la v.a. del ejemplo anterior se tiene que Z ∞ Z ∞ 1 xf(x)dx = x2e−2x dx = , µ = 2 −∞ 0 Z ∞ 1 1 σ2 = x2 2e−2x dx − = . ¥ 4 4 −∞ Z ∞ −∞ (x − µ) f (x)dx = 2 Z ∞ −∞ x2 f (x)dx − µ2 . 31 3.4 Ejercicios 1. Una compañía de refrescos anuncia premios en las chapas asegurando que en cada 1000 chapas hay 500 con ”inténtalo otra vez”, 300 con premio de 0.3 euros, 150 con premio de 0.6 euros, 40 con premio de 3 euros y 10 con premio de 6 euros. Un individuo, al que no le gusta el refresco, decide comprar una botella cuyo coste es de 0.6 euros. Caracterizar su ganancia mediante una variable aleatoria. ¿Es razonable su decisión? Calcular su probabilidad de perder dinero. 2. Sea X una variable aleatoria con función de densidad   x si 0 ≤ x < 1 k − x si 1 ≤ x ≤ 2  0 en el resto f (x) = (a) Hallar k. Comprobarlo gráficamente. (b) Hallar la función de distribución, E(X) y V (X). 3. Sea X una variable aleatoria continua con función de densidad ½ k(1 + x2 ) si x ∈ (0, 3) 0 si x ∈ (0, 3) / f (x) = Se pide: (a) Hallar la constante k y la función de distribución. (b) Probabilidad de que X esté comprendida entre 1 y 2. (c) Probabilidad de que X sea menor que 1. (d) Sabiendo que X es mayor que 1, probabilidad de que sea menor que 2. 4. La función de densidad de una variable aleatoria continua es: ax2 + b si x ∈ (0, 2) 0 si x ∈ (0, 2) / f(x) = Determinar a y b, sabiendo que P (1/2 < X ≤ 1) = 0.1357. 5. De una estación parte un tren cada 20 minutos. Un viajero llega de improviso. Hallar: (a) La función de distribución de la variable ”tiempo de espera”. 32 (b) La probabilidad de que espere al tren menos de 7 minutos. (c) Esperanza y varianza de la variable aleatoria ”tiempo de espera”. (d) Probabilidad de que espere exactamente 12 minutos. 6. La proporción de cierto aditivo en la gasolina determina su peso específico, lo que, a su vez, determina el precio. Supongamos que en la producción de gasolina la proporción de aditivo es una variable aleatoria X con función de densidad: ½ f(x) = 6x(1 − x) si 0 ≤ x ≤ 1 0 en el resto Si X < 0.5 tendremos gasolina del tipo 1 a 0.66 euros el litro, si 0.5 ≤ X ≤ 0.8, tendremos gasolina del tipo 2 a 0.72 euros el litro; y, si X > 0.8, tendremos gasolina del tipo 3 a 0.79 euros el litro. (a) Representar gráficamente la densidad y calcular la función de distribución de X. (b) Calcular los porcentajes de producción de cada tipo de gasolina. (c) Calcular el precio medio por litro. 7. El tiempo de vida (en minutos) de un determinado virus, es una variable aleatoria con función de densidad: (a) f (x) = ½ 0.001 exp(−0.001x) si x>0 0 en el resto (b) Calcular la probabilidad de que el tiempo de vida sea superior a 100 minutos e inferior a 1000 minutos. (c) Observamos un virus a los 500 minutos y comprobamos que ha muerto. ¿Cuál es la probabilidad de que estuviese vivo a los 100 minutos? 33 Capítulo 4 Variables aleatorias discretas 4.1 El modelo de Bernoulli Consiste en realizar un experimento aleatorio una sola vez y observar si cierto suceso ocurre o no, siendo p la probabilidad de éxito y q = (1 − p) de fracaso . En realidad se trata de una variable que únicamente puede tomar dos valores. Podríamos, por tanto, definir este experimento mediante una v.a. discreta X que toma los valores X = 0 si el suceso no ocurre, y X = 1 en caso contrario, denotándose X ∼ Ber(p) si   0 −→ q = (1 − p) = P (X = 0) X=  1 −→ p = P (X = 1) Por ejemplo, se lanza una moneda y se considera la v.a. X = n´mero de caras u obtenidas, X = 1 con p = 1 y X = 0 con q = 1 . 2 2 Para una v.a. de Bernoulli, su función de masa de probabilidad es: P (X = 1) = p P (X = 0) = 1 − p, y 0 en el resto. Su función de distribución es   0 si x < 0 q si 0 ≤ x < 1 F (x) =  1 si x ≥ 1 34 Los principales momentos de la X son E [X] = 0 · P (X = 0) + 1 · P (X = 1) = p £ ¤ E X 2 = 02 · P (X = 0) + 12 · P (X = 1) = p V ar [X] = p − p2 = p (1 − p) = pq. 4.2 La distribución binomial Se utiliza la distribución binomial para modelizar el número de veces que se da un resultado al realizar varias pruebas idénticas e independientes de un experimento con dos resultados posibles. Las hipótesis específicas que se hacen son: • Se consideran n repeticiones independientes de un experimento. • El experimento tiene dos resultados posibles: éxito o fracaso. • La probabilidad p de éxito es la misma en cada repetición (o ensayo). La variable X de interés es el número de éxitos obtenidos en esas n pruebas. Entonces, se dice que X tiene distribución binomial de parámetros n y p, y se escribe como X ∼ Bin (n, p) , siendo la distribución µ ¶ n x p (1 − p)n−x . P (X = x) = x Ejemplo Hay una probabilidad de 0.05 de que en un colegio de primaria un alumno caiga enfermo de gripe en un día durante una epidemia de gripe. Un grupo de un centro escolar tiene 16 alumnos. ¿Cuál es la probabilidad de que a lo sumo caigan 2 alumnos enfermos de gripe? ¿y que al menos caigan 4? Solución: Si X designa el número de enfermos de gripe en un día, entonces X ∼ Bin (16, 0.05) . Nos piden primero µ ¶ µ ¶ µ ¶ 16 16 16 0 16 1 15 0.05 0.95 + 0.052 0.9514 = 0. 957 06 P (X ≤ 2) = 0.05 0.95 + 1 2 0 Después, 35 P (X ≥ 4) = 1 − P (X ≤ 3) = µ ¶ µ ¶ 16 16 0 16 0.051 0.9515 1− 0.05 0.95 − 1 0 µ ¶ µ ¶ 16 16 2 14 − 0.05 0.95 − 0.053 0.9513 = 0.00 701 2 3 Ejemplo La agencia tributaria anuncia que sólo el 10% de las declaraciones de hacienda anuales requieren una inspección. De las 20 declaraciones de los empleados de una pequeña empresa, 5 de ellas fueron inspeccionadas el año pasado. ¿Apoyan estos datos el anuncio de la agencia tributaria? Solución: Sea X una v.a. con distribución Bin(20, 0.1). Se calcula la probabilidad de que sean inspecconadas 5 o más declaracioness: 4 X µ20¶ 0.1x 0.920−x = 0.432 P (X ≥ 5) = 1 − x x=0 Por lo que por ser una probabilidad muy pequeña, se pone en duda el anuncio de la agencia tributaria. Proposición La media y la varianza de una Bin(n, p) es E [X] = µ = np V ar [X] = σ2 = np(1 − p). Ejemplo ¢ ¡ Para X ∼ Bin n = 16, p = 1 resulta 2 µ = 16 · σ2 1 2 1 = 16 · 2 = 8, · 1 = 4. 2 Ejemplo Calcular la esperanza y la varianza del número de caras obtenidas en 40000 tiradas de una moneda equilibrada. Solución: Si X designa el número de caras en 40000 tiradas de la moneda equilibrada, ¢ ¡ tenemos que X ∼ Bin 40000, 1 . 2 1 = 20000 2 1 1 V ar [X] = σ2 = 40000 · · = 10000 2 2 √ σ = 10000 = 100. E [X] = 40000 · 36 Es interesante remarcar la forma de la distribución binomial en función de p. • Cuando p = 0.5 la distribución es simétrica • Cuando p > 0.5 la distribución es asimétrica negativa • Cuando p < 0.5 la distribución es asimétrica positiva 37 4.3 La distribución geométrica Seguimos considerando la situación experimental anterior en la que se realizan experimentos idénticos e independientes con dos posibles resultados. Ahora, en lugar de estar interesados por el número de éxitos en n ensayos, estamos interesados en predecir el instante en el que se produce el primer éxito. Definición Se dice que una variable aleatoria X tiene una distribución geométrica de parámetro p, X ∼ Ge(p) si P (X = k) = p (1 − p) k−1 , donde k = 1, 2, 3, 4, . . . Observación: Claramente, si el primer éxito se produce en el instante k, deben producirse (k − 1) fracasos. Ejemplo Supongamos que la probabilidad de que un ordenador salga mal en una línea de producción es de 0.05. Se desea saber la probabilidad de que el primer ordenador defectuoso sea el sexto. Solución: Se tiene que X ∼ Ge(p = 0.05) y se quiere calcular P (X = 6) = 0.05 (1 − 0.05) Proposición Para X ∼ Ge(p), E [X] = 1 , V ar[X] = p 1 p2 . 6−1 = 0.039. 4.4 La distribución de Poisson Como primera motivación, estamos interesados en contar el número de éxitos en n pruebas del tipo éxito o fracaso cuando n es grande y el suceso es raro (esto es, la probabilidad de éxito es pequeña). Específicamente, supongamos que X ∼ Bin(n, p), esto es, µ ¶ n x n−x P (X = x) = p (1 − p) x con n −→ ∞, np = λ, esto es, p = λ n −→ 0. Sustituyendo, se tiene λx , x! P (X = x) −→ e−λ n→∞ x = 0, 1, 2, . . . 38 Proposición Se dice que una variable aleatoria X tiene una distribución de Poisson de parámetro λ, X ∼ P o(λ) si P (X = k) = e−λ donde k = 0, 1, 2, . . . Proposición Si X ∼ P o(λ) entonces E [X] = λ V ar [X] = λ Ejemplo El 5% de los alumnos de una asignatura suspende. Calcular la probabilidad de que 2 de 100 alumnos suspendan el examen de dicha asignatura. Solución: Si X designa el número de suspensos de 100, se tiene que X ∼ Bin (100, 0.05) . Se pide µ ¶ 100 0.052 · 0.9598 = 0.081 P (X = 2) = 2 Alternativamente, como n es grande y p es pequeño, y aplicamos la aproximación de Poisson, se tiene que λ = np = 100 · 0.05 = 5, y P (X = 2) ≈ e−5 52 = 0.084 2! λx , x! Observación: La aproximación de la distribución de Poisson a la binomial es buena cuando n ≥ 30 y p ≤ 0.1. Ejemplo Una empresa inmobiliaria posee en su base de datos 3840 viviendas en Madrid. La probabilidad de que uno de ellos no se venda en un año es de 1/1200. Calcular la probabilidad de que no se vendan 0, 1, 2, . . . en un año. Solución: Empleamos la aproximación de la Poisson a la binomial con λ = 3840 Así, P (X = k) ≈ e−3.2 3.2x , x! 1 = 3.2 1200 39 y, por ejemplo, P (X = 0) ≈ 0.041 P (X = 1) ≈ 0.13 P (X = 2) ≈ 0.209 ··· 4.5 Ejercicios 1. En un puesto de feria se ofrece la posibilidad de lanzar a ciegas un dardo a unos globos. Si se consigue reventar un globo, se recibe un premio igual a una cantidad oculta tras el globo. Supongamos que la probabilidad de acertar con algún globo es 1/3. Los premios se distribuyen de la siguiente manera: • 40% de premios de 0.6 euros • 20% de premios de 3 euros • 30% de premios de 1.20 euros • 10% de premios de 12 euros. Si cada lanzamiento cuesta 0.6 euros, ¿cuál es la ganancia esperada del dueño del puesto en cada lanzamiento. 2. Suponiendo que la probabilidad de que un niño que nace sea varón es 0.51, hallar la probabilidad de que una familia de 6 hijos tenga: (a) Por lo menos, una niña. (b) Por lo menos, un niño. (c) Por lo menos, dos niños y una niña. 3. Dos personas juegan a cara o cruz. La partida termina cuando han salido, al menos, tres caras y tres cruces. Hallar la probabilidad de que el juego no haya terminado habiéndose hecho 10 tiradas. 4. Una compañía de seguros con 10000 asegurados halla que el 0.005% de la población fallece cada año de un cierto tipo de accidente. (a) Hallar la probabilidad de que la compañía tenga que pagar a más de tres asegurados, por dicho accidente, en un año determinado. (b) ¿Cuál es el número medio de accidentes por año? 40 5. La probabilidad de que un individuo tenga una reacción alérgica al inyectarle un suero es 0.001. Hallar la probabilidad de que, entre 2000 individuos, tengan reacción alérgica: (a) Exactamente 3. (b) Más de dos. 6. El número de erratas por página de un libro se supone que sigue una distribución de Poisson. En una muestra de 95 páginas se han observado las siguientes frecuencias: No de erratas Frecuencia 0 40 1 30 2 15 3 7 4 2 5 1 Hallar la probabilidad de que en una página tomada al azar haya alguna errata. 7. Un pájaro de cierta especie come mariposas de una población muy grande. Estas mariposas pueden comer, a su vez, de una planta venenosa, de manera que si el pájaro come una mariposa envenenada, deja de comer mariposas ese día. Suponiendo que el 40% de la población de mariposas come de la planta venenosa, hallar el número medio de mariposas comidas en un día por el pájaro. 8. Un ledidopterista está interesado en los ejemplares de una clase de mariposas que constituyen el 15% de todas las mariposas de la zona. Hallar la probabilidad de que tenga que cazar 10 mariposas de las que no le interesan antes de encontrar un ejemplar de la clase deseada. 9. En un examen se plantean 10 cuestiones a las que debe responderse verdadero o falso. Un alumnomaprobará el examen si, al menos, 7 respuestas son acertadas. ¿Qué probabilidad tiene de aprobar un estudiante que responde todo al azar? ¿Y uno que sabe el 30% de la asignatura? 41 Capítulo 5 Variables aleatorias continuas 5.1 La distribución uniforme Definición Una v.a. tiene distribución uniforme en (a, b) (y se representa como X ∼ U (a, b) ) si su función de densidad es  1  a 1.16) = 1 − 0.1230 = 0.8770. Si queremos calcular P (Z ≤ 4.5) , tenemos que P (Z ≤ 4) = 1−0.0000317 = 0.9999683, P (Z ≤ 5) = 1 − 0.000000287 = 0.999999713 y se hace, entonces, P (Z ≤ 4.5) = 0.9999840065. ¥ 46 En particular, P (Z ≤ −z) = P (Z ≥ z) . Así, recordando que P (a < Z ≤ b) = P (Z ≤ b) − P (Z ≤ a) = P (Z > a) − P (Z > b) se pueden calcular prácticamente todas las probabilidades de interés para la distribución normal. Ejemplos P (z ∈ [0.87, 1.28]) P (z ∈ [−0.34, 0.62]) 1 − 0.3669 − 0.2676 P (Z ≥ 0.85) P (Z ≥ −0.65) = = = = = P (Z > 0.87) − P (Z > 1.28) = 0.1922 − 0.1003 = 0.0919 P (Z > −0.34) − P (Z > 0.62) = 1 − P (Z > 0.34) − P (Z > 0.62) = 0.3655 0.1977 1 − P (Z ≥ 0.65) = 1 − 0.2578 = 0.7422. ¥ Una operación de búsqueda inversa nos permite hallar los percentiles de la normal estándar. Usualmente se designa mediante zα al valor tal que existe una probabilidad α de que Z sea mayor, esto es, P (Z ≥ zα ) = α. Para ello, se mira en la tabla la entrada α y con su fila y su columna determinamos zα . Ejemplo Se calcula z0.01 . Se tiene que P (Z ≥ 2.32) = 0.0102 que se corresponde con la fila 2.3, columna 0.03, esto es, z0.01 ≈ 2.33. Se calcula z0.05 . Se tiene en la tabla que que P (Z ≥ 1.64) = 0.0505, por lo que z0.05 ≈ 1.645. ¥ Para calcular probabilidades de distribuciones normales no estándar, se usa el hecho de que si X ∼ N (µ, σ) , entonces, Z= X −µ ∼ N (0, 1) . σ Así, si X ∼ N (µ, σ) , nos bastará con hacer µ ¶ a−µ X −µ b−µ P (a ≤ X ≤ b) = P ≤ ≤ = σ σ σ µ ¶ µ ¶ a−µ b−µ P Z≥ −P Z ≥ . σ σ Ejemplo El tiempo en minutos que necesita una persona en ser atendido en una ventanilla sigue una distribución normal con media µ = 4.35 horas y σ = 0.59 horas. Calcular las probabilidades de que dicho tiempo esté entre 4.00 y 5.00 horas. Lo mismo que sea mayor que 5.50. 47 Solución: · ¸¶ X − 4.35 4 − 4.35 5 − 4.35 ∈ , = 0.59 0.59 0.59 µ ¶ µ ¶ 4 − 4.35 5 − 4.35 = P Z≥ −P Z ≥ = P (Z ≥ −0.59) − P (Z ≥ 1.10) = 0.59 0.59 = 1 − P (Z ≥ 0.59) − P (Z ≥ 1.10) = 1 − 0.2776 − 0.1357 = 0.5867. µ µ P (X ∈ [4, 5]) = P por otro lado, ¶ 5.5 − 4.35 X − 4.35 ≥ P (X ≥ 5.5) = P = 0.59 0.59 = P (Z ≥ 0.95) = 0.1711. ¥ Como se ha indicado, una de las propiedades importantes de la normal es que aproxima, en cierto sentido, muchas otras distribuciones. A continuación se presenta un ejemplo, sencillo de aplicar, para dar una idea de este tipo de resultados. Ejemplo Suponemos que deseamos aproximar la binomial cuando n es grande y p está entre 0.1 y 0.9, esto es, no podemos emplear la aproximación de Poisson. En tal caso, si n ≥ 30 y 0.1 < p < 0.9, podemos emplear la aproximación normal que indica que si X ∼ Bin (n, p) y definimos X − np , Z=p np (1 − p) entonces, para n suficientemente grande, Z z 1 t2 √ e− 2 dt. F (z) ' 2π −∞ Ejemplo Supongamos que el 20% de los artículos de una planta de producción son defectuosos. Deseamos calcular la probabilidad de que en un lote de 100 artículos inspeccionados al azar, (i) A lo sumo haya 15 defectuosos (ii) Exactamente haya 15 defectuosos. Solución: Tenemos X ∼ Bin (100, 0.2) , entonces, µ = 100 · 0.2 = 20 √ 100 · 0.2 · 0.8 = 4. σ = 48 La probabilidad pedida es aproximadamente igual a µ ¶ 15.5 − 20 P Z≤ = P (Z ≤ −1.13) = P (Z > 1.13) = 0.1292. 4 Por otro lado, µ ¶ µ ¶ 15.5 − 20 14.5 − 20 P Z≤ −P Z ≤ = P (Z ≤ −1.13) − P (Z ≤ −1.38) 4 4 = P (Z > 1.13) − P (Z > 1.38) = 0.1292 − 0.0838 = 0.0454. ¥ 5.4 Ejercicios 1. El coeficiente de inteligencia es una variable aleatoria que se distribuye según una N(100, 16). Calcular: (a) La probabilidad de que un individuo elegido al azar tenga un coeficiente superior a 120. (b) Suponiendo que un individuo con estudios universitarios debe tener un coeficiente superior a 110, hallar la probabilidad de que tenga un coeficiente superior a 120. 2. Lanzamos una moneda 400 veces. (a) Hallar la probabilidad de que el número de caras esté comprendido entre 160 y 190. (b) Hallar el intervalo (a, b) centrado en 200, tal que la probabilidad de que el número de caras obtenido esté en dicho intervalo sea 0.95. 3. Cierto individuo valora como factor decisivo para la compra de un coche el consumo de gasolina. Debe decidir entre dos modelos A y B. El fabricante de A afirma que su consumo sigue una distribución N (8, 5) (en litros/100 Km.), mientras que el de B dice que es N (8, 3). Hallar la probabilidad de que ambos coches consuman más de 9 litros. 4. Un botánico ha observado que la anchura, X, de las hojas del álamo sigue una distribución normal con media 6 cm. y que el 90% de las hojas tiene una anchura inferior a 7.5 cm. Hallar la desviación típica. Hallar la probabilidad de que una hoja mida más de 8 cm. 5. Se supone que el número de bacterias por mm3 de agua en un estanque es una variable aleatoria X con distribución de Poisson con parámetro λ = 0.5. 49 (a) ¿Cuál es la probabilidad de que en un mm3 de agua del estanque no haya ninguna bacteria? (b) En 40 tubos de ensayo se toman muestras de agua del estanque (1 mm3 de agua en cada tubo). ¿Qué distribución sigue la variable aleatoria Y = ”no de tubos de ensayo, entre los 40, que no contienen bacterias”?. Calcular, aproximadamente, P (Y ≥ 20). (c) Si sabemos que en un tubo hay bacterias, ¿cuál es la probabilidad de que haya menos de tres? 6. Un canal de comunicación recibe impulsos independientes a razón de 200 impulsos por microsegundo. La probabilidad de un error de transmisión es de 0.001 para cada impulso. Calcular las probabilidades de los siguientes sucesos: (a) No hay ningún error en un microsegundo (b) Hay exactamente un error en un microsegundo (c) Hay al menos un error en un microsegundo (d) Hay exactamente dos errores en un microsegundo 7. Un tren de circulación diaria se retrasa, independientemente de un día a otro, un tiempo aleatorio con distribución exponencial de parámetro 0.25 (el tiempo se mide en minutos). Calcular la probabilidad de que, a lo largo de un año, el tren se retrase 6 o más minutos en más de 50 ocasiones. 8. Un zoólogo estudia una cierta especie de ratones de campo. Para ello captura ejemplares de una población grande en la que el porcentaje de dicha especie es 100p%. (a) Si p = 0.3, hallar la probabilidad de que en 6 ejemplares capturados haya al menos 2 de los que le interesan. (b) Si p = 0.05, hallar la probabilidad de que en 200 ejemplares capturados haya exactamente 3 de los que le interesan. (c) Si p = 0.4, hallar la probabilidad de que en 200 ejemplares capturados haya entre 75 y 110 de los que le interesan. (d) ¿Cuál es el número medio de ejemplares que tendrá que capturar para encontrar uno de la especie que le interesa, si p = 0.2? 9. En una fábrica de turrón, la cantidad de almendra de una tableta determina su calidad: • Calidad normal: menos de 180 gr. de almendra • Calidad superior: más de 200 gr. de almendra 50 • Calidad extra: entre 180 gr. y 200 gr. de almendra Admitiremos que la cantidad de almendra por tableta es una variable aleatoria con distribución N (µ, σ). Además, sabemos que el 45% de las tabletas son de calidad superior y el 15% de calidad normal. Calcular: (a) Valor de µ (b) Valor de σ (c) Probabilidad de que una tableta elegida al azar tenga entre 185 gr. y 205 gr. de almendra (d) Probabilidad de que una tableta elegida al azar entre las de calidad superior, tenga una cantidad de almendra inferior a 208 gr. (e) Elegimos 150 tabletas al azar (independientemente unas de otras) ¿Cuál es la probabilidad de que al menos 2 tengan una cantidad de almendra inferior a 158 gr.? 51


Comments

Copyright © 2024 UPDOCS Inc.