ESTRUCTURA DE ESTADISTICA

April 6, 2018 | Author: Anonymous | Category: Documents
Report this link


Description

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAES ECONOMICAS Y SOCIALES ESCUELA DE ESTUDIOS INTERNACIONALES CATEDRA: ESTADISTICA I SECCION: 13 TEORIA DE LAS PROBABILIDADES AUTORES: ADRIAN EDISON. LANDAETA AARON. MIGUEL SALVADOR. NITTOLI ADOLFO. SANDOVAL ANGELICA. SINTAL ANDERSON. PROFA: LISBETH DOMINGUEZ CARACAS, ENERO 2011 INTRODUCCION Todo inició con un juego de azar en la Francia del siglo XVII, donde, en una disputa se estudió el comportamiento que tenían los dados y las barajas durante uno de los juegos, asimismo en términos estadísticos se abocaron al estudio de los sucesos aleatorios que en él se dan y buscando una forman de predecir los posibles resultados, en ese sentido Pierre y Simón Laplace agrega que "Es notable que una ciencia que comenzó con consideraciones sobre juegos de azar haya llegado a el objeto más importante del conocimiento humano". La doctrina de las probabilidades data desde Pierre de Fermat y Blaise Pascal en 1654, asimismo Christian Huygens en 1657 le dieron tratamiento científico, luego Ars Conjectandi, Jakob Bernoulli y Abraham de Moivre trataron el tema como una rama de las matemáticas. De ese modo la siguiente investigación tiene como fin exponer; historia y conceptos básicos como la Definición Clásica de Probabilidades o de Laplace, experimentos y sucesos aleatorios con sus respectivos tipos de sucesos como: compatible, incompatible, dependiente e independiente. Así como también los axiomas de la teoría de probabilidades y distribución de Poisson. Del mismo modo las formulas y su aplicabilidad en la teoría de las probabilidades según Soto Negrín, de ese modo, para comprender de manera general la utilidad de las probabilidades y, ante hechos especulativos que luego de un procedimiento matemático llegar a datos concretos hacen gala la capacidad de predecir los resultados ante un estudio estadístico, en tal sentido mediante el análisis probabilístico y de la comprensión estadística de los resultados establecer la decisión pertinente ante un estudio el área profesional. HISTORIA Y ORIGEN DE LA TEORIA DE LAS PROBABILIDADES La teoría de las probabilidades es resultado de una disputa ocurrida a mediados del siglo XVII, entre jugadores de azar. Esta disputa se origina debido al comportamiento que tenían los dados y las barajas durante uno de los juegos, es aquí donde un caballero de la época, conocido como el Chevalier De Meré, se da a la tarea de contactar a Blaise Pascal y Pierre De Fermat, ambos matemáticos de la época, los cuales se darían a la tarea de realizar estudios sobre el comportamiento de los dados a la hora de utilizar uno o dos en un juego, las combinaciones que estos tendrían y las probabilidades que existen de sacar una combinación a la hora de realizar una jugada, particularmente, la resolución de este problema, constituye las bases y el origen de la teoría de probabilidades moderna. Negrin S., (1999. p.137). Así mismo, tenemos que: La probabilidad matemática tiene sus orígenes en los juegos de azar, principalmente los juegos con dados y cartas, muy populares desde tiempos antiguos. Los primeros estudios ³científicos´ sobre fenómenos aleatorios se centraban en dos problemas: 1. Contabilizar el número de posibles resultados de lanzar un dado varias veces. 2. Distribuir las ganancias entre jugadores cuando el juego se interrumpía antes de finalizar, conocido como el µproblema del reparto de apuestas¶. (Salinero, P., (2005), p.3) Luego de las bases y resultados matemáticos establecidos por Pascal y Fermat, han sido muchos los personajes que han contribuido al enriquecimiento de la teoría de probabilidades, entre ellos se encuentran, Christiaan Huygens, James Bernoulli y Abraham De Moivre, quienes se encargaron de desarrollar los estudios probabilísticos, que posteriormente serian recogidos y publicados por Pedro Simón Laplace, acotándole este ultimo la conocida definición clásica de probabilidad. Durante los siglos XIX y XX, la teoría de probabilidades alcanzó gran auge e importancia debido a las utilidades y beneficios matemáticos que otorgaba, por tal se considera que la teoría de probabilidades es la base matemática de las ciencias estadísticas actuales. Negrin S., (1999; p.137). DEFINICION CLASICA Y MODERNA DE PROBABILIDAD Definición Clásica de Probabilidades o de Laplace: ³Se define, como la relación o cociente entre los casos favorables sobre el total de casos posibles que resultan al efectuar un experimento aleatorio (experimento en que no puede predecirse su resultado a priori)´. Escrito de forma matemática tenemos que: p=CF/CP Donde: P= probabilidad favorable, de éxito o de acierto. CF= Casos Favorables; CP= Casos Posibles De igual manera, para conocer la probabilidad de fracaso o contraria tenemos que: q=CC/CP Donde: q= probabilidad de contraria, de fracaso o desfavorable. CC= casos contrarios Dado que nuestras formulas están expresadas en forma cociente conocemos que la suma de ambas será igual a uno (1), escrito de forma matemática: p+q= 1, para conocer la probabilidad favorable o contraria solo debemos despejar. Negrin S., (1999; p.138). Definición Moderna de Probabilidad La probabilidad es todo número o cantidad numérica asociada a cada uno de los sucesos que se pueden presentar al realizar un experimento aleatorio, cantidad que viene medida por el límite de la Frecuencia relativa cuando el número de ellos ³N´ tiende al infinito. Negrin S., (1999; p.139). En formulas matemáticas: Ž‹ ’ EXPERIMENTOS Y SUCESOS ALEATORIOS Según Negrín (1999; pág. 377) experimentos son ³aquellos en que es imposible predecir sus resultados a priori, ya que ellos varían de una observación a otra. Son experimentos que realizándose en condiciones similares indefinidamente, pueden dar lugar a resultados distintos´ Una de las características más importantes de ellos, establece que si el experimento se realiza una cantidad suficientemente grande de veces, se observa una tendencia a la estabilización en el valor de la Frecuencia Relativa, acercándose hacia valores aproximadamente fijos. Los resultados del experimento aleatorio son denominados sucesos aleatorios, clasificándose como compatibles e incompatibles, (los cuales varían si pueden ser o no verificables de forma simultánea) dependientes o independientes de acuerdo a que sean con o sin reemplazamiento respectivo. Según la clasificación anterior (sucesos compatibles, incompatibles, dependientes o independientes) se desarrolla a continuación el concepto correspondiente a cada uno de ellos. y Sucesos compatibles: Son verificables simultáneamente o a la misma vez. y Sucesos incompatibles: Son aquellos sucesos que no pueden ocurrir de forma simultánea. y Sucesos dependientes: La ocurrencia de unos afecta la probabilidad de ocurrencia de los demás, asociándose con el término ³sin reemplazamiento´. Al efectuar la extracción de una tarjeta o bola de una caja, se altera el número de casos posibles, y por tanto se alteran también las respectivas probabilidades de los elementos restantes. y Sucesos independientes: En éstos, la ocurrencia de unos no afecta la probabilidad de los demás, ya que cada vez que se realiza una extracción, el elemento es reemplazado (con reemplazamiento), a su lugar de origen. Como consecuencia, se definen los sucesos aleatorios como los resultados de un experimento cuya variación (la de los resultados) es debida al azar. AXIOMA Y AXIOMAS DE LA TEORÍA DE LA PROBABILIDAD Afirma Negrín (1999), que un axioma es una ³Verdad evidente por sí misma que no es susceptible de ninguna demostración´. Por esto, se puede definir que el axioma es aquello que parecía ser verdadero sin ninguna necesidad de prueba. Las condiciones mínimas que deben verificarse para que una función definida sobre un conjunto de sucesos determine consistentemente sus probabilidades se entienden como los axiomas de probabilidad y fueron formulados por Kolmogórov en 1933. Por tanto la probabilidad es siempre un número comprendido entre cero y uno:  Axiomas fundamentales de la teoría de probabilidades (Negrín. 1999) y La probabilidad de un suceso seguro es siempre igual a uno.  y La probabilidad de un suceso imposible es siempre igual a cero.   y La probabilidad de éxito o de acierto más la probabilidad contraria o de fracaso, es siempre igual a la unidad.   TEOREMAS FUNDAMENTALES DE LA TEORÍA DE PROBABILIDADES Se entiende como teorema aquel que ³«generalmente posee un número de condiciones que deben ser enumeradas o aclaradas de antemano y que se denominan propuestas. Luego existe una conclusión, una afirmación matemática, la cual es verdadera bajo las condiciones en las que se trabaja. El contenido informativo del teorema es la relación que existe entre la hipótesis y la tesis o conclusión.´ (Artículo en línea) Los teoremas fundamentales de la teoría de probabilidades, ³«son los denominados Teorema Aditivo, o también Teorema de la Suma o de la ³O´ (que resulte una cosa o la otra); y Teorema del Producto o de la ³Y´ (que se obtenga un suceso o evento y el otro)´ (Negrín. 1999; p. 439) Teorema Aditivo: Considera como caso favorable cuando ocurra una cosa o la otra (Es por esto que también se conoce como Teorema de la ³O´). El Teorema Aditivo se clasifica en Teorema para sucesos incompatibles y para sucesos compatibles. Teorema Aditivo para sucesos incompatibles: Tiene probabilidad cuando la suma de dos o más sucesos es igual a la suma de la probabilidad de cada uno de ellos.        Teorema Aditivo para sucesos compatibles: La probabilidad de dos o más sucesos cuando éstos son compatibles, es igual a la suma de las probabilidades de cada una de ellos menos la probabilidad del suceso común.        Teorema del Producto: Se llama también de la ³Y´ por considerar como caso favorable una cosa ³Y´ la otra. El teorema del producto se clasifica en: Teorema del Producto para Sucesos Independientes y para Sucesos Dependiente. Teorema del Producto para Sucesos Independientes: La probabilidad del producto de dos o más sucesos cuando éstos son independientes es igual al producto de las probabilidades de cada uno de ellos.            Teorema del Producto para Sucesos Dependientes: La probabilidad del producto de dos o más sucesos cuando éstos son dependientes, es igual al producto de la probabilidad del primero por la probabilidad del segundo condicionado al primero, y así sucesivamente con el tercero, cuarto, hasta el enésimo suceso condicionado al suceso anterior.            Variables Discretas y Continuas Para poder comenzar a definir los tipos de variables debemos conocer primero el término de Variable que no es más que un símbolo que representa un elemento no especificado de un conjunto dado. Dicho conjunto es llamado conjunto universal de la variable, universo o variar de la variable, y cada elemento del conjunto es un valor de la variable. Sea x una variable cuyo universo es el conjunto {1,3,5,7,9,11,13}; entonces x puede tener cualquiera de esos valores: 1,2,3,5,7,9,11,13. En otras palabras x puede reemplazarse por cualquier entero positivo impar menor que 14. Esta variable es un elemento de una fórmula, proposición o algoritmo que puede adquirir o ser sustituido por un valor cualquiera (siempre dentro de su universo). Los valores que una variable es capaz de recibir, pueden estar definidos dentro de un rango. Las variables, también llamadas caracteres cuantitativos, son aquellas cuyas variaciones son susceptibles de ser medidas cuantitativamente, es decir, que pueden expresar numéricamente la magnitud de dichas variaciones. Por intuición y por experiencia sabemos que pueden distinguirse dos tipos de variables; las continuas y las discretas Ahora ya habiendo definido el concepto de variable podemos hablar de cada una de ellas, comenzaremos definiendo: La Variable Discreta que no es más que una variable para la que se dan de modo inherente separaciones entre valores observables sucesivos. Dicho con más rigor, se define una variable discreta como la variable tal que entre dos cualesquiera valores observables (potencialmente), hay por lo menos un valor no observable (potencialmente). Son aquellas que solo toman un determinado números de valores, porque entre dos valores consecutivos no pueden tomar ningún otro. Por ejemplo, un recuento del número de colonias de un cultivo en agar es una variable discreta. Mientras que cuentas de 3 y 4 son potencialmente observables, no lo es una de 3,5. La Variable Continua tiene la propiedad de que entre 2 cualesquiera valores observables (potencialmente), hay otro valor observable (potencialmente). Una variable continua toma valores a lo largo de un continuo, esto es, en todo un intervalo de valores. Longitudes y pesos son ejemplos de variables continuas. La estatura de una persona, por ejemplo, puede ser de 1,70 m o de 1,75 m, pero en potencia al menos podría tomar cualquier valor intermedio, como 1,7351 m. Las variables continuas se caracterizan por el hecho de que puede tomar infinitos valores intermedios dentro de dos valores consecutivos. Un atributo esencial de una variable continua es que, a diferencia de una variable discreta, nunca se la puede medir en términos de unidad. Por esto se puede decir, que todo aquello susceptible de ser contado son Variables Discretas, mientras más bien lo que puede ser medido caería en el concepto de Variables Continuas. La Probabilidad es todo numero o cantidad numérica asociada a cada uno de los sucesos que se pueden presentar al realizar un experimento, cantidad que viene medida por el limite de frecuencia relativa cuando el numero de ellos tiende a ser infinito. Por eso a continuación vamos a definir a la variable aleatoria y su clasificación para así poder abordar más aun en el tema de la Distribución de Probabilidades. Una Variable Aleatoria es un valor numérico que corresponde al resultado de un experimento aleatorio, como la suma de los puntos obtenidos al lanzar dos dados. Las Variables Aleatorias Discretas son aquellas que pueden tomar solamente un número finito o un número infinito numerable de valores. A este nivel, las únicas variables aleatorias que consideraremos son aquellas que toman un número finito de valores. Un ejemplo de este tipo de variable aleatoria sería el resultado de lanzar un dado. Las Variables Aleatorias Continuas son aquellas que pueden tomar cualquier valor en un intervalo de la recta real. Un ejemplo de este tipo de variable aleatoria seria la altura de una persona. 6.6 Distribuciones Probabilísticas La Distribución de Probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los eventos rango de valores de la variable aleatoria. Distribución de Poisson o de los sucesos raros: Es una distribución de tipo discreta y por tanto aplicable a variables aleatorias de tipo discreto. Se denomina de los sucesos raros ya que generalmente es aplicada a sucesos cuya probabilidad de ocurrencia está muy cerca de cero, de tal forma que el producto (np) sea menor que cinco. Función de probabilidad de la distribución de Poisson:   Donde: p (x): Probabilidad de Poisson dada por la aplicación de la formula anterior (Léase landa) es igual a la media aritmética de Poisson y la cual se obtiene mediante el producto (n) (p), siendo (n) igual al tamaño de la muestra. : Landa elevada a la cantidad de casos favorables. e: base de los Logaritmos Neperianos e igual a 2, 7118. x: Casos favorables. : lease Factorial, el producto de la descomposición de un nuemero hasta llegar a la unidad. Los valores de e se encuentran tabulados en la tabla de Poisson, con lo cual nos evitamos el tener que trabajar con valores elevados a exponentes negativos. Ajuste a la distribución de Poisson: a) Se halla la media aritmética de la distribución en estudio y se supone que es igual a la media aritmética de Poisson. FORMULA ¡! Se escribe a mano pq es como complejo en la PC ¡ b) Se determinan las respectivas probabilidades por la función de Poisson para cada uno de los valores de la variable en estudio. FORMULA ¡! Se escribe a mano pq es como complejo en la PC ¡ c) Se hallan las frecuencias teóricas, calculadas o esperadas (ft) multiplicando la sumatoria de frecuencias absolutas u observables por cada probabilidad P (x) ft= (™fii) P(x) d) Se compara cada frecuencia teórica (ft) con cada frecuencia absoluta u observada (fi) y se observa aparentemente si hay o no diferencias significativas o discrepancias entre unas y otras. Características de la distribución de Poisson: La distribución de Poisson, se aplica a varios fenómenos discretos de la naturaleza (esto es, aquellos fenómenos que ocurren 0, 1, 2, 3,«., n veces durante un periodo definido de tiempo o en un área determinada) cuando la probabilidad de ocurrencia del fenómeno es constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados por la distribución de Poisson incluyen: y Los éxitos buscados en este tipo de experimentos son expresados por unidad de área, tiempo, pieza, etc. De defectos de una tela por m2 De aviones que aterrizan en un aeropuerto por día, hora, minuto, etc. De bacterias por cm2 de cultivo De llamadas telefónicas a un conmutador por hora, minuto, etc. De llegadas de embarcaciones a un puerto por día, mes, etc. El número de errores de ortografía que uno comete al escribir una única página. El número de mutaciones de determinada cadena de ADN después de cierta cantidad de radiación. La inventiva de un inventor a través de su carrera. y y y y y y y y Ejemplo Si el 2% de los libros encuadernados en cierto taller tiene encuadernación defectuosa, para obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan encuadernaciones defectuosas usamos la distribución de Poisson. En este caso concreto, k es 5 y , probabilidad buscada es , el valor esperado de libros defectuosos es el 2% de 400, es decir, 8. Por lo tanto, la Este problema también podría resolverse recurriendo a una distribución binomial de parámetros k = 5, n = 400 y =0,02. Ejemplos chi cuadrado En cierta máquina Expendedora de Refrescos existen 4 canales que expiden el mismo tipo de bebida. Estamos interesados en averiguar si la elección de cualquiera de estos canales se hace de forma aleatoria o por el contrario existe algún tipo de preferencia en la selección de alguno de ellos por los consumidores. La siguiente tabla muestra el número de bebidas vendidas en cada uno de los 4 canales durante una semana. Contrastar la hipótesis de que los canales son seleccionados al azar a un nivel de significación del 5%. 1 2 3 4 13 22 18 17 SOLUCIÓN: Para realizar el contraste de Bondad de Ajuste debemos calcular las frecuencias esperadas de cada suceso bajo la hipótesis de uniformidad entre los valores. Si la selección del canal fuera aleatoria, todos los canales tendrían la misma probabilidad de selección y por lo tanto la frecuencia esperada de bebidas vendidas en cada uno de ellos debería ser aproximadamente la misma. Como se han vendido en total 70 refrescos, la frecuencia esperada en cada canal es Ei= n * p i = 70* ¼ = 17.5 i = 1, ..., k El estadístico del contraste sería Este valor debemos compararlo con el valor crítico de la distribución con (4-1)=3 grados de libertad. Este valor es:  Puesto que el valor del estadístico (2.34) es menor que el valor crítico, no podemos rechazar la hipótesis de que los datos se ajustan a una distribución uniforme. Es decir, que los canales son seleccionados aleatoriamente entre los consumidores. Otro ejemplo: Se sabe que en un cruce T x T de palma, la descendencia de duras, teneras y pisiferas esta en una proporción de 1:2:1. En una muestra de 104 palmas se obtuvieron 28 duras, 49 teneras y 27 pisiferas. Se ajustan estos datos a la proporción esperada? Calculo : Durase = 104 * 1 4 Tenerase 104 * 1 2 Pisiferase = 104 * 1 4 Categoría Duras Teneras Pisiferas Total Esperado 26 52 26 104 Observado 28 49 27 104 (o-e)2/e 0.1538 0.1731 0.0385 0.3654 X2c = 0.365 y Gl = 2 Los grados de libertad (Gl) se obtienen restándole 1 al número de categorías. Haciendo uso de la tabla de probabilidades de x2 y con los grados de libertad obtenidos, se determina el valor crítico al nivel de significancia deseado. En este caso para Gl = 2 y para un nivel de 0.05 P se obtiene x2 = 5.991. Como x2c < x2t entonces se acepta la hipótesis planteada y se concluye que los datos corresponden a una proporción de 1:2:1. Otro ejemplo: Supongamos que en una escuela las estadísticas de años pasados muestran que, la comisión de admisión tiende a aceptar 4 alumnos por 1 que se rechaza. Y en el presente año una comisión constituida por un grupo diferentes de personas, aceptó 275 y rechazó 60. ¿Se puede decir que esta nueva comisión difiere de manera significativa con la razón de rechazo de la anterior comisión? Corresponde en este caso calcular c 2 para esta razón de rechazo comparada con la tradicional. De manera que tratándose de 330 casos en total, si la comisión anterior hubiera actuado se esperaría que aceptaran 264 alumnos y rechazaran 66. Así pues tomamos estos números (razón 4:1) como las frecuencias esperadas en cada caso. Aceptado Rechazados Total Frecuencia observada (fo) 275 55 330 Frecuencia esperada (fe) 264 66 330 ( fe - fo ) = 11 -11 ( fe - fo )2 = 121 121 ( fe - fo )2/ fe = 121/ 264 121/66 ( fe - fo )2/ fe = 0.4589 1.83 c 2 = 0.4589 + 1.83 = 2.29 Al comparar el valor c 2 obtenido con el valor crítico de un grado de libertad y .05 de significatividad a dos colas vemos que el valor crítico (3.841) es mayor que el observado por lo que no se puede desacreditar la hipótesis nula y se concluye que la nueva comisión no muestra una política diferente a la de la comisión anterior.


Comments

Copyright © 2024 UPDOCS Inc.