145687829 Teoria de Errores Fisica Exp Sensores Impri

June 23, 2018 | Author: Jose Domingues Mamani | Category: Measurement, Physics, Physics & Mathematics, René Descartes, Scientific Method
Report this link


Description

UNIVERSIDAD NACIONAL DEL ALTIPLANOINGENIERIA GEOLOGICA TEORIA DE ERRORES I. INTRODUCCIÓN. Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que puede determinarse cuantitativamente, es decir, es un atributo susceptible de ser medido. Ejemplos de magnitudes son la longitud, la masa, la potencia, la velocidad, etc. A la magnitud de un objeto específico que estamos interesados en medir, la llamamos mesurando. Por ejemplo, si estamos interesado en medir la longitud de una barra, esa longitud específica será el mesurando. Para establecer el valor de un mesurando tenemos que usar instrumentos de medición y un método de medición. Asimismo es necesario definir unidades de medición. Por ejemplo, si deseamos medir el largo de una mesa, el instrumento de medición será una regla. Si hemos elegido el Sistema Internacional de Unidades (SI), la unidad será el metro y la regla a usar deberá estar calibrada en esa unidad (o submúltiplos). El 1 UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA método de medición consistirá en determinar cuántas veces la regla y fracciones de ella entran en la longitud buscada. En ciencias e ingeniería, el concepto de error tiene un significado diferente del uso habitual de este término. Coloquialmente, es usual el empleo del término error como análogo o equivalente a equivocación. En ciencia e ingeniería, el error, como veremos en lo que sigue, está más bien asociado al concepto de incerteza en la determinación del resultado de una medición. En todo proceso de medición existen limitaciones dadas por los instrumentos usados, el método de medición, el observador (u observadores) que realizan la medición. Asimismo, el mismo proceso de medición introduce errores o incertezas. Por ejemplo, cuando usamos un termómetro para medir una temperatura, parte del calor del objeto fluye al termómetro (o viceversa), de modo que el resultado de la medición es un valor modificado del original debido a la inevitable interacción que debimos realizar. Es claro que esta interacción podrá o no ser significativa: Si estamos midiendo la temperatura de un metro cúbico de agua, la cantidad de calor transferida al termómetro puede no ser significativa, pero si lo será si el volumen en cuestión es de pequeña fracción del mililitro. Tanto los instrumentos que usamos para medir como las magnitudes mismas son fuente de incertezas al momento de medir. Los instrumentos tienen una precisión finita, por lo que, para un dado instrumento, siempre existe una variación mínima de la magnitud que puede detectar. Esta mínima cantidad se denomina la apreciación nominal del instrumento. Por ejemplo, con una regla graduada en milímetros, no podemos detectar variaciones menores que una fracción del milímetro. A su vez, las magnitudes a medir no están definidas con infinita precisión. Imaginemos que queremos medir el largo de una mesa. Es 2 UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA posible que al usar instrumentos cada vez más precisos empecemos a notar las irregularidades típicas del corte de los bordes o, al ir aun más allá, finalmente detectemos la naturaleza atómica o molecular del material que la constituye. Es claro que en ese punto la longitud dejará de estar bien definida. En la práctica, es posible que mucho antes de estos casos límites, la falta de paralelismo en sus bordes haga que el concepto de la “longitud de la mesa” comience a hacerse cada vez menos definido, y a esta limitación intrínseca la denominamos denomina incerteza intrínseca o falta de definición de la magnitud en cuestión. Otro ejemplo sería el caso en que se cuenta la cantidad de partículas alfa emitidas por una fuente radioactiva en 5 segundos. Sucesivas mediciones arrojarán diversos resultados (similares, pero en general distintos). En este caso, de nuevo, estamos frente a una manifestación de una incerteza intrínseca asociada a esta magnitud “número de partículas emitidas en 5 s”, más que al error de los instrumentos o del observador. II. ALGUNOS CONCEPTOS BÁSICOS. Otra fuente de error que se origina en los instrumentos además de la precisión es la exactitud de los mismos. Como vimos, la precisión de un instrumento o un método de medición están asociados a la sensibilidad o menor variación de la magnitud que se pueda detectar con dicho instrumento o método. Así, decimos que un tornillo micrométrico (con una apreciación nominal de 10 m) es más preciso que una regla graduada en milímetros; o que un cronómetro es más preciso que un reloj común, etc. La exactitud de un instrumento o método de medición está asociada a la calidad de la calibración del mismo. Imaginemos que el cronómetro 3 UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA que usamos es capaz de determinar la centésima de segundo pero adelanta dos minutos por hora, mientras que un reloj de pulsera común no lo hace. En este caso decimos que el cronómetro es todavía más preciso que el reloj común, pero menos exacto. La exactitud es una medida de la calidad de la calibración de nuestro instrumento respecto de patrones de medida aceptados internacionalmente. En general los instrumentos vienen calibrados, pero dentro de ciertos límites. Es deseable que la calibración de un instrumento sea tan buena como la apreciación del mismo. La Figura ilustra de modo esquemático estos dos conceptos. Figura Esta figura ilustra de modo esquemático los conceptos de precisión y exactitud. Los centros de los círculos indican la posición del “verdadero valor” del mesurando y las cruces los valores de varias determinaciones del centro. La dispersión de los puntos da una idea de la precisión, mientras que su centro efectivo (centroide) está asociado a 4 UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA la exactitud. a) Es una determinación precisa pero inexacta, mientras d) es más exacta pero imprecisa; b) es una determinación más exacta y más precisa; c) es menos precisa que a). Decimos que conocemos el valor de una magnitud dada, en la medida en que conocemos sus errores. En ciencia consideramos que la medición de una magnitud con un cierto error no significa que se haya cometido una equivocación o que se haya realizado una mala medición. Con la indicación del error de medición expresamos, en forma cuantitativa y lo más precisamente posible, las limitaciones que nuestro proceso de medición introduce en la determinación de la magnitud medida. ¿Qué es el error en ingeniería? Cuando se realizan mediciones de flujo, es importante darse cuenta que ningún valor registrado de un parámetro dado es perfectamente preciso. Los instrumentos no miden al llamado “valor verdadero” del parámetro, sino que dan una estimación de dicho valor. El error es la incertidumbre en una medición. Nunca se puede medir algo exactamente, por lo tanto se trata de minimizar el error, y para esto se desarrolló la teoría de error. Si no conocemos el error en una medición no conocemos qué tan confiable es el resultado, por eso es que un resultado experimental sin un error asociado no representa nada. III. CLASIFICACIÓN DE ERRORES Los errores pueden clasificarse en dos grandes grupos: A) Sistemáticos y B) Accidentales. A. Errores sistemáticos. Son aquéllos que se reproducen constantemente y en el mismo 5 Estos errores pueden ser atenuados por comparación con otros aparatos "garantizados". Un ejemplo de error teórico es el que resulta de la existencia de la fricción del aire en la medida de g con un péndulo simple. sistemáticamente. si el CERO de un voltímetro no está ajustado correctamente. debido a aparatos mal calibrados. mal reglados o. Errores accidentales Son debidos a causas irregulares y aleatorias en cuanto a presencia y efectos: corrientes de aire. Son los inherentes al propio sistema de medida. etc. Son los debidos a las peculiaridades del observador que puede.2) Errores instrumentales. los errores accidentales se producen al azar y no pueden ser 6 .3) Errores personales. a las propias limitaciones del instrumento o algún defecto en su construcción. variaciones de la temperatura durante la experiencia. etc. B. estimar una cantidad siempre por defecto. Son los introducidos por la existencia de condiciones distintas a las idealmente supuestas para la realización del experimento. responder a una señal demasiado pronto o demasiado tarde. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA sentido. cuyo error instrumental sea más "pequeño" y controlable. en unas condiciones dadas.1) Errores teóricos. A. a todas las medidas que se realicen con él. en el mismo sentido. Es más. A. el desplazamiento del CERO se propagará. no pueden ser controlados. los errores accidentales para un determinado experimento. Así como los errores sistemáticos pueden ser atenuados. Por ejemplo. Atendiendo a su origen los errores sistemáticos se clasifican en: A. simplemente. No existe una formulación estadística que pueda ser aplicada para estimar el desvío. se debe usar un solo valor. En la situación en la cual no se realizan mediciones repetidas. sin 7 . no podemos decir que el error de una medida sea de 5 unidades. por ejemplo) de que el error sea inferior a 5 unidades. Precisión se encuentra mediante mediciones repetidas de la población de parámetros y con la utilización de la desviación estándar como índice de precisión. MANERAS DE EXPRESAR EL ERROR. Desvío es la incertidumbre sistemática presente durante una prueba. sino que habrá que decir que existe una probabilidad P (del 75%. se considera que permanece constante durante mediciones repetidas de un cierto conjunto de parámetros. por ejemplo. Como veremos. La incertidumbre es la suma del desvío y de la precisión. su valor por consiguiente debe basarse en estimaciones. Para tratar adecuadamente este tipo de errores es preciso hacer uso de la estadística y hablar en términos probabilísticos. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA determinados de forma unívoca. IV. Las calibraciones y las mediciones ayudan en su estimación. Por ejemplo. La figura 1 ilustra la definición de incertidumbre. o precisión. X es el promedio de todas las variables medidas y DX es el intervalo de incertidumbre. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA embargo se obtendrá menos precisión. o mensurando. El parámetro X es una variable particular medida. Figura: incertidumbres asociadas con un muestreo de datos Cuando se presenta el resultado de una medición se presenta de la forma: X ± DX Lo que significa en las condiciones que se realizó la medición y después de realizar un análisis del error. asociado con X. se sabe que la variable medida se encuentra en un intervalo de valores: (X . Se enseña un muestreo de los datos (línea continua) cuya distribución se supone Gaussiana.  Error absoluto Se presenta el error en las mismas unidades que la cantidad medida.DX. M = 8 . X + DX) Además es necesario establecer el desvío y la probabilidad P de registrar el mensurando con la precisión establecida. £ M £ 34. es el parámetro básico utilizado en la 9 . se satisface la relación Que se representa en la forma El error absoluto. el error absoluto se expresa en las mismas unidades que la magnitud.67 gr  Error relativo Se expresa como una cantidad relativa a la medida obtenida. Desde el punto de vista de su cuantificación.07gr Lo que quiere decir que la masa puede variar entre: 34.6±0. x* el valor real y x el error instrumental o sensibilidad del aparato de medida. Error absoluto Se define como la diferencia que existe entre el valor real de la magnitud a medir y el obtenido en una medida. CUANTIFICACIÓN DE ERRORES. si x es el valor medido. Así pues. Es decir: Por ejemplo: V. los errores se clasifican en: A) Error absoluto y B) Error relativo. Puesto que es una diferencia de valores de una misma magnitud. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA 34. que se identifica en primera aproximación con el error instrumental. A.53 gr. 5 cm es una parte considerable de una longitud de 2 cm.5 cm para una de ellas y 20. en general. Si suponemos que las longitudes reales son 2 cm y 20 cm respectivamente. mientras que es una parte pequeña de 20 cm. como es habitual. Se define como el cociente entre el error absoluto x y el valor real x* de la magnitud Donde x es el valor medido.5 cm y que con ella medimos dos longitudes. obteniendo 2. Error relativo. Sin embargo. Utilizaremos la segunda expresión cuando. suele darse el valor del error absoluto con una sola cifra significativa. pero la primera medida se aproxima mucho menos a la longitud real que la segunda. EXPRESIÓN DE LAS MEDIDAS Dado el significado de cota de garantía que tiene. no es el que define con mayor efectividad la bonanza de la aproximación de la medida. y la razón es obvia: una diferencia de 0. B. aumentando dicha cifra en 10 . VI. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA descripción de una medida y es. Es costumbre expresar el error relativo porcentualmente. Surge. no conozcamos el valor real de la magnitud.5 cm. conocido o determinable a priori. así. En efecto.5 cm para la otra. es evidente que ambas medidas han sido medidas con un error absoluto de 0. el concepto de error relativo. supongamos que tenemos una regla con un error del cero de 0. MEDIDA DIRECTA DE UNA MAGNITUD. En la tabla I vemos diversos ejemplos de expresión de magnitudes en forma incorrecta (columna izquierda) y de forma correcta (columna derecha). El truncado (o redondeo) del valor de la magnitud debe realizarse solamente en la expresión final de las medidas. VII. Cuando la primera cifra significativa es 1. resulta más correcto mantener la segunda cifra del error absoluto cuando ésta es menor que 5. Consideraremos sólo dos de ellos. 11 . no en las operaciones intermedias que podamos realizar con él. A) Errores sistemáticos. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA una unidad si la primera que se desprecia es mayor o igual que 5. El valor de la magnitud debe tener sólo las cifras necesarias para que su última cifra significativa sea del mismo orden decimal que la última cifra significativa que se tome para el error absoluto. Dos son los tipos de errores más corrientes que se presentan en la medida directa de una magnitud: A) Errores sistemáticos y B) Error de sensibilidad del aparato. ya que perderíamos información experimental y el resultado final puede verse afectado ligeramente. Si realizamos dos. nos cabe la duda de si el resultado es reproducible (¿se repetirá el resultado en la siguiente medida?). Como mencionamos anteriormente. Consiste en que. El error absoluto se identifica. por defecto de ajuste. cualquier diferencia entre ambas no nos permite 12 . Para evitar este error. introducido por un desajuste del instrumento de medida. originado cuando se observa la aguja indicadora de un instrumento (por ejemplo. de un polímetro analógico) con un cierto ángulo de inclinación y no perpendicularmente a la misma. Para saber cuántas medidas directas de una misma magnitud hay que realizar. debiéndose tomar la medida cuando la aguja y su imagen coincidan. en primera aproximación. da distinta de cero. Existen otros errores sistemáticos en cuyo análisis no nos detendremos. Algunos instrumentos poseen un dispositivo de "ajuste de cero". ya que en este momento estaremos mirando perpendicularmente al aparato. Si no lo tuviera. B) Error de sensibilidad del aparato. que permite corregir fácilmente este error. Si realizamos una sola medida. definimos sensibilidad de un instrumento (o error instrumental) como el intervalo más pequeño de la magnitud medible con él. muchos instrumentos de aguja poseen un espejo debajo de la misma. con la sensibilidad del aparato. para determinar este error se efectúa la lectura del aparato en vacío y se corrigen las medidas que se realicen restándoles (error por exceso) o sumándoles (error por defecto) el error del cero. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA Error del cero. si la división más pequeña de una regla es de 1 mm el error de sensibilidad de la misma será 1mm. Así. una medida que debiera resultar nula (aparato en vacío). ya que el tratamiento de los datos y la expresión del resultado es diferente según la naturaleza de las causas. debemos detectar las causas de error. Error de paralaje. que el número mínimo de medidas a realizar es 3. Basta. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA seleccionar entre ellas. entre los valores extremos. siendo más fiable la medida cuanto mayor sea el número de medidas realizadas. con realizar un número suficiente de medidas para igualar el error estadístico a cualquier valor fijado de 13 . pues. En este caso. calculamos la dispersión o diferencia. tomaremos como mejor valor de la magnitud la media aritmética de las 3 medidas. tomaremos como mejor valor la media aritmética de todas las medidas. aunque sería más seguro realizar algunas más. y el error absoluto lo identificaremos con Donde n es el número de medidas y t es un parámetro (t de Student) cuyo valor depende de la probabilidad de que el verdadero valor de la magnitud Nótese que la ecuación tiende a cero cuando n tiende a infinito. Realizadas 3 medidas. y como error absoluto el error instrumental. De nuevo. Se nos pueden presentar dos casos: 1) que D sea cero o igual que el error instrumental. y éste es el número inicial de medidas con el que nos contentaremos en las prácticas de laboratorio. pues. En este caso. Concluimos. D. 2) que D sea mayor que el error instrumental. el número de medidas necesario puede ser mayor. Para 6. está claro que. con una fracción del milímetro. podremos asegurar nuestro resultado hasta la cifra de los milímetros o.5) mm. incluyendo este dígito. Cuando realizamos una medición con una regla graduada en milímetros. De este modo nuestro resultado podría ser L = (95. ya que es en el que tenemos “me. o bien L = (95 ± 1) mm.nos seguridad”. Cifras significativas. III y IV. El número de cifras significativas es igual al número de dígitos contenidos en el resultado de la medición que están a la izquierda del primer dígito afectado por el error. El primer dígito. en el mejor de los casos. si somos cuidadosos.2 ± 0. respectivamente. es el más significativo (9 en nuestro caso) y el último (más a la derecha) el menos significativo. En el primer caso decimos que nuestra medición tiene tres cifras significativas y en el segundo caso sólo dos. o sea el que está más a la izquierda. 15 y 50 medidas los valores de t pueden verse en las tablas II. pero no más. Nótese 14 . UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA antemano. También es usual considerar que la incertidumbre en un resultado de medición afecta a la última cifra si es que no se la indica explícitamente. Notemos que los números en ambos miembros de la igualdad tienen igual número de cifras significativas. Si en el último ejemplo deseamos expresar L en m. ya que la última cifra significativa sigue siendo 5. el resultado sería L = (95000±1000) m. Por ejemplo. se debe redondear el dígito donde primero cae el error. igual que antes. Para evitar estas ambigüedades se emplea la notación científica. siendo la única 15 . ya que si tenemos incertidumbre del orden de 1 mm. si no indicamos explícitamente la incertidumbre de L. ¿Cuántas cifras significativas tenemos en este resultado? Claramente dos. ya que el primer resultado tiene sólo dos cifras significativas mientras el segundo tiene 5 (a propósito compare los costos de los instrumentos para realizar estas dos clases de determinaciones). es difícil saber cuántas cifras significativas tenemos. centésimas y milésimas del milímetro. y solo en casos excepcionales y cuando existe fundamento para ello.5 x 104m. como dijimos antes. No es correcto expresar el resultado como L = (95. mal podemos asegurar el valor de las décimas.5 x101 mm = 9. podemos suponer que la incertidumbre es del orden del milímetro y. se pueden usar más. Sin embargo.321 1) mm. si sólo disponemos de la información que una longitud es L = 95 mm. Si el valor de L proviene de un promedio y el error es del orden del milímetro. el resultado de L tiene dos cifras significativas. Podemos escribir la siguiente igualdad: 9. Nótese que 95 mm 95000 m. Una posible fuente de ambigüedad se presenta con el número de cifras significativas cuando se hace un cambio de unidades. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA que carece de sentido incluir en nuestro resultado de L más cifras que aquellas en donde tenemos incertidumbres (donde “cae” el error). Es usual expresar las incertidumbres con una sola cifra significativa. […]. Si tomamos una muestra de tamaño N y para la misma medimos las alturas de cada individuo. xN. x2. Consideremos una población de personas de una ciudad y que queremos analizar cómo se distribuyen las estaturas de la población. Una manera útil de visualizar las características de este conjunto de datos consiste en dividir el intervalo ( xmin. y2. o bien tomar una muestra representativa de la misma.. contamos el número n 1 de individuos de la muestra cuyas alturas están en el primer intervalo [y1. Con estos valores definimos la función de distribución fj que se define para cada subintervalos j como: 16 .. para denotar un intervalo abierto (excluye el extremo). Esta clase de estudio es un típico problema de estadística. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA diferencia las unidades usadas. VIII.. Aquí hemos usado la notación usual de usar corchetes. y2).. a partir de la cual inferiríamos las características de la población. hasta el subintervalo m. este experimento dará N resultados: x1. xMax) en m sub intervalos iguales. HISTOGRAMAS Y DISTRIBUCIÓN ESTADÍSTICA. x3. y3.. . para indicar un intervalo cerrado (incluye al extremo) y paréntesis comunes. Todos estos datos estarán comprendidos en un intervalo de alturas (xmin. ym) que determinan lo que llamaremos el rango de clases.. etc. Seguidamente..ésimo intervalo [yj-1.. Para llevar adelante este estudio podemos medir la altura de todos los individuos de la población. el número n j de los individuos de la muestra que están en el j. xMax) entre menor y mayor altura medidas. (…). delimitados por los puntos (y1. yj). etc.Pro. En la Fig.) tienen herramientas para realizar las operaciones descriptas aquí y el gráfico resultante. Figura Histograma de dos muestras con igual valor medio pero con distintos grados de dispersión. los datos tienen una distribución Gaussiana o Normal. Origen. 1. Este tipo de gráfico se llama un histograma y la mayoría de las hojas de cálculo de programas comerciales (Excel. En este ejemplo. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA Esta función de distribución está normalizada. es decir: El gráfico de fj versus xj [xj = 0. Cuatro. descripta por la curva de trazo continúo.5 ( yj-1 + yj)] nos da una clara idea de cómo se distribuyen las altura de los individuos de la muestra en estudio.3 ilustramos dos histogramas típicos. Tres parámetros importantes de una distribución son: 17 . Tanto Var(x) como sx dan una idea de la dispersión de los atos alrededor del promedio. Cuando más concentrada esté la distribución alrededor de <x> menor será sx y viceversa.3. que tiene la forma de una campana como se ilustra en trazo continuo en la Fig. Un criterio que se aplica en el caso especial pero frecuente. Sin embargo. es posible (y muy probable) que los resultados no coincidan. Si los resultados de las dos observaciones que se comparan son independientes (caso usual) y dieron como resultados: 18 . En general <x> da el centro de masa (centroide) de la distribución. es el siguiente. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA El valor medio da una idea de la localización o valor medio de los valores en la muestra. Una distribución de probabilidad muy común en diversos campos es la distribución gaussiana o normal. Si una magnitud física se mide con dos (o más) métodos o por distintos observadores. La expresión matemática de esta distribución es: Discrepancia. en el que las mediciones se puedan suponer que siguen una distribución normal. 1. lo importante es saber si la discrepancia es significativa o no. En este caso decimos que existe una discrepancia en los resultados. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA Estos criterios pueden generalizarse para intervalos de confianza mayores en forma similar. que en algunos textos poco cuidadosos se confunde. Nótese la diferencia entre discrepancia y error. sino que se derivan de otras que sí son medidas en forma directa. La pregunta que queremos responder aquí es cómo los errores en las magnitudes que se miden directamente se propagarán para obtener el 19 . El error está relacionado con la incertidumbre en la de- terminación del valor de una magnitud. para conocer el área de un rectángulo se miden las longitudes de sus lados. También se aplican cuando se comparan valores obtenidos en el laboratorio con valores tabulados o publicados. La discrepancia está asociada a la falta de coincidencia o superposición de dos intervalos de dos resultados Propagación de incertidumbres Hay magnitudes que no se miden directamente. Por ejemplo. o para determinar el volumen de una esfera se tiene que medir el diámetro. etc. z. etc. z.) sea factorizable como potencias de x.z.. etc.3] que el error en V vendrá dado por: En rigor las derivadas involucradas en esta ecuación son derivadas parciales respecto de las variables independientes x. etc. Dz. es una función de los parámetros. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA error en la magnitud derivada. que la magnitud V. z. esta expresión puede aproximarse por: 20 . etc. Supongamos que la función en cuestión sea: Entonces: Para cálculos preliminares.. y. sí se midieron directamente y que conocemos sus errores. z. para mayor detalle se recomienda consultar la bibliografía citada. Entonces se puede demostrar [1. y. Sólo daremos los resultados. Supongamos. para fijar ideas.y. o sea: y que x. En el caso especial que la función V(x. y. la expresión anterior puede ponerse en un modo muy simple. a los que designamos en el modo usual como Dx... y.. x. Dy. UNIVERSIDAD NACIONAL DEL ALTIPLANO INGENIERIA GEOLOGICA 21 . de una descripción del mundo natural independiente de la revelación divina y al margen del finalismo teológico. Esta nueva disposición es la que caracteriza a los pensadores de la Revolución Científica. Se rechazaron los viejos modos de la filosofía y se buscaron nuevas maneras de investigar la naturaleza. LA FÍSICA EXPERIMENTAL A NIVEL NACIONAL E INTERNACIONAL I. Francis Bacón en su Novan órgano y Descartes en su Discurso del método propusieron sus . Una revolución que afectó tanto a los contenidos como a los métodos y a la posición social de la ciencia. LA FÍSICA EXPERIMENTAL EN EL SIGLO XVIII Ciencia y filosofía en el siglo XVIII La ciencia moderna surge una vez que se acepta la necesidad –y se comprende el Interés. Razón y naturaleza son las dos palabras claves de la ciencia y la filosofía del XVIII. la botánica o la geología. Descartes la suficiencia del poder deductivo de la razón para explicarlo. se piensa. incluyendo los orgánicos. una importante reorganización de la ciencia. En otras palabras. A principios del siglo. Frente a ellos Newton se dedicó a poner en práctica una brillante síntesis de experimentación y formalismo matemático. a lo largo del siglo irá madurando la nueva física experimental que pasará de ser un mero instrumento de exploración y exhibición de curiosidades a un método de riguroso análisis cuantitativo de la naturaleza. En efecto. o casi innecesaria. también el método. de las observaciones cuantitativas propias de la astronomía. Los orígenes de la física experimental. El siglo XVIII conocerá. Aparte. Se comprende entonces la necesidad de la experimentación para descubrir las leyes naturales. han sido libremente elegidas por Dios y. la experimentación científica. Y no sólo la organización. . Pero esas leyes. claro está. El siglo XVIII representa el triunfo final del newtonianismo frente al cartesianismo.opciones. Bacón la realización de experimentos para interrogar al mundo. A lo largo de este siglo y en las primeras décadas del siguiente se independizan de ella disciplinas como la fisiología. Las leyes de la naturaleza son las auténticas leyes de la razón. Al final del siglo la organización de la física se aproxima ya a la moderna disciplina que hoy conocemos con el mismo nombre. Un método que permitirá. por lo tanto. la Física continuaba en la tradición aristotélica de estudiar todos los fenómenos naturales. La naturaleza teleológica y racional concebida por Aristóteles hacía innecesaria. el ideal newtoniano de ciencia. no es posible descubrirlas con el simple razonamiento. Leyes que en realidad revelan la voluntad divina y prueban la mismísima existencia de Dios (el famoso argumento del diseño). Los métodos de la lógica formal van siendo reemplazados por los métodos de las ciencias naturales. además. primero el descubrimiento de leyes funcionales y más tarde la mate matización de amplias zonas de la nueva física. Ctesibio (siglo II a.) o Herón de Alejandría (siglo I). etc. Es el caso de Estratón (siglo III a. con el calor.).relacionados sobre todo con la mecánica y la neumática. con los imanes. cronómetros y otros muchos aparatos. Las academias y sociedades científicas aplicaron de inmediato el nuevo método en la investigación de múltiples fenómenos relacionados con el frío. La obra tuvo una enorme influencia en toda Europa. tanto de la naturaleza como de las artes y las técnicas. cuyas investigaciones técnico- científicas motivaron la aparición de una corriente de experimentadores y constructores de artilugios mecánico. desligada de la magia y la alquimia. C. Pero Galileo no llegó a desarrollar . C. Influyó sobre autores tan importante como Kepler y durante un tiempo fue la única referencia de la filosofía experimental. en la que se describen de una forma clara y precisa una gran variedad de experimentos para probar y refutar determinadas ideas sobre el magnetismo. Además inventó y mejoró un buen número de instrumentos científicos tales como telescopios. Se investigaba cualquier cosa con el único objetivo de descubrir fenómenos nuevos. con la presión del aire. Filón de Bizancio (siglo II a. microscopios.neumáticos a la que pertenecieron. especialmente los relacionados con el vacío y la neumática. El primer físico experimental fue. el inglés William Gilbert (1544-1603) que en el año 1600 publicó una influyente obra sobre el magnetismo. termómetros. se limitaba a poner de manifiesto ciertas curiosidades de la naturaleza. Bien distinta es la tradición que se inició durante el Renacimiento europeo y que fue conocida como magia natural. Su actividad experimental.la geodesia y otras áreas de las llamadas matemáticas mixtas. Por la misma época. A pesar de ello. sin duda. basado en la experimentación. En 1620. El libro se convirtió en un modelo para la buena experimentación. habilidades manuales e ilusiones ópticas.). casi siempre mezcladas con trucos. entre otros. De magnete. C. Galileo realizaba numerosos experimentos – mentales y reales. Francis Bacon publica su Novum organum donde expone un nuevo método de exploración. algún griego hubo que experimentó sobre ciertos fenómenos naturales. la electricidad y el calor. Fenómenos que muchas veces sólo se producen mediante la manipulación de los instrumentos. de mentalidad más matemática. excepto la ley que lleva su nombre. se mantuvo dentro de la tradición matemático – deductiva heredada de Aristóteles. Newton. Robert Hooke. Suficiencia que empezó a ser contestada en esta misma época.una autentica filosofía experimental. Se definieron conceptos como los de carga eléctrica o de potencial eléctrico susceptibles de ser medidos y se diseñaron los instrumentos . como los eléctricos. acabó incluyendo la experimentación en su metodología científica. La física experimental en el siglo XVIII La física experimental inicia su andadura por el siglo XVIII en el más puro estilo baconiano. Los frecuentes viajes a Inglaterra de los pensadores de la Europa continental ayudaron en la difusión tanto del newtonianismo como de la nueva moda experimental. que seguía la misma tradición matemática de Galileo. En la segunda mitad del siglo XVII Robert Boyle desplegó una portentosa actividad experimental de la más variada temática y en la más estricta ortodoxia baconiana. llegando a ejercer tal influencia sobre los científicos experimentales de los siglos XVIII y XIX que su ciencia se convirtió en el modelo a seguir por todos ellos. los fenómenos observados experimentalmente. fue un magnífico constructor de instrumentos. Pero no hay teorías que traten de dar cuenta de los fenómenos observados. ya en las puertas del siglo XVIII. más o menos espectaculares. de ciertos fenómenos que. Fue un habilísimo experimentador. Se explora en todas las direcciones con el único objetivo de ver qué pasa. Poco a poco se fueron desarrollando teorías capaces de subsumir. en el otro bando. Pero apenas logró sacar conclusiones de tanta observación y experimento. llamaban la atención del público. como demostró en su Óptica. en el cartesiano. Su continuador en la Royal Society. al menos de forma parcial. A pesar de ello ejerció una influencia enorme sobre sus discípulos experimentadores. Mientras tanto. En esta época se ponen de moda las exhibiciones. se insistía en la suficiencia del rigor matemático para explicar el mundo. Proliferaron las venus eléctricas y los monjes electrificados. Finalmente. El estudio de la electricidad se convirtió en un modelo para los físicos experimentales. se dejaba controlar experimentalmente. de la geología. por si fuera poco.se fueron abriendo a los nuevos métodos de la física. El mismo Newton había anunciado el futuro descubrimiento de otras atracciones y repulsiones de escala interatómica que acabarían explicando la mayor parte de los fenómenos físicos y químicos. Pero fue el estudio de la electricidad el que alcanzó un mayor desarrollo. Las puertas de las instituciones científicas –primero en las academias y sociedades y luego en las universidades. Los mismos métodos se usaron también en otras áreas del conocimiento que inicialmente formaban parte de la física pero que a finales del siglo se había separado de ella para constituir nuevas ciencias.los fenómenos eléctricos pasaran a ocupar el centro de la atención científica. a finales del siglo XVIII la física experimental era ya aceptada y entendida como el uso de los métodos experimentales cuantitativos para la búsqueda y el estudio de las leyes que gobiernan el mundo inorgánico. Es el caso. que una vez descubiertos y generosamente exhibidos. La física experimental del siglo XVIII incluía principalmente el estudio del calor. Se entiende. El sistema del mundo de Newton estaba basado en la simple idea de la gravitación universal. Además parecía ser también una característica universal de la materia que. de la electricidad y del magnetismo. Aproximadamente la mitad de los experimentadores físicos lo eran de la electricidad. permitieron el tratamiento matemático de los resultados experimentales. Esta combinación de experimentos y formalismo matemático se ajustaba al modelo de ciencia newtoniano que ya por entonces era tenido como el ideal de la buena ciencia. a su vez. de la luz. ahora repartido entre la física y la nueva química. de la fisiología o del estudio de los gases. pues. Así. Se desarrollaron teorías sobre su naturaleza y se consiguieron identificar y medir los . y de esta forma se inició la matematización de las nuevas áreas experimentales de la física. Las medidas. por ejemplo.de medida apropiados. La electricidad parecía ser uno de esos fenómenos con fuerzas interatómicas implicadas. el flogisto. . Se vienen realizando desde la más remota antigüedad. como carga eléctrica. Los fluidos sutiles en la física experimental Los fluidos sutiles desempeñaron un papel esencial en el desarrollo de la física experimental durante el siglo XVIII. Con frecuencia presentaban propiedades extrañas como la imponderabilidad. el peso negativo o la auto repulsión. Por una parte. hidráulicos. En otros casos fueron sustituidos por fluidos ordinarios (como ocurrió con el flogisto y el oxígeno). Aparte de la magia natural. los experimentos se pueden clasificar en varias categorías según los métodos y los objetivos perseguidos. La existencia de atracciones y repulsiones hizo posible el desarrollo de una infraestructura teórica que permitió la definición de conceptos físicos medibles. de modo que a finales del XVIII ya se habían descubiertos leyes tan newtonianas como la de (Cavendish -) Coulomb. Tipos de experimentos. de navegación. en todo caso. de medida del tiempo etc. la inasibilidad. Son las siguientes 1. Experimentos matemáticos y de matemáticas mixtas. La nueva física. se fue haciendo cada vez más fenomenológica y cuantitativa. La construcción de los instrumentos de medida apropiados hizo posible la cuantificación de las observaciones que finalmente condujo a descripciones matemáticas de los fenómenos analizados.aspectos más significativos de los fenómenos eléctricos. se incluyen aquí las medidas y observaciones cuantitativas relacionadas con la astronomía y la geodesia. tensión eléctrica o temperatura. quedando sólo los fenómenos que ellos mismos producían. Entre ellos destacan el calórico. Se entiende por fluido sutil una sustancia con determinadas propiedades físicas pero diferente de la materia ordinaria. la electricidad o el magnetismo. Los fluidos sutiles fueron perdiendo entidad poco a poco. Por otra la construcción de artilugios mecánicos. Metodología experimental. Proliferaron a partir del siglo XVII. 5. Pascal o Galileo los usaron con profusión. sobre todo los eléctricos o los neumáticos. Pueden considerarse como argumentaciones lógicas. lo que hacía posible que otros pudieran repetir las mismas experiencias. Se trata de la variante académica y didáctica de los anteriores. Incluso en Astronomía. como durante la época de Hooke) de exhibición pública. Boyle. . Las modernas Casas de la Ciencia parecen recuperar en los tiempos actuales ese viejo espíritu de popularizar la ciencia. Durante ese siglo y el siguiente las mismas cátedras se fueron haciendo con el instrumental necesario tanto para los propósitos docentes como para los de investigación. discursos. Experimentos de exhibición. 3. como R. Su objetivo principal era la exploración de la naturaleza: descubrir y mostrar fenómenos desconocidos. Muchos físicos experimentales del XVIII poseían su colección particular de instrumentos que ponían a disposición de las cátedras donde eran contratados para enseñar su disciplina.Tienen una orientación más bien práctica. no explicar los fenómenos. Descartes. en los que se hacen intervenir artefactos y fenómenos imaginarios. Obviamente. Experimentos de este tipo también se realizaron con el ánimo de mejorar las artes y las técnicas. su objetivo era exhibir públicamente la espectacularidad de ciertos fenómenos. Son experimentos imaginarios cuyo objetivo es ilustrar o refutar una teoría. sin concesiones interpretativas. Experimentos baconianos. Tenían una clara naturaleza heurística. Instituciones tan prestigiosas como la Royal Society organizaban sus sesiones (a veces diarias. 4. donde con frecuencia sólo se pretende salvar las apariencias. 2. Se hicieron muy populares en el siglo XVIII. Experimentos mentales. solían hacer una descripción muy detallada de sus experimentos. Experimentos didácticos. Los experimentadores más rigurosos. una . No pretendió explicar la naturaleza de las fuerzas gravitatorias. no cree en la existencia de fuerzas en la materia. Es la filosofía de los físicos experimentales. excepto en las fuerzas de inercia que no lograba explicar con la única ayuda de las fuerzas externas. Descartes. La filosofía mecánico corpuscular La filosofía mecánico corpuscular es una herencia del siglo XVII que se consolida y generaliza durante el XVIII. el tamaño y el movimiento. pero estaba convencido de su existencia. Newton aceptó los fundamentos de la filosofía mecánico corpuscular pero no aceptó la negación cartesiana de la existencia de fuerzas. según ellos. Experimentos científicos.6. toda variedad. con diferencias sólo en la forma. toda cualidad de la materia se había de explicar en términos del movimiento y la disposición espacio temporal de esos corpúsculos universales. Las explicaciones teleológicas de Aristóteles fueron sustituidas por otras de fundamentos más materialistas. uno de los fundadores de la filosofía mecánica. Son la vía establecida para probar o refutar las hipótesis en las ciencias experimentales. Se trata de experiencias diseñadas y realizadas en el marco de una teoría científica y con un propósito bien definido. Para la mayoría de los autores los corpúsculos eran indivisibles y únicos en la especie. que para Leibniz era sólo un fenómeno. No creyó en fuerzas innatas. constituían la materia. La materia en movimiento que observamos es suficiente para explicar todos los fenómenos. había diferencias sustanciales entre unos autores y otros. Eran más reales que la propia materia. El universo es un gigantesco mecanismo puesto en marcha por Dios de una vez por todas. Todo cambio. las fuerzas eran internas a la materia. Construyó su mecánica asumiendo la existencia de partículas inertes y fuerzas externas atractivas y repulsivas que actuaban entre ellas. Frente a estas ideas básicas y aceptadas por todos. Así. de cohesión o elásticas. El mundo natural había de ser explicado a base de movimientos y reagrupamientos de los corpúsculos elementales que. Para Leibiniz. Se exige de ellos que sean repetibles por diferentes grupos de experimentadores. por el contrario. Hombres como Boerhaave. Gravesande. Y en 1707 lo hizo la de Cambridge. también recibió la influencia baconiana. En 1700. Estas posiciones respecto al papel de las fuerzas obedecen en realidad a motivos religiosos. la universidad inglesa de Oxford abrió sus aulas a la física experimental. En Francia. von Wolff. La Academia de Ciencias de Paris. en el observatorio del Trinity College. desempeñaron un papel muy importante en el desarrollo de la física experimental. Parece que su gran objetivo era el descrédito del aristotelismo. especialmente la de Leyden. Se organizaron sesiones públicas de exhibición y se nombró un encargado de experiencias (Hooke fue el primero de ellos). la primera cátedra de física experimental se abrió en 1752. en el Collège de Navarre de la Universidad de Paris. Hooke y Newton la mejor propagandista de de la filosofía experimental. Dedicaron buena parte de esfuerzo a realizar medidas geodésicas de precisión. El propio Newton fue admitido en 1672 por la construcción del primer telescopio reflector y por otras aportaciones experimentales. Instituciones académicas La primera institución científica que acogió en su seno a la experimentación física fue la florentina Academia del Cimento. por la misma época. . Aunque en todos los casos los argumentos se podía fácilmente volver contra los propios motivos inspiradores.manifestación sensible de las interacciones entre las sustancias metafísicas activas que componen el universo. Musschenbroeck o C. Las universidades holandesas de la época. contribuyeron con una meritoria labor en ese sentido. En este mismo país los jesuitas destacaron en la realización y promoción de las actividades experimentales de la física. En Inglaterra fue la Royal Society de Boyle. en el Hart Hall. Por el año 1683 la universidad alemana de Altdorf (Nuremberg) organizaba cursos de física experimental (fueron famosas las experiencias neumáticas de Otto von Guericke). creada en el siglo XVII por discípulos de Galileo. Instrumentos científicos A comienzos del XVIII existían tres categorías de instrumentos científicos: los matemáticos. No pretendían descubrir nada nuevo sobre el mundo. muchos de ellos eran los propios científicos ayudados por diferentes tipos de operarios. los instrumentos filosóficos tenían como objetivo la exploración baconiana de la naturaleza. los ópticos y los filosóficos. Llegaron a tener un gran prestigio y eran tratados como socios colaboradores de la empresa científica. Los instrumentos ópticos se desarrollan a partir del siglo XVII. sólo realizar observaciones cuantitativas. etc. La popularización de las exhibiciones científicas acabó estimulando su producción comercial. la medida del tiempo. latitudes. la navegación. Tal distinción no era más que una consecuencia de la propia historia de la instrumentación científico técnica. Mientras que los fabricantes de instrumentos matemáticos pertenecían a una larga tradición (tan reconocida que algunos de sus mejores miembros eran acogidos en las instituciones científicas y en la universidad). la arquitectura. En las tres categorías. Las bombas neumáticas. Los propios fabricantes se auto agrupaban en esas mismas categorías. longitudes. FÍSICA EXPERIMENTAL EN INTERNET. Los fabricantes de este grupo de instrumentos no poseían una tradición clara. los fabricantes de instrumentos ópticos se nutrieron de los mejores fabricantes de anteojos. II. Hasta finales del siglo XVI casi todos los instrumentos eran matemáticos. tiempo etc. útiles de las llamadas matemáticas mixtas con aplicaciones en la astronomía. la fortificación. . Casi todos ellos eran instrumentos de medida de posiciones. Entre ellos. Les seguían los franceses y los alemanes. el microscopio y el telescopio jugarían un importante papel en la naciente filosofía experimental. Los mejores fabricantes de instrumentos en el siglo XVIII eran los ingleses. las máquinas electrostáticas o los planetarios son buenos ejemplos de este tipo de instrumentos. Por su parte. Los fabricantes de instrumentos de precisión eran considerados de una categoría especial. Las prácticas de laboratorio de Física pueden ayudar al alumno. y Colubi M. Esto hace que la informática. Esto exige que las asignaturas que lo permitan introduzcan informática y aproximen sus métodos de estudio a la forma como se trabaja en las ciencias. o los encarados como investigación. Ed. nadie ha negado la importancia del desarrollo de los mismos en las clases de Física. A pesar de las críticas realizadas en distintas épocas a los diversos enfoques empleados en el desarrollo de las prácticas de laboratorio: los estructurados.. además de a desarrollar destrezas básicas y herramientas de la Física experimental y del tratamiento de datos. Estamos en presencia de una revolución sociocultural con base en la ciencia y la tecnología y de una relación muy estrecha entre ambas. Ordóñez. J. En Elena. a destacar el proceso: observación del fenómeno - obtención de una data experimental – análisis de los resultados – conclusiones. La fabricación de instrumentos científicos en la era industrial. A. Bibliografía  Bennett. a manejar conceptos básicos. 1998. J. A. así como los métodos y formas de trabajo de la ciencia y la tecnología hayan pasado a formar parte de la vida de las personas y por ende a ser interiorizados sus fundamentos por ellas. Barcelona: . a entender el papel de la observación directa en Física y a distinguir entre las inferencias que se realizan a partir de la teoría y las que se realizan a partir de la práctica. propios de la enseñanza por transmisión. Después de Newton: ciencia y sociedad durante la Primera Revolución Industrial. INTRODUCCION Actualmente sería impensable realizar maniobras más o menos complicadas. que permiten controlar las variables que afectarán al proceso industrial. chequeo de contenidos. sensores y autómatas. QUÉ ES UN SENSOR: . sería difícil encontrar procesos automáticos que no estén gobernados por elementos de gobierno. Procesos como contadores. SENSORES I. II. por una parte los autómatas programables y por otra los sensores. sin dos elementos ampliamente extendidos en nuestros días. por lo que los sensores han entrado de lleno en estas maniobras. versatilidad y facilidad de programación se han convertido en los sustitutos de las maniobras en los entornos industriales. medidas de seguridad. inspecciones de calidad automáticos. y debido a las crecientes necesidades de los procesos industriales modernos. Los autómatas por precio. Hoy por hoy. cada vez hay que controlar más variables que afectan a estos procesos. dentro del mundo industrial. posicionamiento y verificación y un largo etcétera serian impensables sin esta combinación de elementos. detectores de presencia. control de niveles. detectores de objetos. presión. Un sensor es un dispositivo capaz de detectar magnitudes físicas o químicas. etc. Industria aeroespacial. Entre las características técnicas de un sensor destacan las siguientes:  Rango de medida: dominio en la magnitud medida en el que puede aplicarse el sensor. y transformarlas en variables eléctricas. una capacidad eléctrica (como en un sensor de humedad). etc. distancia. aceleración. Como por ejemplo el termómetro de mercurio que aprovecha la propiedad que posee el mercurio de dilatarse o contraerse por la acción de la temperatura. Un sensor también puede decirse que es un dispositivo que convierte una forma de energía en otra. Áreas de aplicación de los sensores: Industria automotriz. Medicina. Un sensor se diferencia de un transductor en que el sensor está siempre en contacto con la variable de instrumentación con lo que Puede decirse también que es un dispositivo que aprovecha una de sus propiedades con el fin de adaptar la señal que mide para que la pueda interpretar otro dispositivo. la toma de valores desde el sensor. Una magnitud eléctrica puede ser una resistencia eléctrica (como en una RTD). una corriente eléctrica (como en un fototransistor). etc. desplazamiento. III. llamadas variables de instrumentación. . Industria de manufactura. humedad. CARACTERÍSTICAS DE UN SENSOR. Robótica. una Tensión eléctrica (como en un termopar). etc. pH. fuerza. inclinación. torsión. Las variables de instrumentación pueden ser por ejemplo: temperatura. intensidad lumínica.  Precisión: es el error de medida máximo esperado. Los sensores pueden estar conectados a un computador para obtener ventajas como son el acceso a una base de datos. Por ejemplo.  Sensibilidad de un sensor: relación entre la variación de la magnitud de salida y la variación de la magnitud de entrada. un termómetro de mercurio) o pueden estar conectados a un indicador (posiblemente a través de un convertidor analógico a digital.  Resolución: mínima variación de la magnitud de entrada que puede apreciarse a la salida. la temperatura u otras como el envejecimiento (oxidación. pueden ser condiciones ambientales. aparte de la medida como magnitud de entrada. IV. Un sensor es un tipo de transductor que transforma la magnitud que se quiere medir o controlar. como la humedad. . etc. Depende de la capacidad del sistema para seguir las variaciones de la magnitud de entrada.  Linealidad o correlación lineal. Por lo general.g. que influyen en la variable de salida. como por ejemplo un puente de Wheatstone. desgaste.  Derivas: son otras magnitudes.) del sensor. Pueden ser de indicación directa (e. que facilita su medida. USOS DEL SENSOR. la señal de salida de estos sensores no es apta para su lectura directa y a veces tampoco para su procesado.  Offset o desviación de cero: valor de la variable de salida cuando la variable de entrada es nula.  Repetitividad: error esperado al repetir varias veces la misma medida. amplificadores y filtros electrónicos que adaptan la señal a los niveles apropiados para el resto de la circuitería. Si el rango de medida no llega a valores nulos de la variable de entrada.  Rapidez de respuesta: puede ser un tiempo fijo o depender de cuánto varíe la magnitud a medir. un computador y un display) de modo que los valores detectados puedan ser leídos por un humano. por lo que se usa un circuito de acondicionamiento. habitualmente se establece otro punto de referencia para definir el offset. en otra. Sensores Digitales 1. Valores de salida de los sensores: Los sensores ayudan a trasladar los atributos del mundo físico en valores que la Controladora de un robot puede usar. como por ejemplo una Fotorresistencia (estos componentes . la mayoría de los sensores pueden ser divididos en dos grandes grupos: 1. En general. Sensores analógicos Un sensor analógico es aquel que puede entregar una salida variable dentro de un determinado rango (ver figura de la derecha). Un Sensor analógico. Sensores analógicos 2. puede ser cableado en un circuito que pueda interpretar sus variaciones y entregar una salida variable con valores entre 0 y 5 volts. Cabe destacar que en la actualidad existen micro controladores que ya poseen este conversor . el cual entrega una salida de 8 bits capaz de Subdividir las variaciones de la entrada en hasta 256 escalones. estos pueden ser abiertos o cerrado. Sensores Digitales. esta señal varía de a pequeños pasos pre- establecidos. Es decir. miden intensidad de luz). Los controladores como el Motorola 68HC11. Por ejemplo consideremos un botón pulsador. Otros sensores discretos pueden entregar una salida del tipo binario. Posee una salida discreta de tan solo dos valores. pero a diferencia de los sensores analógicos. trabajan con valores binarios de 8 bits. Una parte importante a la hora de trabajar con señales analógica es la posibilidad de transformar las mismas en señales digitales mediante el uso de un conversor A/D (analógico/digital) y entregar su salida sobre un bus de 8 bits (1 Byte). Esto permitirá al micro controlador poder tomar decisiones en base a la lectura obtenida. el PIC 16F84. Conversión Analógica/Digital: Los micros controladores generalmente operan con valores discretos. etc. el cual es uno de los sensores más básicos. como es el caso de un conversor Analógico/Digital. 2.. que el sensor posee una salida que varía dentro de un determinado rango de valores. Un sensor digital es aquel que entrega una salida del tipo discreta (ver figura de la izquierda). En la siguiente figura se puede ver un ejemplo de cómo se comportaría un conversor A/D (analógico/digital): Podemos ver como para distintos rangos de valores de valores de entrada. Estos . Todos los sensores utilizan uno o más principios físicos o químicos para convertir una variable de entrada al tipo de variable de salida más adecuado para el control o monitoreo de cada proceso particular. Si nuestro rango de entrada está entre 0 y 5 volts. ESTRUCTURA Y PRINCIPIO DE FUNCIONAMIENTO. un conversor A/D de 8 bits podrá dividir la tensión de entrada en 256 valores binarios.0195 volts. se obtiene un valor de salida binario. Esto se puede ver claramente en la tabla anterior. V. lo que permite ahorrar espacio y simplificar el diseño. Esto resulta en un escalón de 0. si bien solo están representados los primeros cinco niveles. integrado en si mismos. actúan sobre la salida del transductor primario para producir una señal eléctrica equivalente. los tubos de Pitos (velocidad de flujo). considérese el sensor electrónico de presión. los rotos metros (caudal). Comp. un bimetal. La función del transductor primario es convertir la magnitud física a medir en otra más fácil de manipular. Otros ejemplos son los tubos de Bordón (presión). principios o fenómenos se manifiestan en forma útil en ciertos materiales o medios y pueden estar relacionados con las propiedades del material en sí o su disposición geométrica. es un tipo de transductor primario porque convierte tina va ración de temperatura en un desplazamiento físico equivalente. Ejemplo. El transductor o transductores secundarios. las termocuplas (temperatura). Una vez obtén ida. que es un dispositivo formado por dos metales de distintos coeficientes de dilatación. cuando son requeridos. Estructura de un sensor. VI. la presión asociada con el fluido se traduce inicialmente en un desplazamiento o deyección proporcional utilizando Como transductor primario un diafragma u otro elemento elástico especialmente diseñado para esta función. etc. En este caso. Esta última no tiene que ser necesariamente de naturaleza eléctrica. los flotadores (nivel). esta última es sometida a un proceso de acondicionamiento y amplificación para ajustarla a las necesidades de la carga exterior o de la circuitería de control. Por ejemplo. TIPOS DE SENSORES . Este último puede ser Utilizado para mover una aguja o accionar un interruptor. son muchos los tipos de sensores que existen en la actualidad. una alarma comienza a sonar cada vez más fuertes. pero lo cierto es que ambas cosas representan diferentes elementos. debemos decir que le mismo puede hacer este trabajo gracias a que posee sensores metálicos que le avisan al sistema del detector en qué lugar se encuentra el metal para que éste lo detecte específicamente en el lugar. el cual nos ayuda a encontrar todo tipo de material metálico. Ahora bien un detalle que resulta importante de destacar es que muchas personas suelen confundir lo que son los detectores con los sensores. industrias y comercios suelen utilizar diferentes tipos de sensores para cada caso. si tenemos un detector de metales. Es por eso que vemos como a medida que un detector de metales se acerca al elemento en cuestión. ya que podemos conseguirlos tanto para los sistemas de seguridad.Como hemos dejado en claro en nuestro sitio. . como para nuestra vivienda o bien incluso en fábricas. esa es la alarma del sensor. En primer lugar es cierto que existen diferentes detectores de la misma manera que existen en el mercado diferentes tipos de sensores. no obstante debemos decir que la razón principal por la cual las personas los confunden es porque los detectores funcionan con sensores en su sistema. Para que podamos entender de una manera mucho más clara podemos decir que por ejemplo. En la siguiente tabla se indican algunos tipos y ejemplos de sensores electrónicos. . . Los tipos de sensores más utilizados. Detectores de ultrasonidos. por eso es importante que entendamos que los sensores son el corazón de cada sistema de seguridad que tengamos instalado en nuestra casa o incluso en nuestro vehículo. seguridad y detección suelen ser utilizados en diferentes áreas. Trabajan en ambientes secos y polvorientos. Normalmente se usan para control de presencia/ausencia. sensores de movimiento y desplazamiento. A. los cuales han salvado más de una vida gracias a su eficiencia. . los cuales resultan ser muy útiles para lograr una buena ambientación de nuestra casa. Otros tipos de sensores que nada tienen que ver con sistemas de alarmas. Esta es la razón por la cual podemos ver como los diferentes tipos de sensores se encuentran directamente relacionados con todo tipo de sistemas tanto de seguridad como de detección. los cuales son ideales para lograr encontrar vehículos robados. no obstante debemos decir que esta ley no funciona de esta manera para los sensores ya que todos los tipos de sensores funcionan independientemente de un sistema. de esta manera podemos decir que el mercado nos ofrece sensores de temperatura. sensores de humo. y por eso es que no dependen de otro aparato para que los mismos funcionen. distancia o rastreo. Los detectores de ultrasonidos resuelven los problemas de detección de objetos de prácticamente cualquier material. o incluso hasta de una pecera de nuestras mascotas. Es evidente que un detector nunca funcionaria sin un sensor que le informe el lugar en donde buscar el elemento en cuestión. se puede escuchar cuando el microswitch cambia de estado. esto sucede casi al final del recorrido de la palanca. subministra. interruptores de palanca y pulsadores luminosos. Interruptores básicos Se consiguen interruptores de tamaño estándar. llaves. D. de altas prestaciones y resistentes al entorno o herméticamente sellados. Productos para fibra óptica . Productos encapsulados Diseños robustos. repetitividad y larga vida. miniatura. interruptores básicos estándar y miniatura. herméticamente sellados y de alta temperatura. Los mecanismos de precisión se ofrecen con una amplia variedad de actuadores y características operativas. la cual también puede traer una ruedita. C. selectores rotativos y conmutadores de enclavamiento. Esta selección incluye finales de carrera miniatura.B. Interruptores manuales Estos son los sensores más básicos. porque se oye un pequeño clic. F. Estos productos ayudan al técnico e ingeniero con ilimitadas opciones en técnicas de actuación y disposición de componentes. Funcionamiento: En estado de reposo la patita común (COM) y la de contacto normal cerrado (NC). Estos interruptores son idóneos para aplicaciones que requieran tamaño reducido. poco peso. están en contacto permanente hasta que la presión aplicada a la palanca del microswitch hace saltar la pequeña platina acerada interior y entonces el contacto pasa de la posición de normal cerrado a la de normal abierto (NO). E. incluye pulsadores. Interruptores final de carrera Descripción: El microswitch es un conmutador de 2 posiciones con retorno a la posición de reposo y viene con un botón o con una palanca de accionamiento. Los productos para fibra óptica son compatibles con la mayoría de los conectores y cables de fibra óptica multimodo estándar disponibles actualmente en la industria. de presión y de caudal de aire. Los sensores de corriente monitorizan corriente continua o alterna. Sensores de corriente. Sensores para automoción. Estos sensores son de alta tecnología y constituyen soluciones flexibles a un bajo costo. H. I. que contiene elementos sensibles de temperatura y calor. Sensor infrarrojo La optoelectrónica es la integración de los principios ópticos y la electrónica de semiconductores. Los sensores de caudal de aire contienen una estructura de película fina aislada térmicamente. desarrollo y fabricación de componentes optoelectrónicas activos y sub montajes para el mercado de la fibra óptica. Los sensores de corriente digitales pueden hacer . Su flexibilidad y durabilidad hace que sean idóneos para una amplia gama de aplicaciones de automoción. sensores y montajes. Se incluyen sensores de efecto Hall. Sensores de caudal de aire. Los componentes optoelectrónicas son sensores fiables y económicos. Se incluyen sensores de corriente lineales ajustables. de balance nulo. La estructura de puente suministra una respuesta rápida al caudal de aire u otro gas que pase sobre el chip. digitales y lineales. El grupo de fibra óptica está especializado en el diseño. Se incluyen diodos emisores de infrarrojos (IREDs). J. G. K. Estos sensores contienen un elemento sensible capacitivo en base de polímeros que interacciona con electrodos de platino. Estos sensores combinan fiabilidad. Sensores de efecto Hall Son semiconductores y por su costo no están muy difundidos pero en codificadores ("encoders") de servomecanismos se emplean mucho. con un rendimiento estable y baja desviación. detectores de proximidad de metales y de corriente. sonar una alarma. Están calibrados por láser y tienen una intercambiabilidad de +5% HR. y puede ser utilizada como un elemento de respuesta para controlar un motor o regular la cantidad de trabajo que realiza una máquina. arrancar un motor. L. La señal lineal duplica la forma de la onda de la corriente captada. . velocidad. M. se consiguen disponibles en varios tamaños y terminaciones. abrir una válvula o desconectar una bomba. Sensores de posición de estado sólido Los sensores de posición de estado sólido. Sensores de humedad Los sensores de humedad relativa/temperatura y humedad relativa están configurados con circuitos integrados que proporcionan una señal acondicionada. Sensores de turbidez Los sensores de turbidez aportan una información rápida y práctica de la cantidad relativa de sólidos suspendidos en el agua u otros líquidos. combinada con micro controladores que proporcionan una alta precisión. Entre las aplicaciones se incluyen brújulas. Además. control remoto de vehículos. Q. O. Sensores magnéticos Los sensores magnéticos se basan en la tecnología magnetoresisitiva SSEC. Sensores de presión Los sensores de presión están basados en tecnología piezoresistiva. Las salidas lineales son estables y rápidas. realidad virtual. Ofrecen una alta sensibilidad. Sensores de temperatura Los sensores de temperatura se catalogan en dos series diferentes: TD y HEL/HRTS. sistemas de seguridad e instrumentación médica. R. La medición de la conductividad da una medición relativa de la concentración iónica de un líquido dado. P. sensores de posición. Sensores de presión y fuerza Los sensores de presión son pequeños. independiente de la temperatura. Estos sensores consisten en una fina película de resistencia variable con la temperatura (RTD) y están calibrados por láser para una mayor precisión e intercambiabilidad. durabilidad y compatibilidad con diversos circuitos electrónicos para aportar soluciones a las necesidades de aplicación. fiables y de bajo costo. detección de vehículos. y capacidad de comunicación digital . presentan unas características operativas constantes en todas las unidades y una intercambiabilidad sin re calibración. N. Ofrecen una excelente repetitividad y una alta precisión y fiabilidad bajo condiciones ambientales variables. y pueden generar errores en las medidas. es utilizar para ello una dinamo tacométrica acoplada al eje del que queremos saber su velocidad angular. T. o por el contrario que no se caiga de las pinzas del robot por no sujetarlo debidamente. ya que nos da información sobre las evoluciones de las distintas partes que forman el robot. tratamiento de aguas residuales y sistemas de frenado. Sensores de Velocidad: Estos sensores pueden detectar la velocidad de un objeto tanto sea lineal como angular. este tipo de sensores al ser mecánicos se deterioran. pero la aplicación más conocida de este tipo de sensores es la medición de la velocidad angular de los motores que mueven las distintas partes del robot. De todas maneras. S. La forma más popular de conocer la velocidad del giro de un motor. Sensores de Movimientos: Este tipo de sensores es uno de los más importantes en robótica. comprobación de motores. podremos averiguar de forma muy fiable a qué velocidad gira un motor. Las aplicaciones afines a estos productos incluyen instrumentos para aviación. Existen también otros tipos de sensores para controlar la velocidad. directa con PC. dependiendo de la frecuencia con la que el disco corte el haz luminoso indicará la velocidad del motor. laboratorios. . y de esta manera podemos controlar con un grado de precisión elevada la evolución del robot en su entorno de trabajo Sensores de deslizamiento: Este tipo de sensores se utiliza para indicar al robot con que fuerza ha de coger un objeto para que este no se rompa al aplicarle una fuerza excesiva. pues si conocemos a que valor de tensión corresponde una determinada velocidad. ya que este dispositivo nos genera un nivel determinado de tensión continua en función de la velocidad de giro de su eje. controles de quemadores y calderas. basados en el corte de un haz luminoso a través de un disco perforado sujetado al eje del motor. conversares de código. muchos sensores incluyen tina etapa de salida. si esta aceleración provoca una fuerza en determinado sentido sobre el objeto que sujeta el robot y esta fuerza no se ve contrarrestada por otra. este experimenta una fuerza que tiende ha hacer poner el objeto en movimiento. ya que la información de la aceleración sufrida por un objeto o parte de un robot es de vital importancia. se provoca una aceleración en todo el brazo. La circuitería anterior constituye el bloque de tratamiento de señal. y otros tipos de dispositivos y circuitos. RESOLUCIÓN Y PRECISIÓN La resolución de un sensor es el menor cambio en la magnitud de entrada que se aprecia en la magnitud de salida. ya que si se produce una aceleración en un objeto. por lo que el control en cada momento de las aceleraciones a que se encuentran sometidas determinadas partes del robot son muy importantes. y en especial sobre su órgano terminal. la precisión es el máximo error esperado en la medida. cuya función es adaptar la señal entregada por el bloque de acondicionamiento o tratamiento a las necesidades específicas de la carga. transmisores. Sensores de Aceleración: Este tipo de sensores es muy importante. Adicionalmente. Supongamos el caso en que un brazo robot industrial sujeta con una determinada presión un objeto en su órgano terminal. Sin embargo. VII. amplificadores de potencia. . U. Sensores y dispositivos de medición. si al producirse un giro del mismo sobre su base a una determinada velocidad. se corre el riesgo de que el objeto salga despedido del órgano aprehensor con una trayectoria determinada. Conformada por relés.  G:\TEORIA DE ERRORES\Teoría de errores MM. Por ejemplo. la enciclopedia libre. no sistemáticos.Wiki pedía. la enciclopedia libre.01 mm.mh LA CONTAMINACION ELECTROMAGNETICA .Wiki pedía. en estos sistemas. lo cual es frecuente en errores accidentales.mht. pero no puede asegurarse que haya un error de medición menor a 1 mm. CONCLUSIONES.01 mm.  G:\SENSORES\Sensor de imagen . la repetitividad podría ser de un valor inferior a la precisión. pero la precisión es de 1 mm. No obstante. IX. BIBLIOGRAFIA. con los cuales se pueden construir sistemas de sonar muy útiles a la hora de detectar objetos a distancia y así poder esquivarlos sin necesidad de tomar contacto con ellos. si el error en la medida sigue una distribución normal o similar. La resolución puede ser de menor valor que la precisión. En la mayoría de los casos este exceso de resolución conlleva a un exceso innecesario en el coste del sistema. Existen muchos otros un poco más sofisticados. Estos son solo algunos de los sensores más comúnmente usados en robótica debido a su practicidad y bajo costo. VIII. es decir. entonces pueden apreciarse variaciones en la distancia medida de 0. como ser los transmisores y receptores ultrasónicos. si al medir una distancia la resolución es de 0.mht.  G:\FISIACA EXPERIMENTAL\Física experimental . ) como de baja frecuencia (líneas de alta tensión. tanto de alta frecuencia (antenas de radio. Sin embargo. Después de largas polémicas. LA CONTAMINACION ELECTROMAGNETICA EN LAS CONSTRUCCIONES EL PROBLEMA Los campos electromagnéticos son rara vez tenidos en cuenta como factores de contaminación en el área de la construcción. De esa forma los campos magnéticos artificiales. así como los medios de transmisión de electricidad y radiofrecuencias. radar. dificultad en la percepción de los colores. etc. en especial. dolor muscular en las articulaciones. TV. Toda corriente eléctrica produce campos magnéticos y todo campo magnético variable induce campos eléctricos. etc. La abundancia de artefactos eléctricos y aparatos electrónicos. etc. fatiga. La tecnología genera campos electromagnéticos en todas las frecuencias e intensidades. pueden alterar los procesos biológicos. pantallas de televisores y computadoras. microondas. disminución de la cantidad de plaquetas en la sangre.) pueden producir cambios en la temperatura corporal. investigaciones realizadas en todo el mundo han demostrado que las alteraciones biológicas debidas a la acción de campos electromagnéticos artificiales intensos. transformadores.. desequilibrio en los electrolitos de la sangre. disfunciones en el sistema nervioso central. estrés. un campo magnético estático puede producir una corriente eléctrica en un cuerpo si éste se mueve a través del campo. inapetencia. sobre la salud humana. Los continuos avances tecnológicos hacen que la incidencia de este tipo de contaminación vaya en aumento. . han hecho de nuestra civilización tecnológica un pandemónium de campos electromagnéticos de todo tipo. pese a las evidencias de sus efectos sobre la vida y. mucho más intensos que los naturales. basándose en las investigaciones de Lenmart Tomenius. la Unión Soviética dicta una ley según la cual las líneas de alta tensión que generen campos de m s de 25 Kv/m deben situarse a una distancia mínima de 110 metros de cada edificación. Korobkova. Alemania. así como abortos y alteraciones de la gestación ligados al uso de mantas eléctricas y computadoras. a raíz de las investigaciones de V. el ingeniero Egon Eckert probó que la mayoría de los casos de muerte súbita de lactantes se produce en la cercanía de vías electrificadas. ha demostrado que los cables eléctricos de 220 voltios y 50 Hz instalados en viviendas generan campos que elevan la presión parcial de oxígeno en la sangre.Los campos electromagnéticos débiles como los generados por una instalación eléctrica de 220 V y 50 Hz. También se ha detectado una mayor incidencia de nacimientos de niños con malformaciones en hijos de trabajadores en unidades de conmutación eléctrica. ha reconocido en su legislación la incidencia de los campos electromagnéticos generados por las líneas de alta tensión en la estadística de los casos de leucemia infantil. . LAS PRUEBAS Diversas investigaciones indican un aumento de las tasas de mortalidad por leucemia en profesionales relacionados con el trabajo en campos electromagnéticos y en niños que habitan casas cercanas a tendidos de alta tensión. provocar alergias y depresiones. En Alemania. En 1979 la epidemióloga estadounidense Nancy Whertheimer provocó un escándalo al evidenciar estadísticamente que la mayoría de los hogares de Denver donde residían niños afectados de cáncer estaban expuestos a fuertes campos electromagnéticos provenientes de los transformadores y líneas primarias del tendido eléctrico callejero. Teniendo en cuenta que la actividad eléctrica cerebral del ser humano manifiesta una periodicidad que va de 14 a 50 Hz en el estado de conciencia de vigilia y entre 8 y 14 si se está relajado. En 1974. La Universidad de Heidelberg. nerviosos y otros. Las radiaciones electromagnéticas de baja intensidad que emiten los aparatos eléctricos. gastrointestinales. pueden tener una incidencia desfavorable en el desarrollo de cáncer. El gobierno de Suecia. radar o líneas de alta tensión. así como los provenientes de una mala instalación eléctrica en viviendas o lugares de trabajo. renales. P. afectar las funciones reproductoras. aumentar la producción de cortisona y subir la presión sanguínea. emisoras de radio. así como los valores del hematocrito. lo que puede desembocar en trastornos cardiacos. pueden provocar tensión nerviosa y alterar el equilibrio de grasas y colesterol en la sangre. se deduce que un campo externo de 50 Hz como el de la red eléctrica común puede inducir estados de nerviosidad o como se le ha dado en llamar “electroestrés”. Es necesario que la . Como distancia de seguridad se aconseja que las viviendas se encuentren como mínimo a 15 metros de estos transformadores. Se puede comprobar que muchas de las viviendas y edificios de nuestro país carecen aún en sus instalaciones de protectores eléctricos y una correcta conexión a tierra. Si el tendido es subterráneo los cables deben contar con una buena aislación y ser coaxiales para no generar campos externos. convierten la media tensión de distribución en tensión apta para uso industrial y doméstico. las cajas de conexión. Si los cables de las tres fases est n debidamente trenzados el campo electromagnético es inferior al de una línea a‚rea equivalente. así como la verificación y el mantenimiento de la conexión a tierra de las torres. De todos modos este tipo de líneas suele pasar demasiado cerca de las viviendas. Es común ver explotar y fundirse los fusibles de estos transformadores en presencia de una sobrecarga. La instalación eléctrica de la vivienda. Los transformadores de red Las centrales de distribución eléctrica que encontramos “disimuladas” entre las construcciones urbanas son reconocibles por su continuo zumbido. dentro de un armario metálico. los contadores y los disyuntores deberían ubicarse en un lugar apartado de la presencia humana. así como una correcta conexión a tierra de las instalaciones domiciliarias. el estado y la limpieza de los aisladores. La mejor red eléctrica en las ciudades es la subterránea. Toda casa debe contar con un disyuntor diferencial automático u otro tipo de interruptores protectores. Si la toma de tierra de estas instalaciones es defectuosa. de la intensidad y de la sobrecarga a que est‚n sometidas. Es fundamental la calidad. de 380 y 220 voltios. ya sea en cámaras subterráneas o a‚reas. que a modo de “jaula de Faraday” evite la irradiación del campo electromagnético. que vemos en algunas esquinas. Nuevos materiales de aislamiento de los campos electromagnéticos como el numetal pueden solucionar el problema de los transformadores en los núcleos urbanos. se pueden tener graves alteraciones del potencial eléctrico en el terreno. Se recomiendan cables con revestimiento aislante de bajo nivel de pérdida y con trenzado de las tres fases. Los transformadores de red.CAUSAS Y SOLUCIONES Las líneas de alta y media tensión La peligrosidad de las líneas de la red eléctrica depende de la tensión. la sobrecarga y el desequilibrio entre las tres fases son las causas fundamentales de las alteraciones detectadas. En Alemania se recomienda una distancia de seguridad de 1 metro por cada kilovoltio de tensión de la línea. En las viviendas. Líneas de baja tensión Si bien son las responsables de la contaminación eléctrica más común en las casas. en lo posible. Todas las pantallas basadas en el tubo de rayos catódicos emiten radiaciones ionizantes que pueden afectar a la salud. La distancia de seguridad aconsejada es de por lo menos 1 m. La exposición depende de la distancia entre el sujeto y la pantalla. que activar el flujo normal de corriente. En el caso de las computadoras. Los electrodomésticos Distintos aparatos. Los filtros ópticos protegen sólo la vista. La mejor protección contra la contaminación eléctrica doméstica es la desconexión oportuna de aquella parte de la instalación que no necesitemos. fatiga matinal. Para este fin. Se pueden instalar alfombrillas conductoras con descarga a tierra para quienes trabajan largas horas frente a las pantallas de las computadoras no se vean sometidos a grandes potenciales electrostáticos. en los países desarrollados existe un interruptor de tensión en ausencia de consumo (tipo “bioswitch”). La electricidad estática de las pantallas puede descargarse con filtros de conexión a tierra. Esto se ve agravado por la mala calidad de sus transformadores internos. Por eso hay que considerar el lugar en que se instalan este tipo de aparatos. en especial durante la noche. aunque lo mejor sería prescindir de ellos o cambiarlos por similares a pilas. en especial si sus ocupantes son bebés o niños. hay que tener en cuenta el fuerte campo electromagnético generado por los transformadores de alta tensión y las bobinas de deflexión de los tubos de rayos catódicos. Recordemos que una pared común no es obstáculo para la radiación electromagnética. las pantallas monocromáticas emiten mucha menos radiación que la de colores. de aquellos sectores de la instalación que no tengan consumo (por ejemplo. especialmente la de quienes pasan horas delante de computadoras y televisores. Televisores y monitores de computadoras. evitando los reflejos de la luz ambiente sobre la pantalla. . dolores de cabeza. El radio-despertador es uno de ellos.instalación cuente con una buena conexión a tierra y conviene que est‚ separada en sectores o funciones. Pero además de la temida radiación X.Estos campos electromagnéticos se reparten globalmente alrededor de los aparatos. cuidando que el campo irradiado por la parte posterior del televisor o computadora no afecte la calidad ambiental de la habitación contigua. en especial por la larga exposición (8 horas) y la cercanía a nuestras cabezas. tanto en el hogar como en la oficina pueden estar afectando la salud de quienes cotidianamente resultan expuestos a sus radiaciones electromagnéticas. pesadillas. tanto en viviendas como en oficinas. produciendo insomnios. en los dormitorios durante la noche) manteniendo una corriente continua de apenas 6 voltios (que no genera campos electromagnéticos) como piloto para detectar cualquier requerimiento de consumo. yendo a descargar la est tica acumulada en sus cuerpos sumergiendo ambos brazos bajo el agua que corre. Este aparato desconecta la alimentación de 220 v. La Organización Mundial de la Salud recomienda que los operadores de computadoras descansen unos minutos cada hora. El generador de microondas crea un fuerte campo electromagnético que puede perjudicar la salud de quien trabaja continuamente en las cercanías de estos aparatos en funcionamiento.Los hornos de microondas son objeto de fuertes controversias. Un horno cuyo sistema de desconexión automático falle en el momento de ser abierto por un niño. La vibración de la luz puede compensarse montando tres tubos juntos conectados a fases distintas. que tienen mayor rendimiento. Pero el mayor peligro radica en la posible fuga de emisiones de microondas. lo que exige el control periódico del cierre del horno. Lo ideal es utilizar transformadores toroidales. Lo mismo sucede con pequeñas industrias y talleres ubicados en zonas urbanas. Por otro lado. de menor rendimiento que las fluorescentes. por ser este tipo de luz pulsante. Un televisor o un monitor de computadora cuya parte posterior se apoya contra una pared. si se encuentra a la altura de sus ojos. En general se aconseja que la distancia entre un tubo fluorescente y las personas sea de 1. Las lámparas incandescentes. por lo que se aconseja alejar estos transformadores de las personas que trabajan bajo este tipo de iluminación o centralizar la instalación. se desaconseja su uso en lugares que requieren de atención visual. la habitual mala calidad en las reactancias permite la formación de campos electromagnéticos importantes. Para evitarlo hay que verificar que el interruptor al apagarse interrumpa la fase y no solamente el neutro. menor consumo y mínima contaminación electromagnética. restaurantes. . Especialmente peligrosos son los consultorios médicos u odontológicos equipados con equipos de rayos X y otros de alta potencia. Los transformadores asociados a lámparas halógenas o dicroicas son también una importante fuente de campos electromagnéticos.5 m. como tableros de dibujo o talleres. Fuentes de origen externo a la construcción Muchas veces los campos electromagnéticos que podrían estar afectando la salud de una vivienda pueden provenir de los aparatos o las instalaciones de los vecinos a través de las paredes medianeras. aunque no nos demos cuenta. puede provocarle la ceguera inmediata. Por ello. El campo electrostático que emiten los tubos fluorescentes puede corregirse apantallando los tubos con una rejilla metálica y conectándola a tierra. pizzerías y supermercados. carecen en cambio de efectos electromagnéticos perniciosos. para grandes instalaciones se aconseja centralizar las reactancias en un gabinete metálico común y alejado de las personas. Los transformadores En general todo transformador irradia un campo electromagnético que puede resultar nocivo para las personas que se hallen en sus cercanías en tiempos prolongados. emite campos electromagnéticos que la atraviesan. en lugares tales como bares. aunque su instalación defectuosa puede producir campos eléctricos bastante fuertes. Artefactos de iluminación Pese a las ventajas energéticas de los tubos fluorescentes. Se han detectado casos de grave contaminación electromagnética en las viviendas aledañas a antenas de radioaficionados y de emisoras ilegales de exagerada potencia. Nueva York y Oregón. lo que les permite que las líneas de energía futuras no superen esos niveles. Se trata de un sistema diseñado para un registro a largo plazo de campos electromagnéticos de alta frecuencia para observar las variaciones de este tipo de emisiones de los transmisores de radio y la distribución proporcional de las emisiones desde diferentes servicios de transmisión. Nueva York y Florida. Claudio Ardohain. Lilia Garcén. Sólo seis estados han establecido estándares en los campos eléctricos de las líneas de transmisión: Florida.Antenas emisoras de radio y televisión En las cercanías de estas antenas se captan fuertes campos eléctricos y electromagnéticos. Mientras que sólo dos de ellos. Arquitecta. se necesita una mayor cantidad de antenas transmisoras en todo el mundo. En Alemania. no existe una legislación federal de salud para el caso de los CEM de 60Hz. Montana. especialmente en las emisoras de AM. bajo condiciones de carga máxima. La preocupación y la alarma social trajo consigo cambios en la legislación de varios países: en 1974 la Unión Soviética fue la primera al aprobar una ley que establece que las líneas de tensión que generen campos superiores a los 25 kV/m deben estar ubicados a no menos de 110 metros de la edificación más cercana. Pruebas y cambios en la legislación Con el auge de la telefonía celular. no sólo debido a los efectos que podrían tener en el cerebro de los usuarios. lo que permite que la intensidad de estos campos sea medida con profesionalidad. Posibles efectos dañinos en la salud . establecieron niveles máximos permitidos para los campos magnéticos en las líneas. lo que lleva a la preocupación sobre la amplitud de los campos electromagnéticos próximos a los transmisores. Nueva Jersey. Lo mismo sucede con las antenas de enlace por microondas cuyo cono de dispersión barre con reas habitadas. sino también que a medida que su uso se expande. En Estados Unidos. el Wissenschafts Zentrum Umwelt ha desarrollado un sistema de medición de EMVU. Estos casos se agravan cuando la antena no sobrepasa los edificios circundantes y los departamentos en altura quedan alineados con la torre. Geobiólogo. las preocupaciones comenzaron a surgir. Tarcher Inc. Mariano Bueno. . Mariano Bueno. artículo de la Revista de la Asociación Española de Medicina del Trabajo. Edificación Solar Biológica. El gran libro de la casa sana. Debra Lynn Dadd. Martínez Roca. Martínez Roca.BIBLIOGRAFIA Vivir en casa sana. Ed. Ed. Efectos biológicos de los campos electromagnéticos de frecuencia baja. CEAC. The Nontoxic Home & Office. Pierre Robert Sabady. Ed.


Comments

Copyright © 2024 UPDOCS Inc.