Capítulo 3 Sistemas Lineales Los sistemas de ecuaciones lineales son una de las herramientas matemáticas de modelaje más comunes en las aplicaciones. Una clasificación común de los sistemas lineales es por su tamaño. Los sistemas con O(100) variables se consideran pequeños y usualmente se utilizan los llamados métodos directos para su solución. Los sistemas de O(1000) ó más variables se consideran grandes o de gran escala y los métodos de solución más eficientes por lo general son los llamados métodos iterativos o indirectos. Otra clasificación importante de los sistemas lineales es por la cantidad o densidad de ceros de la matriz de coeficientes. Los sistemas con pocas entradas distintas de cero se llaman escasos. De lo contrario decimos que el sistema es denso. El aprovechar la estructura de ceros de la matriz de coeficientes nos lleva por lo general a algorítmos mucho más eficientes que los convencionales. La solución directa de sistemas de ecuaciones lineales conlleva esencialmente dos etapas: transformación del sistema original a otro sistema equivalente más "simple" y luego la solución del nuevo sistema equivalente. La transformación del sistema original a uno más simple toma muchas formas la más común de ellas siendo el proceso de Eliminación Gaussiana. En este método, en su forma básica, si ninguno de los pivotes se hace cero, se producen como resultado matrices L y U triangulares inferior unitaria y superior respectivamente tal que A=LU donde A es la matriz de coeficientes del sistema original. El sistema Ax=b se puede resolver ahora en dos etapas adicionales. Problema Básico y Notación Un sistema lineal de n ecuaciones en n desconocidas se puede escribir de la forma (3.1) donde los son dados y x1,x2,…,xn son desconocidas. Si definimos la matriz A y los vectores b, x por (3.2) Entonces podemos escribir el sistema (3.1) en forma matricial como Ax=b. La matriz A se conoce como la matriz de coeficientes del sistema y b como el lado derecho. Si b=0, i.e., bi=0, 1 ≤ i ≤ n, entonces decimos que el sistema es homogeneo. De lo contrario se dice que es nohomogeneo. Ejemplo 1: Considere el sistema Si definimos Entonces podemos escribir el sistema en forma matricial como Ax=b. Eliminación Gaussiana Vamos ahora a estudiar el método más básico y a la ves más importante para la solución directa de sistemas lineales. Primero ilustramos el método con un ejemplo y despúes lo generalizamos. Ejemplo 2: Considere el sistema de ecuaciones siguiente: Podemos resolver esto mediante eliminación Gaussisana como sigue: Con este último sistema equivalente podemos obtener la solución sustituyendo para atrás: a. b. c. Vamos a generalizar este ejemplo a un sistema 3× 3 general. Escribimos el sistema original como (3.3) Paso 1: Suponemos que y definimos se llama el pivote en este paso. El sistema (3.3) reduce ahora a: (3.4) donde Paso 2: Suponemos ahora que y definimos Ahora (3.4) reduce a: donde Paso 3: Hacemos ahora la sustitución para atrás para obtener la solución. Suponemos aqui que : Pasamos ahora al caso general del sistema: Primero pasamos por la etapa de eliminación. Esto es, para k=1,2,…,n-1: Paso k: Suponemos que forma: (pivote). El sistema en este paso se reduce a uno de la donde (3.5) En el último paso llegamos a un sistema triangular superior de la forma: (3.6) donde (3.7) Paso n: Calculamos finalmente la solución del sistema haciendo sustitución para atrás: (3.8) Las fórmulas (3.5), (3.7), (3.8) definen el Método de Eliminación Gaussiana en su forma básica. Las formulas (3.5) definen la parte de eliminación del método mientras que (3.8) nos da la sustitución para atrás. Antes de entrar en las variantes de el método básico vamos a hacer un estudio de la cantidad de operaciones envueltas en el método. Esto se conoce como un conteo operacional. Examinando las fórmulas para los siguiente: Paso 1 2 Sumas (n-1)2 (n-2)2 en (3.5) podemos construir la tabla Divisiones n-1 n-2 Multiplicaciones (n-1)2 (n-2)2 n-1 TOTAL donde usamos las fórmulas 1 n(n-1)(2n1)/6 1 n(n-1)(2n-1)/6 1 n(n-1)/2 Es costumbre contar las operaciones de multiplicación y división juntas. De modo que la tabla de arriba la podemos resumir diciendo que en la parte de eliminación del método de eliminación Gaussiana el total de: Sumas y Restas = Multiplicaciones y Divisiones = Las fórmulas para los Estas conllevan: en (3.5) se conocen como la modificación del lado derecho. Sumas y Restas = n-1 + (n-2) + … + 1 = Multiplicaciones y Divisiones = n-1 + (n-2) + … + 1 = Las fórmulas (3.8) de la sustitución para atrás conllevan los siguientes totales de operaciones: Sumas y Restas = 1 + 2 + … + (n-1) = Multiplicaciones y Divisiones = 1 + 2 + … + n = Combinando todos los totales parciales hasta ahora obtenemos que el proceso completo de eliminación Gaussiana conlleva un total de: Sumas y Restas = Multiplicaciones y Divisiones = Note que para n "grande" ambos resultados son aproximadamente (1/3)n3. Asi que por ejemplo doblar n equivale a aproximadamente ocho veces más tiempo computacional. Observe también que la parte de eliminación es la que contribuye el termino proporcional a n3. La modificación del lado derecho y la sustitución para atrás son ambas proporcionales a n2. Note que estos tres procesos son independientes uno del otro. Por consiguiente si hay la necesidad de resolver varios sistemas todos con la misma matriz de coeficientes, la parte de eliminación debe hacerse una sola ves. Al derivar las fórmulas (3.5), (3.7), (3.8) asumimos que los pivotes contrario algún . Si por el , entonces podemos argumentar matemáticamente que algún si la matriz de coeficientes del sistema original es nosingular. En tal caso podemos intercambiar la fila "i" con la "k" y continuar el proceso. A pesar de esto un pivote pequeño, aunque distinto de cero, puede causar que los efectos de redondeo debido a la aritmética finita de la computadora se propagen rápidamente. Ejemplo 3: Considere el sistema El determinante de la matriz de coeficientes es -20/3 de modo que es nosingular. Vamos a resolver el sistema pero usando solo cuatro cifras decimales. Representamos el sistema con la matriz aumentada: De donde obtenemos que z = 1, y = 0, x = 0.6667. ¡La solución exacta del sistema es x=½, y=¾, z=1! Para evitar el problema de pivotes distintos de cero pero pequeños usamos lo que se denomina como pivoteo parcial. Esto es, definimos el indice i0 por: (3.9) Si i0≠ k, entonces intercambiaamos las filas i0 y k. Note que estamos haciendo el pivote máximo en valor absoluto. De esta forma los multiplicadores mik satisfacen lo cúal es lo que ayuda con la propagación de errores. Existe otra variante del pivoteo. En este caso se determinan los indices i0 y j0 tal que: (3.10) y se intercambian las filas i0 y k y las columnas j0 y k si i0≠ k ó j0≠ k respectivamente. Esto se conoce como pivoteo total y se puede demostrar que es más efectivo que el pivoteo parcial en el control de la propagación de errores. Pero el cálculo del máximo en (3.10) es mucho más costoso que en (3.9) por lo que en la practica se prefiere el pivoteo parcial. Además se ha observado en pruebas usando matrices generadas aleatoriamente, que la diferencia entre ambos métodos no es significativa en terminos de la propagación del error. Cálculo de la Inversa de una Matriz Suponga que A es una matriz nosingular y A-1 su inversa. Escribimos A-1 y la matriz identidad I en forma particionada como A-1 = (x1,x2,…,xn) , I = (e1,e2,…,en) donde los ei's forman la base estandar de -1 . Ahora como A A-1 = I, tenemos que (3.11) Axi = ei , 1 ≤ i ≤ n Asi que para calcular A debemos resolver n sistemas distintos pero con la misma matriz de coeficientes A. La eliminación de A la hacemos una ves lo cual requiere (1/3)n3 operaciones aproximadamente. La modificación del lado derecho y la sustitución para atrás de cada uno de los sistemas en (3.11) conlleva aproximadamente n2 operaciones cada uno. Asi que en total tenemos (1/3)n3+n(n2) = (4/3)n3 aproximadamente. (Este conteo se puede mejorar a (5/6)n3). En muchas ocaciones las fórmulas que envuelven inversos de matrices se pueden rescribir en terminos de sistemas lineales intermedios. Por el conteo operacional de arriba, las fórmulas con los sistemas lineales son preferibles ya que la solución de cada sistema envuelve aproximadamente (1/3)n3 operaciones mientras que calcular los inversos toma (4/3)n3 operaciones. Como regla general tenemos pues que: LOS INVERSOS DE MATRICES NO SE CALCULAN A MENOS QUE SE NECESITEN EXPLICITAMENTE. Veamos una aplicación de esta regla. Supongamos que desamos calcular la expresión donde c, b son vectores en y A es n× n. Si calculamos A-1, luego multiplicamos por b y finalmente el producto interior con c tenemos aproximadamente Cálculo A-1 Multiplicación A1 por b Producto interior con c TOTAL Si en lugar de esto calculamos α mediante: • Halle la solución x del sistema Ax=b (4/3)n3 n2 n (4/3)n3+n2+n • Calcule un análisis similar al de arriba nos da aproximadamente (1/3)n3+n2+n lo cual es mucho mejor que la fórmula directa. Factorización LU de una Matriz Para discutir la factorización LU de una matriz necesitamos priemro definir dos tipos especiales de matrices. Una matriz A=(aij) se dice que es triangular superior si aij=0 para toda i > j. A es triangular inferior si aij=0 para toda i < j. El adjetivo unitaria se añade en ambos casos si en adición aii=1 para toda i. Una matriz que es ambas triangular superior e inferior se llama diagonal. Note que una matriz diagonal satisface aij=0 para toda i ≠ j. Ejemplo 4: Las matrices son triangular superior, inferior y diagonal respectivamente. La matriz de coeficientes del sistema (3.6) es triangular superior y la denotamos por U=(uij). Usando los multiplicadores mik en (3.5) podemos definir la matriz triangular inferior unitaria L por: Teorema (3.2): Sea A una matriz n× n nosingular. Defina las matrices L y U como arriba. Entonces si no se hace pivoteo en el proceso de eliminación Gaussiana, tenemos que A=LU. Demostración: El elemento (i,j) del producto LU consiste del producto interior de la fila i de L con la columna j de U. Esto es Si i ≤ j, tenemos que Usando las fórmulas (3.5) y la definición de U podemos escribir esto como donde para simplificar la segunda sumatoria usamos que esta es telescópica. Ahora si i > j Como (LU)ij=aij para toda i,j tenemos que A=LU. Ejemplo 5: Para la matriz tenemos que mediante eliminición Gaussiana Si definimos ahora tenemos que A=LU. Dado que A=LU, el sistema Ax=b se puede escribir como LUx=b. La solución del sistema Ax=b se puede ver entonces en tres etapas: 1. (Eliminación) Calcular la factorización A=LU. 2. (Modificación del lado derecho) Resolver el sistema triangular inferior Lg=b para el vector g. 3. (Sustitución para atras) Resolver el sistema triangular superior Ux=g para el vector x. Ejemplo 5: Resuelva el sistema La matriz de coeficientes de este sistema coincide con la del ejemplo anterior de modo que La solución de Lg=b con b=(1,-1,0)t esta dada por: Ahora Ux=g nos da la solución del sistema original: Variantes del Método de Eliminación Gaussiana Vamos ahora a discutir dos métodos alternos para calcular la factorización LU de una matriz pero que aprovechan alguna estructura particluar de la matriz. El primero de ellos es la Factorización de Cholesky que se usa para matrices simétricasy positivas definidas. El otro método aprovecha la estructura escasa de la matriz en el caso que esta sea tridiagonal. Factorización de Cholesky Una matriz A es simétrica si At=A. Decimos que A es positiva definida si xtAx>0 para todo x≠ 0. Se puede demostrar que una matriz simétrica es positiva definida si y solo si todos sus valores propios son positivos. También se puede demostrar que existe una matriz triangular inferior L tal que A = L Lt lo cual se conoce como la factorización de Cholesky de A. De hecho las entradas de L=(lij) de pueden calcular mediante las fórmulas: 1. Para i=1,2,…,n a. b. Para j=1,2,…,i-1 (3.12) a. Estas fórmulas se obtienen multiplicando las filas de L por las columnas de Lt e igualando a las entradas correspondientes de A. Un conteo operacional de estas fórmulas muestra que el total de operaciones es aproximadamente (1/6)n3, i.e., la mitad que en eliminación Gaussiana básico. (Note sin embargo que hay que calcular n racies cuadradas). La ganacia aqui se debe a que se utilizó la simetría de la matriz A. Note también que como A es simétrica solo hay que almacenar en la computadora la mitad de la matriz al igual que para L que es triangular inferior. Sistemas Tridiagonales Una matriz A se llama tridiagonal si aij=0 para toda i,j tal que - j> 1. Esto es, todas las i entradas de A son cero excepto posiblemente en las diagonales inferior, superior y principal. Podemos pues escribir A de la siguiente forma: (3.13) Para almacenar A en la computadora usamos tres vectores de tamaño n lo que da un total de 3n lugares de memoria en comparación con n2 para una matriz densa. Vamos ahora a resolver el sistema Ax=b aprovechando la estructura de ceros de A. Primero buscamos la factorización LU de A. Para esto buscamos L y U de la forma: (3.14) Multiplicando e igualando a las entradas correspondientes de A obtenemos: • fila uno de L por columna uno de U: • • • • fila dos de L por columna uno de U: fila dos de L por columna dos de U: fila tres de L por columna dos de U: fila tres de L por columna tres de U: , etc. De esta forma obtenemos las fórmulas: 1. 2. Para j=2,3,…n a. b. (3.15) El total de multiplicaciones y divisiones en estas fórmulas es 2n-2 (compare con (1/3)n3 para eliminación Gaussiana básico). Para resolver Lg=b es fácil ver que las fórmulas son: 1. 2. Para j=2,3,…,n a. (3.16) El total de multiplicaciones y divisiones en este cálculo es de n-1. Finalmente la solución de Ux=g se obtinene mediante las fórmulas: 1. 2. Para j=n-1,n-2,…,1 a. (3.17) El conteo aqui de multiplicaciones y divisiones es de 2n-1. Asi que en total para resolver el sistema Ax=b donde A es tridiagonal se requieren de 5n-4 multiplicaciones y divisiones. En todo este proceso necesitamos que los pivotes menor de uno en valor absoluto. Esto se cumple si y es conveniente que los 's sean (3.18) Ejemplo 6: Considere la matriz tridiagonal Aqui aj=1, j=2,3, bj=3, j=1,2,3, cj=1, j=1,2. Asi que de donde obtenemos que ESTUDIO DE SISTEMAS DE ECUACIONES LINEALES (s.e.l.) Para el estudio de sistemas de ecuaciones lineales empleamos dos herramientas matemáticas que nos van a facilitar los cálculos : las matrices y los determinantes. Las matrices y los determinantes nos permiten expresar de una manera clara, concisa y elegante la condición de compatibilidad de los sistemas de ecuaciones lineales (s.e.l.) Teorema de Rouché-Fröbenius -. Cuando estudiamos un s.e.l. debemos preguntarnos : ¿ Tiene soluciones el sistema ?, es decir, ¿ es compatible ? Si tiene soluciones ¿ cuántas y cúales son ? Visto esto, estudiar un sistema es : DISCUTIR = Averiguar si un s.e.l. tiene solución, y si tiene, ver si es única o no. RESOLVER = Hallar la solución si es única, o las soluciones si son infinitas. ESTUDIAR = DISCUTIR + RESOLVER Preliminares : La ecuación 2x - 3 = 0 se llama ecuación lineal de una variable. Obviamente sólo tiene una solución. La ecuación -3x + 2y = 7 se llama ecuación lineal de dos variables. Sus soluciones son pares ordenados de números. Tiene infinitas soluciones que se obtienen despejando una variable y dando valores cualesquiera a la otra. La ecuación x - 2y + 5z = 1 se llama ecuación lineal de tres variables. Sus soluciones son ternas ordenadas de números. Tiene infinitas soluciones que se obtienen despejando una variable y dando valores cualesquiera a las otras dos. En general, una ecuación lineal de "n" variables es del tipo : • • Las soluciones son las secuencias de números s1, s2, s3, ..., sn que hacen verdadera la igualdad [1] Si los coeficientes valen 0 y el término independiente no, la ecuación se llama incompatible. No tiene solución y también se denomina ecuación imposible, proposición falsa o igualdad absurda. Si los coeficientes y el término independiente son nulos, se dice que la ecuación es una identidad. • Sistemas de Ecuaciones Lineales : Muchos problemas de la vida real nos obligan a resolver simultáneamente varias ecuaciones lineales para hallar las soluciones comunes a todas ellas. También resultan muy útiles en geometría (las ecuaciones lineales se interpretan como rectas y planos, y resolver un sistema equivale a estudiar la posición relativa de estas figuras geométricas en el plano o en el espacio). Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales que podemos escribir de forma tradicional así : un sistema así expresado tiene "m" ecuaciones y "n" incógnitas, donde aij son números reales, llamados coeficientes del sistema, los valores bm son números reales, llamados términos independientes del sistema, las incógnitas xj son las variables del sistema, y la solución del sistema es un conjunto ordenado de números reales (s1, s2, ..., sn) tales que al sustituir las incógnitas x1, x2, ... , xn por los valores s1, s2, ..., sn se verifican a la vez las "m" ecuaciones del sistema. Este mismo sistema de ecuaciones lineales en notación matricial tiene esta forma : Dode : • • • Llamamos matriz del sistema a la matriz de dimensión m×n formada por los coeficientes del sistema, y la designamos por A. Designamos por X a la matriz columna formada por las incógnitas. Denotamos por B a la matriz columna formada por los términos independientes. y llamamos matriz ampliada de dimensión m×(n+1) a la matriz que se obtiene al añadir a la matriz del sistema (= matriz de coeficientes) la columna de los términos independientes, y la denotamos por A*, es decir Clasificación : Atendiendo a sus soluciones : Atendiendo a sus términos independientes : Discusión de un s.e.l. : Generalmente, para la discusión de un s.e.l., utilizamos el Teorema de Rouché-Fröbenius. « Un s.e.l. es compatible si, y sólo si, el rango de la matriz de coeficientes es igual al rango de la matriz ampliada con la columna de los términos independientes. Si estos rangos son distintos el sistema es incompatible. » Es decir, la condición necesaria y suficiente para que un sistema de m ecuaciones y n incógnitas tenga solución es que r(A) = r(A*), • • • Si el número de incógnitas n es igual al rango h , la solución es única. Si el número de incógnitas n es mayor que el rango h , el sistema tiene infinitas soluciones. Si el sistema es compatible, el rango del sistema indica el número de ecuaciones linealmente independientes. Para los sistemas indeterminados la solución puede hallarse despejando k incógnitas principales en función de (n-h) incógnitas denominadas parámetros y que pueden tomar cualquier valor ( grados de libertad ). Al hallar el rango en matrices que provengan de s.e.l. es preciso tener en cuenta que si se intercambian columnas en la matriz de coeficientes ha de hacerse de igual forma el cambio correspondiente de incógnitas, teniendo especial cuidado con la columna de los términos independientes que conviene no moverla. En general, es aconsejable realizar todas las operaciones por filas. Caso particular : Sist. Homogéneos Como un sistema homogeneo es aquel que tiene todos sus términos independientes nulos, podemos observar que r(A) = r(A*) siempre, luego siempre son compatibles, ya que tienen al menos la solución (0, 0, 0, ... , 0) que se denomina solución trivial. Puesto que, en la práctica, esta solución carece de interés, suele decirse que un sistema homogéneo posee solución sólo si esta es distinta de la trivial. Si un sistema homogéneo presenta una solución distinta de la trivial : (s1, s2, ... , sn) entonces se cumple que son también solución todas las proporcionales a ella : ( k·s1, k·s2, ... , k·sn) , para todo número real k. Ejemplo: Métodos de Resolución de s.e.l. : Resolver un sistema de ecuaciones es hallar todas sus soluciones. Obviamente, un sistema se puede resolver cuando es compatible, es decir, lo primero que debemos hacer es discutir el sistema (teorema de Rouché-Fröbenius) para averiguar su compatibilidad. Para resolver un s.e.l. hay que hacer transformaciones en las ecuaciones hasta que todas las incógnitas queden despejadas. Estas transformaciones convierten nuestro sistema inicial en otro/s sistema/s (con aspecto distinto y más fáciles de resolver) que tienen las mismas soluciones ( = sistemas equivalentes ). Generalmente las transformaciones más habituales son : ( criterios de equivalencia ) - Intercambiar dos ecuaciones entre sí. - Suprimir una ecuación que tenga todos sus elementos nulos. - Suprimir una ecuación que sea proporcional a otra. - Suprimir una ecuación que sea combinación lineal de otra/s - Multiplicar o dividir una ecuación por un número distinto de cero. - Sustituir una ecuación i de este modo : Ei = Ei + a·Ej Métodos directos : • • • • • • • Método de Gauss (por reducción) Método de Cramer (por determinantes) Por inversión de la matriz Método de Gauss-Jordan (por eliminación) Por sustitución Método de Jacobi Método de Gauss-Seidel Métodos iterativos : Vamos a resolver el mismo sistema por varios de éstos métodos para apreciar mejor sus diferencias • Método de Gauss (por reducción) Dado un sistema de "m" ecuaciones con "n" incógnitas se trata de obtener un sistema equivalente cuya 1ª ecuación tenga n incógnitas, la segunda n-1, la tercera n-2, y así sucesivamente hasta llegar a la última ecuación, que tendrá una sola incógnita. Hecho esto, resolvemos la última ecuación, a continuación la penúltima, y así hasta llegar a la primera. Es decir, el método de Gauss consiste en triangular la matriz de coeficientes. Ejemplo: Resolver el siguiente sistema compatible determinado Ejemplo: Resolver el siguiente sistema compatible indeterminado • Método de Cramer (por determinantes) Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el determinante de la matriz de coeficientes es distinto de cero. Es decir, un sistema de Cramer es, por definición, compatible determinado y, por tanto, tiene siempre una solución única. El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar la columna i del determinante anterior por la columna de los términos independientes. Ejemplo: Resolver el siguiente sistema compatible determinado • Por inversión de la matriz Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el determinante de la matriz de coeficientes es distinto de cero. Es decir, resuelve sistemas compatibles determinados (no-homogéneos). Ejemplo: Resolver el siguiente sistema compatible determinado • Método de Gauss-Jordan Es una variante del método de Gauss, y resulta ser más simple al final del proceso, ya que no es preciso despejar las variables pues la solución se obtiene directamente. Se basa en diagonalizar la matriz de coeficientes. NOTA : Si eres usuario registrado del programa Derive, puedes probar la función ROW_REDUCE(v), donde v es la matriz ampliada. Esta función de Derive resuelve un s.e.l. por el método de Gauss-Jordan. Ejemplo: ESTUDIO DE SISTEMAS DE ECUACIONES LINEALES (s.e.l.) Para el estudio de sistemas de ecuaciones lineales empleamos dos herramientas matemáticas que nos van a facilitar los cálculos : las matrices y los determinantes. Las matrices y los determinantes nos permiten expresar de una manera clara, concisa y elegante la condición de compatibilidad de los sistemas de ecuaciones lineales (s.e.l.) Teorema de Rouché-Fröbenius -. Cuando estudiamos un s.e.l. debemos preguntarnos : ¿ Tiene soluciones el sistema ?, es decir, ¿ es compatible ? Si tiene soluciones ¿ cuántas y cúales son ? Visto esto, estudiar un sistema es : DISCUTIR = Averiguar si un s.e.l. tiene solución, y si tiene, ver si es única o no. RESOLVER = Hallar la solución si es única, o las soluciones si son infinitas. ESTUDIAR = DISCUTIR + RESOLVER Preliminares : La ecuación 2x - 3 = 0 se llama ecuación lineal de una variable. Obviamente sólo tiene una solución. La ecuación -3x + 2y = 7 se llama ecuación lineal de dos variables. Sus soluciones son pares ordenados de números. Tiene infinitas soluciones que se obtienen despejando una variable y dando valores cualesquiera a la otra. La ecuación x - 2y + 5z = 1 se llama ecuación lineal de tres variables. Sus soluciones son ternas ordenadas de números. Tiene infinitas soluciones que se obtienen despejando una variable y dando valores cualesquiera a las otras dos. En general, una ecuación lineal de "n" variables es del tipo : • • Las soluciones son las secuencias de números s1, s2, s3, ..., sn que hacen verdadera la igualdad [1] Si los coeficientes valen 0 y el término independiente no, la ecuación se llama incompatible. No tiene solución y también se denomina ecuación imposible, proposición falsa o igualdad absurda. Si los coeficientes y el término independiente son nulos, se dice que la ecuación es una identidad. • Sistemas de Ecuaciones Lineales : Muchos problemas de la vida real nos obligan a resolver simultáneamente varias ecuaciones lineales para hallar las soluciones comunes a todas ellas. También resultan muy útiles en geometría (las ecuaciones lineales se interpretan como rectas y planos, y resolver un sistema equivale a estudiar la posición relativa de estas figuras geométricas en el plano o en el espacio). Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales que podemos escribir de forma tradicional así : un sistema así expresado tiene "m" ecuaciones y "n" incógnitas, donde aij son números reales, llamados coeficientes del sistema, los valores bm son números reales, llamados términos independientes del sistema, las incógnitas xj son las variables del sistema, y la solución del sistema es un conjunto ordenado de números reales (s1, s2, ..., sn) tales que al sustituir las incógnitas x1, x2, ... , xn por los valores s1, s2, ..., sn se verifican a la vez las "m" ecuaciones del sistema. Este mismo sistema de ecuaciones lineales en notación matricial tiene esta forma : Dode : • • • Llamamos matriz del sistema a la matriz de dimensión m×n formada por los coeficientes del sistema, y la designamos por A. Designamos por X a la matriz columna formada por las incógnitas. Denotamos por B a la matriz columna formada por los términos independientes. y llamamos matriz ampliada de dimensión m×(n+1) a la matriz que se obtiene al añadir a la matriz del sistema (= matriz de coeficientes) la columna de los términos independientes, y la denotamos por A*, es decir Clasificación : Atendiendo a sus soluciones : Atendiendo a sus términos independientes : Discusión de un s.e.l. : Generalmente, para la discusión de un s.e.l., utilizamos el Teorema de Rouché-Fröbenius. « Un s.e.l. es compatible si, y sólo si, el rango de la matriz de coeficientes es igual al rango de la matriz ampliada con la columna de los términos independientes. Si estos rangos son distintos el sistema es incompatible. » Es decir, la condición necesaria y suficiente para que un sistema de m ecuaciones y n incógnitas tenga solución es que r(A) = r(A*), • • • Si el número de incógnitas n es igual al rango h , la solución es única. Si el número de incógnitas n es mayor que el rango h , el sistema tiene infinitas soluciones. Si el sistema es compatible, el rango del sistema indica el número de ecuaciones linealmente independientes. Para los sistemas indeterminados la solución puede hallarse despejando k incógnitas principales en función de (n-h) incógnitas denominadas parámetros y que pueden tomar cualquier valor ( grados de libertad ). Al hallar el rango en matrices que provengan de s.e.l. es preciso tener en cuenta que si se intercambian columnas en la matriz de coeficientes ha de hacerse de igual forma el cambio correspondiente de incógnitas, teniendo especial cuidado con la columna de los términos independientes que conviene no moverla. En general, es aconsejable realizar todas las operaciones por filas. Caso particular : Sist. Homogéneos Como un sistema homogeneo es aquel que tiene todos sus términos independientes nulos, podemos observar que r(A) = r(A*) siempre, luego siempre son compatibles, ya que tienen al menos la solución (0, 0, 0, ... , 0) que se denomina solución trivial. Puesto que, en la práctica, esta solución carece de interés, suele decirse que un sistema homogéneo posee solución sólo si esta es distinta de la trivial. Si un sistema homogéneo presenta una solución distinta de la trivial : (s1, s2, ... , sn) entonces se cumple que son también solución todas las proporcionales a ella : ( k·s1, k·s2, ... , k·sn) , para todo número real k. Ejemplo: Métodos de Resolución de s.e.l. : Resolver un sistema de ecuaciones es hallar todas sus soluciones. Obviamente, un sistema se puede resolver cuando es compatible, es decir, lo primero que debemos hacer es discutir el sistema (teorema de Rouché-Fröbenius) para averiguar su compatibilidad. Para resolver un s.e.l. hay que hacer transformaciones en las ecuaciones hasta que todas las incógnitas queden despejadas. Estas transformaciones convierten nuestro sistema inicial en otro/s sistema/s (con aspecto distinto y más fáciles de resolver) que tienen las mismas soluciones ( = sistemas equivalentes ). Generalmente las transformaciones más habituales son : ( criterios de equivalencia ) - Intercambiar dos ecuaciones entre sí. - Suprimir una ecuación que tenga todos sus elementos nulos. - Suprimir una ecuación que sea proporcional a otra. - Suprimir una ecuación que sea combinación lineal de otra/s - Multiplicar o dividir una ecuación por un número distinto de cero. - Sustituir una ecuación i de este modo : Ei = Ei + a·Ej Métodos directos : • • • • • • • Método de Gauss (por reducción) Método de Cramer (por determinantes) Por inversión de la matriz Método de Gauss-Jordan (por eliminación) Por sustitución Método de Jacobi Método de Gauss-Seidel Métodos iterativos : Vamos a resolver el mismo sistema por varios de éstos métodos para apreciar mejor sus diferencias • Método de Gauss (por reducción) Dado un sistema de "m" ecuaciones con "n" incógnitas se trata de obtener un sistema equivalente cuya 1ª ecuación tenga n incógnitas, la segunda n-1, la tercera n-2, y así sucesivamente hasta llegar a la última ecuación, que tendrá una sola incógnita. Hecho esto, resolvemos la última ecuación, a continuación la penúltima, y así hasta llegar a la primera. Es decir, el método de Gauss consiste en triangular la matriz de coeficientes. Ejemplo: Resolver el siguiente sistema compatible determinado Ejemplo: Resolver el siguiente sistema compatible indeterminado • Método de Cramer (por determinantes) Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el determinante de la matriz de coeficientes es distinto de cero. Es decir, un sistema de Cramer es, por definición, compatible determinado y, por tanto, tiene siempre una solución única. El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar la columna i del determinante anterior por la columna de los términos independientes. Ejemplo: Resolver el siguiente sistema compatible determinado • Por inversión de la matriz Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el determinante de la matriz de coeficientes es distinto de cero. Es decir, resuelve sistemas compatibles determinados (no-homogéneos). Ejemplo: Resolver el siguiente sistema compatible determinado • Método de Gauss-Jordan Es una variante del método de Gauss, y resulta ser más simple al final del proceso, ya que no es preciso despejar las variables pues la solución se obtiene directamente. Se basa en diagonalizar la matriz de coeficientes. NOTA : Si eres usuario registrado del programa Derive, puedes probar la función ROW_REDUCE(v), donde v es la matriz ampliada. Esta función de Derive resuelve un s.e.l. por el método de Gauss-Jordan. Ejemplo: ESTUDIO DE SISTEMAS DE ECUACIONES LINEALES (s.e.l.) Para el estudio de sistemas de ecuaciones lineales empleamos dos herramientas matemáticas que nos van a facilitar los cálculos : las matrices y los determinantes. Las matrices y los determinantes nos permiten expresar de una manera clara, concisa y elegante la condición de compatibilidad de los sistemas de ecuaciones lineales (s.e.l.) Teorema de Rouché-Fröbenius -. Cuando estudiamos un s.e.l. debemos preguntarnos : ¿ Tiene soluciones el sistema ?, es decir, ¿ es compatible ? Si tiene soluciones ¿ cuántas y cúales son ? Visto esto, estudiar un sistema es : DISCUTIR = Averiguar si un s.e.l. tiene solución, y si tiene, ver si es única o no. RESOLVER = Hallar la solución si es única, o las soluciones si son infinitas. ESTUDIAR = DISCUTIR + RESOLVER Preliminares : La ecuación 2x - 3 = 0 se llama ecuación lineal de una variable. Obviamente sólo tiene una solución. La ecuación -3x + 2y = 7 se llama ecuación lineal de dos variables. Sus soluciones son pares ordenados de números. Tiene infinitas soluciones que se obtienen despejando una variable y dando valores cualesquiera a la otra. La ecuación x - 2y + 5z = 1 se llama ecuación lineal de tres variables. Sus soluciones son ternas ordenadas de números. Tiene infinitas soluciones que se obtienen despejando una variable y dando valores cualesquiera a las otras dos. En general, una ecuación lineal de "n" variables es del tipo : • • Las soluciones son las secuencias de números s1, s2, s3, ..., sn que hacen verdadera la igualdad [1] Si los coeficientes valen 0 y el término independiente no, la ecuación se llama incompatible. No tiene solución y también se denomina ecuación imposible, proposición falsa o igualdad absurda. • Si los coeficientes y el término independiente son nulos, se dice que la ecuación es una identidad. Sistemas de Ecuaciones Lineales : Muchos problemas de la vida real nos obligan a resolver simultáneamente varias ecuaciones lineales para hallar las soluciones comunes a todas ellas. También resultan muy útiles en geometría (las ecuaciones lineales se interpretan como rectas y planos, y resolver un sistema equivale a estudiar la posición relativa de estas figuras geométricas en el plano o en el espacio). Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales que podemos escribir de forma tradicional así : un sistema así expresado tiene "m" ecuaciones y "n" incógnitas, donde aij son números reales, llamados coeficientes del sistema, los valores bm son números reales, llamados términos independientes del sistema, las incógnitas xj son las variables del sistema, y la solución del sistema es un conjunto ordenado de números reales (s1, s2, ..., sn) tales que al sustituir las incógnitas x1, x2, ... , xn por los valores s1, s2, ..., sn se verifican a la vez las "m" ecuaciones del sistema. Este mismo sistema de ecuaciones lineales en notación matricial tiene esta forma : Dode : • • • Llamamos matriz del sistema a la matriz de dimensión m×n formada por los coeficientes del sistema, y la designamos por A. Designamos por X a la matriz columna formada por las incógnitas. Denotamos por B a la matriz columna formada por los términos independientes. y llamamos matriz ampliada de dimensión m×(n+1) a la matriz que se obtiene al añadir a la matriz del sistema (= matriz de coeficientes) la columna de los términos independientes, y la denotamos por A*, es decir Clasificación : Atendiendo a sus soluciones : Atendiendo a sus términos independientes : Discusión de un s.e.l. : Generalmente, para la discusión de un s.e.l., utilizamos el Teorema de Rouché-Fröbenius. « Un s.e.l. es compatible si, y sólo si, el rango de la matriz de coeficientes es igual al rango de la matriz ampliada con la columna de los términos independientes. Si estos rangos son distintos el sistema es incompatible. » Es decir, la condición necesaria y suficiente para que un sistema de m ecuaciones y n incógnitas tenga solución es que r(A) = r(A*), • • • Si el número de incógnitas n es igual al rango h , la solución es única. Si el número de incógnitas n es mayor que el rango h , el sistema tiene infinitas soluciones. Si el sistema es compatible, el rango del sistema indica el número de ecuaciones linealmente independientes. Para los sistemas indeterminados la solución puede hallarse despejando k incógnitas principales en función de (n-h) incógnitas denominadas parámetros y que pueden tomar cualquier valor ( grados de libertad ). Al hallar el rango en matrices que provengan de s.e.l. es preciso tener en cuenta que si se intercambian columnas en la matriz de coeficientes ha de hacerse de igual forma el cambio correspondiente de incógnitas, teniendo especial cuidado con la columna de los términos independientes que conviene no moverla. En general, es aconsejable realizar todas las operaciones por filas. Caso particular : Sist. Homogéneos Como un sistema homogeneo es aquel que tiene todos sus términos independientes nulos, podemos observar que r(A) = r(A*) siempre, luego siempre son compatibles, ya que tienen al menos la solución (0, 0, 0, ... , 0) que se denomina solución trivial. Puesto que, en la práctica, esta solución carece de interés, suele decirse que un sistema homogéneo posee solución sólo si esta es distinta de la trivial. Si un sistema homogéneo presenta una solución distinta de la trivial : (s1, s2, ... , sn) entonces se cumple que son también solución todas las proporcionales a ella : ( k·s1, k·s2, ... , k·sn) , para todo número real k. Ejemplo: Métodos de Resolución de s.e.l. : Resolver un sistema de ecuaciones es hallar todas sus soluciones. Obviamente, un sistema se puede resolver cuando es compatible, es decir, lo primero que debemos hacer es discutir el sistema (teorema de Rouché-Fröbenius) para averiguar su compatibilidad. Para resolver un s.e.l. hay que hacer transformaciones en las ecuaciones hasta que todas las incógnitas queden despejadas. Estas transformaciones convierten nuestro sistema inicial en otro/s sistema/s (con aspecto distinto y más fáciles de resolver) que tienen las mismas soluciones ( = sistemas equivalentes ). Generalmente las transformaciones más habituales son : ( criterios de equivalencia ) - Intercambiar dos ecuaciones entre sí. - Suprimir una ecuación que tenga todos sus elementos nulos. - Suprimir una ecuación que sea proporcional a otra. - Suprimir una ecuación que sea combinación lineal de otra/s - Multiplicar o dividir una ecuación por un número distinto de cero. - Sustituir una ecuación i de este modo : Ei = Ei + a·Ej Métodos directos : • • • • • • • Método de Gauss (por reducción) Método de Cramer (por determinantes) Por inversión de la matriz Método de Gauss-Jordan (por eliminación) Por sustitución Método de Jacobi Método de Gauss-Seidel Métodos iterativos : Vamos a resolver el mismo sistema por varios de éstos métodos para apreciar mejor sus diferencias • Método de Gauss (por reducción) Dado un sistema de "m" ecuaciones con "n" incógnitas se trata de obtener un sistema equivalente cuya 1ª ecuación tenga n incógnitas, la segunda n-1, la tercera n-2, y así sucesivamente hasta llegar a la última ecuación, que tendrá una sola incógnita. Hecho esto, resolvemos la última ecuación, a continuación la penúltima, y así hasta llegar a la primera. Es decir, el método de Gauss consiste en triangular la matriz de coeficientes. Ejemplo: Resolver el siguiente sistema compatible determinado Ejemplo: Resolver el siguiente sistema compatible indeterminado • Método de Cramer (por determinantes) Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el determinante de la matriz de coeficientes es distinto de cero. Es decir, un sistema de Cramer es, por definición, compatible determinado y, por tanto, tiene siempre una solución única. El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar la columna i del determinante anterior por la columna de los términos independientes. Ejemplo: Resolver el siguiente sistema compatible determinado • Por inversión de la matriz Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el determinante de la matriz de coeficientes es distinto de cero. Es decir, resuelve sistemas compatibles determinados (no-homogéneos). Ejemplo: Resolver el siguiente sistema compatible determinado • Método de Gauss-Jordan Es una variante del método de Gauss, y resulta ser más simple al final del proceso, ya que no es preciso despejar las variables pues la solución se obtiene directamente. Se basa en diagonalizar la matriz de coeficientes. NOTA : Si eres usuario registrado del programa Derive, puedes probar la función ROW_REDUCE(v), donde v es la matriz ampliada. Esta función de Derive resuelve un s.e.l. por el método de Gauss-Jordan. Ejemplo: Starmedia Haz starMedia tu página de inicio • • • • • • Correo Chat Fotos Videos Autos • Cine • Clima • Deportes • Economía • Entretenimiento • Estudiantes • Humor • Juegos • Mujer • Noticias • Viajes • Vídeos • • • • • • • • • • • • • • • Inicio Documentos Tests Aulas Chuletas Amor Foros Postales Envía tus apuntes Correo Ayuda Blog publicidad Métodos Numéricos Matemáticas. Matriz Inversa. Regla de Crammer. Tipos de Errores. Interpolación. Derivación Numérica Matemáticas / Cálculo Numérico publicidad • • • Métodos Numéricos Ficha resumen del documento Métodos Numéricos Versión PDF Métodos Numéricos Versión para descargar TEMARIO I.- INTRODUCCIÓN Importancia de los métodos numéricos Tipos de Errores II.- SOLUCIONES DE ECUACIONES ALGEBRAICAS Raíz de una ecuación Métodos de intervalo: bisección, falsa posición Métodos de punto fijo: aproximaciones sucesivas, secante, Newton-Raphson III.- SOLUCION DE SISTEMAS DE ECUACIONES Eliminación Gaussiana Matriz Inversa Gauss-Jordan Regla de Crammer Jacobi Gauss-Seidel IV.- AJUSTE DE FUNCIONES Fundamentos de estadística Interpolación Regresión de mínimos cuadrados V.- DIFERENCIACIÓN E INTEGRACIÓN NUMÉRICA Derivación Numérica Integración Numérica, trapecio, Simpson-Romberg VI.- SOLUCIÓN DE ECUACIONES DIFERENCIALES Métodos de 1 paso: Euler, Euler Mejorado, Runge-Kutta Métodos de pasos múltiples VII.- ECUACIONES DIFERENCIALES PARCIALES Clasificación de las ecuaciones Métodos de diferencias finitas. MÉTODOS NUMÉRICOS 1.1 Problemas matemáticos y sus soluciones. Un modelo matemático puede definirse como una formulación o una ecuación que expresa las características, esenciales de un sistema físico o proceso en términos matemáticos. Vd = f (vi, p , f ) (1) Vd = variable dependiente que refleja el comportamiento o estado del sistema. Vi = variables independientes como tiempo o espacio a través de las cuales el comportamiento del sistema será determinado. P = parámetros , son reflejos de las propiedades o la composición del sistema. f = funciones de fuerza, son influencias externas sobre el sistema. De la segunda Ley de Newton: F = ma ; reordenando f a = ______ ( 2 ) m Características de este modelo matemático. 1.- Describe un proceso o sistema natural en términos matemáticos. 2.- Representa una simplificación de la realidad. 3.- Conduce a resultados predecibles. Otros modelos matemáticos de fenómenos físicos pueden ser mucho más complejos. De nuevo si usamos la segunda Ley de Newton para determinar la velocidad final o terminal de un cuerpo, tenemos un expresión de aceleración como la razón de cambio de la velocidad con respecto al tiempo: f dv = _____ ( 3 ) dt m Para un cuerpo que cae, la fuerza total es: F = FD + Fu ( 4 ) FD = La atracción hacia abajo debido a la fuerza de la gravedad. Fu = Fuerza hacia arriba debida a la resistencia del aire, En donde: FD = mg Fu = -cu c = coeficiente de resistencia o arrastre Como la fuerza total , es la diferencia entre las fuerzas hacia abajo y las fuerzas hacia arriba, tenemos: dv = mg - cu ( 7 ) dt m dv = g - c/m (v) ( 8 ) dt Esta ecuación es un modelo matemático que relaciona la aceleración de un cuerpo que cae con las fuerzas que actúan sobre él. Se trata de una ecuación diferencial o ecuaciones diferenciales. Si las ecuaciones son más complejas, se requiere de técnicas avanzadas para obtener una solución analítica exacta o aproximada. Si el objeto está en reposo, v = o y t = 0 , y usando las teorías de cálculo, obtenemos: v(t) = gm/c ( 1 - e-(c/m)t ) ( 9 ) Que es la solución analítica o exacta, v(t) = variable dependiente t = es la variable independiente c,m = parámetros g = función de la fuerza Ej. 1.1 Un paracaidista , con una masa de 68.1 kgs salta de un globo aerostático fijo. Con la ayuda de la ecuación ( 9 ), calcule la velocidad antes de abrir el paracaídas, coeficiente de resistencia = 12 kg/seg. Datos: m = 68.1 c = 12.5 g = 9.8 m/s v(t) = gm/c ( 1 - e-(c/m)t ) t,s 0 v, m/s 0 2 4 6 8 10 12 16.42 27.76 35.63 41.05 44.87 47.48 53.39 53.39 1 - e -(0.1835)t Cuando los métodos numéricos - modelos matemáticos - no pueden resolverse con exactitud, se requiere de una solución numérica que se aproxima a la solución exacta. Los métodos numéricos son aquellos en los que se formula el problema matemático para que se pueda resolver mediante operaciones aritméticas. Para la segunda Ley de Newton, al aproximar a la razón del cambio de la velocidad con respecto al tiempo , tenemos: dv = v = v ( ti + 1 ) - v ( ti ) ( 10 ) dt t ti + 1 - ti Diferencias finitas divididas v ( ti ) = es la velocidad en el tiempo inicial ti v ( ti + 1 ) = es la velocidad después de un tiempo mas tarde: ti + 1 sustituyendo la ec. ( 10 ) en la ec. ( 8 ): v ( ti + 1 ) - v ( ti ) = g - c/m v ( ti ) ti + 1 - ti Reordenando: V ( ti + 1 ) = v ( ti ) + g - c/m v( ti ) ( ti + 1 - ti ) ( 11 ) A cualquier tiempo Nuevo valor = viejo valor + pendiente x tamaño del paso. Ejemplo 1.2 Resolver el ejemplo anterior mediante una solución numérica para calcular la velocidad. Emplear un tamaño del paso de 2 segundos. Datos: m = 68.1 kg c = 12.5 kg/s g = 9.8 m/s V ( ti + 1 ) = v ( ti ) + g - c/m v( ti ) ( ti + 1 - ti ) V1 = V0 + g - c/m V0 ( ti + 1 - ti ) ; t1 = 2 seg V1 = 0 + 9.8 - 12.5/68.1 (0) (2-0) = 19.6 m/s t2 = 4s, v2 = ? V2 = 19.6 + 9.8 - 12.5/68.1 (19.6) (4-2) = 32 m/s Sustituyendo: V3 = V2 + g - c/m V2 (t3 - t2) V3= 32 + 9 .8 - 12.5/68.1 (32) (2) = 39.85 m/s Entonces V3= 39.85 m/s Sustituyendo: V4 = 39.85 + 9 .8 - 12.5/68.1 (39.85) (2) = 44.82 m/s V5 = 44.82 + 9 .8 - 12.5/68.1 (44.82) (2) = 47.96 m/s V6 = 47.96 + 9 .8 - 12.5/68.1 (47.96) (2) = 49.95 m/s t,s 0 2 4 6 8 10 12 SN 0 19.6 32 39.85 44.82 48.01 49.05 53.39 SA 0 16.42 27.76 35.63 41.05 44.87 47.48 53.39 1.2. Importancia de los métodos numéricos Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas. El análisis numérico trata de diseñar métodos para “ aproximar” de una manera eficiente las soluciones de problemas expresados matemáticamente. El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a problemas complejos utilizando sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático. Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en: • • • • • • • Cálculo de derivadas Integrales Ecuaciones diferenciales Operaciones con matrices Interpolaciones Ajuste de curvas Polinomios Los métodos numéricos se aplican en áreas como: Ingeniería Industrial, Ingeniería Química, Ingeniería Civil, Ingeniería Mecánica, Ingeniería eléctrica, etc... 1.3 Tipos de errores Exactitud.- Lo que está más cerca del valor verdadero. Se refiere a que tan cercano está el valor medido o calculado con el valor verdadero. Precisión.- Se refiere a que tan cercano esta un valor individual medido o calculado con respecto a los otros. Cifras significativas.- Es el conjunto de dígitos confiables o necesarios que representan el valor de una magnitud independientemente de las unidades de medidas utilizadas. Confiables.- Por que dependen del instrumento de medición empleado. Necesarias.- Por que depende de leyes, reglamentos, normas o costumbres. La longitud del pizarrón es: En 4 mediciones, siendo en cada medición distintas personas, los resultaos fueron los siguientes: 1.- 3.0 m 2.- 3.0 m 3.- 3.0 m 4.- 3.0 m La longitud de la libreta : 1.- 28 cm ( flexómetro ) 3.- 28 cm 2.- 27.5 cm ( regla ) 4.- 28 cm La longitud de un lápiz: Regla: 14.3 cm Tornillo: 14.327 cm Vernier: 14.32 cm La velocidad de un automóvil: Digital: 89.5 km/h Carátula: 90 km/h ¿ Cuántas cifras significativas ( que tan preciso debe ser ) son necesarias ? 1.- El total de cifras significativas es independiente de la posición del punto decimal. Ejemplo: El medir una mujer se registró que su estatura es de 1.67 m = 16. 7 dm = 167 cm , (teniéndose 3 cifras significativas ). 2.- Los ceros a la izquierda de dígitos no nulos, nunca serán cifras significativas. Ejemplo: Un balero tiene un diámetro de 26 mm = 0.026 m = 0.000026 km ( 2 cifras significativas ). 3.- Los ceros intermedios de dígitos no nulos, siempre serán significativos: Ejemplo: • • • 40072 ( 5 c.s. ) 3.001 ( 4 c.s. ) 0.000203 ( 3. c.s. ) Los errores.- Es la discrepancia que existe entre la magnitud “ verdadera” y la magnitud obtenida. Error absoluto.- Es igual a la diferencia entre el valor verdadero y el valor aproximado: EA = Vv - Va ( 12 ) Error Relativo.- Es el cociente del error absoluto respecto al valor verdadero: ER = EA = Vv - Va Vv Vv Error Relativo Porcentual: ERP = EA x 100 % ( 13 ) Vv Ejercicios: Ejemplo.- Supóngase que se tiene que medir la longitud de un puente y de un remache. La longitud del puente obtenida es de 9999 cm y la del remache es de 9 cm. Si los valores verdaderos son 10,000 y 10 cm, respectivamente, calcule : el error absoluto el error relativo % para cada caso: Puente Remache Vv = 10000 cm 10 cm Va = 9999 cm 9 cm EA = 10000 - 9999 EA = 10 - 9 EA = 1 cm EA = 1 cm Error Porcentual = 1 x 100 = 0.01 % 10,000 Error Porcentual = 1 x100 = 10 % 10 Ejemplo: Suponga que el valor para un cálculo debería ser Vv = 0.10 x 102 pero se obtuvo el resultado de Va = 0.08 x 102. Determine el error absoluto y el error relativo porcentual: EA = 0.10 x 102 - 0.08 x 102 EA = 2 = 0.2 x 101 ERP = 0.2 x 101 x 100 = 20% 0.10 x 102 Ejemplo: Vv = 0.24 x 10 - 4 Va = 0.12 x 10 - 4 EA = 0.24 x 10 - 4 - 0.12 x 10 - 4 EA = 1.2 x 10 - 5 , 0.12 x 10 - 4 , por lo tanto es pequeño ERP = 0.12 x 10 - 4 x 100 = 50%, por lo tanto es grande. 0.24 x 10 - 4 Ejemplo : Vv = 0.46826564 x 10 6 Va = 0.46830000 x 10 6 EA = 0.46826564 x 10 6 - 0.46830000 x 10 6 EA = 34.46 , por lo tanto es grande. ERP = 34.36 x 100 =7.33771504 x 10 - 3, es pequeño 0.46826564 x 10 6 Concluyendo , cuando se manejen cantidades muy grandes o muy pequeñas el EA puede ser engañoso, mientras que el error relativo es más significativo en estos casos. Determinación del error en ausencia del valor verdadero Cuando no se conoce la respuesta verdadera, es necesario estimar el valor en ausencia de los valores verdaderos. Ciertos métodos numéricos usan un método iterativo para calcular resultados, tales casos se hace una aproximación con base en la aproximación anterior. Es decir, el error se calcula como la diferencia ente la aproximación actual y la aproximación previa. Ea = aproximación actual - aproximación anterior x 100 (14) aproximación actual Ea < El siguiente criterio es útil para tener la seguridad que el resultado es correcto en al menos n cifras significativas. • = ( 0.5 x 10 2 - n ) = 0.5 x 10 -3 %, = 0.005 % Ejemplo: La función exponencial llamada expansión por serie de Mc Laurin, se puede calcular mediante la ecuación: ex = 1 + x + x2 + x3 + ........... + x n 2! 3! n! Mientras más términos se le agreguen a la serie, la aproximación se acercará cada vez más al valor de ex . Estímese el valor de e 0.5 , calculando los valores del ERP ( error relativo porcentual y el valor de aproximación ) , si el valor real o verdadero es e 0.5 = 1.648721, agréguese términos a la serie hasta que Ea < , cumpla 3 cifras significativas. Solución: E = ( 0.5 x 10 2 -3 ) % = 0.5 x 10 - 1 E = 0.005 Ea < 0.05 % 1er término ex = 1 ERP = 1.648721 - 1 x 100 = 39.34 % 1.648721 2do término ex = 1 + 0.5 = 1.5 ERP = 1.648721 - 1.5 x 100 = 9.02 % 1.648721 3er término ex = 1 + x + x2 2! ex = 1.5 + (0.5)2 = 1.625 2! ERP = 1.648721 - 1.625 x 100 = 1.438 % 1.648721 Ea = 1.625 - 1.5 x 100 = 7.692% 1.625 4to término e x = 1.625 + (0.5)3 = 1.645833 3! ERP = 1.648721 - 1.645833 x 100 = 0.175 % 1.648721 Ea = 1.645833 - 1.625 x 100 = 1.265% 1.645833 5to término e x = 1.645833 + (0.5)4 = 1.648437 4! ERP = 1.648721 - 1.648437 x 100 = 0.0172 % 1.648721 Ea = 1.648437 - 1.645833 x 100 = 0.158% 1.648437 6to término e x = 1.648437+ (0.5)5 = 1.648697 5! ERP = 0.00142 % Ea = 1.648697 - 1.648437 x 100 = 0.0158% 1.648697 Ea < 0.0158 < 0.05 % Término 1 2 3 ex 1 1.5 1.625 ERP Ea 6 Ea < Errores de Truncamiento Con 5 cifras significativas: 1.648697 0.00142 0.0158 75.667891 75.667591 75.66453 75.668 75.668 75.665 Es el que ocurre al aumentar o disminuir artificialmente el valor de una magnitud. Criterio de redondeo D1 d2 d3 ..... d1 i +1 ..... dn ( i < n ) Di + 1 > 5 di = di +1 Di + 1 < 5 di = di Di es par di = di Di + 1 = 5 Di es impar di = di +1 Ejemplos: Redondear a 4 cifras significativas: 42.37834 = 42.38 382.154 = 382.2 545.21 = 545.2 Ejemplo: Error de redondeo, al restar dos números iguales. Considere las ecuaciones: 31.69 x + 14.31 y = 45.00 13.05 x + 5.89 y = 18.53 Determine los valores aproximados de x e y usando redondeo a dos cifras decimales, obtenga el error absoluto y el error relativo porcentual para cada variable si sus valores verdaderos son: X = 1.25055 = 1.250547046 Y = 0.37527 = 0.375273523 EA = 1.25055 - 1.250547046 EA = 0.000002954 EA = 0.37527 - 0.375273523 EA = 0.000003523 ERP = 0.000002954 x100 1.25055 ERP = 0.00023 % ERP = 0.000002954 x100 0.37527 ERP =0.00078 % Resuelva la ecuación cuadrática: 100x2 -10011x + 10.011 = 0 Para encontrar las raíces reales ( x1,x2 ), redondeando a 5 dígitos significativos y a 5 dígitos decimales. 10011 +- " (-10011)2 -4(100)(10.011) 2(100) x1 = 80.088, 10041 x2 = 20.022, 9981.0 Errores de Truncamiento Ej. 653. 45931 653. 45 Son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático. Para estos casos las series de Taylor, en los métodos numéricos, expresan las funciones en forma polinomial: f(x1 +1) + f(xi) +f´(xi)h +f” (xi)h2+ f”'(xi)h3 + .....fn(xi)hn 2! 3! n! h(x1 +1- xi) Ej. Use términos en la serie de Taylor de cero a 4to orden para aproximar la función f(x) = -0.1x4 -0.15x3-0.5x2-0.25x +1.2, desde xi = 0 con h =1 para predecir el valor de la función en x1 +1 = 1. Solución: n = 0 orden f(x1 +1) = f(xi) = -0.1x4 -0.15x3-0.5x2-0.25x +1.2 f(x1 +1) = 1.2 n = 1er orden f(x1 +1) + f(xi) +f´(xi)h f(x1 +1) =1.2 + (-0.4 x3-0.45x2-x-0.25) (1) f(x1 +1) =1.- 0.25 f(x1 +1) = 0.95 n= 2do orden f(x1 +1) + f(xi) +f´(xi)h +f” (xi)h2 2! f(x1 +1) = 1.2-0.25+(-1.2x2-0.90x-1) (1)2 2! f(x1 +1) = 0.95 -0.5 f(x1 +1) = 0.45 n = 3er orden f(x1 +1) + f(xi) +f´(xi)h +f” (xi)h2+ f”'(xi)h3 2! 3! f(x1 +1) = 0.45+ ( -2.4x-0.90 ) (1)3 6 f(x1 +1) = .45 - 0.15 f(x1 +1) = 0.3 n = 4to orden f(x1 +1) = 0.3 + f4 (xi) h4 4! f(x1 +1) = 0.3 + (-2.4) (1)4 24 f(x1 +1) = 0.2 Error numérico total Es la suma de los errores de truncamiento y redondeo. Para minimizar los errores de redondeo debe incrementarse el número de cifras significativas. El error de truncamiento puede reducirse por un tamaño de paso más pequeño. II. - Soluciones de Ecuaciones No Lineales. 2.1 Raíces de ecuaciones: La fórmula cuadrática -b +- " b2 -4ac (2.1) 2a Se usa para resolver ecuaciones del tipo Ax2+ bx + c Ej. = f(x) = ax2 - bx + c ( 2.2 ) A los valores calculados en la ec. (2.1) se les llama raíces de la ecuación ( 2.2 ). Son valores de x que hacen a la ecuación igual a cero. Se puede definir a la raíz de una ecuación como el valor de x que hace a f(x) = 0. Fundamentos Matemáticos Las funciones algebraicas como los polinomios se representan generalmente como: fn(x) = a0 + a1 + a2 x2 + .......... anxn Ejemplos: f2(x) = 1-2.37x+ 7.5x2 f6(x) = 5x2 -x3 + 7x6 f5(x) = 2 - 8x + x3 + 4x5 Las funciones “trascendentales” contienen términos trigonométricos , exponenciales o logarítmicos. Ejemplos: f(x) = lnx2 -1 f(x) = ex sen x + ln 3x + x3 f(x) = e-0.2x sen(3x-0.5) Las raíces de las ecuaciones pueden ser reales o complejas. Si f(x) es un polinomio factorizable, como: f(x) = ( x- x1 ) ( x - x2 ) ( x - x3 ) ....... ( x - xn ) Se tiene que xn es la n - ésima raíz de f (x) = 0 Ejemplo: f(x)= x3 -7x2 -4x + 28 = 0 ( x2 - 4 ) ( x - 7 ) = 0 x1 = 2, x2 = -2, x3 = 7 2.2 Métodos de intervalo 2.2.1 Método de Bisección PASO 1.- Alija los valores iniciales inferior xi y superior xs. PASO 2.- La primera aproximación a la raíz xr se determina como: xr = xi + xs. 2 PASO 3.- Calcule f(xi), f(xr) para determinar en que subintervalo cae la raíz. PASO 4.- a ) Si f(xi) f(xr) < o, la raíz se encuentra en este subintervalo entonces xs. = xr, continúe el paso 2. b)Si f(xi) f(xr) > 0, la raíz se encuentra en el subintervalo superior, entonces xi = xr, continúe el paso 2. PASO 5.- Cuando Ea < , el cálculo termina. Ej. Determine el coeficiente de rozamiento c =? Necesario para que un paracaidista de masa = 68.1 kg tenga una velocidad de 40 m/s, después de una caída libre de t = 10 seg. La aceleración de la gravedad es de 9.8 m/s2. La ecuación a utilizar es: f(c) = gm/c ( 1 - e-(c/m) t ) - v = 0 Solución analítica: Aproximación gráfica: f(c) = 9.8 (68.1)/c ( 1- e -(c/68.1) ) -40 = 667.38/c ( 1-e(-0.146843) ) - 40 c 4 8 12 16 20 f(c) 34.115 17.653 6.067 -2.269 -8.401 bisección xi = 12, xs = 16 xr = (12+16)/2 = 14, xr = xs f(xi) = f(12) = 6.067 f(xr) = f(14) = 1.5687 f(xi) f(xr) = (6.067)( 1.5687) > 0, la raíz se encuentra en el subintervalo superior, xi = xr n=2 xi = 14, xs = 16 , xr = 15 f(xi) = f(14) = 1.5687 f(xr) = f(15) = -0.4248 f(xi) f(xr) = (1.5687)( -0.4248) < 0, la raíz se encuentra en este subientervalo, xs = xr Ea = {15-14/15} x 100 = 6.667 % n=3 xi = 14, xs = 15 , , xr = 14.5 f(xi) = f(14) = 1.5687 f(xi) =f(14.5)= 0.5523 f(xi) f(xi) > 0, xi = xr Ea = {14.5-15/14.5} x 100 = 3.448 % n=4 xi = 14.5, xs = 15 , , xr = 14.75 f(xi) = f(14.5) = 0.5523 f(xi) =f(14.75)= 0.05896 f(xi) f(xi) > 0, xi = xr Ea = {14.75-14.5/14.75} x 100 = 1.695 % n=5 xi = 14.75, xs = 15 , , xr = 14.875 f(xi) = f(14.75) = 0.5896 f(xi) =f(14.87)= -0.1841 f(xi) f(xi) < 0, xs= xr Ea = {14.875-14.75/14.875} x 100= 0.840 % n=6 xi = 14.75, xs = 14.875 , , xr = 14.8125 Ea = {14.8125-14.875/14.8126} x 100= 0.4219 % Ea < 0.422% < 0.5 % xr = 14.8125 iteración 1 2 3 4 5 6 Xi 12 14 14 14.5 14.75 14.75 Xs 16 16 15 15 15 14.875 Xr 14 12 14.5 14.75 14.875 14.8125 Ea % 6.667 3.448 1.695 0.480 0.422 2.2.2 Método de la Falsa posición Este , método utiliza una interpolación lineal ajustada a dos puntos extremos para encontrar una aproximación a la raíz. De acuerdo a la siguiente figura: La intersección de la línea recta con el eje de la x puede estimarse: f(xi ) = f(xs) (2.4) xr - xi xr - xs Reagrupando términos y reordenando f(xi) (xr - xs) = f(xs) (xr - xi) xr { f(xi) - f(xs) } = xs f(xi) - xi f(xs) dividiendo entre f(xi) - xi f(xs) = xr = xs f(xi) - xi f(xs) (2.5) f(xi) - f(xs) Separando términos: xr = xs + xs f(xi) - xi f(xs) f(xi) - f(xs) f(xi) - f(xs) Sumando y restando xs en el lado derecho xr = xs + xs f(xi) - xs xi f(xs) f(xi) - f(xs) f(xi) - f(xs) Agrupando términos se obtiene: xr = xs + xs f(xs) - xi f(xs) f(xi) - f(xs) f(xi) - f(xs) xr = xs - f(xs) (xi -xs) (2.6) f(xi) - f(xs) El algoritmo es idéntico al de bisección, excepto que la ec. (2.6), se usa en el paso 2. Ejemplo Use el método de la falsa posición, para determinar la raíz de la ec. analizada en el ejemplo 2.1 f ( c ) = 667.38/c { (1-e-0.146843 c) } -40 n=1 xi = 12 f(xi) = 6.067 xs = 16 f(xs) = -2.2687 xr = 16 - (-2.2687) (12 -16) = 14.911 6.067 - (-2.2687) f(xr) = -0.25426 f(xi) f(xr) = 6.067 (-0.25426 ) < 0, xs = xr n=2 xi = 12 f(xi) = 6.067 xs = 14.9112 f(xs) = -0.25426 xr = 14.9113 - (-0.25426) (12 -14.9113) = 14.7942 6.067 - (-0.25426) f(xr) = -0.0.2726 f(xi) f(xr) < 0, xs = xr Ea = {(14.7942-14.9113)/14.7942} x 100% = 0.79 % n=3 xi = 12 f(xi) = 6.067 xs = 14.7942 f(xs) = -0.02726 xr = 14.7942 - (-0.02726) (12 -14.7942) = 14.7816 6.067 - (-0.02726) xr = 14.7816 Ea = {(14.7816-14.7942)/14.7816} x 100% = 0.087 % Ea < 0.087 < 0.5 % 2.3 Métodos de Punto fijo 2.3.1 Método de aproximaciones sucesivas Los métodos abiertos se basan en fórmulas que requieren de un solo valor para predecir la raíz. La ecuación f(x)= 0 se arregla de tal modo que x quede del lado izquierdo de la ecuación: X = g (x ) (2.7) Ejemplo: f(x) = x2 -2x + 3 = 0 reordenando : x = x2 + 3 2 f(x) = sen x = o reordenando: x = sen x + x Requerimos de un valor inicial xi, que se puede usar para obtener una aproximación de xi + 1, expresándolo por la forma iterativa: xi + 1 = g (xi ) ( 2.8 ) El error de aproximación: Ea = xi + 1 - xi x 100 xi + 1 Es quema gráfico de la convergencia de la iteración del punto fijo: Use el método de aproximaciones sucesivas ( iteración del punto fijo para localizar la raíz de f (x) = e-x - x, x0 = 0, Ea = 0.5% ) X = e-x = g ( x ) X1 + 1 = e-xi X0 = 0, x1 = e-0 = 1 ; x1 = 1 X2 = e-x1 = e-1 = 0.367879 X3 = e-x2 = e-0.367879 = 0.692200 X4 = e-x3 = e-0.692200 = 0.500473 X5 = e-x4 = e-0.500473 = 0.606243 X6 = e-x5 = e-0.606243 = 0.545396 X7 = e-x6 = e-0.545396 = 0.579612 I 0 1 2 3 4 * 12 2.3.2 Método de Newton - Raphson xi 1 0.367879 0.692200 0.500473 0.606243 0.579612 0.566400 Ea (%) 171.83 46.9 38.3 17.4 * * 0.355 Este método se puede obtener mediante el siguiente gráfico: Si el valor inicial de la raíz es xi , podemos trazar una tangente desde el punto { xi, f(xi) }. El punto donde está tangente cruza el eje x, representa una aproximación de la raíz. De la figura la primera derivada es x , es equivalente a la pendiente. f´(x) = f(xi) - 0 xi - xi + 1 Reordenando: Xi +1 = xi - f(xi) Fórmula de Newton-Raphson ( 2.9 ) f´( xi ) Esta ecuación también puede obtenerse mediante la serie de Taylor. f(x1 +1) + f(xi) +f´(xi)h +f” (xi)h2+ f”'(xi)h3 + .....fn(xi)hn 2! 3! n! Truncando la serie de Taylor hasta la primera derivada: f(x1 +1) = f(xi) +f´(xi) (x1 +1 - xi) en el que se intersecta con el eje x, f(x1 +1) = 0 0 = f(xi) +f´(xi) (x1 +1 - xi) Xi +1 = xi - f(xi) que es la ec. ( 2.9 ) f´( xi ) Ejemplo 2.4 Encuentre la raíz de tgx-x = 0, en < x< 1.5 , = 0.01% Solución: 3.1416 < x< 4.71 f(x) = tan x - 0.1 = 0 f´(x) = sec2 - 0.1 f´(x) = 1 - 0.1 cos2 x x0 = 3.5 x1 = X0 - f(x0) f´( x0 ) Sustituyendo: 3.5 - tan 3.5 - 0.1 (3.5) 1 - 0.1 cos2 3.5 x1 = 3.476422 = 3.468356 Ea = 3.476422 - 3.5 x 100 % = 0.678226 3.476422 x2 = x1 - f(x1) f´( x1 ) Sustituyendo: 3.476422 - tan 3.476422 - 0.1 (3.476422) 1 - 0.1 cos2 3.476422 x2 = 3.476140 Ea = 3.476140 - 3.476422 x 100 % = 0.008% 3.476140 Ea < 0.008 % < 0.01 % x = 3.476140 La siguiente fórmula atribuida a Francis se aplica a un vertedor con concentraciones: Q = 3.33 ( B -0.2 +1) (H3)1/2 Donde: Q = cantidad de agua que pasa por el vertedor (pie3/s) B = ancho del vertedor en pies H = carga sobre la cresta del vertedor Si B = 3 y Q = 12 , calcule los valores con el método de Newton- Raphson. Se requiere utilizar como valor inicial H0 =B/2 Solución : f(x) = Q - 3.33(B-0.2+1)(H3)1/2 = 0 f´(x) =Q -10H3/2 + 0.666H5/2 = Q-3.33BH3/2+ 0.666H5/2 = -3.33(3/2)H1/2+ 0.666(5/2)H3/2 = -5BH1/2 + 1.66H3/2 = -15H1/2 + 1.665 H3/2 H0 = x0 = 3/2 = 1.5 x1 = X0 - f(x) f´( x) H1 = H0 - f(H) f´(H) f(H) = 12-10(1.5)3/2 + 0.666 (1.5)5/2 = -4.5359 f´(H) = -15(1.5)1/2 + 1.665 (1.5)3/2 = -15.3125 H1 = 1.5 - 4.5359 = 1.2037 15.3125 f(H) = 12-10(1.2037)3/2 + 0.6666 (1.2037)5/2 f´(H) = -15(1.2037)1/2 + 1.665(1.2037)3/2 H2 = 1.2037 - -10.14784 -14.2581 H2 = 1.1933 H3 = 1.1933 2.3.3 Método de la Secante Consiste en aproximar la derivada f´(x1) , mediante una diferencia dividida finita regresiva, como se muestra en la siguiente figura: f´(x1) = f(x1) - f(x1 -1) xi - x1 -1 Sustituyendo esta aproximación en la ecuación (2.9), obtenemos la siguiente ecuación iterativa: x1 +1 = xi - f(x1) - (x1 -1) ( 2.10 ) f(x1) - f(x1 -1) Se requiere de dos valores iniciales, xo , x1 X2 = x1 - f(x1) - (x1 - xo) f(x1)-f( xo) X3 = x2 - f(x2) - (x2 - x1) f(x2)-f( x1) hasta que se cumpla la tolerancia Ea < 2.6 Un proyectil de m = 2 grs, ha sido lanzado verticalmente al aire y está descendiendo, a su velocidad terminal, que se determina mediante mg = fD. El modelo matemático que relaciona todas las variables y constantes es : mg = 1.4 x 10-5 v1.5 + 1.15 x 10-5 v2 1000 donde: v = velocidad terminal en m/s. El primer término del lado derecho. Representa la fuerza de fricción y el segundo término representa la fuerza de presión. Determinar la velocidad terminal, por el método de la secante, con valores iniciales de Vo = 30, V1 = 30.1 y = 0.1%. Solución: f(x) = f(x) = 2(9.81) = 1.4 x 10-5 v1.5 - 1.15 x 10-5 v2 = 0 1000 f(v) = 0.1962-1.4 x 10-5 v1.5 - 1.15 x 10-5 v2 = 0 1era iteración: Vo = 30, V1 = 30.1 V2 = V1 - f(V1)( V1 - Vo ) f(V1)- f(V0) f(V0) = 0.1962-1.4 x 10-5 (30)1.5 - 1.15 x 10-5 (30)2 = 6.9695 x10-3 f(V1) = 0.1962-1.4 x 10-5 (30.1)1.5 - 1.15 x 10-5 (30.1)2 = 6.8889 x10-3 V2 = 30.1 - 6.8889 x10-3 (30.1-30) = 38.6470 6.8889 x10-3 - 6.9695 x10-3 Ea = 38.6470 - 30.1 x 100 = 22.1% 38.6470 2da iteración V1 = 30.1, V2 = 38.6470 f(V1)= 6.8889x10-3 f(V2)= -9.1702410-4 V3 = 37.64045 Ea = 2.67% 3era iteración V2 = 38.6470 , V3 = 37.64045 f(V2)= -9.17024 x10-4 f(V3)= 9.372617 x10-5 V4 = 37.73353 Ea = 0.24% 4ta iteración V3 = 37.64045, V4 = 37.73353 f(V3)= 9.372617 x10-5 f(V4) = 1.04766 x 10-6 V5 =37.7346 = V Ea = 0.00278 %, < Ejemplo 2.7 Para el diseño de tuberías, en el transporte de flujo de fluidos, uno de los parámetros importantes a considerar, es el factor de fricción de Fanning, cantidad a dimensional que depende de otro parámetro a dimensional , el número de Reynolds, Re. Una de las ecuaciones para determinar el factor de fricción es la de Von Karman: 1 = 4 log10 (Re "f ) -0.4 "f Los valores típicos del número de Reynolds va de 10,000 hasta 500,000: 10,000 < Re > 500,000 para flujo turbulento y valores típicos para el factor de fricción de Fanning; 0.01< f >0.01. Determine f por el método de la secante. Fo = 0.0049 , f1 = 0.0050, = 0.1% Re = r Solución: 1 = 4 log10 (105 x "f ) +0.4 "f Re = 100,000 1er iteración f(f0) = 1 - 4 log10 (105 x"0.0049 ) +0.4 "0.0049 f(f0) = -0.6946 f(f1) = 1 - 4 log10 (105 x"0.0050 ) +0.4 "0.0050 f(f1) = -0.8558 f2 = f1 - f(f1)( f1 - f0 ) f(f1)- (f0) f2 = 0.0050 - (-0.8558)(0.0050-0.0049) (-0.8558)+( 0.6946 ) f2 = 0.004469 Ea = 0.004469 - 0.0050 x 100 = 11.88% 0.004469 2da iteración f(f2) = 1 - 4 log10 (105 x" 4.469x10-3) +0.4 "4.469x10-3 f(f2) = 0.05831 f(f3) = 1 - 4 log10 (105 x" 4.506x10-3) +0.4 "0.004506 f(f3) = -0.0103 3er iteración f3 = f2 - f(f2) (f2 - f1) f(f2) - f(f1) f3 = 4.469x10-3 - (0.05831)( 4.469x10-3 - 0.0050) 0.0583 + 0.0050 f3 = 0.0049581 Ea = 0.004502 - 0.004469 x 100 = 0.73% 0.004502 III. Solución de sistemas de Ecuaciones lineales y no lienales 3.1 Métodos de soluciones de Ecuaciones lineales 3.1.1 Método gráfico Las ecuaciones generales a11 x1 + a12 x2 = b1 a12 x1 + a22 x2 = b2 Pueden resolverse para x2, a11 b1 De ec. (1), x2 = - x1 + a12 a12 a12 b2 De ec. (2), x2 = - x1 + a22 a22 de donde x2 = ( pendiente ) x1 + intersección. Es decir, las ecuaciones tienen la forma de líneas rectas que se puedan graficar y su intersección representa la solución. Ejemplos: Ej. 3.1 Use el método gráfico para resolver las siguientes ecuaciones: 3x1 + 2x2 = 18 (A) - x1 + 2x2 = 2 ( B) Solución: Despejar : De ec. (A) : x2 = -3 x1 + 9 2 De ec. (B) : x2 = 1 x1 + 1 2 3.1.2 Método de Krammer Un sistema de ecuaciones algebraicas lineales se representan como: a11 x1 + a12 x2 + **** a1n xn = b1 a12 x2 + a21 x2 + **** a2n xn = b2 * * am1 x1 + am2 x2 + **** ann xn = bn Donde: a = coeficientes b = constantes cuya matriz de coeficientes, para un sistema de 3 ecuaciones, es: a11 a12 a13 A = a21 a22 a23 a31 a32 a33 Y de donde el determinante D, de tercer es : a11 a12 a13 D = a21 a22 a23 a31 a32 a33 que se resuelve como: a22 a23 a21 a23 a21 a22 D = a11 - a12 + a13 a3 a33 a31 a33 a31 a32 donde los determinantes de 2 x 2 se les llama menores. La regla de Krammer, se expresa como una fracción de dos determinantes con denominador D y con el numerador obtenido a partir de D al reemplazar la columna de coeficientes de la incógnita x1 por las constantes b1 ***** b2 ****** bn b1 a12 a13 X1 = b2 a22 a23 b2 a32 a33 D a11 a12 a13 X2 = a21 a22 a23 a31 a32 a33 D a11 a12 a13 X3 = a21 a22 a23 a31 a22 a33 D Ejemplo 3.2 Use la regla de Krammer para resolver: 0.3 X1+ 0.52 X2+ X3 = -0.01 0.5 X1+ X2+ 1.9X3 = 0.67 0.1 X1+ 0.3 X2+ 0.5X3 = -0.01 0.3 X1+ 0.52 X2+ X3 0.03 0.52 A = 0.5 X1+ X2+ 1.9X3 0.5 1 0.1 X1+ 0.3 X2+ 0.5X3 0.1 0.3 (0.15)+(0.0988)+(0.15)-(0.1)-(0171)-(0.13) = -0.0022 det A = -0.0022 -0.01 X1+0.52 X2+1 X3 -0.01 0.52 B = 0.67 X1+ 1 X2+ 1.9X3 0.67 1 -0.44 X1+0.3 X2+0.5X3 -0.44 0.3 -(0.005)-(0.43472)+(0.201)+(0.44)+(0.0057)-(0.1742)= det B = 0.03278 det B = 0.03278 = -14.9 det A = -0.0022 0.03X1 -0.01 X2+1 X3 0.3 -0.01 C = 0.5 X1 + 0.67 X2+1.9X3 0.50 0.67 0.1 X1 -0.44 X2+0.5X3 0.1 -0.44 (0.1005)-(0.0019)-(0.22)-(0.67)+(0.2508)+(0.0025)= det C = 0.0649 det C = 0.0649 = -29.5 det A = -0.0022 0.3 X1+ 0.52 X2 -0.01X3 0.03 0.52 D = 0.5 X1+ X2+0.67X3 0.5 1 0.1 X1+ 0.3 X2 - 0.44X3 0.1 0.3 -(0.132)+(0.03484)-(0.0015)+(0.001)-(0.0603)+(0.1144) = -0.04356 det D = -0.04356 det D = -0.04356 = 19.8 det A = -0.0022 x1 = -14.9, x2 = -29.5 , x3 = 19.8 3.3 Eliminación Gaussiana y sustitución hacia atrás Para un sistema de ecuaciones algebraicas lineales a11 x1 + a12 x2 + **** a1n xn = b1 E1 a12 x2 + a21 x2 + **** a2n xn = b2 E2 * * am1 x1 + am2 x2 + **** ann xn = bn En La matriz aumentada A es : a11 a12 ***** a1n b1 A = a21 a22 ***** a2n b2 a31 a32 ***** a3n bn Para resolver este sistema lineal, se permiten tres operaciones en las ecuaciones. 1) La ecuación -Ei puede multiplicarse por cualquier constante diferente de cero y se puede usar la ecuación resultante en lugar de Ei: (Ei) Ei 2) La ecuación Ej, puede multiplicarse por cualquier constante , sumarla a la ecuación Ei, y usar la ecación resultante en lugar de Ei: (Ei + Ej) (Ei) 3.- Las ecuaciones Ei y Ej se pueden intercambiar (Ei ) (Ei) Ejemplo 3.3 Reducir el sistema de ecuaciones: X1 +X2 +X3 +3X4 = 4 2 X1 +X2 -X3 +X4 = 1 3X1 -X2 -X3 +2X4 = -3 -X1 +2X2 +3X3 -X4 = 4 1 0 0 E1 0 1 0 E2 0 0 1 E3 0 0 0 E4 Para resolver las incógnitas: X1 ,X2,X3,X4 : De esta manera el sistema se transforma en un sistema triangular o reducido, por lo tanto, por sustitución hacia atrás: El procedimiento involucrado en este proceso se llama eliminación Gaussiana, con sustitución hacia atrás : El procedimiento se realiza en dos pasos: 1.- Reducir el conjunto de ecuaciones a un sistema triangular superior por eliminación hacia delante: Matrices especiales: Ejemplo 3.4. Use la eliminación de Gauss para resolver: Efectuando los cálculos con 6 cifras significativas Solución: La matriz aumentada es: Ej. 3.5, use la eliminación de Gauss para resolver : 3.1.4 Método de Gauss- Jordan El método consiste en eliminar elementos arriba y debajo del elemento pivote, para generar una matriz diagonal o unitaria en lugar de una triangular. Ej. Use la técnica de Gauss- Jordan para resolver Resolver por Gauss- Jordan: Usando 4 cifras significativas: 3.1.5 Matriz Inversa El producto de una matriz cuadrada , [A] y su inversa [A]-1 da como resultado la matriz identidad [I]: [A] [A]-1 = [A]-1[A] = [I] La matriz inversa se puede calcular en forma numérica para resolver n sistemas lineales, de donde la inversa es la solución del sistema lineal. Ej. 3.8. resolver los tres sistemas lineales: Por el cálculo de la inversa: Solución: La matriz de coeficientes es: La matriz aumentada es : Por eliminación Gaussina: La matriz inversa [A]-1 La solución de los tres sistemas son: Métodos iterativos Matrices bandeadas Un gran número de sus componentes son cero: El sistema de ecuaciones representados matricialmente para encontrar su solución es Ax = b ( 3.5 ) Reordenando se tiene Ax - b = 0 Una ecuación vectorial de f(x) = 0 (3.6) Aplicando el método iterativo de punto fijo , la ec.(3.6) puede arreglarse de tal forma que: X = g(x) X = Bx + C B = matriz (3.7) C = vector de las constantes Se requiere de un vector inicial x(0) como primera aproximación al vector solución x Dado el sistema: Con a11, a22, a22, diferentes de cero Se despeja X1 de la Ec. 1 Se despeja X2 de la Ec. 2 Se despeja X3 de la Ec. 3 Que en notación matricial queda: Para iterar existen dos métodos Jacobi El vector aproximación a la solución x después de k iteraciones, entonces se tiene la siguiente aproximación: Resuelva el siguiente sistema por el método de Jacobi: Se despeja X1 de la Ec. 1 Se despeja X2 de la Ec. 2 Se despeja X3 de la Ec. 3 Se despeja X4 de la Ec. 4 Valores iniciales , k = 0 X(0) = [ 0,0,0,0,], Calcular xk+1 = x1 Calcular x2 Calcular x3 Los resultados de las iteraciones son: K 0 1 2 X1k 0 0.2500 0.3125 X2k 0 0.2500 0.3750 X3k 0 0.2500 0.3750 X3k 0 0.2500 0.3125 3 4 5 6 7 8 9 10 Ejemplo 3.10 0.3438 0.3555 0.3604 0.3623 0.3631 0.3634 0.3635 0.3636 0.4219 0.4414 0.4492 0.4524 0.4537 0.4542 0.4544 0.4545 0.4219 0.4414 0.4492 0.4524 0.4537 0.4542 0.4544 0.4545 0.3438 0.3555 0.3604 0.3623 0.3631 0.3634 0.3635 0.3636 Resolver el siguiente sistema: Despejando: Con E = 0.001 % Si x(0) [0,0.0]T K 0 1 2 3 4 5 6 7 8 Gauss-Seidel X1k 0 -0.5000 -0.4900 -0.4550 -0.4404 -0.4439 -0.4463 -0.4464 -0.4461 X2k 0 0.1000 0.2600 0.2970 0.2795 0.2712 0.2716 0.2729 0.2732 X3k 0 0.2000 0.3300 0.2950 0.2771 0.2762 0.2789 0.2796 0.2793 Es similar al método de Jacobi, los valores que se van calculando en la ( k + 1 ) - ésima iteración se emplean para calcular los valores faltantes de esa misma iteración, es decir, con x(k), se calcula x(k + 1) . y para un sistema de n ecuaciones: Ej. 3.11. Resuelva el sistema del ejemplo 3.9, por el método de Gauss-Seidel: Con x(0) = [0,0,0,0] K 0 1 2 3 4 5 6 X1k 0.0000 0.2500 0.3281 0.3535 0.3629 0.3633 0.3636 X2k 0.0000 0.3125 0.4141 0.4475 0.4534 0.4544 0.4545 X3k 0.0000 0.3281 0.4365 0.4517 0.4541 0.4545 0.4545 X4k 0.0000 0.3320 0.3591 0.3629 0.3635 0.3636 0.3636 Ej. 3.12 Use el sistema del ejemplo 3.6 por el método de Gauss- Seidel: Solución: Despejando: Si con x(0) = [0,0,0] Y así debemos seguir iterando hasta cumplir con el error estipulado. Criterios de convergencia: Ejemplo 3.14 aplicación en Ing. Eléctrica: Un problema común dentro de la Ing. Eléctrica, involucra la determinación de corrientes y voltajes en varios puntos en circuitos de resistores. Estos problemas se resuelven usando las leyes para corrientes de voltajes de Kirchoff. Considere el circuito mostrado en la figura siguiente: Las corrientes asociadas con este circuito son desconocidas tanto en magnitudes como en dirección. Suponiendo las direcciones de las corrientes: Determine las corrientes del circuito: Solución: La regla de la corriente de kirchoff aplicada a cada nodo es i=0 La regla del voltaje en cada una de las mallas es : v-iR = 0 Sustituyendo los valores de las R: Por lo tanto el problema se reduce a la solución del siguiente conjunto de 6 ecuaciones con 6 incógnitas: Por eliminación Gaussiana: Métodos de soluciones para Senl Antes de intentar resolver un Senl deben tomarse las siguientes sugerencias: Reducir analíticamente el número de ecuaciones é incógnitas. Dividir las ecuaciones en subsistemas menores. Estimar los valores iniciales en base a: Consideraciones físicas. Consideraciones geométricas. 3.2.1 Método de punto fijo multivariable f(x) = 0 x = g(x) x(0) = 0 1.2.3.Para un sistema de dos ecuaciones con dos incógnitas: f1 = (x,y) (3.16) f2 = (x,y) resolviendo para las variables x, y x = g1 = (x,y) (3.17) y = g2 = (x,y) Aplicando el método de punto fijo y los métodos de Jacobi y Gauss-Seidel, se obtendrá la estimación ( k + 1 )-ésima a partir de la estimación k-ésima: Xk+1 = g1 = (xk,yk) ( 3.18) yk+1 = g2 = (xk,yk) Se comienza con valores iniciales x0, y0, se calculan los nuevos valores de x1, y1 y se repite el proceso hasta encontrar la raíz aproximada: X = g1 = (x ,y) Y = g2 = (x ,y) Ejemplo 3.15. Encuentre una solución del sistema de ecuaciones no lineales: f1 = (x,y) = x2 -10x + y2 + 8 = 0 E1 f2 = (x,y) = xy2 + x -10y + 8 = 0 E2 mediante el método del punto fijo multivariable usando desplazamientos simultáneos ( Jacobi), con valores iniciales x0 = 0, y0 = 0. Solución : Despejar x del término ( -10x) de E1 Despejar y del término ( -10y) de E2 X= 0.1x2 +0.1y2 + 0.8 Y= 0.1xy2 +0.1x + 0.8 Expresándolos iterativamente: Xk+1 = 0.1x(xk)2+0.1(yk)2+0.8 Yk+1 = 0.1xk(yk)2 +0.1 xk +0.8 Con valores inciales x0 = 0, y0 = 0, se inicia el proceso iterativo: 1er iteración 2da iteración 3er iteración x1= 0.8 x2 = 0.92800 x3= 0.9728 y1= 0.8 y2 = 0.9312 y3= 0.9733 Los resultados obtenidos del proceso iterativo son: K 0 1 2 3 4 5 * 12 13 Criterios de convergencia: Xk 0.0000 0.8000 0.9280 0.9837 * 0.9957 * 0.9999 1.0000 yk 0.0000 0.8000 0.9312 0.9894 * 0.9957 * 0.9999 1.0000 Para aumentar la velocidad de convergencia puede usarse el proceso iterativo Gauss-Seidel: Xk+1 = g1 = (xk,yk) yk+1 = g2 = (xk+1,yk) (3.19) Ejemplo 3.16, resuelva el sistema del ejemplo anterior utilizando el método del punto fijo multivariable con desplazamientos sucesivos ( Gauss-seidel). f1 = (x,y) = x2 -10x + y2 + 8 = 0 E1 f2 = (x,y) = xy2 + x -10y + 8 = 0 E2 Solución: Xk+1 = 0.1(xk)2+0.1(yk)2+0.8 Yk+1 = 0.1xk+1(yk)2 +0.1 xk+1 +0.8 Aplicando los criterios de convergencia se requiere derivar parcialmente: Evaluando para x0 = 0, y0 = 0 1er iteración: x1= 0.8 y1= 0.1(0.8)+0.8=0.88 2da iteración: x2 = 0.1(0.8)2 +0.1(0.88)2 + 0.8 = 0.9414 y2 = 0.1(0.9414)(0.88)2+0.1(0.9414)+0.8 = 0.9670 3er iteración: x3= 0.1(0.9414)2 +0.1(0.9670)2 + 0.8 =0.9821 y3= 0.1(0.9821)(0.9670)2+0.1(0.9821)+0.8 =0.9900 Los resultados del proceso iterativo son: K 0 1 2 3 4 * 11 Xk 0.0000 0.8000 0.9414 0.9821 0.9944 * 1.0000 yk 0.0000 0.8800 0.9670 0.9900 0.9969 * 1.0000 3.2.2 Método Newton-Rapson multivariable Supóngase que se está resolviendo el sistema: f1 = (x,y)= 0 f2 = (x,y) =0 donde ambas funciones son contínuas y diferenciables, de modo que puedan expanderse en serie de Taylor alrededor del punto (a,b): Expandiendo fi alrededor de : de manera similar puede expresarse f2 donde todas las derivadas parciales están evaluadas en (xk,yk). Considerando que la diferencia entre la aproximación actual y anterior es cero, obtenemos: Si definimos que Xk+1 - xk = h (3.22) Yk+1 -yk = j Reordenando Xk+1 = xk+h Yk+1 = yx+j (3.23) Sustituyendo la ec.( 3.22) en la ec.(3.21) Esto representa un sistema de ec. lineales con incógnitas h y j. El sistema lineal tiene solución si el determinante de la matriz de coeficientes o matriz Jacobiana J es diferente de cero. Ej. 3.17 Use el método de Newton-Raphson para encontrar una solución aproximada al sistema: f1 = (x,y) = x2 -10x + y2 + 8 = 0 E1 f2 = (x,y) = xy2 + x -10y + 8 = 0 E2 con el vector inicial [x0 , y0], [0,0]r Solución: Primero se forma la matriz de derivadas parciales: La matriz aumentada es : 1er iteración: Evaluamos la matriz en x0,y0 Y nos queda: -10 0 -8 1 -10 -8 de donde h = 0.8 y j = 0.88 Xk+1 = x0 + h = 0 + 0.8 = 0.8 = x1 Yk+1 = y0 + j = 0 + 0.88 = 0.88 = y1 2da iteración 2(0.8) -10 2(0.88) (0-88)2 +1 2(0.8)(0.88)-10 con los valores x1, y1 -8.4 1.76 -1.4144 1.7744 -8.592 -0.6195 por eliminación Gaussiana: de donde h= 0.19179 , j= 0.11171 Sustituyendo en ec. (3.23) x2 = x1 + h = 0.8 + 0.19179 = 0.99179 x2 y2 = y1 + j = 0.88 + 0.11171 = 0.99171 y2 K 0 1 2 3 Xk 0.0000 0.8000 0.9917 0.9998 yk 0.0000 0.8800 0.9917 0.9999 4 IV.- Ajuste de funciones 4.1 Fundamentos de estadística 1.0000 1.0000 La media aritmética (y) de una muestra, se define como la suma de los datos individuales (yi) dividida entre el número de puntos ( n ). La desviación estándar ( s ) es una medida del espaciamiento de los datos individuales, respecto, a la media: St = = ( yi - y )2 = es la suma total de los cuadrados de los residuos entre los datos y la media. La varianza (S2 ) es la desviación estándar al cuadrado: S2 = ( yi - y )2 = St (4.3) n-1 n-1 otra manera de calcular la desviación estándar es: S2 = yi - (yi)2 / n (4.4) n -1 coeficiente de variación (c.v.) es la razón de la desviación estándar a la media: c.v. = S/y (100)% que es similar al ERP, es decir, es la razón del error de medición (s) , a un estimado del valor real ( y ). Ejemplo 4.1. Calcule la media, la desviación estándar y la varianza para los datos siguientes que representan las mediciones del coeficiente de expansión térmica para acero estructural: ( x106 pulg/pulg °F ) 6.495 6.665 6.775 6.565 y = 6.6008 S2 = 0.009316 S = 0.096519 6.595 6.505 6.625 6.515 6.615 6.435 6.715 6.555 6.635 6.625 6.575 6.395 6.485 6.715 6.655 6.775 6.555 6.655 6.605 6.685 Una manera de representar la distribución de datos alrededor de la media es mediante un histograma, ya que éste proporciona una representación visual simple de la distribución. Para los datos del ejemplo tenemos: i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 yi 6.395 6.435 6.485 6.495 6.505 6.515 6.555 6.555 6.565 6.757 6.595 6.605 6.615 6.625 6.625 6.635 6.655 6.655 6.655 6.685 6.715 6.715 6.755 6.775 (yi-y) 0.042025 0.027225 0.013225 0.010025 0.009025 0.007225 0.002025 0.002025 0.001225 0.000025 0.000225 0.000625 0.000625 0.001225 0.003025 0.003025 0.003025 0.007225 0.003025 0.013225 0.013225 0.013225 0.024025 0.003625 1 1 6.72 6.76 6.76 6.8 3 6.68 6.72 3 6.64 6.68 5 6.6 6.69 3 6.56 6.6 2 6.52 6.56 4 6.48 6.52 frecuencia límite inferior límite superior 1 1 6.36 6.4 6.4 6.44 Método de Jacobi Capítulo 3 Sistemas Lineales Los sistemas de ecuaciones lineales son una de las herramientas matemáticas de modelaje más comunes en las aplicaciones. Una clasificación común de los sistemas lineales es por su tamaño. Los sistemas con O(100) variables se consideran pequeños y usualmente se utilizan los llamados métodos directos para su solución. Los sistemas de O(1000) ó más variables se consideran grandes o de gran escala y los métodos de solución más eficientes por lo general son los llamados métodos iterativos o indirectos. Otra clasificación importante de los sistemas lineales es por la cantidad o densidad de ceros de la matriz de coeficientes. Los sistemas con pocas entradas distintas de cero se llaman escasos. De lo contrario decimos que el sistema es denso. El aprovechar la estructura de ceros de la matriz de coeficientes nos lleva por lo general a algorítmos mucho más eficientes que los convencionales. La solución directa de sistemas de ecuaciones lineales conlleva esencialmente dos etapas: transformación del sistema original a otro sistema equivalente más "simple" y luego la solución del nuevo sistema equivalente. La transformación del sistema original a uno más simple toma muchas formas la más común de ellas siendo el proceso de Eliminación Gaussiana. En este método, en su forma básica, si ninguno de los pivotes se hace cero, se producen como resultado matrices L y U triangulares inferior unitaria y superior respectivamente tal que A=LU donde A es la matriz de coeficientes del sistema original. El sistema Ax=b se puede resolver ahora en dos etapas adicionales. Problema Básico y Notación Un sistema lineal de n ecuaciones en n desconocidas se puede escribir de la forma (3.1) donde los son dados y x1,x2,…,xn son desconocidas. Si definimos la matriz A y los vectores b, x por (3.2) Entonces podemos escribir el sistema (3.1) en forma matricial como Ax=b. La matriz A se conoce como la matriz de coeficientes del sistema y b como el lado derecho. Si b=0, i.e., bi=0, 1 ≤ i ≤ n, entonces decimos que el sistema es homogeneo. De lo contrario se dice que es nohomogeneo. Ejemplo 1: Considere el sistema Si definimos Entonces podemos escribir el sistema en forma matricial como Ax=b. ¿Cúando tiene (3.1) solución y que esta sea única? Teorema (3.1): Sea A una matriz n × n y b un vector. Las siguientes aseveraciones para el sistema Ax=b son todas equivalentes: a. El sistema tiene solución que es única para todo lado derecho b. b. El sistema tiene por lo menos una solución para todo lado derecho b. c. El sistema homogeneo asociado tiene x=0 como única solución. d. det(A) ≠ 0 e. A es invertible Eliminación Gaussiana Vamos ahora a estudiar el método más básico y a la ves más importante para la solución directa de sistemas lineales. Primero ilustramos el método con un ejemplo y despúes lo generalizamos. Ejemplo 2: Considere el sistema de ecuaciones siguiente: Podemos resolver esto mediante eliminación Gaussisana como sigue: Con este último sistema equivalente podemos obtener la solución sustituyendo para atrás: a. b. c. Vamos a generalizar este ejemplo a un sistema 3× 3 general. Escribimos el sistema original como (3.3) Paso 1: Suponemos que y definimos se llama el pivote en este paso. El sistema (3.3) reduce ahora a: (3.4) donde Paso 2: Suponemos ahora que y definimos Ahora (3.4) reduce a: donde Paso 3: Hacemos ahora la sustitución para atrás para obtener la solución. Suponemos aqui que : Pasamos ahora al caso general del sistema: Primero pasamos por la etapa de eliminación. Esto es, para k=1,2,…,n-1: Paso k: Suponemos que forma: (pivote). El sistema en este paso se reduce a uno de la donde (3.5) En el último paso llegamos a un sistema triangular superior de la forma: (3.6) donde (3.7) Paso n: Calculamos finalmente la solución del sistema haciendo sustitución para atrás: (3.8) Las fórmulas (3.5), (3.7), (3.8) definen el Método de Eliminación Gaussiana en su forma básica. Las formulas (3.5) definen la parte de eliminación del método mientras que (3.8) nos da la sustitución para atrás. Antes de entrar en las variantes de el método básico vamos a hacer un estudio de la cantidad de operaciones envueltas en el método. Esto se conoce como un conteo operacional. Examinando las fórmulas para los siguiente: Paso 1 2 Sumas (n-1)2 (n-2)2 en (3.5) podemos construir la tabla Divisiones n-1 n-2 Multiplicaciones (n-1)2 (n-2)2 n-1 TOTAL donde usamos las fórmulas 1 n(n-1)(2n1)/6 1 n(n-1)(2n-1)/6 1 n(n-1)/2 Es costumbre contar las operaciones de multiplicación y división juntas. De modo que la tabla de arriba la podemos resumir diciendo que en la parte de eliminación del método de eliminación Gaussiana el total de: Sumas y Restas = Multiplicaciones y Divisiones = Las fórmulas para los Estas conllevan: en (3.5) se conocen como la modificación del lado derecho. Sumas y Restas = n-1 + (n-2) + … + 1 = Multiplicaciones y Divisiones = n-1 + (n-2) + … + 1 = Las fórmulas (3.8) de la sustitución para atrás conllevan los siguientes totales de operaciones: Sumas y Restas = 1 + 2 + … + (n-1) = Multiplicaciones y Divisiones = 1 + 2 + … + n = Combinando todos los totales parciales hasta ahora obtenemos que el proceso completo de eliminación Gaussiana conlleva un total de: Sumas y Restas = Multiplicaciones y Divisiones = Note que para n "grande" ambos resultados son aproximadamente (1/3)n3. Asi que por ejemplo doblar n equivale a aproximadamente ocho veces más tiempo computacional. Observe también que la parte de eliminación es la que contribuye el termino proporcional a n3. La modificación del lado derecho y la sustitución para atrás son ambas proporcionales a n2. Note que estos tres procesos son independientes uno del otro. Por consiguiente si hay la necesidad de resolver varios sistemas todos con la misma matriz de coeficientes, la parte de eliminación debe hacerse una sola ves. Al derivar las fórmulas (3.5), (3.7), (3.8) asumimos que los pivotes contrario algún . Si por el , entonces podemos argumentar matemáticamente que algún si la matriz de coeficientes del sistema original es nosingular. En tal caso podemos intercambiar la fila "i" con la "k" y continuar el proceso. A pesar de esto un pivote pequeño, aunque distinto de cero, puede causar que los efectos de redondeo debido a la aritmética finita de la computadora se propagen rápidamente. Ejemplo 3: Considere el sistema El determinante de la matriz de coeficientes es -20/3 de modo que es nosingular. Vamos a resolver el sistema pero usando solo cuatro cifras decimales. Representamos el sistema con la matriz aumentada: De donde obtenemos que z = 1, y = 0, x = 0.6667. ¡La solución exacta del sistema es x=½, y=¾, z=1! Para evitar el problema de pivotes distintos de cero pero pequeños usamos lo que se denomina como pivoteo parcial. Esto es, definimos el indice i0 por: (3.9) Si i0≠ k, entonces intercambiaamos las filas i0 y k. Note que estamos haciendo el pivote máximo en valor absoluto. De esta forma los multiplicadores mik satisfacen lo cúal es lo que ayuda con la propagación de errores. Existe otra variante del pivoteo. En este caso se determinan los indices i0 y j0 tal que: (3.10) y se intercambian las filas i0 y k y las columnas j0 y k si i0≠ k ó j0≠ k respectivamente. Esto se conoce como pivoteo total y se puede demostrar que es más efectivo que el pivoteo parcial en el control de la propagación de errores. Pero el cálculo del máximo en (3.10) es mucho más costoso que en (3.9) por lo que en la practica se prefiere el pivoteo parcial. Además se ha observado en pruebas usando matrices generadas aleatoriamente, que la diferencia entre ambos métodos no es significativa en terminos de la propagación del error. Cálculo de la Inversa de una Matriz Suponga que A es una matriz nosingular y A-1 su inversa. Escribimos A-1 y la matriz identidad I en forma particionada como A-1 = (x1,x2,…,xn) , I = (e1,e2,…,en) donde los ei's forman la base estandar de -1 . Ahora como A A-1 = I, tenemos que (3.11) Axi = ei , 1 ≤ i ≤ n Asi que para calcular A debemos resolver n sistemas distintos pero con la misma matriz de coeficientes A. La eliminación de A la hacemos una ves lo cual requiere (1/3)n3 operaciones aproximadamente. La modificación del lado derecho y la sustitución para atrás de cada uno de los sistemas en (3.11) conlleva aproximadamente n2 operaciones cada uno. Asi que en total tenemos (1/3)n3+n(n2) = (4/3)n3 aproximadamente. (Este conteo se puede mejorar a (5/6)n3). En muchas ocaciones las fórmulas que envuelven inversos de matrices se pueden rescribir en terminos de sistemas lineales intermedios. Por el conteo operacional de arriba, las fórmulas con los sistemas lineales son preferibles ya que la solución de cada sistema envuelve aproximadamente (1/3)n3 operaciones mientras que calcular los inversos toma (4/3)n3 operaciones. Como regla general tenemos pues que: LOS INVERSOS DE MATRICES NO SE CALCULAN A MENOS QUE SE NECESITEN EXPLICITAMENTE. Veamos una aplicación de esta regla. Supongamos que desamos calcular la expresión donde c, b son vectores en y A es n× n. Si calculamos A-1, luego multiplicamos por b y finalmente el producto interior con c tenemos aproximadamente Cálculo A-1 Multiplicación A1 por b Producto interior con c TOTAL Si en lugar de esto calculamos α mediante: • • Halle la solución x del sistema Ax=b Calcule (4/3)n3 n2 n (4/3)n3+n2+n un análisis similar al de arriba nos da aproximadamente (1/3)n3+n2+n lo cual es mucho mejor que la fórmula directa. Factorización LU de una Matriz Para discutir la factorización LU de una matriz necesitamos priemro definir dos tipos especiales de matrices. Una matriz A=(aij) se dice que es triangular superior si aij=0 para toda i > j. A es triangular inferior si aij=0 para toda i < j. El adjetivo unitaria se añade en ambos casos si en adición aii=1 para toda i. Una matriz que es ambas triangular superior e inferior se llama diagonal. Note que una matriz diagonal satisface aij=0 para toda i ≠ j. Ejemplo 4: Las matrices son triangular superior, inferior y diagonal respectivamente. La matriz de coeficientes del sistema (3.6) es triangular superior y la denotamos por U=(uij). Usando los multiplicadores mik en (3.5) podemos definir la matriz triangular inferior unitaria L por: Teorema (3.2): Sea A una matriz n× n nosingular. Defina las matrices L y U como arriba. Entonces si no se hace pivoteo en el proceso de eliminación Gaussiana, tenemos que A=LU. Demostración: El elemento (i,j) del producto LU consiste del producto interior de la fila i de L con la columna j de U. Esto es Si i ≤ j, tenemos que Usando las fórmulas (3.5) y la definición de U podemos escribir esto como donde para simplificar la segunda sumatoria usamos que esta es telescópica. Ahora si i > j Como (LU)ij=aij para toda i,j tenemos que A=LU. Ejemplo 5: Para la matriz tenemos que mediante eliminición Gaussiana Si definimos ahora tenemos que A=LU. Dado que A=LU, el sistema Ax=b se puede escribir como LUx=b. La solución del sistema Ax=b se puede ver entonces en tres etapas: 1. (Eliminación) Calcular la factorización A=LU. 2. (Modificación del lado derecho) Resolver el sistema triangular inferior Lg=b para el vector g. 3. (Sustitución para atras) Resolver el sistema triangular superior Ux=g para el vector x. Ejemplo 5: Resuelva el sistema La matriz de coeficientes de este sistema coincide con la del ejemplo anterior de modo que La solución de Lg=b con b=(1,-1,0)t esta dada por: Ahora Ux=g nos da la solución del sistema original: Variantes del Método de Eliminación Gaussiana Vamos ahora a discutir dos métodos alternos para calcular la factorización LU de una matriz pero que aprovechan alguna estructura particluar de la matriz. El primero de ellos es la Factorización de Cholesky que se usa para matrices simétricasy positivas definidas. El otro método aprovecha la estructura escasa de la matriz en el caso que esta sea tridiagonal. Factorización de Cholesky Una matriz A es simétrica si At=A. Decimos que A es positiva definida si xtAx>0 para todo x≠ 0. Se puede demostrar que una matriz simétrica es positiva definida si y solo si todos sus valores propios son positivos. También se puede demostrar que existe una matriz triangular inferior L tal que A = L Lt lo cual se conoce como la factorización de Cholesky de A. De hecho las entradas de L=(lij) de pueden calcular mediante las fórmulas: 1. Para i=1,2,…,n a. b. Para j=1,2,…,i-1 (3.12) a. Estas fórmulas se obtienen multiplicando las filas de L por las columnas de Lt e igualando a las entradas correspondientes de A. Un conteo operacional de estas fórmulas muestra que el total de operaciones es aproximadamente (1/6)n3, i.e., la mitad que en eliminación Gaussiana básico. (Note sin embargo que hay que calcular n racies cuadradas). La ganacia aqui se debe a que se utilizó la simetría de la matriz A. Note también que como A es simétrica solo hay que almacenar en la computadora la mitad de la matriz al igual que para L que es triangular inferior. Sistemas Tridiagonales Una matriz A se llama tridiagonal si aij=0 para toda i,j tal que - j> 1. Esto es, todas las i entradas de A son cero excepto posiblemente en las diagonales inferior, superior y principal. Podemos pues escribir A de la siguiente forma: (3.13) Para almacenar A en la computadora usamos tres vectores de tamaño n lo que da un total de 3n lugares de memoria en comparación con n2 para una matriz densa. Vamos ahora a resolver el sistema Ax=b aprovechando la estructura de ceros de A. Primero buscamos la factorización LU de A. Para esto buscamos L y U de la forma: (3.14) Multiplicando e igualando a las entradas correspondientes de A obtenemos: • • • • • fila uno de L por columna uno de U: fila dos de L por columna uno de U: fila dos de L por columna dos de U: fila tres de L por columna dos de U: fila tres de L por columna tres de U: , etc. De esta forma obtenemos las fórmulas: 1. 2. Para j=2,3,…n a. b. (3.15) El total de multiplicaciones y divisiones en estas fórmulas es 2n-2 (compare con (1/3)n3 para eliminación Gaussiana básico). Para resolver Lg=b es fácil ver que las fórmulas son: 1. 2. Para j=2,3,…,n a. (3.16) El total de multiplicaciones y divisiones en este cálculo es de n-1. Finalmente la solución de Ux=g se obtinene mediante las fórmulas: 1. 2. Para j=n-1,n-2,…,1 a. (3.17) El conteo aqui de multiplicaciones y divisiones es de 2n-1. Asi que en total para resolver el sistema Ax=b donde A es tridiagonal se requieren de 5n-4 multiplicaciones y divisiones. En todo este proceso necesitamos que los pivotes menor de uno en valor absoluto. Esto se cumple si y es conveniente que los 's sean (3.18) Ejemplo 6: Considere la matriz tridiagonal Aqui aj=1, j=2,3, bj=3, j=1,2,3, cj=1, j=1,2. Asi que de donde obtenemos que