Anda di halaman 1dari 180

Análisis Numérico

Ing. Luis Ricardo Soto, MSc.


Introducción técnicas numéricas
“Los métodos numéricos constituyen técnicas mediante las
cuales es posible formular problemas matemáticos, de tal
forma que puedan resolverse utilizando operaciones
aritméticas. Aunque existen muchos tipos de métodos
numéricos, éstos comparten una característica común:
invariablemente requieren de un buen número de tediosos
cálculos aritméticos. No es raro que con el desarrollo de
computadoras digitales eficientes y rápidas, el papel de los
métodos numéricos en la solución de problemas en
ingeniería haya aumentado de forma considerable en los
últimos años.”

Métodos Numéricos para Ingenieros, Steven C. Chapra, Quinta Edición, 2007.


Introducción técnicas numéricas
Raíz cuadrada de dos
• La tabla babilónica YBC 7289 (c. 2000-1650 a. C.) proporciona
una aproximación de √2 en cuatro dígitos sexagesimales, que es
similar a seis cifras decimales:
Introducción técnicas numéricas
Algoritmo computacional
• Existen muchos algoritmos empleados para la aproximación
de la raíz cuadrada. El más común de los algoritmos para
averiguar una aproximación en computadores o calculadoras
es el denominado método babilónico de cálculo de las raíces
cuadradas, siendo éste uno de los muchos empleados.
Funciona como sigue:

El algoritmo
babilónico
aproxima un
rectángulo a
cuadrado.
Introducción técnicas numéricas
• El algoritmo se puede enunciar sin el uso de dibujos como
sigue:
Introducción técnicas numéricas
• Este algoritmo aproxima la raíz cuadrada de cualquier número
real tanto como se desee. Es claro que no se necesita conocer
el valor de h, puesto que depende directamente de x y que el
área del rectángulo siempre se aproxima a la raíz cuadrada de
x sin importar el valor de b siempre y cuando b>0. De esta
manera surge la función recursiva:

• de manera tal que n es la n-ésima aproximación a raíz x. Esto


implica que:
Aproximaciones y errores
• Entender el concepto de error es muy importante para
utilizar en forma efectiva los métodos numéricos.

• Los dos errores numéricos más comunes son: errores de


redondeo y de truncamiento. Los errores de redondeo se
deben a que la computadora tan sólo representa
cantidades con un número finito de dígitos. Los errores
de truncamiento representan la diferencia entre una
formulación matemática exacta de un problema y su
aproximación obtenida por un método numérico.
Aproximaciones y errores
Cifras significativas
• El concepto de cifras o dígitos significativos se ha
desarrollado para designar formalmente la confiabilidad
de un valor numérico. Las cifras significativas de un
número son aquellas que pueden utilizarse en forma
confiable.
Aproximaciones y errores
Cifras significativas
• El concepto de cifras significativas tiene dos implicaciones
importantes en el estudio de los métodos numéricos.
1. Los métodos numéricos dan resultados aproximados. Por lo
tanto, se deben desarrollar criterios para especificar qué tan
confiables son dichos resultados. Una manera de hacerlo es
en términos de cifras significativas. Por ejemplo, es posible
afirmar que la aproximación es aceptable siempre y cuando
sea correcta con cuatro cifras significativas.
2. Aunque ciertas cantidades tales como , e, o raíz de 7
representan cantidades específicas, no se pueden expresar
exactamente con un número finito de dígitos. Como las
computadoras retienen sólo un número finito de cifras
significativas, tales números jamás se podrán representar con
exactitud. A la omisión del resto de cifras significativas se le
conoce como error de redondeo.
Aproximaciones y errores
Exactitud y precisión
• Los errores en cálculos y medidas se pueden caracterizar con
respecto a su exactitud y su precisión. La exactitud se refiere a
qué tan cercano está el valor calculado o medido del valor
verdadero. La precisión se refiere a qué tan cercanos se
encuentran, unos de otros, diversos valores calculados o
medidos.
• Los métodos numéricos deben ser lo suficientemente exactos
o sin sesgo para satisfacer los requisitos de un problema
particular de ingeniería. También deben ser suficientemente
precisos para ser adecuados en el diseño de la ingeniería.
Aproximaciones y errores
Exactitud y precisión
• Un ejemplo de puntería ilustra los conceptos de exactitud y
precisión. a) Inexacto e impreciso; b) exacto e impreciso; c)
inexacto y preciso; d) exacto y preciso.
Aproximaciones y errores
Definiciones del error
• Los errores numéricos surgen del uso de aproximaciones para
representar operaciones y cantidades matemáticas exactas.
• Tanto para los errores de truncamiento como de redondeo, la
relación entre el resultado exacto, o verdadero, y el
aproximado está dada por:
• Valor verdadero = Valor aproximado + error
• Reordenando:
• Et = valor verdadero – valor aproximado
• Et = error verdadero (true)
Aproximaciones y errores
Definiciones del error
• εt= error verdadero/ valor verdadero * 100%
• εt= error relativo porcentual verdadero
• En las situaciones reales a veces es difícil contar con la
información del valor verdadero. En estos casos, una
alternativa es normalizar el error, usando la mejor estimación
posible al valor verdadero:
• εa= error aproximado/ valor aproximado * 100%
• Ciertos métodos numéricos usan un método iterativo para
calcular los resultados. En tales métodos se hace una
aproximación considerando la aproximación anterior.
• εa= (aprox. actual – aprox. anterior) / aprox. actual * 100%
Aproximaciones y errores
Definiciones del error
• Los signos del error pueden ser positivos o negativos. A
menudo, cuando se realizan cálculos, no importa mucho el
signo del error, sino más bien que su valor absoluto
porcentual sea menor que una tolerancia porcentual prefijada
εs.
• |εa| < εs
• Si se cumple la relación anterior, entonces se considera que el
resultado obtenido está dentro del nivel aceptable fijado
previamente εs.
• Según Scarborough:
• εs = (0.5 × 102–n)%
• El resultado es correcto en al menos n cifras significativas.
Aproximaciones y errores
Errores de redondeo
• Numéricamente los errores de redondeo se relacionan de
manera directa con la forma en que se guardan los números
en la memoria de la computadora.
Aproximaciones y errores
Errores de truncamiento
• Los errores de truncamiento son aquellos que resultan al usar
una aproximación en lugar de un procedimiento matemático
exacto.
Aproximaciones y errores
Error numérico total
• El error numérico total es la suma de los errores de
truncamiento y de redondeo. En general, la única forma para
minimizar los errores de redondeo consiste en incrementar el
número de cifras significativas en la computadora. En
contraste, el error de truncamiento se reduce disminuyendo
el tamaño del incremento. Como una disminución al tamaño
del incremento puede llevar a una cancelación por resta o a
un incremento de los cálculos, los errores de truncamiento
disminuyen conforme los errores de redondeo se
incrementan.
• En casos reales, sin embargo, tales situaciones son
relativamente poco comunes, porque las computadoras
utilizan suficientes cifras significativas para que los errores de
redondeo no predominen.
Ecuaciones no lineales
Raíces de ecuaciones
• Antes de la llegada de las computadoras digitales se disponía
de una serie de métodos para encontrar las raíces de
ecuaciones algebraicas y trascendentes. En algunos casos, las
raíces se obtenían con métodos directos, como se hace con la
fórmula cuadrática. Sin embargo existen ecuaciones que se
resuelven directamente y aparecen muchas más en las que no
es posible encontrar su solución. Por ejemplo, incluso una
función tan simple como f(x) = e–x - x no se puede resolver en
forma analítica. En tales casos, la única alternativa es una
técnica con solución aproximada.
Ecuaciones no lineales
Método gráfico
• Un método simple para obtener una aproximación a la raíz de
la ecuación f (x) = 0 consiste en graficar la función y observar
dónde cruza el eje x. Este punto, que representa el valor de x
para el cual f(x) = 0, ofrece una aproximación inicial de la raíz.
• Las técnicas gráficas tienen un valor práctico limitado, ya que
no son precisas. Sin embargo, los métodos gráficos se utilizan
para obtener aproximaciones de la raíz. Dichas
aproximaciones se pueden usar como valores iniciales en los
métodos numéricos.
• Las interpretaciones gráficas, además de proporcionar
estimaciones de la raíz, son herramientas importantes en la
comprensión de las propiedades de las funciones y en la
prevención de las fallas de los métodos numéricos.
Ecuaciones no lineales
Método de Newton-Raphson
• De las fórmulas para localizar raíces, la fórmula de Newton-
Raphson posiblemente sea la más ampliamente utilizada. Si el
valor inicial para la raíz es xi, entonces se puede trazar una
tangente desde el punto [xi, f(xi)] de la curva. Por lo común, el
punto donde esta tangente cruza al eje x representa una
aproximación mejorada de la raíz.
• El método de Newton-Raphson se deduce a partir de esta
interpretación geométrica.
Ecuaciones no lineales
Método de Newton-Raphson
Ecuaciones no lineales
Método de Newton-Raphson
• De la figura, se tiene que la primera derivada en x es
equivalente a la pendiente:

• que se arregla para obtener:

• la cual se conoce como fórmula de Newton-Raphson.


Ecuaciones no lineales
Método de la secante
• Un problema potencial en la implementación del método de
Newton-Raphson es la evaluación de la derivada. Aunque esto
no es un inconveniente para los polinomios ni para muchas
otras funciones, existen algunas funciones cuyas derivadas en
ocasiones resultan muy difíciles de calcular. En dichos casos, la
derivada se puede aproximar mediante una diferencia finita
dividida hacia atrás:
Ecuaciones no lineales
Método de la secante
Ecuaciones no lineales
Definición de derivada
Ecuaciones no lineales
Método de la secante
• Si se reemplaza la derivada en la fórmula de Newton-Raphson
por la derivada aproximada se obtiene:

• La ecuación es la fórmula para el método de la secante.


Observe que el método requiere de dos valores iniciales de x.
Sin embargo, debido a que no se necesita que f(x) cambie de
signo entre los valores dados, este método no se clasifica
como un método cerrado.
Ecuaciones no lineales
Método de la secante modificado
• En lugar de usar dos valores arbitrarios para aproximar la
derivada, un método alternativo considera un cambio
fraccionario de la variable independiente para estimar ƒ’(x):

• donde δ es un pequeño cambio fraccionario. Se sustituye en la


en la fórmula de Newton-Raphson:
Ecuaciones no lineales
Método cerrados
• Alguno métodos aprovechan el hecho de que una función
cambia de signo en la vecindad de una raíz. A estas técnicas se
les llama métodos cerrados, o de intervalos, porque se
necesita de dos valores iniciales para la raíz. Como su nombre
lo indica, dichos valores iniciales deben “encerrar”, o estar a
ambos lados de la raíz. Los métodos emplean diferentes
estrategias para reducir sistemáticamente el tamaño del
intervalo y así converger a la respuesta correcta.
• Teorema de Bolzano: “Si una función f(x) está definida y es
continua en un intervalo cerrado [a, b] y toma valores de
distinto signo en los extremos a y b, entonces existe al menos
un punto c del intervalo abierto (a, b) en el que se anula la
función.”
Ecuaciones no lineales
Método de bisección
• Cuando se aplican las técnicas gráficas, se observa que f(x)
cambió de signo a ambos lados de la raíz. En general, si f(x) es
real y continúa en el intervalo que va desde xl hasta xu y f(xl) y
f(xu) tienen signos opuestos, es decir:

• entonces hay al menos una raíz real entre xl y xu.


Ecuaciones no lineales
Método de bisección
• Cuando se aplican las técnicas gráficas, se observa que f(x)
cambió de signo a ambos lados de la raíz. En general, si f(x) es
real y continúa en el intervalo que va desde xl hasta xu y f(xl) y
f(xu) tienen signos opuestos, es decir:

• entonces hay al menos una raíz real entre xl y xu.


Ecuaciones no lineales
Método de bisección
Ecuaciones no lineales
Método de bisección
Ecuaciones no lineales
Método de la falsa posición
• Aun cuando la bisección es una técnica perfectamente válida
para determinar raíces, su método de aproximación por
“fuerza bruta” es relativamente ineficiente. La falsa posición
es una alternativa basada en una visualización gráfica.
• Un inconveniente del método de bisección es que al dividir el
intervalo de xl a xu en mitades iguales, no se toman en
consideración las magnitudes de f(xl) y f(xu).
• Un método alternativo que aprovecha la visualización gráfica
consiste en unir f(xl) y f(xu) con una línea recta. La intersección
de esta línea con el eje de las x representa una mejor
aproximación de la raíz. El hecho de que se reemplace la curva
por una línea recta da una “falsa posición” de la raíz; de aquí
el nombre de método de la falsa posición, o en latín, regula
falsi. También se le conoce como método de interpolación
lineal.
Ecuaciones no lineales
Método de la falsa posición
Ecuaciones no lineales
Método de la falsa posición
• Usando triángulos semejantes, la intersección de la línea recta
con el eje de las x se estima mediante:

• en la cual se despeja xr:

• Ésta es la fórmula de la falsa posición.


Ecuaciones no lineales
Ventajas y desventajas
• Cada método tiene ventajas y desventajas, por ejemplo el
método de bisección garantiza la convergencia, pero es más
lento (converge más lentamente que el método de Newton-
Raphson. Por otra parte el método de bisección no permite
encontrar raíces múltiples pares (donde la función no cambia
de signo).
• También la exactitud varía en los diferentes métodos.
• Es por esto que existen varias alternativas, dependiendo de la
ecuación de la cual se busca sus raíces se debería escoger el
método más adecuado.
Ecuaciones no lineales
Ventajas y desventajas
Ecuaciones no lineales
Ecuaciones no lineales
Función fzero de Matlab
• Encuentra la raíz de la función continua de una variable (find
root of continuous function of one variable) mediante técnicas
numéricas.
• Sintaxis:
• x = fzero(fun,x0)
• x = fzero(fun,x0,options)
• [x,fval] = fzero(...)
• [x,fval,exitflag] = fzero(...)
• [x,fval,exitflag,output] = fzero(...)
Ecuaciones no lineales
Función fzero de Matlab
• Algoritmo
• La función fzero utiliza un algoritmo creado por T. Dekker, utiliza
una combinación de bisección, secante, y métodos de
interpolación cuadrática inversa.
• Limitaciones
• La función fzero encuentra un punto en el que la función cambia
de signo. Si la función es continua, este es también un punto
donde la función tiene un valor cercano a cero. Si la función no es
continua, fzero puede devolver valores que son puntos
discontinuos en lugar de ceros. Por ejemplo, fzero (@ tan, 1)
devuelve 1.5708, un punto discontinuo en la tangente.
Ecuaciones no lineales
Búsqueda incremental
• Además de verificar una respuesta individual, se debe
determinar si se han localizado todas las raíces posibles. Como
se mencionó anteriormente, por lo general una gráfica de la
función ayudará a realizar dicha tarea. Otra opción es
incorporar una búsqueda incremental al inicio del programa.
Esto consiste en empezar en un extremo del intervalo de
interés y realizar evaluaciones de la función con pequeños
incrementos a lo largo del intervalo. Si la función cambia de
signo, se supone que la raíz está dentro del incremento. Los
valores de x, al principio y al final del incremento, pueden
servir como valores iniciales para una de las técnicas descritas.
Ecuaciones no lineales
Búsqueda incremental
Ecuaciones no lineales
Búsqueda incremental
• Un problema potencial en los métodos de búsqueda por
incremento es el de escoger la longitud del incremento. Si la
longitud es muy pequeña, la búsqueda llega a consumir
demasiado tiempo. Por otro lado, si la longitud es demasiado
grande, existe la posibilidad de que raíces muy cercanas entre
sí pasen inadvertidas. El problema se complica con la posible
existencia de raíces múltiples. Un remedio parcial para estos
casos consiste en calcular la primera derivada de la función al
inicio y al final de cada intervalo. Cuando la derivada cambia
de signo, puede existir un máximo o un mínimo en ese
intervalo, lo que sugiere una búsqueda más minuciosa para
detectar la posibilidad de una raíz.
Ecuaciones no lineales
Búsqueda incremental
• Aunque estas modificaciones o el empleo de un incremento
muy fino ayudan a resolver el problema, se debe aclarar que
métodos tales como el de la búsqueda incremental no
siempre resultan sencillos. Será prudente complementar
dichas técnicas automáticas con cualquier otra información
que dé idea de la localización de las raíces. Esta información se
puede encontrar graficando la función y entendiendo el
problema físico de donde proviene la ecuación.
Ecuaciones no lineales
Rootsearch (Jaan Kiusalaas)
• function [x1,x2] = rootsearch(func,a,b,dx)
• % Incremental search for a root of f(x).
• % USAGE: [x1,x2] = rootsearch(func,a,d,dx)
• % INPUT:
• % func = handle of function that returns f(x).
• % a,b = limits of search.
• % dx = search increment.
• % OUTPUT:
• % x1,x2 = bounds on the smallest root in (a,b);
• % set to NaN if no root was detected
• x1 = a; f1 = feval(func,x1);
• x2 = a + dx; f2 = feval(func,x2);
• while f1*f2 > 0.0
• if x1 >= b
• x1 = NaN; x2 = NaN; return
• end
• x1 = x2; f1 = f2;
• x2 = x1 + dx; f2 = feval(func,x2);
• end
Sistemas de ecuaciones lineales
• Antes de las computadoras, las técnicas para resolver
ecuaciones algebraicas lineales consumían mucho tiempo y
eran poco prácticas. Esos procedimientos restringieron la
creatividad debido a que con frecuencia los métodos eran
difíciles de implementar y entender.
• El surgimiento de las computadoras hizo posible resolver
grandes sistemas de ecuaciones algebraicas lineales
simultáneas. Así, se pueden enfrentar ejemplos y problemas
más complicados. Además, se cuenta con más tiempo para
usar sus habilidades creativas, ya que se pondrá mayor énfasis
en la formulación del problema y en la interpretación de la
solución.
Sistemas de ecuaciones lineales
• Se van ha analizar las ecuaciones lineales simultáneas que en
general se representan como:
Sistemas de ecuaciones lineales
• En notación matricial las ecuaciones se escriben como:

• o, simplemente:
Sistemas de ecuaciones lineales
Método gráfico
• Para dos ecuaciones se puede obtener una solución al
graficarlas en coordenadas cartesianas con un eje que
corresponda a x1 y el otro a x2.
Sistemas de ecuaciones lineales
Método gráfico
• Para tres ecuaciones simultáneas, cada ecuación se representa
como un plano en un sistema de coordenadas tridimensional.
El punto en donde se intersecan los tres planos representa la
solución. Para más de tres incógnitas, los métodos gráficos no
funcionan y, por consiguiente, tienen poco valor práctico para
resolver ecuaciones simultáneas.
• No obstante, resultan útiles para visualizar propiedades de las
soluciones. La siguiente figura muestra tres casos que pueden
ocasionar problemas al resolver sistemas de ecuaciones
lineales.
Sistemas de ecuaciones lineales
Método gráfico
• Representación gráfica de sistemas singulares y mal
condicionados: a) no hay solución, b) hay una infinidad de
soluciones y c) sistema mal condicionado donde las
pendientes son tan cercanas que es difícil detectar
visualmente el punto de intersección.
Sistemas de ecuaciones lineales
Tipos de sistemas de ecuaciones lineales
• Los sistemas de ecuaciones se pueden clasificar según el
número de soluciones que pueden presentar. De acuerdo con
ese caso se pueden presentar los siguientes casos:
• Sistema compatible si tiene solución, en este caso además
puede distinguirse entre:
• Sistema compatible determinado cuando tiene una única
solución.
• Sistema compatible indeterminado cuando admite un
conjunto infinito de soluciones.
• Sistema incompatible si no tiene solución.
Sistemas de ecuaciones lineales
Tipos de sistemas de ecuaciones lineales
Sistemas de ecuaciones lineales
Tipos de sistemas de ecuaciones lineales
• Sistema compatible determinado tiene el determinante de la
matriz de coeficientes distinto de cero. El rango de la matriz
de coeficientes es igual al rango de la matriz ampliada y
además es igual al número de variables.
• Sistema compatible indeterminado tiene el determinante de
la matriz de coeficientes igual a cero. El rango de la matriz de
coeficientes es igual al rango de la matriz ampliada pero es
menor al número de variables.
• Sistema incompatible tiene el determinante de la matriz de
coeficientes igual a cero. El rango de la matriz de coeficientes
es menor al rango de la matriz ampliada.
Sistemas de ecuaciones lineales
Tipos de sistemas de ecuaciones lineales
• Otra forma de analizar las ecuaciones lineales simultáneas, es
en función del número de ecuaciones y número de incógnitas:
Sistemas de ecuaciones lineales
Análisis del error y condición del sistema
• Existen varios métodos para determinar si un sistema está
bien condicionado.
• Los intentos que se han hecho para formular tal número de
condición matricial están basados en el concepto matemático
de la norma.
• Una norma es una función que toma valores reales y que
proporciona una medida del tamaño o “longitud” de
entidades matemáticas multicomponentes, como los vectores
y las matrices
Sistemas de ecuaciones lineales
Análisis del error y condición del sistema
• La norma de una matriz es igual a:

• Con el concepto de norma, se puede usar para definir el


número de condición de una matriz:
Sistemas de ecuaciones lineales
Métodos directos o exactos
• Existen métodos que si no fuera por el error de redondeo
obtendrían la solución exacta al sistema de ecuaciones. Los
más conocidos son:
Sistemas de ecuaciones lineales
Métodos indirectos o iterativos
• Los métodos iterativos constituyen una alternativa a los
métodos de eliminación descritos hasta ahora, para aproximar
la solución. Tales métodos son similares a las técnicas que se
desarrollaron anteriormente para obtener las raíces de una
sola ecuación. Aquellos métodos consistían en suponer un
valor y luego usar un método sistemático para obtener una
aproximación mejorada de la raíz. Como esta parte trata con
un problema similar (obtener los valores que
simultáneamente satisfagan un conjunto de ecuaciones).
Entonces se esperaría que tales métodos aproximados fuesen
útiles en este contexto.
Sistemas de ecuaciones lineales
Métodos indirectos o iterativos
• Consideremos la ecuación:

• La cual puede ser mostrada en esquemas iterativos:


Sistemas de ecuaciones lineales
Iteración de Jacobi
• Considere el sistema de ecuaciones:

• Estas ecuaciones pueden ser escritas de la forma:


Sistemas de ecuaciones lineales
Iteración de Jacobi
• De forma iterativa mediante el siguiente esquema:
Sistemas de ecuaciones lineales
Iteración de Jacobi
• Se obtienen estos resultados:
Sistemas de ecuaciones lineales
Iteración de Jacobi
• Se reordena el sistema de ecuaciones:

• Estas ecuaciones pueden ser escritas de la forma:


Sistemas de ecuaciones lineales
Iteración de Jacobi
• De forma iterativa mediante el siguiente esquema:
Sistemas de ecuaciones lineales
Iteración de Jacobi
• Se obtienen estos resultados:
Sistemas de ecuaciones lineales
Iteración de Gauss-Seidel
• A veces se puede acelerar la convergencia. Observe que en el
ejemplo el proceso iterativo de Jacobi produce tres
secuencias {xk}, {yk}, y {zk} que convergen a 2, 4 y 3,
respectivamente. Puesto que se espera que xk + 1 sea una
mejor aproximación a x que xk, parece razonable que xk + 1
podría ser utilizado en lugar de xk en el cálculo de yk + 1.
Similarmente, xk + 1 y yk + 1 pueden ser utilizados en el cálculo
de zk + 1 .
Sistemas de ecuaciones lineales
Iteración de Gauss-Seidel
• De forma iterativa para el método de Gauss-Seidel se tiene el
siguiente esquema:
Sistemas de ecuaciones lineales
Iteración de Gauss-Seidel
• Se obtienen estos resultados:
Sistemas de ecuaciones lineales
Criterio de convergencia
• El método de Gauss-Seidel es similar en esencia a la técnica de
iteración de punto fijo que se usa para obtener las raíces de
una sola ecuación. La iteración de punto fijo presenta dos
problemas fundamentales: 1. en algunas ocasiones no es
convergente, y 2. cuando converge, con frecuencia lo hace en
forma muy lenta. El método de Gauss-Seidel puede también
presentar estas desventajas.
• El valor absoluto de las pendientes en las ecuaciones (en el
caso de dos dimensiones) debe ser menor que la unidad para
asegurar la convergencia, lo cual se muestra gráficamente a
continuación.
Sistemas de ecuaciones lineales
Criterio de convergencia
• Representación a) de la convergencia y b) de la divergencia del
método de Gauss-Seidel.
Sistemas de ecuaciones lineales
Criterio de convergencia

• El coeficiente diagonal en cada una de las ecuaciones debe ser


mayor que la suma del valor absoluto de los otros coeficientes
de la ecuación. Este criterio es suficiente pero no necesario
para la convergencia. Es decir, el método puede funcionar
aunque no se satisfaga la condición, la convergencia se
garantiza cuando la condición se satisface. A los sistemas que
cumplen esta condición se les conoce como diagonalmente
dominantes. Por fortuna, en la ingeniería, muchos problemas
de importancia práctica satisfacen este requerimiento.
Sistemas de ecuaciones lineales
Criterio de convergencia
• En el ejemplo:
Sistemas de ecuaciones lineales
Algoritmos para implementación
• Dado el sistema:
Sistemas de ecuaciones lineales
Algoritmos para implementación
• Iteración de Jacobi:

• Iteración de Gauss-Seidel:
Sistemas de ecuaciones no lineales
• Un problema similar a los revisados anteriormente consiste
en obtener las raíces de un conjunto de ecuaciones
simultáneas no lineales.

• La solución de este sistema consta de un conjunto de valores


xi que simultáneamente hacen que todas las ecuaciones sean
iguales a cero.
Sistemas de ecuaciones no lineales
• Si se tiene dos ecuaciones simultáneas no lineales con dos
incógnitas, x y y, las cuales se expresan en la forma:

f ( x, y)  x 2  y 2  4
g ( x, y)  x 2  5 x  6  y
• La solución son los valores de x y de y que hacen a las
funciones f(x, y) y g(x, y) iguales a cero. La mayoría de los
métodos para determinar tales soluciones son extensiones de
los métodos abiertos para resolver ecuaciones simples. Se va
ha emplear el método de Newton-Raphson.
Sistemas de ecuaciones no lineales

Método de Newton-Raphson
• El método de Newton-Raphson se describió empleando la
derivada (la pendiente de la recta tangente) de una función,
para calcular su intersección con el eje de la variable
independiente y de esta manera aproximarse a la raíz.
Sistemas de ecuaciones no lineales

Método de Newton-Raphson
• De la figura, se tiene que la primera derivada en x es
equivalente a la pendiente:

• que se arregla para obtener:

• que es la forma del método de Newton-Raphson para una sola


ecuación.
Sistemas de ecuaciones no lineales

Método de Newton-Raphson
• La forma del Método de Newton-Raphson para múltiples
ecuaciones se obtiene mediante una serie de Taylor de
múltiples variables, para tomar en cuenta el hecho de que
más de una variable independiente contribuye a la
determinación de la raíz.
• En el caso de dos variables:
Sistemas de ecuaciones no lineales

Método de Newton-Raphson
• La expansión de la serie de Taylor de primer orden en un
punto (x1k, x2k) es:

• Esto puede ser reordenado en forma matricial:


Sistemas de ecuaciones no lineales

Método de Newton-Raphson
• Despejando (x1, x2) se obtiene:

• o, simplemente:

• donde J es el Jacobiano (matriz jacobiana)


Sistemas de ecuaciones no lineales

Matriz jacobiana
• La matriz jacobiana es una matriz formada por las derivadas
parciales de primer orden de una función. El jacobiano
representa la derivada de una función multivariable.
Ecuaciones no lineales
Función fsolve de Matlab
• Resuelve sistemas de ecuaciones no lineales mediante
técnicas numéricas.
• Sintaxis:
• x = fsolve(fun,x0)
• x = fsolve(fun,x0,options)
• x = fsolve(problem)
• [x,fval] = fsolve(fun,x0)
• [x,fval,exitflag] = fsolve(...)
• [x,fval,exitflag,output] = fsolve(...)
• [x,fval,exitflag,output,jacobian] = fsolve(...)
Ecuaciones no lineales
Función fsolve de Matlab
• Algoritmo
• Por defecto fsolve elige el algoritmo trust-region dogleg . El
algoritmo es una variante del método de Powell dogleg.
• El algoritmo de trust-region-reflective es un subespacio del
método trust-region y se basa en el método de Newton interior-
reflective.
• También usa el método de Levenberg-Marquardt.
• Limitaciones
• La función a resolver debe ser continua. Cuando tiene éxito,
fsolve sólo da una raíz. Fsolve puede converger a un punto que no
es raíz , en cuyo caso, intente otros valores iniciales.
Interpolación y Ajuste de curvas
Interpolación
• Con frecuencia se encuentra con que se tiene que estimar
valores intermedios entre datos definidos por puntos. El
método más común que se usa para este propósito es la
interpolación polinomial. Recuerde que la fórmula general
para un polinomio de n-ésimo grado es:

• Dados n + 1 puntos, hay uno y sólo un polinomio de grado*n


que pasa a través de todos los puntos. Por ejemplo, hay sólo
una línea recta (es decir, un polinomio de primer grado) que
une dos puntos.
Interpolación y Ajuste de curvas
Interpolación

• Ejemplos de interpolación polinomial: a) de primer grado


(lineal) que une dos puntos, b) de segundo grado (cuadrática o
parabólica) que une tres puntos y c) de tercer grado (cúbica)
que une cuatro puntos.
Interpolación y Ajuste de curvas
Interpolación lineal
• La forma más simple de interpolación consiste en unir dos
puntos con una línea recta. Dicha técnica, llamada
interpolación lineal, se ilustra de manera gráfica en la figura.
Utilizando triángulos semejantes.
Interpolación y Ajuste de curvas
Interpolación lineal
• Reordenando se tiene:

• Que es una fórmula de interpolación lineal. La notación f1(x)


designa que éste es un polinomio de interpolación de primer
grado. Cuanto menor sea el intervalo entre los datos, mejor
será la aproximación. Esto se debe al hecho de que, conforme
el intervalo disminuye, una función continua estará mejor
aproximada por una línea recta.
Interpolación y Ajuste de curvas
Interpolación lineal
Interpolación y Ajuste de curvas
Interpolación cuadrática
• Una estrategia para mejorar la estimación consiste en
introducir alguna curvatura a la línea que une los puntos. Si se
tienen tres puntos como datos, éstos pueden ajustarse en un
polinomio de segundo grado (también conocido como
polinomio cuadrático o parábola). Una forma particularmente
conveniente para ello es:

• Observe que aunque la ecuación parece diferir del polinomio


general, las dos ecuaciones son equivalentes.
Interpolación y Ajuste de curvas
Interpolación cuadrática

• Donde:
Interpolación y Ajuste de curvas
Interpolación cuadrática
Interpolación y Ajuste de curvas
Interpolación cuadrática
Interpolación y Ajuste de curvas
Polinomios de interpolación de Newton
• El análisis anterior puede generalizarse para ajustar un
polinomio de n-ésimo grado a n + 1 datos. El polinomio de n-
ésimo grado es:

• Como se hizo antes con las interpolaciones lineales y


cuadráticas, los puntos asociados con datos se utilizan para
evaluar los coeficientes b0, b1,..., bn. Para un polinomio de n-
ésimo grado se requieren n + 1 puntos: [x0, f(x0)], [x1, f(x1)],...,
[xn, f(xn)]. Usamos estos datos y las siguientes ecuaciones para
evaluar los coeficientes:
Interpolación y Ajuste de curvas
Polinomios de interpolación de Newton

• Donde las evaluaciones de la función colocadas entre


paréntesis son diferencias divididas finitas.
Interpolación y Ajuste de curvas
Polinomios de interpolación de Newton
• Por ejemplo, la primera diferencia dividida finita en forma
general se representa como

• En forma similar, la n-ésima diferencia dividida finita es


Interpolación y Ajuste de curvas
Polinomios de interpolación de Newton
• Estas diferencias sirven para evaluar los coeficientes b0, b1,...,
bn, los cuales se sustituirán en la ecuación para obtener el
polinomio de interpolación

• Que se conoce como polinomio de interpolación de Newton en


diferencias divididas.
Interpolación y Ajuste de curvas
Polinomios de Interpolación de Lagrange
• El polinomio de interpolación de Lagrange es simplemente una
reformulación del polinomio de Newton que evita el cálculo
de las diferencias divididas, y se representa de manera concisa
como
Interpolación y Ajuste de curvas
Interpolación mediante trazadores (splines)
• Anteriormente, se usaron polinomios de n-ésimo grado para
interpolar entre n + 1 puntos que se tenían como datos. Por
ejemplo, para ocho puntos se puede obtener un perfecto
polinomio de séptimo grado. Esta curva podría agrupar todas
las curvas (al menos hasta, e incluso, la séptima derivada)
sugeridas por los puntos. No obstante, hay casos donde estas
funciones llevarían a resultados erróneos a causa de los
errores de redondeo y los puntos lejanos. Un procedimiento
alternativo consiste en colocar polinomios de grado inferior en
subconjuntos de los datos. Tales polinomios conectores se
denominan trazadores o splines.
Interpolación y Ajuste de curvas
Interpolación mediante trazadores (splines)
Una representación visual de una
situación en la que los trazadores
son mejores que los polinomios
de interpolación de grado
superior. La función que se ajusta
presenta un incremento súbito en
x = 0. Los incisos a) a c) indican
que el cambio abrupto induce
oscilaciones en los polinomios de
interpolación. En contraste, como
se limitan a curvas de tercer
grado con transiciones suaves, un
trazador lineal d) ofrece una
aproximación mucho más
aceptable.
Interpolación y Ajuste de curvas
Interpolación mediante trazadores (splines)
Ajuste mediante trazadores de un
conjunto de cuatro puntos. a)
Trazador lineal,
b) Trazador cuadrático y c)
trazador cúbico; se grafica
también un polinomio
de interpolación cúbico.
Interpolación y Ajuste de curvas
Regresión por mínimos cuadrados
• Cuando los datos tienen errores sustanciales, la interpolación
polinomial es inapropiada y puede dar resultados poco
satisfactorios cuando se utiliza para predecir valores
intermedios. Con frecuencia los datos experimentales son de
este tipo. Por ejemplo, en la siguiente figura se muestran siete
datos obtenidos experimentalmente que presentan una
variabilidad significativa. Una inspección visual de esos datos
sugiere una posible relación entre y y x.
Interpolación y Ajuste de curvas
Regresión por mínimos cuadrados
a) Datos que muestran un error
significativo. b) Ajuste polinomial
oscilando más allá del rango de
los datos. c) Resultados más
satisfactorios mediante el ajuste
por mínimos cuadrados.
Interpolación y Ajuste de curvas
Regresión por mínimos cuadrados
• Una manera para determinar la línea de la figura es
inspeccionar en forma visual los datos graficados y después
trazar una “mejor” línea a través de los puntos. Aunque tales
procedimientos “a ojo” apelan al sentido común y son válidos
para cálculos superficiales, resultan deficientes por ser
arbitrarios. Es decir, a menos que los puntos definan una línea
recta perfecta, diferentes analistas dibujarían líneas distintas.
• Para dejar a un lado dicha subjetividad se debe encontrar
algún criterio para establecer una base para el ajuste. Una
forma de hacerlo es obtener una curva que minimice la
discrepancia entre los puntos y la curva. Una técnica para
lograr tal objetivo es la llamada regresión por mínimos
cuadrados.
Interpolación y Ajuste de curvas
Regresión Lineal
• El ejemplo más simple de una aproximación por mínimos
cuadrados es ajustar una línea recta a un conjunto de
observaciones definidas por puntos: (x1, y1), (x2, y2),…, (xn,
yn).
• La expresión matemática para la línea recta es

• donde a0 y a1 son coeficientes que representan la intersección


con el eje y y la pendiente, respectivamente, e es el error, o
diferencia, entre el modelo y las observaciones, el cual se
representa al reordenar la ecuación como
Interpolación y Ajuste de curvas
Regresión Lineal

• Así, el error o residuo es la discrepancia entre el valor


verdadero de y y el valor aproximado, a0 + a1x, que predijo la
ecuación lineal.
• Una estrategia para ajustar una “mejor” línea a través de los
datos será minimizar la suma de los errores residuales de
todos los datos disponibles, como sigue:
Interpolación y Ajuste de curvas
Regresión Lineal
• Sin embargo, éste es un criterio inadecuado. Otro criterio
lógico podría ser minimizar la suma de los valores absolutos
de las discrepancias, lamentablemente también resulta
inadecuado en ciertos casos.
• La estrategia que supera las deficiencias de los procedimientos
mencionados consiste en minimizar la suma de los cuadrados
de los residuos entre la y medida y la y calculada con el
modelo lineal:
Diferenciación e integración
numérica
Diferenciación numérica
• El cálculo es la matemática del cambio. Como los ingenieros
deben tratar en forma continua con sistemas y procesos que
cambian, el cálculo es una herramienta esencial en nuestra
profesión. En la esencia del cálculo están dos conceptos
matemáticos relacionados: la diferenciación y la integración.
• De acuerdo a la definición del diccionario, diferenciar significa
“marcar por diferencias; distinguir;… percibir la diferencia en o
entre”. En el contexto de las matemáticas, la derivada sirve
como el principal vehículo para la diferenciación, representa la
razón de cambio de una variable dependiente con respecto a
una variable independiente.
Diferenciación e integración
numérica
Diferenciación numérica
• Como se ilustra en la siguiente figura, la definición matemática
de la derivada empieza con una aproximación por diferencias:

• donde y y f(x) son representaciones alternativas de la variable


dependiente y x es la variable independiente.
Diferenciación e integración
numérica
Diferenciación numérica
• Si se hace que Δx se aproxime a cero, como sucede en los
movimientos mostrados en la figura, el cociente de las
diferencias se convierte en una derivada.
Diferenciación e integración
numérica
Diferenciación numérica
• Donde dy/dx (que también se denota como y′ o ƒ′(xi))es la
primera derivada de y con respecto a x evaluada en xi. Como
se observa en la figura, la derivada evaluada es la pendiente
de la recta tangente a la curva en xi.
Diferenciación e integración
numérica
Integración numérica
• En cálculo, el proceso inverso de la diferenciación es la
integración. De acuerdo con la definición del diccionario,
integrar significa “juntar partes en un todo; unir; indicar la
cantidad total ...”. Matemáticamente, la integración se
representa por

• que representa la integral de la función f(x) con respecto a la


variable independiente x, evaluada entre los límites x = a y x =
b. La función f(x) en la ecuación se llama integrando.
Diferenciación e integración
numérica
Integración numérica
• Como lo sugiere la definición del diccionario, el “significado”
de la ecuación es el valor total, o sumatoria, de f(x) dx sobre el
intervalo desde x = a hasta x = b. De hecho, el símbolo ∫ es en
realidad una letra S estilizada, antigua, que intenta
representar la estrecha relación entre integración y suma.
• La siguiente figura representa una manifestación gráfica del
concepto. Para funciones que están por encima del eje x, la
integral, expresada por la ecuación corresponde al área bajo la
curva de f(x) entre x = a y b.
Diferenciación e integración
numérica
Integración numérica
Diferenciación e integración
numérica
• Como se dijo antes, la “distinción” o “discriminación” de la
diferenciación y el “juntar” de la integral son procesos
estrechamente relacionados, de hecho, inversamente
relacionados. Por ejemplo, si se tiene una función dada y(t)
que especifica la posición de un objeto en función del tiempo,
la diferenciación proporciona un medio para determinar su
velocidad.

• De manera inversa, si se tiene la velocidad como una función


del tiempo, la integración se utilizará para determinar su
posición.
Diferenciación e integración
numérica
• El contraste entre a) diferenciación y b) integración.
Diferenciación e integración
numérica
• La función que va a diferenciarse o integrarse estará,
usualmente, en una de las siguientes tres formas:
1. Una función continua simple como un polinomio, una
función exponencial o una función trigonométrica.
2. Una función continua complicada que es difícil o imposible
de diferenciar o integrar directamente.
3. Una función tabulada donde los valores de x y f(x) están
dados como un conjunto discreto de puntos, lo cual es el
caso cuando se tienen datos experimentales o de campo.
• En el primer caso, la derivada o la integral de una función
simple se puede evaluar analíticamente usando el cálculo. En
el segundo caso, las soluciones analíticas a menudo no son
fáciles e incluso algunas veces son imposibles de obtener. En
tales situaciones, así como en el tercer caso de datos
discretos, se deberán emplear métodos aproximados.
Diferenciación e integración
numérica
Diferenciación numérica
• A la siguiente ecuación se le conoce con un nombre especial
en el análisis numérico: diferencia finita dividida

• donde a Δfi se le conoce como la primera diferencia hacia


adelante y a h se le llama el tamaño del paso o incremento;
esto es, la longitud del intervalo sobre el cual se realiza la
aproximación. Se le llama diferencia “hacia delante”, porque
usa los datos en i e i + 1 para estimar la derivada.
Diferenciación e integración
numérica
Diferenciación numérica
• Esta diferencia dividida hacia adelante es sólo una de tantas
que pueden desarrollarse a partir de la serie de Taylor para la
aproximación de derivadas numéricas. Por ejemplo, las
aproximaciones de la primera derivada utilizando diferencias
hacia atrás o diferencias centradas se pueden desarrollar de
una manera similar a la de la ecuación.
• Aproximación a la primera derivada con diferencia hacia atrás.
Diferenciación e integración
numérica
Diferenciación numérica
• Aproximación a la primera derivada con diferencias centradas.

• La ecuación es una representación de las diferencias centradas


de la primera derivada. Observe que el error de truncamiento
es del orden de h2 en contraste con las aproximaciones hacia
adelante y hacia atrás, que fueron del orden de h. Por lo tanto,
el análisis de la serie de Taylor ofrece la información práctica
de que la diferencia centrada es una representación más
exacta de la derivada.
Diferenciación e integración
numérica
Diferenciación numérica
Gráfica de aproximaciones
con diferencias finitas
divididas de la primera
derivada: a) hacia
delante, b) hacia atrás, c)
centrales.
Diferenciación e integración
numérica
Diferenciación numérica
• Aproximaciones por diferencias finitas para derivadas de
orden superior.
• Además de las primeras derivadas, la expansión en serie de
Taylor sirve para obtener estimaciones numéricas de las
derivadas de orden superior.

• Esta relación se llama la segunda diferencia finita dividida


hacia adelante.
Diferenciación e integración
numérica
Diferenciación numérica
• La versión hacia atrás:

• La versión centrada:
Diferenciación e integración
numérica
Integración numérica
• Las fórmulas de Newton-Cotes son los tipos de integración
numérica más comunes. Se basan en la estrategia de
reemplazar una función complicada o datos tabulados por un
polinomio de aproximación que es fácil de integrar:

• donde fn(x) es igual a un polinomio de la forma


Diferenciación e integración
numérica
Integración numérica
• La aproximación de una integral mediante el área bajo a) una
sola línea recta y b) una parábola.
Diferenciación e integración
numérica
Integración numérica
• La integral también se puede aproximar usando un conjunto
de polinomios aplicados por pedazos a la función o datos,
sobre segmentos de longitud constante. Por ejemplo, en la
figura, se usan tres segmentos de línea recta para aproximar la
integral.
Diferenciación e integración
numérica
Integración numérica
• Algunos de los métodos más comunes de integración
numérica son:
• La regla del punto medio
• La regla del trapecio
• La regla de Simpson (existen varias)
Diferenciación e integración
numérica
Integración numérica
Diferenciación e integración
numérica
Integración numérica
Diferenciación e integración
numérica
Función trapz de Matlab
• Integración numérica trapezoidal.
• Sintaxis:
• Z = trapz(Y)
• Z = trapz(X,Y)
• Z = trapz (Y) calcula una aproximación de la integral de Y a
través del método trapezoidal (con espacio igual a la unidad).
• Z = trapz (X, Y) calcula la integral de Y con respecto a X
mediante integración trapezoidal.
Diferenciación e integración
numérica
Función quad de Matlab
• Evalúa numéricamente la integral mediante la cuadratura
adaptativa de Simpson.
• Sintaxis:
• q = quad(fun,a,b)
• q = quad(fun,a,b,tol)
• q = quad(fun,a,b,tol,trace)
• La cuadratura es un método numérico utilizado para encontrar
el área bajo la gráfica de una función, es decir, para calcular
una integral definida.
Ecuaciones Diferenciales Ordinarias
Las EDO y la práctica en ingeniería
• Las leyes fundamentales de la física: la mecánica, la
electricidad y la termodinámica con frecuencia se basan en
observaciones empíricas que explican las variaciones de las
propiedades físicas y los estados de los sistemas. Más que en
describir directamente el estado de los sistemas físicos, las
leyes a menudo se expresan en términos de los cambios del
espacio y del tiempo.
• En la siguiente tabla se muestran algunos ejemplos. Esas leyes
definen mecanismos de cambio. Cuando se combinan con las
leyes de conservación de la energía, masa o momentum,
resultan ecuaciones diferenciales.
Ecuaciones Diferenciales Ordinarias
Las EDO y la práctica en ingeniería
• La integración subsecuente de estas ecuaciones diferenciales
origina funciones matemáticas que describen el estado
espacial y temporal de un sistema en términos de variaciones
de energía, masa o velocidad.
Ecuaciones Diferenciales Ordinarias
Solución de EDO sin computadora
• Sin una computadora, las EDO podrían resolverse usando
técnicas de integración analítica.
• Las soluciones exactas para muchas EDO de importancia
práctica no están disponibles. Como sucede en la mayoría de
las situaciones analizadas en otras partes de este curso, los
métodos numéricos ofrecen la única alternativa viable para
tales casos. Como estos métodos numéricos por lo común
requieren de computadoras, antes del auge de la informática
los ingenieros se veían muy limitados en el alcance de sus
investigaciones.
Ecuaciones Diferenciales Ordinarias
Antecedentes matemáticos
• La solución de una ecuación diferencial ordinaria es una
función en términos de la variable independiente y de
parámetros que satisfacen la ecuación diferencial original.
Para ilustrar este concepto, empecemos con una función dada

• la cual es un polinomio de cuarto grado. Ahora, si derivamos


con respecto de x a la ecuación, obtenemos una EDO:
Ecuaciones Diferenciales Ordinarias
Antecedentes matemáticos
• Esta ecuación también describe el comportamiento del
polinomio, pero de una manera diferente a la primera
ecuación. Más que representar explícitamente los valores de y
para cada valor de x, la ecuación da la razón de cambio de y
con respecto a x (es decir, la pendiente) para cada valor de x.
• Como se acaba de mostrar, aunque es posible determinar una
ecuación diferencial dando la función original, en esencia el
objetivo es determinar la función original dada la ecuación
diferencial. La función original representa la solución. En el
presente caso, esta solución se determina de manera analítica
al integrar la segunda ecuación:
Ecuaciones Diferenciales Ordinarias
Antecedentes matemáticos

• Aplicando la regla de integración en cada término de la


ecuación, se obtiene la solución:

• la cual es idéntica a la función original con una notable


excepción. En el proceso de la diferenciación y después en la
integración, se pierde el valor constante de 1 en la ecuación
original y ganamos el valor C. Esta C es llamada constante de
integración.
Ecuaciones Diferenciales Ordinarias
Antecedentes matemáticos
• El hecho de que aparezca esta constante arbitraria indica que
la solución no es única. Es decir, es solución pero con un
número infinito de funciones posibles (correspondiente al
número infinito de posibles valores de C) que satisfacen la
ecuación diferencial. La siguiente figura muestra seis
funciones posibles.
Ecuaciones Diferenciales Ordinarias
Antecedentes matemáticos
• Por lo tanto, para especificar la solución por completo, la
ecuación diferencial usualmente se encuentra acompañada
por condiciones auxiliares. Para las EDO de primer orden, se
requiere un tipo de condición auxiliar, llamada valor inicial,
para determinar la constante y obtener una solución única.
Por ejemplo, la ecuación diferencial se acompaña por la
condición inicial definida por x = 0, y = 1. Estos valores se
sustituyen en la ecuación integrada:

• para determinar C = 1.
Ecuaciones Diferenciales Ordinarias
Antecedentes matemáticos
• Por consiguiente, la solución única que satisface tanto a la
ecuación diferencial como la condición inicial especificada se
obtiene al sustituir C = 1:

• De esta forma, se ha “sujetado” la ecuación al forzarla a pasar


a través de un punto dado por la condición inicial y, al hacerlo,
encontramos una solución única para la EDO y completamos
un ciclo con la función original.
Ecuaciones Diferenciales Ordinarias
Antecedentes matemáticos
• Las condiciones iniciales por lo común tienen interpretaciones
muy tangibles para las ecuaciones diferenciales surgidas de las
condiciones de problema físico. Por ejemplo, en un problema
de caída libre, la condición inicial es tomada del hecho físico
de que en el tiempo cero la velocidad vertical es cero.
• Cuando tratamos con una ecuación diferencial de n-ésimo
orden, se requiere de n condiciones para obtener una solución
única. Si se especifican todas las condiciones en el mismo
valor de la variable independiente (por ejemplo, en x o t = 0),
entonces se conocen como problemas de valor inicial. En
cambio en los problemas de valor frontera, la especificación
de condiciones ocurre con diferentes valores de la variable
independiente.
Ecuaciones Diferenciales Ordinarias
Soluciones numéricas
• En esta parte se analizará la solución de ecuaciones
diferenciales ordinarias de la forma:

• Los métodos de forma general utilizan:

• Nuevo valor = valor anterior + pendiente × tamaño de paso

• o, en términos matemáticos,
Ecuaciones Diferenciales Ordinarias
Soluciones numéricas
• De acuerdo con esta ecuación, la pendiente estimada F se usa
para extrapolar desde un valor anterior yi a un nuevo valor yi+1
en una distancia h. Esta fórmula se aplica paso a paso para
calcular un valor posterior y, por lo tanto, para trazar la
trayectoria de la solución.
Ecuaciones Diferenciales Ordinarias
Soluciones numéricas
• Todos los métodos de un paso que se expresen de esta forma
general, tan sólo van a diferir en la manera en la que se estima
la pendiente.
• En otras palabras, se toma la pendiente al inicio del intervalo
como una aproximación de la pendiente promedio sobre todo
el intervalo. Este procedimiento es llamado método de Euler.
• Todas estas técnicas en general se conocen como métodos de
Runge-Kutta.
Ecuaciones Diferenciales Ordinarias
Método de Euler
• La primera derivada ofrece una estimación directa de la
pendiente en xi:

• donde ƒ(xi, yi) es la ecuación diferencial evaluada en xi y yi. La


estimación se sustituye en la forma general:

• Esta fórmula se conoce como método de Euler (o de Euler-


Cauchy o de punto pendiente).
Ecuaciones Diferenciales Ordinarias
Método de Euler
• Se predice un nuevo valor de y usando la pendiente (igual a la
primera derivada en el valor original de x) para extrapolar
linealmente sobre el tamaño de paso h.
Ecuaciones Diferenciales Ordinarias
Método de Euler
• Al reducir el tamaño de paso a la mitad, el valor absoluto del
error global promedio disminuye también.
Ecuaciones Diferenciales Ordinarias
Métodos de Runge-Kutta
• Los métodos de Runge-Kutta (RK) logran la exactitud del
procedimiento de la serie de Taylor sin necesitar el cálculo de
derivadas de orden superior. Existen muchas variantes, pero
todas tienen la forma generalizada de la ecuación:

• donde F(xi, yi, h) se conoce como función incremento, la cual


puede interpretarse como una pendiente representativa en el
intervalo. La función incremento se escribe en forma general
como:
Ecuaciones Diferenciales Ordinarias
Métodos de Runge-Kutta
• donde las a son constantes y las k son:

• donde las p y las q son constantes.


Ecuaciones Diferenciales Ordinarias
Métodos de Runge-Kutta
• Observe que las k son relaciones de recurrencia. Es decir, k1
aparece en la ecuación k2, la cual aparece en la ecuación k3,
etcétera. Como cada k es una evaluación funcional, esta
recurrencia vuelve eficientes a los métodos RK para cálculos
en computadora.
• Es posible tener varios tipos de métodos de Runge-Kutta
empleando diferentes números de términos en la función
incremento especificada por n. Observe que el método de
Runge-Kutta (RK) de primer orden con n = 1 es, de hecho, el
método de Euler.
Ecuaciones Diferenciales Ordinarias
Métodos de Runge-Kutta de cuarto orden
• El más popular de los métodos RK es el de cuarto orden. Hay
un número infinito de versiones. La siguiente, es la forma
comúnmente usada y, por lo tanto, se le llama método clásico
RK de cuarto orden:
Ecuaciones Diferenciales Ordinarias
Métodos de Runge-Kutta de cuarto orden
• donde
Ecuaciones Diferenciales Ordinarias
Métodos de Runge-Kutta de cuarto orden
• Representación gráfica de las pendientes estimadas
empleadas en el método RK de cuarto orden.
Diferenciación e integración
numérica
Funciones ode23, ode45, ode113, ode15s,
ode23s, ode23t, ode23tb de Matlab
• Resuelven problemas de valor inicial para ecuaciones
diferenciales ordinarias.

• Sintaxis:
• [T,Y] = solver(odefun,tspan,y0)
• [T,Y] = solver(odefun,tspan,y0,options)

• Donde solver es una de las funciones ode45, ode23, ode113,


ode15s, ode23s, ode23t o ode23tb.
Ecuaciones Diferenciales Ordinarias
EDO rígidas (stiff)
• El término rigidez constituye un problema especial que puede
surgir en la solución de ecuaciones diferenciales ordinarias. Un
sistema rígido es aquel que tiene componentes que cambian
rápidamente, junto con componentes de cambio lento. En
muchos casos, los componentes de variación rápida son
efímeros, transitorios, que desaparecen, después de lo cual la
solución es dominada por componentes de variación lenta.
Aunque los fenómenos transitorios existen sólo en una
pequeña parte del intervalo de integración, pueden
determinar el tiempo en toda la solución.
• Tanto las EDO individuales como los sistemas pueden ser
rígidos.
Ecuaciones Diferenciales Ordinarias
EDO rígidas (stiff)
Ecuaciones Diferenciales Ordinarias
EDO de orden superior
• La forma general de una ecuación diferencial de primer orden
es:

• Una ecuación diferencial ordinaria de orden n:

• Siempre se puede transformar en ecuaciones de primer


orden. Utilizando la notación:
Ecuaciones Diferenciales Ordinarias
EDO de orden superior
• Las ecuaciones de primer orden equivalentes son:

• La solución ahora requiere el conocimiento n condiciones


auxiliares. Si se especifican estas condiciones con el mismo
valor de x, se dice que el problema es un problema de valor
inicial. Entonces las condiciones auxiliares, denominadas
condiciones iniciales, tienen la forma:
Ecuaciones Diferenciales Ordinarias
Péndulo sometido a rozamiento
• La ecuación diferencial que rige la posición de un péndulo,
sometido a rozamiento, es:

d 2 g
2
  ·sin( )   ·v
dt l
• siendo v la velocidad angular (en rad/s), a el ángulo (en
radianes), g la aceleración de la gravedad (9.8 m/s2), l la
longitud del péndulo y m el coeficiente de rozamiento.
Ecuaciones Diferenciales Ordinarias
Péndulo sometido a rozamiento
• La ecuación diferencial que rige la posición de un péndulo,
sometido a rozamiento, es:

d 2 g
2
  ·sin( )   ·v
dt l
• siendo v la velocidad angular (en rad/s), a el ángulo (en
radianes), g la aceleración de la gravedad (9.8 m/s2), l la
longitud del péndulo y m el coeficiente de rozamiento.
• Suponga una longitud del péndulo de 3 m, un ángulo inicial de
30° y un coeficiente de rozamiento de 0.4.
Ecuaciones Diferenciales Ordinarias
Péndulo sometido a rozamiento
dv g
  ·sin( )   ·v
dt l
 d
v
dt
Diferencias Finitas
Problemas de valores en la frontera
• Una ecuación diferencial ordinaria se acompaña de
condiciones auxiliares. Estas condiciones se utilizan para
evaluar las constantes de integración que resultan durante la
solución de la ecuación. Para una ecuación de n-ésimo orden,
se requieren n condiciones. Si todas las condiciones se
especifican para el mismo valor de la variable independiente,
entonces se trata de un problema de valor inicial.
• Hay otra tipo de problemas en los cuales las condiciones no se
conocen para un solo punto, sino, más bien, se conocen en
diferentes valores de la variable independiente.
Diferencias Finitas
Problemas de valores en la frontera
• Debido a que estos valores se especifican en los puntos
extremos o frontera de un sistema, se les conoce como
problemas de valores en la frontera. Muchas aplicaciones
importantes en ingeniería son de esta clase. Para obtener su
solución se puede usar la aproximación en diferencias finitas.
Diferencias Finitas
Problemas de valores en la frontera
a) Un problema de
valor inicial donde
todas las condiciones
se especifican para el
mismo valor de la
variable
independiente.
b) Un problema con
valores en la frontera
donde las condiciones
se especifican
para diferentes valores
de la variable
independiente.
Diferencias Finitas
Métodos de diferencias finitas
• El método más común para este tipo de ecuaciones son los
métodos por diferencias finitas, en las cuales, las diferencias
divididas finitas sustituyen a las derivadas en la ecuación
original. Así, una ecuación diferencial lineal se transforma en
un conjunto de ecuaciones algebraicas simultáneas que
pueden resolverse utilizando los métodos más sencillos.
Diferencias Finitas
Métodos de diferencias finitas
• Una barra uniforme no aislada colocada entre dos cuerpos de
temperatura constante, pero diferente. En este caso, T1 > T2 y
T2 > Ta.
Diferencias Finitas
Métodos de diferencias finitas
• Se puede utilizar la conservación del calor para desarrollar un
balance de calor para una barra larga y delgada. Si la barra no
está aislada en toda su longitud y el sistema se encuentra en
estado estacionario, la ecuación resultante es:

• donde h′ es un coeficiente de transferencia de calor (m–2) que


parametriza la velocidad con que se disipa el calor en el medio
ambiente, y Ta es la temperatura del medio ambiente (°C).
Diferencias Finitas
Métodos de diferencias finitas
• Para obtener una solución de la ecuación se deben tener
condiciones de frontera adecuadas. Un caso simple es aquel
donde los valores de las temperaturas en los extremos de la
barra se mantienen fijos. Estos valores se expresan en forma
matemática como:

• Con estas condiciones, la ecuación se puede resolver. Para una


barra de 10 metros con Ta = 20, T1 = 40, T2 = 200 y h′ = 0.01.
Diferencias Finitas
Métodos de diferencias finitas
• En este caso, la aproximación en diferencias divididas finitas
para la segunda derivada es:

• Esta aproximación se sustituye en la ecuación para dar:


Diferencias Finitas
Métodos de diferencias finitas
• Agrupando términos se tiene:

• Esta ecuación es válida para cada uno de los nodos interiores


de la barra. Los nodos interiores primero y último, Ti–1 y Ti+1,
respectivamente, se especifican por las condiciones de
frontera. Por lo tanto, el conjunto resultante de ecuaciones
algebraicas lineales será tridiagonal. Como tal, se resuelve con
los algoritmos eficientes de que se dispone para estos
sistemas.
Diferencias Finitas
Métodos de diferencias finitas
• El empleo de cuatro nodos interiores con un segmento de
longitud Δx = 2 metros da como resultado las siguientes
ecuaciones:
Diferencias Finitas
Ecuaciones diferenciales parciales
• Una ecuación que tiene derivadas parciales de una función
desconocida, de dos o más variables independientes, se
denomina ecuación diferencial parcial, o EDP. Por ejemplo:
Diferencias Finitas
Ecuaciones diferenciales parciales

• El orden de una EDP es el de la derivada parcial de mayor


orden que aparece en la ecuación. Se dice que una ecuación
diferencial parcial es lineal, si es lineal en la función
desconocida y en todas sus derivadas, con coeficientes que
dependen sólo de las variables independientes.
Diferencias Finitas
Ecuaciones diferenciales parciales
• Debido a su amplia aplicación en ingeniería, el estudio de las
EDP se concentrará en las ecuaciones diferenciales lineales de
segundo orden. Para dos variables independientes, tales
ecuaciones se pueden expresar de la forma general siguiente:
Diferencias Finitas
Ecuaciones diferenciales parciales
• Categorías en las que se clasifican las ecuaciones diferenciales
parciales lineales de segundo orden con dos variables
Diferencias Finitas
Ecuaciones diferenciales parciales
• Tres problemas de distribución en estado estacionario que
pueden caracterizarse por EDP elípticas. a) Distribución de
temperatura sobre una placa calentada; b) filtración de agua
bajo una presa, y c) el campo eléctrico cerca del punto de un
conductor.
Diferencias Finitas
Ecuaciones diferenciales parciales
• Barra larga y delgada que está aislada, excepto en sus
extremos. La dinámica de la distribución unidimensional de
temperatura a lo largo de la barra puede describirse mediante
una EDP parabólica.
Diferencias Finitas
Ecuaciones diferenciales parciales
• Malla usada para la solución por diferencias finitas de las EDP
elípticas en dos variables independientes, como la ecuación de
Laplace.
Diferencias Finitas
Ecuaciones diferenciales parciales
• a) Un empaque con geometría irregular y composición no
homogénea. b) Un sistema así es muy difícil de modelar con la
técnica por diferencias finitas. Esto se debe al hecho de que se
necesitan aproximaciones complicadas en las fronteras del
sistema y en las fronteras entre las regiones de diferente
composición. c) Una discretización por elementos finitos es
mucho más adecuada para tales sistemas.

Anda mungkin juga menyukai