Anda di halaman 1dari 24

M A TERI A

MET O DO S N UME R IC O S

I N TEGRA N TES:

N AR C ISO SO T O ISAAC

FR AN C ISC O JAVI ER AR R O YO AL TAMIR AN O

JIMEN EZ V AZ Q UEZ R IC AR DO JEO VAN Y

O L IVAR ES R O DRIG UEZ O SVAL DO

EC HAVER R IA G O N Z AL EZ FR AN C ISC O JAVI ER

DOCEN TE:

M.C . KR IST HI AN O MAR AL C AN T AR MEDIN A

CA RERRA :

IN G EN IEIA EL EC T R IC A
Un sist e ma de e cu a cio ne s e s n o line a l, cua n do a l m enos
una de s us ec ua ci one s no es de pri me r gra do .

L a re so lu cin d e e st o s sist em a s se su e le ha ce r p or e l
m todo de s us ti tuc i n , p a ra e llo se gu ire m o s lo s sigu ie n t es
p a so s:
1 S e de s pe ja una i nc gni ta e n u n a d e la s e cu a cio n e s,
p ref e ren t em en t e en l a de pri me r grado .

y = 7 x

2 S e s us ti tu ye el va lo r d e la in cgn it a de sp e jad a en la
otr a e c uac i n.

x 2 + (7 x) 2 = 2 5

3 Se res ue l ve l a e c ua ci n re su lta nt e .

x2 + 49 14x + x2 = 25

2x2 14x + 24 = 0

x2 7x + 12 = 0

4 Cad a u no de l os va l ore s obte ni dos s e s us ti tu ye e n l a


otr a e c ua c i n , se ob t ien e n a s los va lo re s co rre spo n d ien tes
d e la o t ra in c gn ita .

x = 3 y = 7 3 y = 4

x = 4 y = 7 4 y = 3
Los sistemas no lineales representan sistemas cuyo comportamiento no es
expresable como la suma de los comportamientos de sus descriptores. Ms
formalmente, un sistema fsico, matemtico o de otro tipo es no lineal cuando las
ecuaciones de movimiento, evolucin o comportamiento que regulan su
comportamiento son no lineales. En particular, el comportamiento de sistemas no
lineales no est sujeto al principio de superposicin, como lo es un sistema lineal.

Algunos sistemas no lineales tienen soluciones exactas o integrables, mientras


que otros tienen comportamiento catico, por lo tanto no se pueden reducir a una
forma simple ni se pueden resolver. Un ejemplo de comportamiento catico son
las olas gigantes. Aunque algunos sistemas no lineales y ecuaciones de inters
general han sido extensamente estudiados, la vasta mayora son pobremente
comprendidos

Las ecuaciones no lineales son de inters en fsica y matematicas debido a que la


mayora de los problemas fsicos son implcitamente no lineales en su naturaleza.
Ejemplos fsicos de sistemas lineales son relativamente raros. Las ecuaciones no
lineales son difciles de resolver y dan origen a interesantes fenmenos como la
teora del caos Una ecuacin lineal puede ser descrita usando un operador lineal,
L. Una ecuacin lineal en algn valor desconocido de u tiene la forma

Una ecuacin no lineal es una ecuacin de la forma:

Para algn valor desconocido de u.

Para poder resolver cualquier ecuacin se necesita decidir en qu espacio


matemtico se encuentra la solucin u. Podra ser que u es un nmero real, un
vector o, tal vez, una funcin con algunas propiedades.

Las soluciones de ecuaciones lineales pueden ser generalmente descritas como


una superposicin de otras soluciones de la misma ecuacin. Esto hace que las
ecuaciones lineales sean fciles de resolver.

Las ecuaciones no lineales son mucho ms complejas, y mucho ms difciles de


entender por la falta de soluciones simples superpuestas. Para las ecuaciones no
lineales las soluciones generalmente no forman un espacio vectorial y, en general,
no pueden ser superpuestas para producir nuevas soluciones. Esto hace el
resolver las ecuaciones mucho ms difcil que en sistemas lineales.
ECUACIONES NO LINEALES ESPECIFICAS

Algunas ecuaciones no lineales son bien comprendidas, por ejemplo:

y = x2 1

Y otras ecuaciones polinomiales.

Sin embargo, los sistemas de ecuaciones no lineales son mucho ms complejos.


Similarmente, ecuaciones diferenciales de primer orden no lineales, tal como:

dxu = u2

son fcilmente resueltas (en este caso por separacin de variables). Las
ecuaciones diferenciales de orden superior, tales como:

donde g es una funcin no lineal, son mucho ms desafiantes.

Para las ecuaciones diferenciales parciales, el panorama es an peor, ya que,


aunque un nmero de resultados indique la existencia de soluciones, la estabilidad
de una solucin y la dinmica de las soluciones tienen que ser probadas.
Los mtodos interactivos o aproximados proveen una alternativa en los mtodos
de eliminacin discreto hasta ahora. Las tcnicas para obtener las races de una
ecuacin simple. Aquellos planteamientos consistan en suponer un valor y luego
usar un mtodo sistemtico para obtener una estimulacin refinada de la raz.

El mtodo de Gauss-Seidel es el mtodo iterativo mas comnmente usado.


Suponga que se da un conjunto de n ecuaciones.

[A][X]=[B]

Suponga que para ser conciso se limita a un conjunto de ecuaciones de 3 X3. So


los elementos de la diagonal no son todos cero, la primero ecuacin de puede
resolver para X3 para obtener

1 122 133
1 =
11
(11.5a)

2 211 233
2 =
22
(11.5b)

3 311 322
2 =
33
(11.5c)

Ahora, se puede empezar el proceso de solucin al escoger los valores iniciales


de las x. una forma simple para obtener los valores iniciales es suponer que todos
son cero. Estos ceros se pueden sustituir en la ecuacin (11.5a), la cual se puede
usar para calcular un nuevo valor para x1=b1/a11. Despus, se sustituye este
nuevo valor de x1 junto con los valores previos de cero para x3 en la ecuacin
(11.5b) y calcular el nuevo valor para x2. Este proceso se repite en la ecuacin
(11.5c) para calcular un nuevo estimado de x3. Despus se regresa a la primera
ecuacin y se repite todo el procedimiento hasta que a solucin converja lo
suficientemente cercana a los valores reales

1
a,i=

Para todas las i, donde j y j-1 son las interacciones actuales y previas.

Use el mtodo de Gauss-Seidel para obtener la solucin del sistema

3x1 - 0.1x2 - 0.2x3 = 7.85


0.1x1 + 7x2 - 0.3x3 = -19.3
0.3x1 0.2 + 10x3 = 71.4

Recuerde que la solucin real es x1=3, x2=-2.5 y x3= 7.

SOLUCIN:

Primero, resuelva la incgnita de cada una de las ecuaciones sobre la diagonal.

7.58 + 0.12 + 0.23


1 =
3
(E11.3.1)

19.3 0.11 + 0.33


2 =
7
(E11.3.2)

71.4 0.31 + 0.22


3 =
10
(E11.3.3)

Al asumir que x2 y x3 son cero, se puede usar la ecuacin (E11.3.1) PARA


CALCULAR
7.58 + 0 + 0
1 = = 2.616667
3
Este valor, junto con el valor asumido de x3=0, se puede sustituir en la ecuacin
(E11.3.2) para calcular

19.3 0.1(2.616667) + 0
2 = = 2.794524
7

La primera iteracin se completa al sustituir el valor calculado de x1 y x2 en la


ecuacin (E11.3.3) para obtener

71.4 0.3(2.616667) + 0.2(2.794524)


3 = = 7.005610
10
Para la segunda iteracin, se repite el mismo proceso para calcular
7.58+0.1(2.794524)+0.2(7.005610
1 = = 2.990557 t=0.31%
3

19.30.1(2.990557)+0.3(7.005610)
2 = = 2.499625 t=0.015%
7

71.40.3(2.990557)+0.2(2.499625)
3 = = 7.000291 t=0.0042%
10

El mtodo es, por lo tanto, convergente hacia la solucin real. Se puede aplicar
interacciones adicionales para mejorar los resultados. Sin embargo, en un
problema real, no se podra saber la respuesta correcta con anticipacin. En
consecuencia, la ecuacion-811.6) provee un medio para estimar el error. Por
ejemplo, para x1,

2.9905572.616667
a.1= 100% = 12.5%
2.990557

Para x2 y x3, los errores estimados son a.2=11.8% y a.3= 0.076%. Observe
que, como cuando se determinaron las races de una ecuacin simple,
formulaciones como la ecuacin (11.6) proveen usualmente una valoracin de
convergencia conservativa. As, cuando ales formulaciones se cumplen, aseguran
que el resultado sea conocido con al menos la tolerancia especificada por s.

Como cada nuevo valor de x se calcula con el mtodo de Gauss-Seidel, este se


usa inmediatamente en la siguiente ecuacin para determinar otro valor de x. de
esta forma, si la solucin es convergente, se empleara la mejor estimacin
disponible. Un planteamiento alternativo, llamado iteracin de jacobi, utiliza una
tcnica algo diferente. Mas que usar el ultimo valor disponible de x, esta tcnica
usa la ecuacin (11.5) para calcular un conjunto de nuevas x con base en un
conjunto de las x anteriores. De esta forma, como se generan nuevos valores, no
se usan en forma inmediata sino que se retienen para la siguiente iteracin.

ALGORITMO DE GAUSS-SEIDEL

A continuacin se muestra un algoritmo, para el mtodo de Gauss- Seidel, con


relajacin. Observe que este algoritmo no garantiza la convergencia si las
ecuaciones no se introducen de forma diagonal dominante.

El pseudocdigo tiene dos caractersticas que vale la pena mencionar. La primera


es que existe un conjunto inicial de ciclos anidados para dividir cada ecuacin
entre su elemento diagonal. Esto reduce el nmero total de operaciones en el
algoritmo. Segunda, observe que el error de verificacin se designa por una
variable llamada sentinel . Si en cualquiera de las ecuaciones se tiene un error
aproximado mayor que el criterio de paro (es), entonces se permite continuar con
las iteraciones. El uso de la variable sentinel permite evitar los clculos
innecesarios de estimacin de error una vez que las ecuaciones excedan el
criterio.

Problemas en contexto para el mtodo de Gauss- Seidel

Adems de evitar el problema de redondeo, la tcnica de Gauss-Seidel tiene


muchas otras ventajas que la hacen particularmente atractiva en el contexto de
ciertos problemas de ingeniera. Por ejemplo, cuando la matriz en cuestin es muy
grande y muy rala (cuando la mayora de sus elementos son cero), los mtodos de
eliminacin consumen grandes cantidades de memoria de cmputo para calcular
ceros.

Al inicio de estos captulos se vio como esta desventaja se puede evitar si el


coeficiente de la matriz se alinea en forma de banda. Para sistemas que no tienen
la forma de banda, usualmente no existe un camino simple para evitar grandes
requerimientos de memoria cuando se usan los mtodos de eliminacin. Como
todas las computadoras tienen una cantidad de memoria finita, este ineficiencia da
lugar a restricciones en el tamao de los sistemas, por lo cual los mtodos de
eliminacin son prcticos.

A continuacin el algoritmo:

SUBROTINE Gseid (a,b,n,x,imax,es,lambda)

DO i = 1,n

dummy = ai,i

DO j = 1,n

ai,j = ai,j/dummy

END DO

bi= bi/dummy

END DO

DO i = 1,n

sum = bi

DO j = 1,n

IF j THEN sum = sum ai,j *xj

END DO

xi = sum

END DO

iter = 1

DO

sentinel = 1

DO i = 1,n

old = xi

sum = bi

DO j = 1,n
IF j THEN sum = sum ai,j * xj

END DO

xi = lambda*sum + (1.-lambda)*old

IF sentinel = 1 AND x1 0. THEN

ea = ABS ((xi old)/xi)*100

IF ea es THEN sentinel = o

END IF

ENDDO
iter = iter +1

IF sentinel = 1 OR (iter iter max) EXIT

END DO

END Gseid

PROGRAMA QUE IMPLEMENTA EL METODO DE GAUSS SEIDEL CON


PIVOTEO PARA //

// LA ASIGNATURA DE SOFTWARE NUMERICO. //

#include <stdio.h>

#include <math.h>

#include <iostream.h>

#include <conio.h>

#define L 10

#define P L

float
A[L][P],MATRIZ[L][P],VECTOR[L],X[L],CX[L],C[L],RESULTADOS[L],tabla[1000];
float a, b, c, d, e, f;

int it,ini,n,x,y,z,cont=0;

void Gauss_Seidel(int n)

for(x=0;x<n;x++)

CX[x]=0;

X[x]=0;

for(y=0;y<n;y++)

for(x=0;x<n;x++) //Ingreso de la matriz A

cout<<"A["<<y<<"]["<<x<<"] = ";

cin>>e;

A[y][x]=e;

MATRIZ[y][x]=e; //esta es la matriz q no varia

cout<<"Y la constante C["<<y<<"] = ";

cin>>f;

C[y]=f;

VECTOR[y]=f; //este es el vector que no se modifica

int sum=0,cont=0,reglon=0;

for(int i=0;i<n;i++) //se suma la diagonal principal


sum=sum+abs(A[i][i]);

for(i=0;i<n;i++) //se compara cada reglon con el valor de la diagonal

for(int j=0;j<n;j++)

reglon=reglon+abs(A[i][j]);

if(reglon<=sum) cont++;

reglon=0;

int temp[L][P],H[P];

if(cont!=n) //aqui se realiza el pivoteo

for(i=0;i<n;i++)

for(int j=i;j<n;j++)

int d,e;

d=abs(A[i][i]);

e=abs(A[j][i]);

if(d<e)

for(int z=0;z<n;z++)

temp[i][z]=A[i][z];
A[i][z]=A[j][z];

A[j][z]=temp[i][z];

H[i]=C[i];

H[j]=C[j];

C[i]=H[j];

C[j]=H[i];

i=0;

for(it=0;it<100;it++)

for(y=0;y<n;y++)

for(x=0;x<n;x++)

CX[y]-=(A[y][x]*X[x])/A[y][y];

CX[y]+=(C[y]/A[y][y]);

X[y]=CX[y];

tabla[i]=CX[y]; //tabla sirve para imprimir la tabla de


resultados

i++;

}
}

void titulo(int n)

int o=10,i=1;

clrscr();

for(i=1;i<n+1;i++)

o=o+10;

gotoxy(o,3);

cout<<"X"<<i;

gotoxy(15,4);cout<<"--------------------------------------------";

void resultados()

int q=0,i=1,t=3,s=n,r=0;

int sw=0,w=0,ite=0,h=0;

while((sw==0)&&(w<20))

h=0;

while(h<n)

if(tabla[r]==tabla[r+s])
{

cont++;

if(cont==n)

sw=1;

r++;

s++;

h++;

ite++;

w++;

w=ite-1;

for(int j=0;j<w;j++)

t=t+2;

if((i%10==0))

textcolor(LIGHTRED+BLINK);

gotoxy(5,t-2);

cprintf("\n\n Presione una tecla para ver la siguiente parte de la


tabla!!! ");

getch();

textcolor(GREEN);

clrscr();
t=5;

titulo(n);

gotoxy(15,t);cout<<i<<"";

int y=20,z=0;

for(int r=0;r<n;r++)

gotoxy(y+z,t);cout<<tabla[q];

q++;

z=z+10;

i++;

void main()

textcolor(GREEN);

clrscr();

cout<<" Solucion de ecuaciones simultaneas\n\n\n Metodo de Gauss-


Seidel";

cout<<"\n\n Cuantas incognitas tendra el sistema: ";

scanf("%d",&n);

Gauss_Seidel(n);

titulo(n);
resultados();

cout<<"\n\nLos resultado son ";

for(x=0;x<n;x++)

RESULTADOS[x]=X[x];

cout<<"\nX["<<x<<"]= "<<RESULTADOS[x];

getch();

En anlisis numrico, el mtodo de Newton (conocido tambin como el mtodo de


Newton-Raphson o el mtodo de Newton-Fourier) es un algoritmo eficiente para
encontrar aproximaciones de los ceros o races de una funcin real. Tambin
puede ser usado para encontrar el mximo o mnimo de una funcin, encontrando
los ceros de su primera derivada.

.Recordemos que el mtodo de Newton Raphson es un mtodo abierto que


encuentra la raz de x como una funcin tal que ( = 0. El mtodo se resume
como

( )
+1 =
( )
Se puede usar un planteamiento similar abierto para encontrar un ptimo de ()
al definir una nueva funcin , () = (). As, como el mismo valor ptimo de
satisface ambos

( ) = ( ) = 0
Se puede usar lo siguiente
( )
+1 =
( )
Como una tcnica para encontrar el mnimo o mximo de (). Se debera
observar que esta ecuacin puede tambin derivarse al escribir una serie de
Taylor de segundo orden para () e igualar a la derivada de la seria a cero. El
mtodo de Newton es abierto y similar al de Newton Raphson porque no
requiere de valores iniciales que contengan el ptimo. Adems, tambin comparte
la desventaja de poder ser divergente. Por ltimo, es una buena idea verificar que
la segunda derivada tenga usualmente el signo correcto para confirmar que la
tcnica converge sobre el resultado deseado.

Otra definicin de este mtodo lo define como un mtodo abierto, en el sentido de


que su convergencia global no est garantizada. La nica manera de alcanzar la
convergencia es seleccionar un valor inicial lo suficientemente cercano a la raz
buscada. As, se ha de comenzar la iteracin con un valor razonablemente
cercano al cero (denominado punto de arranque o valor supuesto). La relativa
cercana del punto inicial a la raz depende mucho de la naturaleza de la propia
funcin; si sta presenta mltiples puntos de inflexin o pendientes grandes en el
entorno de la raz, entonces las probabilidades de que el algoritmo diverja
aumentan, lo cual exige seleccionar un valor supuesto cercano a la raz. Una vez
que se ha hecho esto, el mtodo linealiza la funcin por la recta tangente en ese
valor supuesto. La abscisa en el origen de dicha recta ser, segn el mtodo, una
mejor aproximacin de la raz que el valor anterior. Se realizarn sucesivas
iteraciones hasta que el mtodo haya convergido lo suficiente.
f'(x)= 0 Sea f : [a, b] -> R funcin derivable definida en el intervalo real [a, b].
Empezamos con un valor inicial x0 y definimos para cada nmero natural n

Donde f ' denota la derivada de f.

Ntese que el mtodo descrito es de aplicacin exclusiva para funciones de una


sola variable con forma analtica o implcita cognoscible. Existen variantes del
mtodo aplicables a sistemas discretos que permiten estimar las races de la
tendencia, as como algoritmos que extienden el mtodo de Newton a sistemas
multivariables, sistemas de ecuaciones, etc.

Grficamente podemos
darnos una idea del
mtodo de Newton
Raphson de la siguiente
manera:

La funcin es mostrada
en azul y la lnea tangente
en rojo. Vemos que xn+1 es
una mejor aproximacin
que xn para la raz x de la
funcin f.

El orden de convergencia de este mtodo es, por lo menos, cuadrtico. Sin


embargo, si la raz buscada es de multiplicidad algebraica mayor a uno (i.e, una
raz doble, triple,...), el mtodo de Newton-Raphson pierde su convergencia
cuadrtica y pasa a ser lineal de constante asinttica de convergencia 1-1/m, con
m la multiplicidad de la raz.

Su principal desventaja en este caso sera lo costoso que pudiera ser hallar g(x) y
g'(x) si f(x) no es fcilmente derivable.

Por otro lado, la convergencia del mtodo se demuestra cuadrtica para el caso
ms habitual en base a tratar el mtodo como uno de punto fijo: si g'(r)=0, y g' '(r)
es distinto de 0, entonces la convergencia es cuadrtica. Sin embargo, est sujeto
a las particularidades de estos mtodos.

Ntese de todas formas que el mtodo de Newton-Raphson es un mtodo abierto:


la convergencia no est garantizada por un teorema de convergencia global como
podra estarlo en los mtodos de falsa posicin o de biseccin. As, es necesario
partir de una aproximacin inicial prxima a la raz buscada para que el mtodo
converja y cumpla el teorema de convergencia local.

Se puede demostrar que el mtodo de Newton-Raphson tiene convergencia


cuadrtica: si es raz, entonces:
Para una cierta constante C. Esto significa que si en algn momento el error es
menor o igual a 0,1, a cada nueva iteracin doblamos (aproximadamente) el
nmero de decimales exactos. En la prctica puede servir para hacer una
estimacin aproximada del error:

Error relativo entre dos aproximaciones sucesivas:

Con lo cual se toma el error relativo como si la ltima aproximacin fuera el valor
exacto. Se detiene el proceso iterativo cuando este error relativo es
aproximadamente menor que una cantidad fijada previamente.

2
Use el mtodo de Newton para encontrar el mximo de: () = 2
10
con un valor inicial de 0 = 2.5

SOLUCION: La primera y segunda derivada de la funcin se puede evaluar como:


() = 2 cos
5
1
() = 2
5

Las cuales sustituiremos en la ecuacin para obtener:


2 cos
+1 = 5
1
2
5
Al sustituir el valor inicial se obtiene:

2.5
2 cos 2.5
1 = 2.5 5 = .
1
2 2.5
5
La cual tiene un valor de la funcin de 1.57859. La segunda iteracin da como
resultado:

0.995
2 cos 0.995
1 = 0.995 5 = .
1
2 0.995
5

La cual tiene un valor de la funcin de 1.77385.


El proceso se repite, con los resultados abajo tabulados:

i X f (x) f (x) f (x)


0 2.5 0.57194 -2.10229 -1.39694
1 0.99508 1.57859 0.88985 -1.87761
2 1.46901 1.77385 -0.09058 -2.18965
3 1.42764 1.77573 -0.00020 -2.17954
4 1.42755 1.77573 0.00000 -2.17952

As dentro de las cuatro iteraciones, el resultado converge en forma rpida sobre


el valor verdadero

Consideremos el problema de encontrar un nmero positivo x tal que cos(x) = x3.


Podramos tratar de encontrar el cero de f(x) = cos(x) - x3.

Sabemos que f '(x) = -sin(x) - 3x2. Ya que cos(x) 1 para todo x y x3 > 1 para x>1,
deducimos que nuestro cero est entre 0 y 1. Comenzaremos probando con el
valor inicial x0 = 0,5

Los dgitos correctos estn subrayados. En particular, x6 es correcto para el


nmero de decimales pedidos. Podemos ver que el nmero de dgitos correctos
despus de la coma se incrementa desde 2 (para x3) a 5 y 10, ilustrando la
convergencia cuadrtica.
En pseudocdigo esto es:

function newtonIterationFunction(x) {
return x - (cos(x) - x^3) / (-sin(x) - 3*x^2)
}

var x := 0,5

for i from 0 to 99 {
print "Iteraciones: " + i
print "Valor aproximado: " + x
xold := x
x := newtonIterationFunction(x)
if x = xold {
print "Solucin encontrada!"
break
}
}

Programa escrito en Matlab para hallar las races usando el mtodo de


NEWTON-RAPHSON

function x =newton()
disp ('NEWTON-RAPHSON')
xo=input('Valor inicial =');
n=input ('numero de iteraciones=');
salida=ones(n,4); % matiz de salida de datos
for i=1:n
x1=xo-[(exp(-xo)-xo)]/[(-exp(-xo)-1)];
vsal=[xo;x1];
er=[[abs((xo-x1)/xo)]]*100; % error relativo porcentual
ea=[[abs((x1-xo)/x1)]]*100; % error
xo=x1;

salida(i,1)=i;
salida(i,2)=x1;
salida(i,3)=er;
salida(i,4)=ea;
end
disp('ite raiz er ea');
disp(num2str(salida));
Aunque el mtodo de Newton Raphson trabaja bien en algunos casos, no es
practico en otros donde las derivadas no se pueden evaluar en forma conveniente.
Para estos casos, se dispone de otros procedimientos que no involucran la
evaluacin de la derivada. Por ejemplo, un mtodo de Newton, en versin como la
secante, se puede desarrollar al usar aproximaciones por diferencia finita para las
evaluaciones de la derivada.

Una restriccin mayor con respecto al procedimiento es que puede divergir con
base en la naturaleza de la funcin y la calidad del valor inicial. Asi, usualmente se
emplea solo cuando esta cerca del optimo. Las tcnicas hibridas que usan
procedimientos con intervalos lejos del optimo y los mtodos abiertos cercanos al
optimo intentan explotar los puntos fuertes de ambos procedimientos.

Esto concluye nuestro tratamiento de los mtodos para encontrar el optimo de


funciones de una sola variable. Por otra parte, las tcnicas descritas aqu son un
importante elemento de algunos procedimientos para optimizar multivariables, que
se analizaran mas adelante.

Ttulo: Mtodos Numricos para Ingenieros


Autores: Steven C. Chapra, Raymond P. Canale
Editorial: MacGH

http://ocw.upm.es/matematica-aplicada/programacion-y-metodos-
numericos/contenidos/TEMA_8/Apuntes/EcsNoLin.pdf

Anda mungkin juga menyukai