Anda di halaman 1dari 7

Integrales dobles para lmites variables

Sea F (z) = f(x, y), la integral evaluada entre dos funciones g(x) y h(x) para x y el intervalo c y d para
y, dado de la siguiente manera.
( )

( )

Aplicando la cuadratura de gauss para n puntos, primero debemos transformar el intervalo [g(x),
h(x)] al intervalo de [-1, 1] para cada x en c y d, y luego aplicar la cuadratura de gauss.
Obtendramos lo siguiente
( )

( )

( )

( )

( )

( )

( )

( )

( )

( )

( )

( )

( )

( )

Donde
las races y Cn, j son los coeficientes de la tabla de la cuadratura de gauss. Ahora
transformando el intervalo [c, d] en [-1, 1] y usamos la cuadratura gaussiana para aproximar la
integral del lado derecho de la ecuacin.
(

( )

( )
)(

A estas integrales tambin se le puede aplicar los mtodos del trapecio o Simpson. Puede facilitar
un poco los clculos porque estos mtodos no se requieren realizar los cambios de los intervalos
de integracin. Pero a la vez faculta los clculos cuando el nmero de intervalos es bien elevado
para ajustar ms la integral.

IMPLEMENTACION EN MATLAB
%Codifico un metodo llamado vandermonde que sera utilizado para la
%Cuadratura de Gauss.
function u=vander(x)
[n,m]=size(x);
x=x';
v=ones(n);
for i=1:n-1
for j=1:n
v(j,i)=x(1,j)^i;
end
end
I=ones(n,1);
u=[I v(:,1:n-1)];
end

function[I]=intdoble(li,ls,gx,hx,n,m)
Fxy=input('\ingrese la funcion','s');
syms('z');
%calculo de las raices para 'n' puntos
p1=((1/(prod(1:n))*2^n)*diff((z^2-1)^n,'z',n));
T1=roots(sym2poly(p1));
%matriz de vandermon para derminar los coeficientes
v1=(vander(T1));
v1=inv(v1);
%calculo de las raices rj para 'm' puntos
p2=((1/(prod(1:m))*2^m)*diff((z^2-1)^m,'z',m));
T2=roots(sym2poly(p2));
%matriz de vandermon para derminar los coeficientes
v2=(vander(T2));
v2=inv(v2);
%calculo de los coeficientes cj para 'n' puntos
syms('w');
for i=1:n
for j=1:n
a1=v1(i,j);
c1(i,j)=a1*w^(i-1);
end
end
s1=sum(c1) ;
for j=1:n
o1=s1(j);
b1(j)=int(o1,-1,1); % coeficientes para n
end
%calculo de los coeficientes cj para 'm' puntos
for i=1:m
for j=1:m
a2=v2(i,j);
c2(i,j)=a2*w^(i-1);
end
end
s2=sum(c2)
for j=1:m
o2=s2(j);

b2(j)=int(o2,-1,1), % coeficientes para m


end
%Realizo el cambio de variable integral f(x,y) entre [gx,hx],
%ahora integrare f(x,t) entre [-1,1]usando aproximaciones
syms('x');
x=x;
gx=eval(gx);
hx=eval(hx);
z1=gx+hx;
z2=hx-gx;
syms('t');
y=(z1+z2*t)/2;
fxt=eval(Fxy)*z2/2;
for j=1:n
t=T1(j);
r(j)=(eval(fxt));
end
fx=z2*sum(b1.*r)/2; %calculo de la funcion x usando los coeficientes y
raices de
% de la cuadratura de gauus para 'n' puntos
%Realizo el cambio de variable integral f(x) entre [li,ls],
%ahora integrare f(xd) entre [-1,1]usando aproximaciones
syms('xd');
x=(xd*(ls-li)+ls+li)/2;
z=eval(fx);
for j=1:m
xd=T2(j);
t(j)=(eval(z));
end
I=((ls-li)*sum(b2.*t)/2); %solucion a la integral
end

Ajuste por Mnimos Cuadrados


En general cuando se realizan experimentos se tienen valores dispersos los cuales necesitan una
aproximacin intermedia, esto conocido como aproximacin por mnimos cuadrados. Hay ciertos
experimentos en el campo de la ingeniera en los que por lo general los datos casi nunca se
asemejan a una forma lineal (no tienen una aproximacin lineal) sino que tienen forma curva,
entonces se puede ajustar estos datos de forma polinomial, este ajuste es conocido como ajuste
por mnimos cuadrados polinomiales.
En general el ajuste por mnimos cuadrados polinomiales tiene la forma

Cuantificacin del error


Para una serie de datos dados

con

Entonces el error para cada punto de

donde

correspondiente a un

es el nmero de datos
esta dado
)

(
Entonces al hacer la derivada de

respecto de las constantes

se tiene:

Estas ecuaciones se igualan a cero y se redondean para desarrollar el siguiente conjunto de


ecuaciones normales:
(
(
(

Donde las sumatorias van de


hasta . Si observamos el sistema tenemos un sistema de
ecuaciones con
incgnitas, entonces podemos resolver por cualquier mtodo el
sistema y encontrar
entonces nuestro ajuste polinomial de grado
est
resuelto.
Entonces para este caso el error estndar esta dado como:

Donde (
) es el nmero de coeficientes obtenidos de los datos
utilizan para calcular y (
(
)) se conoce como grados de libertad.

que se

Coeficiente de correlacin mltiple


El ajuste lineal por mnimos cuadrados se puede extender al caso en el que
de dos o ms variables independientes. Por ejemplo en funcin de
y
regresin o ajuste se convierte en un plano, entonces.

es una funcin lineal


que en este caso la

Como en el caso de ajuste por mnimos cuadrados los valores de los coeficientes se determinan al
realizar la suma de los cuadrados de los residuos (error de cada punto ):
)

Y derivando los residuos respecto de cada coeficiente e igualando a cero dicha derivadas vamos a
tener un sistema de ecuaciones el cual al resolverlo encontramos el valor de los coeficientes

Entonces con esto se puede calcular el error estndar de la misma manera que para un ajuste
unidimensional, es decir que:

Adems del error estndar, tambin se calcula un coeficiente de determinacin y con esto
tambin un coeficiente de correlacin mltiple
Para esto utilizamos lo que es la desviacin estndar que cuantifica la dispersin de los datos
alrededor de la media aritmtica. Para esto regresamos a los datos originales y determinamos la
suma total de los cuadrados alrededor de la media para la variable dependiente ; esto se designa
como y esta dado entonces por:
(

Ahora la diferencia entre estas dos cantidades


cuantifica la mejora o reduccin del error
por describir los datos en trminos de una curva en vez de un valor aproximado. Como la

magnitud de esta cantidad depende de la escala, la diferencia se normaliza dividiendo para


obteniendo.

Donde se conoce como coeficiente de determinacin mltiple, y se conoce como coeficiente


de correlacin mltiple. En donde si se tuviese un ajuste perfecto
y
, significa
que la curva explica en 100% de la variabilidad de los datos. En el caso que tenga un valor muy
aproximado a ,
lo cual explica que el ajuste no presenta alguna mejora o
aproximacin para nuestros datos.
Esto se puede generalizar para el caso que

es una funcin lineal dependiente de

Intervalos de confianza para la regresin lineal.


Como sabemos la regresin lineal por mnimos cuadrados est dada por:

Entonces otra manera de desarrollar este sistema es hacer:

Este sistema podemos representar de forma matricial

*
[

]
[ ] [ ]

+
[ ]
[ ]

Como vemos que nuestro sistema no es compatible entonces normalizamos para poder resolverlo
multiplicando por [ ] , entonces el sistema queda:

[ ] [ ] [ ]

[ ] [ ]

Que ahora si es un sistema compatible.


Este sistema se puede resolver utilizando cualquier mtodo para resolver sistemas de ecuaciones
lineales. Pero en nuestro caso vamos a utilizar el mtodo de la inversa de la matriz as:
[ ]

[[ ] [ ] ] [ ] [ ]

Ya que la matriz inversa [[ ] [ ]]


tiene muchas propiedades estadsticas que requerimos para
nuestro estudio. Adems de dar una solucin para los coeficientes de regresin lineal, vamos
ahora a analizar los aspectos estadsticos, para la bondad de nuestro ajuste (ver que tan
confiable es nuestro ajuste con los coeficientes
)
Es posible demostrar que los trminos en la diagonal y fuera de la diagonal de la matriz
[[ ] [ ] ]

dan, respectivamente, las varianzas y las covarianzas de los coeficientes

valores de la diagonal principal de la matriz [[ ] [ ]]


(

se los designar por

. A los

, entonces:

Y
(

Donde utilizaremos la varianza para desarrollar intervalos de confianza para la interseccin con el
eje y la pendiente.
Los lmites inferior y superior para la interseccin con el eje

Donde ( )

se muestran de la siguiente manera:

el error estndar del coeficiente

( )

De manera similar, los lmites inferior y superior para la interseccin con la pendiente estn dados
por:

( )

Donde el estadstico
necesario para un intervalo de confianza del 95% con
de libertad se obtiene con una tabla estadstica o mediante software

grados

Anda mungkin juga menyukai