Monografa Informtica
aplicada.
Prueba de declinacin de
presin con Matlab.
INDICE.
[2]
2 Resea Histrica
2.1 Historia de las redes neuronales.
1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el
mundo de la computacin. Sin embargo, los primeros tericos que concibieron los
fundamentos de la computacin neuronal fueron Warren McCulloch, un
neurofisilogo, y Walter Pitts, un matemtico, quienes, en 1943, lanzaron una
teora acerca de la forma de trabajar de las neuronas Un Clculo Lgico de la
Inminente Idea de la Actividad
Nerviosa - Boletn de Matemtica Biofsica 5: 115-133). Ellos modelaron una red
neuronal simple mediante circuitos elctricos.
1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje (que
es el elemento bsico de la inteligencia humana) desde un punto de vista
psicolgico, desarrollando una regla de como el aprendizaje ocurra. Aun hoy, este
es el fundamento de la mayora de las funciones de aprendizaje que pueden
hallarse en una red neuronal. Su idea fue que el aprendizaje ocurra cuando
ciertos cambios en una neurona eran activados. Tambin intent encontrar
semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb
formaron las bases de la Teora de las Redes Neuronales.
1950 - Karl Lashley. En sus series de ensayos, encontr que la informacin no era
almacenada en forma centralizada en el cerebro sino que era distribuida encima
de l.
1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para
indicar el nacimiento de la inteligencia artificial.
1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones
tcnicas (memoria asociativa).
[6]
3 Generalidades
3.2.2 Auto-organizacin.
Cuando las redes neuronales se usan para reconocer ciertas clases de patrones,
ellas autoorganizan la informacin usada. Por ejemplo, la red llamada
backpropagation, crear su propia representacin caracterstica, mediante la cual
puede reconocer ciertos patrones.
entrada para obtener una respuesta. Esta caracterstica es muy importante cuando
se tiene que solucionar problemas en los cuales la informacin de entrada no es
muy clara; adems permite que el sistema d una solucin, incluso cuando la
informacin de entrada est especificada de forma incompleta.
La razn por la que las redes neuronales son tolerantes a los fallos es que tienen
su informacin distribuida en las conexiones entre neuronas, existiendo cierto
grado de redundancia en este tipo de almacenamiento. La mayora de los
ordenadores algortmicos y sistemas de recuperacin de datos almacenan cada
pieza de informacin en un espacio nico, localizado y direccionable. En cambio,
las redes neuronales almacenan informacin no localizada. Por lo tanto, la
mayora de las interconexiones entre los nodos de la red tendrn sus valores en
funcin de los estmulos recibidos, y se generar un patrn de salida que
represente la informacin almacenada.
[10]
Una red individual puede ser entrenada para desarrollar una nica y bien definida
tarea (tareas complejas, que hagan mltiples selecciones de patrones, requerirn
sistemas de redes interconectadas). Con las herramientas computacionales
existentes (no del tipo PC), una red puede ser rpidamente entrenada,
comprobada, verificada y trasladada a una implementacin hardware de bajo
coste. Por lo tanto, no se presentan dificultades para la insercin de redes
neuronales en aplicaciones especficas, por ejemplo de control, dentro de los
sistemas existentes. De esta manera, las redes neuronales se pueden utilizar para
mejorar sistemas en forma incremental y cada paso puede ser evaluado antes de
acometer un desarrollo ms amplio.
[11]
Ni las neuronas ni las sinapsis son elementos de memoria biestable. Todos los
hechos fisiolgicos hablan a favor de las acciones de las neuronas como
integradores analgicos, y la eficiencia de la sinapsis cambia de forma gradual, lo
cual no es caracterstico de sistemas biestables.
4 Aplicaciones de RNA.
4.1 Ploteo de datos, basic fitting e interpolacin.
Para observar como funciona una RNA, hemos propuesto un caso tomando como
datos de entrada un problema de declinacin de presin, extrado de un libro de
Reservorios.
[12]
[13]
Se puede observar que los datos se distribuyen como si se tratara de una funcin
exponencial. Luego de esto, se ingresa a la funcin tolos/ basic fitting para poder
extraer la funcin que el programa deduce de acuerdo a los valores que tiene.
Como sabemos que estamos en presencia de una funcin exponencial,
generamos un grafico semilogaritmico con el comando semilogy aunque en la
prctica nos sera ms til el semilogx, necesitamos hacerlo logartmico de y
para clculos de RNA que se realizaran posteriormente.
[14]
[15]
Como vemos los valores coeficientes p1,p2,p3,p4 y p5 corresponden a una ecuacin que
tiene la estructura siguiente:
Y= P1X4+P2X3+P3X2+P4X+P5
[16]
El valor de norm of residuals tiene que ver con como se ajusta la funcin
entregada a los datos input del problema. Mientras mayor es ese valor, mayor son
los errores que se incurren, siendo la funcin lineal el valor mximo, ya que es el
que mayor error conlleva.
En la tercera columna de esta herramienta basic fitting tenemos la opcin de
ingresar valores para ser evaluados en la funcin que ha sido entregada en la
columna anterior. Esto sirve para interpolar dentro del rango de valores en los que
se encuentran los datos input, hay que introducir los valores de x (tiempo en
horas) y el programa nos dar el valor de presin estipulado para esa ecuacin. El
programa nos da la opcin tambin de poder guardar esos puntos.
Basic fitting tambin tiene la opcin de mostrar la ecuacin completa en la grfica,
en este caso no se us ya que ensuciaba mucho la imagen.
Ya por ltimo, esta opcin de encastre bsico nos deja guardar los datos
obtenidos para como nuevas variables. fit (ecuacin polinmica grado 4); Norm
Residual y resids que son anlisis residuales.
En conclusin, contar con una formula fiable que represente el comportamiento de los
datos presin/tiempo, nos ayudar mucho en la obtencin de datos elaborados a partir
de los inputs crudos. Ya que simplifica mucho el trabajo contar con una ecuacin.
[18]
[19]
Como vemos, la RNA corri bastante bien con 3 neuronas, valor que permite a la
red neuronal poder generalizar y no caer en sobreajustes de valores fallidos sin
perder por eso una buena aproximacin a los datos. Esto se ve reflejado en la
figura de abajo, en parte porque los datos de validacin fueron modificados con
ruido de la tabla original del problema.
En conclusin podemos ver que con un RNA bien entrenado, que contenga una
base de datos importante sobre drawdown. Podemos llegar a inferir el tipo y
calidad de reservorio con el cual estamos trabajando poniendo como input los
datos de ensayos de presin de pozo. Para ello es necesario dotar a esta RNA de
la mayor cantidad posible de planillas de presin/tiempo de diversos tipos y
calidades de reservorios para que los resultados obtenidos sean representativos y
con el mnimo error posible.
[20]
As como tambin ya existen las llamadas curvas tipo. Curvas que tienen un nivel
de desarrollo (no son los datos crudos) en la cual el RNA puede llegar a realizar
una especie de macheo de la curva tipo con los datos que surgieron de las
mediciones y as poder sacar informacin muy importante sobre el reservorio.
Bibliografas
[21]