Anda di halaman 1dari 21

Universidad Nacional de Cuyo, Facultad de Ingenieria.

Monografa Informtica
aplicada.

Prueba de declinacin de
presin con Matlab.

Alumno: Boggetti, Juan Ignacio


Leg:9152
Ao 2014

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

INDICE.

1.1 Acerca de las redes neuronales.pg3


2 Resea Histricapg5
2.1 Historia de las redes neuronales.pg5
3 Generalidades.pg7
3.1 Definiciones de una red neuronalpg7
3.2 Ventajas que ofrecen la red neuronal.pg7
3.2.1 Aprendizaje adaptativopg8
3.2.2 Auto-organizacin.pg9
3.2.3 Tolerancia a fallos...pg10
3.2.4 Operacin en tiempo real..pg10
3.2.5 Fcil insercin dentro de la tecnologa existente..pg11
3.3 Redes neuronales y computadoras digitales.pg11
4 Aplicaciones de RNApg12
4.1 Ploteo de datos, basic fitting e
interpolacin..pg12
4.2 Teora: Prueba declinacin de presin.....pg16
4.3 RNA para la curva de declinacin de presin.pg17
Bibliografas..pg20

[2]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

1.1 Acerca de las redes neuronales.

El hombre se ha caracterizado siempre por su bsqueda constante de nuevas vas


para mejorar sus condiciones de vida. Estos esfuerzos le han servido para reducir
el trabajo en aquellas operaciones en las que la fuerza juega un papel primordial.
Los progresos obtenidos han permitido dirigir estos esfuerzos a otros campos,
como por ejemplo, a la construccin de mquinas calculadoras que ayuden a
resolver de forma automtica y rpida determinadas operaciones que resultan
tediosas cuando se realizan a mano.
Uno de los primeros en acometer esta empresa fue Charles Babbage, quien trat
infructuosamente de construir una mquina capaz de resolver problemas
matemticos.
Posteriormente otros tantos intentaron construir mquinas similares, pero no fue
hasta la Segunda Guerra Mundial, cuando ya se dispona de instrumentos
electrnicos, que se empezaron a recoger los primeros frutos. En 1946 se
construy la primera computadora electrnica, ENIAC. Desde entonces los
desarrollos en este campo han tenido un auge espectacular.
Estas mquinas permiten implementar fcilmente algoritmos para resolver multitud
de problemas que antes resultaban engorrosos de resolver. Sin embargo, se
observa una limitacin importante: qu ocurre cuando el problema que se quiere
resolver no admite un tratamiento algortmico, como es el caso, por ejemplo, de la
clasificacin de objetos por rasgos comunes? Este ejemplo demuestra que la
construccin de nuevas mquinas ms verstiles requiere un enfoque del
problema desde otro punto de vista. Los desarrollos actuales de los cientficos se
dirigen al estudio de las capacidades humanas como una fuente de nuevas ideas
para el diseo de las nuevas mquinas. As, la inteligencia artificial es un intento
por descubrir y describir aspectos de la inteligencia humana que pueden ser
simulados mediante mquinas. Esta disciplina se ha desarrollado fuertemente en
los ltimos aos teniendo aplicacin en algunos campos como visin artificial,
demostracin de teoremas, procesamiento de informacin expresada mediante
lenguajes humanos... etc.
Las redes neuronales son ms que otra forma de emular ciertas caractersticas
propias de los humanos, como la capacidad de memorizar y de asociar hechos. Si
se examinan con atencin aquellos problemas que no pueden expresarse a travs
de un algoritmo, se observar que todos ellos tienen una caracterstica en comn:
la experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la
experiencia acumulada. As, parece claro que una forma de aproximarse al
problema consista en la construccin de sistemas que sean capaces de reproducir
esta caracterstica humana. En definitiva, las redes neuronales no son ms que un
modelo artificial y simplificado del cerebro humano, que es el ejemplo ms
[3]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

perfecto del que disponemos para un sistema que es capaz de adquirir


conocimiento a travs de la experiencia. Una red neuronal es un nuevo sistema
para el tratamiento de la informacin, cuya unidad bsica de procesamiento est
inspirada en la clula fundamental del sistema nervioso humano: la neurona.
Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con
la (in)actividad de estas neuronas. Las mismas son un componente relativamente
simple del ser humano, pero cuando millares de ellas se conectan en forma
conjunta se hacen muy poderosas.

Lo que bsicamente ocurre en una neurona biolgica es lo siguiente: la neurona


es estimulada o excitada a travs de sus entradas (inputs) y cuando se alcanza un
cierto umbral, la neurona se dispara o activa, pasando una seal hacia el axon.
Posteriores investigaciones condujeron al descubrimiento de que estos procesos
son el resultado de eventos electroqumicos.
Como ya se sabe, el pensamiento tiene lugar en el cerebro, que consta de
billones de neuronas interconectadas. As, el secreto de la inteligencia -sin
importar como se defina- se sita dentro de estas neuronas interconectadas y de
su interaccin. Tambin, es bien conocido que los humanos son capaces de
aprender. Aprendizaje significa que aquellos problemas que inicialmente no
pueden resolverse, pueden ser resueltos despus de obtener ms informacin
acerca del problema. Por lo tanto, las Redes Neuronales...

Consisten de unidades de procesamiento que intercambian datos o


informacin.

Se utilizan para reconocer patrones, incluyendo imgenes, manuscritos y


secuencias de tiempo (por ejemplo: tendencias financieras).

Tienen capacidad de aprender y mejorar su funcionamiento.


Una primera clasificacin de los modelos de redes neuronales podra ser,
atendiendo a su similitud con la realidad biolgica:
1) El modelo de tipo biolgico. Este comprende las redes que tratan de
simular los sistemas neuronales biolgicos, as como las funciones
auditivas o algunas funciones bsicas de la visin.
2) El modelo dirigido a aplicacin. Este modelo no tiene por qu guardar
similitud con los sistemas biolgicos. Su arquitectura est fuertemente
ligada a las necesidades de las aplicaciones para la que es diseada.
[4]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

2 Resea Histrica
2.1 Historia de las redes neuronales.

1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el
mundo de la computacin. Sin embargo, los primeros tericos que concibieron los
fundamentos de la computacin neuronal fueron Warren McCulloch, un
neurofisilogo, y Walter Pitts, un matemtico, quienes, en 1943, lanzaron una
teora acerca de la forma de trabajar de las neuronas Un Clculo Lgico de la
Inminente Idea de la Actividad
Nerviosa - Boletn de Matemtica Biofsica 5: 115-133). Ellos modelaron una red
neuronal simple mediante circuitos elctricos.

1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje (que
es el elemento bsico de la inteligencia humana) desde un punto de vista
psicolgico, desarrollando una regla de como el aprendizaje ocurra. Aun hoy, este
es el fundamento de la mayora de las funciones de aprendizaje que pueden
hallarse en una red neuronal. Su idea fue que el aprendizaje ocurra cuando
ciertos cambios en una neurona eran activados. Tambin intent encontrar
semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb
formaron las bases de la Teora de las Redes Neuronales.

1950 - Karl Lashley. En sus series de ensayos, encontr que la informacin no era
almacenada en forma centralizada en el cerebro sino que era distribuida encima
de l.
1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para
indicar el nacimiento de la inteligencia artificial.

1957 - Frank Rosenblatt. Comenz el desarrollo del Perceptron. Esta es la red


neuronal ms antigua; utilizndose hoy en da para aplicacin como identificador
de patrones. Este modelo era capaz de generalizar, es decir, despus de haber
aprendido una serie de patrones poda reconocer otros similares, aunque no se le
hubiesen presentado en el entrenamiento. Sin embargo, tena una serie de
limitaciones, por ejemplo, su incapacidad para resolver el problema de la funcin
OR-exclusiva y, en general, era incapaz de clasificar clases no separables
linealmente.
[5]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

1959 - Frank Rosenblatt: Principios de Neurodinmica. En este libro confirm que,


bajo ciertas condiciones, el aprendizaje del Perceptron converga hacia un estado
finito (Teorema de Convergencia del Perceptron).

1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative


LINear Elements). Esta fue la primera red neuronal aplicada a un problema real
(filtros adaptativos para eliminar ecos en las lneas telefnicas) que se ha utilizado
comercialmente durante varias dcadas.

1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones
tcnicas (memoria asociativa).

1969 - Marvin Minsky/Seymour Papert. En este ao casi se produjo la muerte


abrupta de las Redes Neuronales; ya que Minsky y Papert probaron
(matemticamente) que el Perceptrons no era capaz de resolver problemas
relativamente fciles, tales como 7 el aprendizaje de una funcin no-lineal. Esto
demostr que el Perceptron era muy dbil, dado que las funciones no-lineales son
extensamente empleadas en computacin y en los problemas del mundo real.

1974 - Paul Werbos. Desarroll la idea bsica del algoritmo de aprendizaje de


propagacin hacia atrs (backpropagation); cuyo significado qued definitivamente
aclarado en 1985.

1977 - Stephen Grossberg: Teora de Resonancia Adaptada (TRA). La Teora de


Resonancia Adaptada es una arquitectura de red que se diferencia de todas las
dems previamente inventadas. La misma simula otras habilidades del cerebro:
memoria a largo y corto plazo.

1985 - John Hopfield. Provoc el renacimiento de las redes neuronales con su


libro: Computacin neuronal de decisiones en problemas de optimizacin.

1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de


propagacin hacia atrs (backpropagation).

[6]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

A partir de 1986, el panorama fue alentador con respecto a las investigaciones y


el desarrollo de las redes neuronales. En la actualidad, son numerosos los
trabajos que se realizan y publican cada ao, las aplicaciones nuevas que surgen (
sobre todo en el rea de control) y las empresas que lanzan al mercado productos
nuevos, tanto hardware como software (sobre todo para simulacin).

3 Generalidades

3.1 Definiciones de una red neuronal.

Existen numerosas formas de definir a las redes neuronales; desde las


definiciones cortas y genricas hasta las que intentan explicar ms detalladamente
qu son las redes neuronales. Por ejemplo:
1) Una nueva forma de computacin, inspirada en modelos biolgicos.
2) Un modelo matemtico compuesto por un gran nmero de elementos
procesales organizados en niveles.
3) ...un sistema de computacin compuesto por un gran nmero de elementos
simples, elementos de procesos muy interconectados, los cuales procesan
informacin por medio de su estado dinmico como respuesta a entradas
externas.

4) Redes neuronales artificiales son redes interconectadas masivamente en


paralelo de elementos simples (usualmente adaptativos) y con organizacin
jerrquica, las cuales intentan interactuar con los objetos del mundo real del
mismo modo que lo hace el sistema nervioso biolgico.

3.2 Ventajas que ofrecen la red neuronal.

Debido a su constitucin y a sus fundamentos, las redes neuronales artificiales


presentan un gran nmero de caractersticas semejantes a las del cerebro. Por
ejemplo, son capaces de aprender de la experiencia, de generalizar de casos
anteriores a nuevos casos, de abstraer caractersticas esenciales a partir de
entradas que representan informacin irrelevante, etc. Esto hace que ofrezcan
[7]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

numerosas ventajas y que este tipo de tecnologa se est aplicando en mltiples


reas. Entre las ventajas se incluyen:

Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas


en un entrenamiento o en una experiencia inicial.

Auto-organizacin. Una red neuronal puede crear su propia organizacin o


representacin de la informacin que recibe mediante una etapa de
aprendizaje.

Tolerancia a fallos. La destruccin parcial de una red conduce a una


degradacin de su estructura; sin embargo, algunas capacidades de la red
se pueden retener, incluso sufriendo un gran dao.

Operacin en tiempo real. Los cmputos neuronales pueden ser realizados


en paralelo; para esto se disean y fabrican mquinas con hardware
especial para obtener esta capacidad.

Fcil insercin dentro de la tecnologa existente. Se pueden obtener chips


especializados para redes neuronales que mejoran su capacidad en ciertas
tareas. Ello facilitar la integracin modular en los sistemas existentes.

3.2.1 Aprendizaje adaptativo.

La capacidad de aprendizaje adaptativo es una de las caractersticas ms


atractivas de redes neuronales. Esto es, aprenden a llevar a cabo ciertas tareas
mediante un entrenamiento con ejemplos ilustrativos.

Como las redes neuronales pueden aprender a diferenciar patrones mediante


ejemplos y entrenamientos, no es necesario elaborar modelos a priori ni necesidad
de especificar funciones de distribucin de probabilidad.
[8]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

Las redes neuronales son sistemas dinmicos autoadaptativos. Son adaptables


debido a la capacidad de autoajuste de los elementos procesales (neuronas) que
componen el sistema. Son dinmicos, pues son capaces de estar constantemente
cambiando para adaptarse a las nuevas condiciones.

En el proceso de aprendizaje, los enlaces ponderados de las neuronas se ajustan


de manera que se obtengan ciertos resultados especficos. Una red neuronal no
necesita un algoritmo para resolver un problema, ya que ella puede generar su
propia distribucin de pesos en los enlaces mediante el aprendizaje. Tambin
existen redes que continan aprendiendo a lo largo de su vida, despus de
completado su perodo de entrenamiento.

La funcin del diseador es nicamente la obtencin de la arquitectura apropiada.


No es problema del diseador el cmo la red aprender a discriminar. Sin
embargo, s es necesario que desarrolle un buen algoritmo de aprendizaje que le
proporcione a la red la capacidad de discriminar, mediante un entrenamiento con
patrones.

3.2.2 Auto-organizacin.

Las redes neuronales emplean su capacidad de aprendizaje adaptativo para


autoorganizar la informacin que reciben durante el aprendizaje y/o la operacin.
Mientras que el aprendizaje es la modificacin de cada elemento procesal, la
autoorganizacin consiste en la modificacin de la red neuronal completa para
llevar a cabo un objetivo especfico.

Cuando las redes neuronales se usan para reconocer ciertas clases de patrones,
ellas autoorganizan la informacin usada. Por ejemplo, la red llamada
backpropagation, crear su propia representacin caracterstica, mediante la cual
puede reconocer ciertos patrones.

Esta autoorganizacin provoca la generalizacin: facultad de las redes neuronales


de responder apropiadamente cuando se les presentan datos o situaciones a las
que no haba sido expuesta anteriormente. El sistema puede generalizar la
[9]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

entrada para obtener una respuesta. Esta caracterstica es muy importante cuando
se tiene que solucionar problemas en los cuales la informacin de entrada no es
muy clara; adems permite que el sistema d una solucin, incluso cuando la
informacin de entrada est especificada de forma incompleta.

3.2.3 Tolerancia a fallos.

Las redes neuronales fueron los primeros mtodos computacionales con la


capacidad inherente de tolerancia a fallos. Comparados con los sistemas 10
computacionales tradicionales, los cuales pierden su funcionalidad cuando sufren
un pequeo error de memoria, en las redes neuronales, si se produce un fallo en
un nmero no muy grande de neuronas y aunque el comportamiento del sistema
se ve influenciado, no sufre una cada repentina.

Hay dos aspectos distintos respecto a la tolerancia a fallos:


a) Las redes pueden aprender a reconocer patrones con ruido, distorsionados o
incompletos. Esta es una tolerancia a fallos respecto a los datos.

b) Las redes pueden seguir realizando su funcin (con cierta degradacin)


aunque se destruya parte de la red.

La razn por la que las redes neuronales son tolerantes a los fallos es que tienen
su informacin distribuida en las conexiones entre neuronas, existiendo cierto
grado de redundancia en este tipo de almacenamiento. La mayora de los
ordenadores algortmicos y sistemas de recuperacin de datos almacenan cada
pieza de informacin en un espacio nico, localizado y direccionable. En cambio,
las redes neuronales almacenan informacin no localizada. Por lo tanto, la
mayora de las interconexiones entre los nodos de la red tendrn sus valores en
funcin de los estmulos recibidos, y se generar un patrn de salida que
represente la informacin almacenada.

3.2.4 Operacin en tiempo real.

[10]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

Una de las mayores prioridades, casi en la totalidad de las reas de aplicacin, es


la necesidad de realizar procesos con datos de forma muy rpida. Las redes
neuronales se adaptan bien a esto debido a su implementacin paralela. Para que
la mayora de las redes puedan operar en un entorno de tiempo real, la necesidad
de cambio en los pesos de las conexiones o entrenamiento es mnimo.

3.2.5 Fcil insercin dentro de la tecnologa existente.

Una red individual puede ser entrenada para desarrollar una nica y bien definida
tarea (tareas complejas, que hagan mltiples selecciones de patrones, requerirn
sistemas de redes interconectadas). Con las herramientas computacionales
existentes (no del tipo PC), una red puede ser rpidamente entrenada,
comprobada, verificada y trasladada a una implementacin hardware de bajo
coste. Por lo tanto, no se presentan dificultades para la insercin de redes
neuronales en aplicaciones especficas, por ejemplo de control, dentro de los
sistemas existentes. De esta manera, las redes neuronales se pueden utilizar para
mejorar sistemas en forma incremental y cada paso puede ser evaluado antes de
acometer un desarrollo ms amplio.

3.3 Redes neuronales y computadoras digitales.

Para entender el potencial de la computacin neuronal, sera necesario hacer una


breve distincin entre sistemas de computacin neuronales y digitales: los
sistemas neurolgicos no aplican principios de circuitos lgicos o digitales.
Un sistema de computacin digital debe ser sncrono o asncrono. Si fuera
asncrono, la duracin de los impulsos neuronales debera ser variable para
mantener uno de los valores binarios por periodos de tiempo indefinido, lo cual no
es el caso. Si el principio fuera sncrono, se necesitara un reloj global o maestro
con el cual los pulsos estn sincronizados. ste tampoco es el caso. Las neuronas
no pueden ser circuitos de umbral lgico, porque hay miles de entradas variables
en la mayora de las neuronas y el umbral es variable con el tiempo, siendo
afectado por la estimulacin, atenuacin, etc.
La precisin y estabilidad de tales circuitos no es suficiente para definir ninguna
funcin booleana. Los procesos colectivos que son importantes en computacin

[11]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

neuronal no pueden implementarse por computacin digital. Por todo ello, el


cerebro debe ser un computador analgico.

Ni las neuronas ni las sinapsis son elementos de memoria biestable. Todos los
hechos fisiolgicos hablan a favor de las acciones de las neuronas como
integradores analgicos, y la eficiencia de la sinapsis cambia de forma gradual, lo
cual no es caracterstico de sistemas biestables.

Los circuitos del cerebro no implementan computacin recursiva y por lo tanto no


son algortmicos. Debido a los problemas de estabilidad, los circuitos neuronales
no son suficientemente estables para definiciones recursivas de funciones como
en computacin digital. Un algoritmo, por definicin, define una funcin recursos.

4 Aplicaciones de RNA.
4.1 Ploteo de datos, basic fitting e interpolacin.
Para observar como funciona una RNA, hemos propuesto un caso tomando como
datos de entrada un problema de declinacin de presin, extrado de un libro de
Reservorios.

[12]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

[13]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

De los datos que se encuentran en la tabla, se seleccionaron los correspondientes a la


columna nmero 1 (tiempo en horas) y la columna nmero 3 ( Presin en PSI). De los
cuales se armaron planillas Excel para almacenar todos ellos.
Para hacer RNA se utiliz el programa Matlab donde fueron cargados los valores de tabla
que anteriormente cargamos en planillas, para ello se recurri al comando xlsread y
ylsread luego se corri el programa plot para poder observar el grfico que los valores
arrojaban.

Se puede observar que los datos se distribuyen como si se tratara de una funcin
exponencial. Luego de esto, se ingresa a la funcin tolos/ basic fitting para poder
extraer la funcin que el programa deduce de acuerdo a los valores que tiene.
Como sabemos que estamos en presencia de una funcin exponencial,
generamos un grafico semilogaritmico con el comando semilogy aunque en la
prctica nos sera ms til el semilogx, necesitamos hacerlo logartmico de y
para clculos de RNA que se realizaran posteriormente.

[14]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

Luego s, vamos a aplicar el basic fitting. Para poder conseguir la funcin.


Elegimos un polinomio de 4 grados para esto, podemos elegir desde una funcin
lineal hasta uno polinomio grado 10. El polinomio de grado 4 aproxima bastante al
comportamiento de los datos y no es tan engorroso de trabajar a la hora de hacer
clculos.

[15]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

Los resultados obtenidos son los siguientes:

Como vemos los valores coeficientes p1,p2,p3,p4 y p5 corresponden a una ecuacin que
tiene la estructura siguiente:

Y= P1X4+P2X3+P3X2+P4X+P5
[16]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

El valor de norm of residuals tiene que ver con como se ajusta la funcin
entregada a los datos input del problema. Mientras mayor es ese valor, mayor son
los errores que se incurren, siendo la funcin lineal el valor mximo, ya que es el
que mayor error conlleva.
En la tercera columna de esta herramienta basic fitting tenemos la opcin de
ingresar valores para ser evaluados en la funcin que ha sido entregada en la
columna anterior. Esto sirve para interpolar dentro del rango de valores en los que
se encuentran los datos input, hay que introducir los valores de x (tiempo en
horas) y el programa nos dar el valor de presin estipulado para esa ecuacin. El
programa nos da la opcin tambin de poder guardar esos puntos.
Basic fitting tambin tiene la opcin de mostrar la ecuacin completa en la grfica,
en este caso no se us ya que ensuciaba mucho la imagen.

Ya por ltimo, esta opcin de encastre bsico nos deja guardar los datos
obtenidos para como nuevas variables. fit (ecuacin polinmica grado 4); Norm
Residual y resids que son anlisis residuales.

En conclusin, contar con una formula fiable que represente el comportamiento de los
datos presin/tiempo, nos ayudar mucho en la obtencin de datos elaborados a partir
de los inputs crudos. Ya que simplifica mucho el trabajo contar con una ecuacin.

4.2 Teora: Prueba declinacin de presin (DRAW-DOWN)


Estas pruebas se efectan con el fin de obtener:
Permeabilidad promedia en el rea de drene del pozo
[17]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

Volumen poroso del yacimiento


Determinar heterogeneidades (en el rea de drene)
Lo que directamente se obtiene es:
Transmisibilidad
Volumen poroso por compresibilidad total
Como se hace una prueba de declinacin de presin
Se cierra el pozo por un periodo de tiempo suficiente para alcanzar lae
stabilizacin en todo el yacimiento (sino hay estabilizacin probablemente se
requiera una prueba multitasa).
Se baja la herramienta a un nivel inmediatamente encima de las perforaciones
(Mnimo la herramienta debe tener dos sensores para efectos de control de
calidad de los datos).
Abrir el pozo para producir a rata constante y registrar continuamente la Pwf.
La duracin de una prueba de declinacin puede ser unas pocas horas o varios
das, dependiendo de los objetivos de la prueba y las caractersticas de la
formacin.
Pruebas de declinacin extensas o pruebas lmite (reservoir limit tests, RLT) se
corren para delimitar el yacimiento o estimar el volumen de drene del pozo. Otros
objetivos son: Hallar k (permeabilidad), s (dao), WBS, , forma del yacimiento y
tamao del yacimiento.
Idealmente, el pozo se cierra hasta que alcance la presin esttica del yacimiento
antes de la prueba. Este requisito se consigue en yacimientos nuevos, pero a
menudo es difcil o imprctico de lograr en yacimientos viejos o desarrollados.
Este tipo de pruebas se analizan mediante pruebas multitasa.

4.3 RNA para la curva de declinacin de presin.


Con los mismos datos que utilizamos en el programa anterior vamos a entrenar
una red neuronal para que pueda distinguir el patrn que tiene nuestra declinacin
de presin, luego agregaremos un patrn similar variable con un poco de ruido
para ver como reacciona la RNA a este.
Primero hacemos que lea los datos de la planilla descripta ms arriba. El
programa lee esta planilla en formato txt, luego seteamos el tiempo que durar
este entrenamiento, despus seteamos cual va a ser el dato de la primera entrada
y el dato de salida de esa misma entrada.

[18]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

Segundo, hacemos que lea nuestros datos de validacin. En este caso no es ms


que la misma tabla anterior con algunos ruidos. En la prctica estos seran los
datos input que se obtendran de mediciones de campo, el trabajo de la RNA es
encontrar el patrn de estos datos y de ah poder llegar a sacar conclusiones. Ya
que la manera en la cual declina la presin en un pozo depende directamente del
tipo de reservorio que tenemos. De ah podemos inferir un modelo y/o
propiedades. La idea de este programa es que lea estos datos variables y los
asocie directamente con los datos de entrenamientos puestos ms arriba.
Corremos la RNA y nos da como resultado lo siguiente.

Nos est diciendo que realiz 100 iteraciones en un tiempo de 1 segundo, el


entrenamiento se basa en algoritmos basados en Quasi-Newton y los errores (ver
figura de abajo) en base a mnimos cuadrados disminuyeron mientras ms
iteraciones se realizaban.

[19]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

Como vemos, la RNA corri bastante bien con 3 neuronas, valor que permite a la
red neuronal poder generalizar y no caer en sobreajustes de valores fallidos sin
perder por eso una buena aproximacin a los datos. Esto se ve reflejado en la
figura de abajo, en parte porque los datos de validacin fueron modificados con
ruido de la tabla original del problema.
En conclusin podemos ver que con un RNA bien entrenado, que contenga una
base de datos importante sobre drawdown. Podemos llegar a inferir el tipo y
calidad de reservorio con el cual estamos trabajando poniendo como input los
datos de ensayos de presin de pozo. Para ello es necesario dotar a esta RNA de
la mayor cantidad posible de planillas de presin/tiempo de diversos tipos y
calidades de reservorios para que los resultados obtenidos sean representativos y
con el mnimo error posible.
[20]

UNIVERSIDAD NACIONAL DE CUYO,


2014
Facultad Ingenieria
Boggetti, Juan I.

As como tambin ya existen las llamadas curvas tipo. Curvas que tienen un nivel
de desarrollo (no son los datos crudos) en la cual el RNA puede llegar a realizar
una especie de macheo de la curva tipo con los datos que surgieron de las
mediciones y as poder sacar informacin muy importante sobre el reservorio.

Bibliografas

Informtica Aplicada a la Ingeniera de Procesos Orientacin I; Redes Neuronales:


Conceptos Bsicos y Aplicaciones. Carlos Alberto Ruiz; Marta Susana Basualdo.
Anlisis Moderno de Presiones de Pozos Freddy H. Escobar, Ph.D. (datos, teora)

[21]

Anda mungkin juga menyukai