Anda di halaman 1dari 86

PETROFISICA SSMICA

Introduccion El papel del anlisis de registros elctricos (o anlisis petrofsico) se ha potenciado con el avance de la tecnologa ssmica. Estos avances, tanto en el campo de la adquisicin como el procesamiento, se dirigen mucho ms all de la caraterizacin estructural del subsuelo. Las tendencias de la herramienta ssmica es cada vez ms fuerte hacia la caraterizacin de reservorios, incluyendo en este ltimo trmino la diferenciacin litolgica, la estimacin de propiedades petrofsicas (bsicamente porosidad) y el contenido de fluidos. Esta tendencia se ha denominado geofsica de reservorios o geofsica cuantitativa e incluye mtodos antes (inversin simultnea, AVO) y despus (inversin acstica) de apilado. Desde Zoeppritz (1919) se conoce que el dato ssmico es una respuesta elstica del medio en funcin de las velocidades (compresional y de corte) y la densidad. Solo en las ltimas dcadas estas ecuaciones se han podido resolver (invertir) completamente, es decir que a partir del dato (registro) ssmico, actualmente, es posible conocer el medio (en trminos de velocidades y densidad) que dio origen a dicha medicin. Claro que este procedimiento matemtico de inversin tiene, todava, un alto grado de incertidumbre de modo que en la prctica resulta necesario calibrar este resultado (la inversin) con mediciones directas y confiables. Estas mediciones son los registros de velocidades snicas y el registro de densidad en los pozos. Este proceso de integracin entre el resultado del problema ssmico inverso y el anlisis de registros elctricos es lo que se define como Petrofsica Ssmica. PETROFISICA SISMICA Y MODELOS SISMICOS El trmino petrofsica ssmica se utiliza para describir los procesos de conversin del dato ssmico en parmetros de descripcin de reservorios. Histricamente ha sido una tarea cualitativa, sin embargo en las ltimas dcadas se han desarrollado herramientas que han tornado este procesamiento en cuantitativo. Es decir que la calibracin entre los productos de la inversin ssmica con las mediciones en registros elctricos permite convertir el dato ssmico en parmetro de reservorio en su completa continuidad areal. Con esta perspectiva los registros elctricos se utilizan en distintos flujos de trabajo de la geofsica de reservorios. Por ejemplo en un anlisis AVO donde metodologa de procesamiento e interpretacin de los datos ssmicos tiene como objetivo la identificacin del contenido de fluidos y la caracterizacin litolgica-petrofsica. El fundamento de esta metodologa es el modelo fsico de la reflectividad que depende de tres propiedades: Cambios en la Velocidad Compresional (Vp), en una interfase Cambios en la Velocidad de Corte (Vs), en una interfase Cambios en la Densidad (r) en una interfase Para relacionar este modelo fsico a la caracterizacin de reservorios se debe entender la relacin entre estos parmetros elsticos (Vp, Vs y r) con los parmetros de roca tales como litologa, porosidad y contenido de fluidos. En otros trminos, entre otros procedimientos, se puede calibrar la relacin Vp/Vs con la litologa, calcular el coeficiente de Poisson para identificar capas con gas o aplicar las relaciones de Willy para estimar porosidad de matriz. Desde el punto de vista metodolgico se debe poder procesar el dato ssmico de modo que la amplitud sea proporcional al coeficiente de refleccin y luego poder invertir este a los parmetros ssmicos Vp, Vs , y r, para, finalmente interpretarlos en trminos los parmetros de roca. En trminos ms amplios los

registros elctricos de pozo se utilizan para diversas tareas que de una u otra manera se integran en los procesos de inversin ssmica. En algunos casos en estadios tempranos del flujo de trabajo (estimacin de ondcula o mas especficamente la fase de la misma y la construccin de la relacin tiempo / profundidad), estadios intermedios (centralmente para la construccin de modelos de baja frecuencia de Vp, Vs y r) y, naturalmente estadios finales de interpretacin (como dato duro de procedimientos de estimacin geoestadstica o aplicacin de redes neuronales) REGISTROS BASICOS EN PETROFISICA SISMICA Los registros elctricos de pozo mas utilizados en petrofsica ssmica son los de velocidad snica (compresional y de corte) y el de densidad. La caracterizacin petrofsica de las rocas con estos registros es un objeto de estudio an antes del desarrollo de los mtodos de inversin ssmica. Sin embargo han cobrado una enorme utilidad prctica al convertirse en el nexo entre la medicin directa en el pozo y el producto de los procesos de inversin ssmica. A mi modo de ver las publicaciones fundacionales en esta disciplina bisagra son: 1) Gardner (1974) donde el autor la relacin estadstica exponencial entre velocidad y densidad, 2) Castagna (1985) donde se estable una de las relaciones estadsticas mas utilizadas en geofsica cuantitativa, esta es la lnea de arcilla y 3) los trabajos de Biot (1941) y Gassman (1951) (hoy en d conocidos en conjunto como Teora de Biot Gassman) para rocas porosas y saturadas que proporcionan un marco riguroso para analizar los mtodos de inversin ssmica (fundamentalmente antes de suma). El objetivo final es la interpretacin de estos resultados como indicadores directo de hidrocarburos, discriminadores litolgicos o predictores de porosidad del reservorio. La ecuacin general de esta teora permite la discriminacin de fluidos contenidos en un medio poroso, dados la impedancia P y S. En esencia, esta ecuacin permite transformar el resultado de una inversin ssmica en propiedades elsticas del medio poroso y saturado. Esta frmula es un buen discriminador de fluidos en ambientes de rocas consolidadas que se puede expresar en funcin de las constantes de Lam y la densidad o bien en funcin de la incomprensibilidad, el mdulo de corte y la densidad. Las ecuaciones de las velocidades P y S en medios porosos e istropos, resultan de resolver la ecuacin de onda y se expresan como:

Biot (1941) y Gassman (1956) hicieron un desarrollo independiente que fue unificado por Krief et al (1991). Un de los corolarios mas importantes de esta teora es que predice el efecto de cada de la velocidad compresional (Vp) con la presencia de hidrocarburo y explica que se debe que el mdulo de incompresibilidad del hidrocarburo es menor que el del agua (mas acentuado en caso de gas). Este es el fundamento bsico de la metodologa AVO y de inversin simultnea. Es decir que La teora de Biot-Gassmann o de sustitucin de fluidos genera el marco apropiado para relacionar un estudio de atributos ssmicos (por ejemplo de AVO) con el contenido de fluidos de los reservorios. Esta teora relaciona el mdulo de incompresibilidad de las rocas con su porosidad y sus propiedades de matriz y fluidos. Lo ms importante es que no se trata de una ecuacin emprica, es decir fundada en un anlisis de correlacin (como por ejemplo la ecuacin de Willys, que intenta explicar la relacin entre fluido y porosidad), sino hache es un corolario de las

ecuaciones de flujo de ondas elsticas en medios porosos.

BIBLIOGRAFIA Biot, M. A., 1941, General theory of three-dimensional consolidation, Journal of Applied Physics, 12, 155-164. Castagna, Batzle, Eastwood (1985); Relationship between compretional and shear wave velocities in clastic silicate rocks; Geophysics Vol: 50 N:4 Gardner, Gardner , Gregory (1974) Formation velocity and density, the diagnostic basics for stratigraphic traps Geophysics, Volume 39, Issue 6, pp. 770-780 Gassmann, F. (1956) Uber die Elastizitat poroser Medien, Vierteljahrsschrift der Naturforschenden Gesellschaft, 96, 1-23. Krief, M., Garat, J., Stellingwerff, J., and Ventre, J., 1990, A petrophysical interpretation using the velocities of P and S waves, The Log Analyst, Nov-Dec, 355-369. Zoeppritz, K., 1919, Erdbebenwellen VIIIB, On the reflection and propagation of seismic waves: Gottinger Nachrichten, I, 66-84.

BUILDING A PREDICTIVE MODEL FOR FRACTURE DISTRIBUTION ACROSS THE CARBONATE HORIZONS OF THE QUINTUCO FM, LOMA LA LATA FIELD, NEUQUEN BASIN, ARGENTINA
Introduction

Detecting fractures (preferred direction and/or density) with compressional waves can be addressed in two ways: NMO velocity variation studies (at CMPs) and AVO analyses in different directions or azimuths. These methods can be applied to carbonate as well as clastic reservoirs (Jenner, 2002). In both cases, the core of the methodology consists of making anisotropy measurements to show fracture density- and orientation-related attributes. Mapping fracture density and orientation at fracture-system scale is key in fractured reservoirs. A map like this provides a predictive model for vertical or horizontal well location. Production behavior and well log response across the Quintuco Fm., Loma La Lata field, have been studied in order to identify those wells producing from naturally fractured reservoirs. However, P-wave information is the only information having sufficient continuity to build a predictive model designed to place new wells in high fracture-density

areas. NOTES ON THE PROPAGATION OF ELASTIC WAVES IN ISOTROPIC AND ANISOTROPIC MEDIA Plane-wave reflection and transmission at an isotropic media interface are the key aspects of the wave propagation theory. From a theoretical viewpoint, the classical solution to this problem involves accepting two assumptions. Elastic properties on both sides of the interface are known. Offset and pressure continuity occurs across the interface. An early approach to this problem was formulated in 1919 by Zoepptritz, who derived a set of equations describing wave reflection and transmission under above conditions. Given the complexity of Zoepptritz equations, the reverse problem, that is, estimating the properties of the medium by measuring the waves reflected and transmitted across the interface, is set forth using analytical approximations. Those of Aki and Richarson (1980) and Shuey (1985) are the best known analytical approximations. These and other approaches differ basically in the selection of the parameters describing media properties. Amplitude variation with offset (AVO) studies are probably the most important application of this theory in hydrocarbon prospecting. The compressional-wave amplitude variation vs. angle of incidence depends on P-wave (compressional wave) and S-wave (shear wave) velocity on both sides of the interface. The AVO anomaly is related to areal changes in Poissons ratio; hence, they become potential direct hydrocarbon indicators (DHI). When attempts are made to introduce some sort of anisotropy into the theory, the solution to the plane-wave reflection and transmission problem to calculate reflection coefficients becomes seriously difficult. First, the polarization components of the different wave modes in both media should be studied. Several types of anisotropy have been described to simplify this problem, which provide a reasonable solution to it. These include: Transversely isotropic media (VTI): defined by a vertical symmetry axis, which is an approximation that matches the anisotropy of a horizontally-layered medium. Transversely isotropic media (HTI): defined by an azimuthal symmetry axis. This model helps describe an isotropic medium (matrix) crossed by a vertical fracture (See Figure 1).

The description of P-wave polarization in the latter media (HTI) provides the theoretical basis for a fracture density and direction detection method. CONVENTIONAL AVO ANALYSIS Structural interpretation and post-stack seismic data amplitude studies are the most widely used and effective prospecting tools. That is, geological structures, potential hydrocarbon traps (anticlines, faults, pinchouts, etc.) can be described from the structural interpretation. Likewise, amplitude anomaly analysis offers potential hydrocarbon indicators (bright spots, etc.). However, neither of the two provides a direct hydrocarbon indicator (DHI). An AVO anomaly study (pre-stack amplitude analysis vs. angle of incidence) is designed to develop DHI tools. The AVO methodology was introduced by Ostrander (1982) and was methodically arranged by Castagna and Backus (1993). Detecting gas in clastic reservoirs is probably the primary success of this methodology. The reason for this performance can be understood in the context of Gassmanns fluidsubstitution theory (1951). In most subsurface rock media, changes in P-wave propagation velocity strongly correlate with changes in S-wave density and propagation velocity. However, when matrix fluid is gas, Gassmann predicts a sharp jump in P-wave while the shear modulus remains constant. Then, as changes in Vp/Vs ratio or in Poissons modules strongly influence the determination of the reflection coefficient (versus angle of incidence) an AVO anomaly should be expected in this case. Anyway, this is not the only situation in which an AVO analysis aids in identifying trapped hydrocarbons. Successful applications concern flow monitoring (secondary oil recovery), lithologic identification, porosity mapping and finally fracture identification. Regarding the latter issue, we will attempt to get further insight into theoretical fundamentals and practical applications. The limitations of this theory are due to several reasons and include: -Seismic reflection datas intrinsic limitations. -Characterization of wave propagation in porous media theory. -Seismic data processing.

Seismic reflection amplitude is not equivalent to the reflection coefficient. While it depends strongly on the latter, it also depends on a wide range of factors (including loss of energy during propagation, attenuation, reflector curvature, interfacing with neighboring reflectors, etc.). The most efficient way to reduce errors in AVO analysis is to carefully study local rock properties and build synthetic AVO models for comparison with observations. That is, a methodology that is common to all geophysical studies should be followed: calibrate, compare and control with hard data. AVO ANALYSIS IN HTI MEDIA HTI is the simplest type of anisotropy. A typical example of this medium is an isotropic matrix affected by aligned vertical fractures, that is, it is a suitable model for fractured reservoir characterization. The equation governing amplitude variation vs. angle of incidence and azimuth in a HTI medium buried by an isotropic medium with angles of incidence lower than 35 is given by (Rger, 2002):

R= Reflection coefficient Theta = Angle of incidence Fi= Source-receiver line azimuth. Beta= Angle between azimuth line and anisotropy main direction (i.e. parallel to fracture plane) 2I= P-wave impedance G1= Isotropic AVO gradient. G2 = Anisotropic AVO gradient. Vp = P-wave velocity. Vs = S-wave velocity. Delta = Tompsen Parameter Variation. Gamma = S-wave Partition Parameter Variation. This value is directly related to fracture density as well. At usual P-wave and S-wave velocity values is significantly higher than Tompsen parameter. Form this, G2 is directly proportional to fracture density. If the medium deviates from HTI assumptions, these equations may describe or not the anisotropic behavior of the medium. That is, if the medium contains non-vertical fractures, non-orthogonal multiple fractures, fractures with sinuous planes or fractures in an anisotropic medium, AVO behavior may differ from that represented by Rger equations. Rger equations can be solved by least squares for AVO Gradients and Beta angle, that is, anisotropy can be solved without partitioning data by offset or azimuth. In other words, all information available from each point in the right or actual position is used.

IMPLEMENTATION P-wave data shows variations in velocity and amplitude vs. azimuth where vertical fractures occur. The advantage of using P-wave data is its relatively low cost and improved quality as compared with S-wave (multicomponent) seismic data. Conventionally, both azimuthal NMO and azimuthal AVO analysis partition data into two or more volumes along azimuth-bounding bands (Neves et al, 2003). Approximations of this type require that the stress field be known in advance in order to define azimuthal bands to divide the volume. Since any subsequent processing and interpretation depends on such external information results may be biased in these directions. Alternatively the pre-stack method introduced by Grechka and Tsvankin (1999) does not require any a priori information on fracture direction. This is an azimuthal velocity method by which optimization hyperbolae on Rger equations are automatically defined. These hyperbolae are subsequently used to calculate AVO attributes (gradient and intersection) for several azimuths. Finally, the maximum to minimum gradient ratio is the so-called fracture density attribute, whereas the direction of maximum gradient is fracture direction. CONSIDERATIONS REGARDING ACQUISITION GEOMETRY Two basic considerations should be verified in order to apply this azimuthal AVO methodology to detect fracture density and direction. These include:

Full azimuthal coverage, that is, sufficient stack at each azimuth step. An offset dispersion vs. azimuth plot generally shows a limiting offset value, so no sufficient azimuthal coverage occurs at higher values. This limiting value should be related to target depth source-receiver offset for each azimuth so that amplitude anomalies can be detected at target depth. Acquisition designs generally provide a good coverage in the receiver line direction but the perpendicular direction is more widely sampled.

PROCESSING CONSIDERATIONS In order to study amplitude anomalies in an anisotropic medium (particularly a HTI medium) a similar processing pattern to that used for a classic AVO study should be followed. That is, when defining a processing sequence the following recommendations should be considered: -Preserve or restore CMP gather amplitudes. -Do not apply any processing step that involves matching trace amplitudes on the basis of time windows or individual traces. -Improve CMP gather signal-to-noise ratio. CMP gathers are generally migrated in a classic AVO analysis. However, pre-stack gather migration is unavoidable in azimuthal stacking. Pre-stack migration output yields migrated gathers at regular source-receiver intervals where no original geometry azimuth information is preserved. In fact, no element defining the original geometry is preserved save for CMP location and offset, that is, no shot or receiver information is kept; therefore, azimuth geometry in migrated gathers cannot be restored. The particular processing sequence applied is as follows: 1- CDP gathers with geometry readout. 2- Velocity picking. 3- Surface-consistent residual statics. 4- CDP-consistent residual statics. 5- Pre-stack noise attenuation (random noise attenuation by 3D pre-stack FXY decon. and multiple-attenuation by Radon transform). 6- Estimation of overall parameters for AVAZ (supergather size and offset range to be analyzed). 7- Testing involving several alternative parameters. 8- Final AVAZ run.

SUPERBINNING Given the recording geometry in the directions normal to receiver lines, there is not sufficient information for far offsets. Another problem encountered is that in an effort to preserve amplitude information the marcas de registracin effect on near offsets is significant. Superbinning provides a way to improve this situation. The disadvantage of this solution is the smoothing effect on amplitude values.

APPLICATION IN THE LOMA LA LATA FIELD FORMATION Fracture occurrence in the upper reservoirs of the Quintuco Formation has been detected

from core analyses, log analysis and inflow performance. Not only fracture occurrence but also fracture discrimination, that is tectonic fractures vs. stylolites, can be identified to a reasonably accurate degree. This process of amplitude variation anisotropy vs. angle of incidence analysis has been applied over a 15 sq. km area in the northwestern part of the Loma La Lata field. This process yields a fracture density volume as well as a fracture orientation volume, respectively. The attribute value has been derived from such volumes by following the interpretation of the target horizon (See Figure 8).

This map shows fracture distribution and is a predictive model itself. The map showing the above-referred attribute has been compared with the evaluation of the wells located in the study area for quality assessment and process validation purposes. From this analysis, it has been concluded that the fracture density attribute properly describes well-controlled fracture distributions. Since the process of calculating the fracture density attribute is independent of hard well data, it can be concluded that an areal distribution map of this attribute is a predictive tool for field development. FIG 8. Map showing the fracture density attribute in the study area. Violet zones denote increased fracture density. Wells have been evaluated using geological criteria such as fractured reservoirs. The areas involving increased fracture density contain all wells with reservoirs like this. Wells drilled later additionally tested this model. REFERENCES Aki, K. and Richards, P. (1980) Quantitative Seismology: Theory and Methods. W.N. Freeman and Co. Castagna, J. y Backus, M. (1993) Offset dependent reflectivity: Theory and practice of AVO analysis. Investigations in Geophysics SEG Gassmann, F. (1951) Elastics waves through a packing of spheres. Geophysics 16, 673-685

Jenner, E. (2002) Azimuthal AVO: Methodology and data examples. The Leading Edge August 2002, 782-786 Neves, F., Al-Marzoug, A., Kim, J., Nebrija, E. (2003) Fracture characterization of deep tight gas sands using azimuthal velocity and AVO seismic data in Saudi Arabia. The Leading Edge May 2003, 469-475 Ostrander, W. (1982) Plane wave reflection coefficients for gas sand at nonnormal angles of incidence. 52nd. Ann. Intrnat. Mtg. SEG Rger, A. (2002) Reflection Coefficients and Azimuthal AVO Analysis in Anisotropic Media. Geophysical Monograph Series. SEG N10 Shuey, T. (1985) A simplification of the Zoepptritz equations. Geophysics 50, 609-614 Zoepptritz, K. (1919) On the reflection and penetration of seismic waves through unstable layers.

INTEGRACION DEL DATO DE SISMICO CON EL DATO DE POZO: COMPARACION DE ESTIMACION CON REDES NEURONALES, CUADRADOS MINIMOS Y GEOESTADISTICA
I.- MODELOS DETERMINISTICOS VS MODELOS ESTOCASTICOS El dato ssmico se utiliza, primariamente (en forma muy eficiente) para estimar la componente estructural de un reservorio. Para estimar las distribucin areal (y hasta en volumen) de las propiedades petrofsicas ha jugado, histricamente, un papel limitado. Sin embargo ltimamente se han propuesto diversos mtodos para utilizar la informacin ssmica en la descripcin esttica de reservorios. Uno de los hechos mas conocidos es la variacin de la amplitud ssmica con el espesor sedimientario de las capas atravesadas y el contenido de gas en las arenas (bright spots, AVO). A partir de estas observaciones, se puede decir que existe causalidad entre la respuesta de los atributos ssmicos y la distribucin areal de las propiedades petrofsicas. Una aproximacin clsica al problema (que podramos llamar determinstica) es construir un modelo terico e interpretar los resultados de las mediciones. Por ejemplo velocidad, densidad y radio de Poisson son parmetros de reservorio determinantes en la anomala de AVO, en este caso se formula una teora en trminos de mecnica de rocas y propagacin de ondas para poder relacionar la amplitud ssmica con las propiedades petrofsicas (z Yilmaz, 2001) Esta aproximacin sigue una lnea de razonamiento de la teora a la interpretacin.

Se comienza con una teora, entonces se formula una aproximacin que permite establecer una relacin entre los atributos ssmicos medidos y las propiedades petrofsicas. Los datos, tanto ssmicos como de pozo, juegan un papel pasivo porque se utilizan solo despus de formular la aproximacin terica. Ahora bien, en trminos generales las relaciones entre los atributos ssmicos y las propiedades petrofsicas son complejas y no obvias. Este enfoque

determinstico permite solo en forma limitada, en este punto utilizar la informacin de los atributos ssmicos para describir la distribucin areal de las propiedades petrofsicas. Especficamente, si se tiene informacin de ssmica 3D y perfiles de pozo, y se puede encontrar que los atributos ssmicos con los parmetros petrofsicos tienen algn grado de correlacin (con significacin estadstica), pero no es posible formular una aproximacin terica (establecer un modelo causa efecto). La pregunta es como integrar esta informacin donde no se ha formulado un modelo fsico, es decir donde hay correlacin pero no necesariamente causalidad? En lo que sigue trataremos de presentar y discutir alternativas de integracin de atributos ssmicos con datos petrofsicos en ausencia de un modelo causa efecto. En el esquema anterior se interpretan los datos sobre la base de un modelo subyacente, la idea que desarrollaremos es aplicar una metodologa que parta de los datos y los interprete en funcin de sus posibles relaciones internas. Nos ocuparemos de los casos en que se disponga de datos ssmicos y de pozos, esta situacin es la que importa en la prctica en el problema de descripcin esttica de un reservorio, la idea matriz es utilizar la precisin de dato de pozo[1] (muchas veces llamado dato primario o duro) y la continuidad areal del atributo ssmico[2] (llamado dato secundario o blando por la escasa precisin). En principio puede existir o no alguna relacin entre ambos tipos de datos. Si existe, como no subyace ningn modelo terico, es una relacin intrnsica de los datos, cuya descripcin es estadstica. Es decir que, no necesariamente, se repetir para todos los campos de una cuenca, ni siquiera para los distintos niveles de inters en un mismo campo. Por la misma razn la relacin se deber describir exclusivamente en funcin de los datos, este enfoque o aproximacin al problema se denomina estadstica o estocstica

Es necesario tener presente que para establecer una relacin estadstica entre los atributos ssmicos y los perfiles de pozo se debe asegurar la independencia de los dos tipos de datos. Por esta razn muchos autores no se consideran, en este contexto, a la inversin ssmica (pre o post suma) como un atributo ssmico. Esto porque la impedancia acstica (en el caso post suma) o las velocidades P y S mas la densidad (en el caso pre suma) se calculan en un procedimiento de inversin con calibracin con datos de pozo. Es decir que estos atributos se han calculado en funcin de los perfiles de pozo y, naturalmente, ambos datos no son independientes, una alta correlacin entre ellos no sera ninguna sorpresa. Sin embargo, para otros autores como la informacin de pozos solo contribuye a determinar la baja frecuencia que no aparece en el dato ssmico, el contenido completo de alta frecuencia en el resultado del proceso de inversin ssmica es independiente del dato de pozo y por lo tanto se considera un atributo ssmico. II.- COMO ESTABLECER UNA RELACION ESTADISTICA EN LOS DATOS Antes de buscar cualquier relacin estadstica entre los atributos ssmicos y los datos de pozo, es necesario asegurar que ambos tipos de datos son la respuesta del mismo fenmeno geolgico[3] (Schultz, 1994). En este tipo de problemas se trata de describir un reservorio,

es decir que interesa el comportamiento de una capa mas que un horizonte. Consecuentemente, algn tipo de promedio[4] se deber practicar entre las superficies que definen la capa objetivo (para ambos tipos de datos: atributos ssmicos y datos de pozo). El primer paso es extraer pares de valores representativos de los atributos ssmicos y las propiedades de los registros elctricos en el punto donde el pozo interseca a la capa interpretada. Con estos pares de datos se puede construir un grfico de dispersin para visualizar la posible relacin entre los pares de datos. Generalmente, el atributo ssmico se promedia tanto vertical como arealmente en las cercanas de la interseccin del pozo con la capa. El promedio vertical se puede hacer entre las dos superficies que definen la capa o usando una de estas superficies y una ventana (tal como 20 ms arriba y debajo de dicha superficie). El promedio vertical se puede calcular definiendo un radio de tolerancia con centro en la interseccin del pozo con la capa. Del mismo modo las propiedades obtenidas con los datos de pozo se deben promediar entre tope y base de la capa objetivo. No vamos a describir detalladamente como calcular estos promedios, solo diremos que el objetivo es obtener un valor representativo de la capa (para ambos tipos de datos) en el punto de interseccin y esto no es una tarea trivial. Es evidente que estos promedios tienen un peso determinante en los procedimientos de integracin que se apliquen a posteriori, es decir que es necesario ser muy cuidadoso en esta estimacin. III.- MEDICIONES Y SIGNIFICACION ESTADISTICA BIVARIADA EN LOS DATOS SISMICOS Y DE POZO En este punto suponemos que tenemos definido un valor de pozo representativo de la capa en cada locacin y una grilla de atributos ssmicos donde, en cada nodo, se ha estimado un valor del atributo en la misma capa. El prximo paso es determinar pares de valores de pozo atributos ssmicos en las locaciones de los primeros. Estos pares se pueden representar en un diagrama de dispersin (ver figura n 1). Estos grficos permiten visualizar relaciones entre los datos, cada puntos de estos grficos representa un pozo. En este punto queremos poner de manifiesto las hiptesis sobre las que seguiremos avanzando:

- Cada medicin (por distinto mtodo) est representando el mismo evento geolgico. - El promedio de ambos tipos de datos en la capa refleja las caractersticas fsicas reales de dicho evento. - El nivel de ruido de los datos es bajo. La relacin entre los datos se puede cuantificar de diferentes maneras. El indicador mas comn es el Coeficiente de Correlacin de Pearson o directamente coeficiente de correlacin, este es una medida de la relacin lineal entre dos variables, el rango de variacin es entre 1 a 1 y valores absolutos cercanos a uno indican una fuerte correlacin. Una variante es el Coeficiente de Correlacin de Spearman (Wilkie, 1980) que es anlogo al anterior pero se calcula sobre las muestras ordenadas, la ventaja es que permite ir podando las colas hasta estabilizar su valor (es decir que es robusto). Estos indicadores miden la probabilidad de una relacin lineal, pero que pasa cuando esta relacin existe pero no es lineal? En este ltimo caso utilizaremos el Indicador Tau de Kendall (Kendall, 1938) , (que tambin se aplica sobre la muestra ordenada[5]), tiene el mismo rango de variacin que el coeficiente de correlacin. Este coeficiente mide el grado de monotona de la relacin (calculando las pendientes de todos los pares de puntos en el grfico de dispersin). La ventaja de este indicador es que es robusto[6] para relaciones lineales y no lineales. El problema es que no es un estimador significativo en si mismo, sin embargo existe formas de calcular su significancia en funcin del nmero de pares involucrados. La tabla siguiente muestra los valores de estos coeficientes para el grfico de las figura N1 . PAR-DE-DATOS PEARSON SPEARMAN KENDALL Z/TWT -0.869 -0.974 -0.816 / 84% En el grfico que estamos analizando, si bien hay una clara relacin lineal (observar que los grados de libertad son 25), el coeficiente de Kendall nos muestra valores muy significativos, es decir que podemos sospechar que existe una relacin no lineal entre los datos. III.- METODOS DE ESTIMACION El problema entonces es estimar el valor de la propiedad de pozo en cada posicin donde hay informacin del atributo ssmico. Para resolver este problema se han descripto diversas metodolgas, sin embargo las poemos agrupar en las siguientes: - REGRESION LINEAL SIMPLE O MULTIPLE (CUADRADOS MINIMOS) - COKRIGING (ESTIMACION OPTIMA) - REDES NEURONALES El primero de los planteos asume una relacin de forma conocida (lineal o no) entre los datos. El anlisis de regresin es un mtodo estadstico cuyo objetivo es predecir valores de una variable (dependiente u objetivo denotada por y) a partir de un conjunto de datos predictores (variables independientes denotadas por xi). Este modelo clsico se puede plantear como:

Donde la funcin, f, puede ser lineal, exponencial, polinmica, etc., en todo caso se expresa en forma paramtrica. Por ejemplo en dos dimensiones y f lineal el modelo es de la forma (con a y b parmetros a determinar):

El problema se resuelve calculando estos parmetros partiendo de la condicin de minimizacin del error (Lawson, 1980). Es decir si se tiene una muestra (xi, yi), i=1,...,n se minimiza la funcin:

El planteo de cuadrados mnimos implica conocer a priori la forma de la relacin (es decir el modelo: lineal, exponencial, logartmico, etc.) y adems asume una distribucin subyacente nica y normal o gaussiana. El mtodo no es interpolador y el resultado no es, necesariamente insesgado. Tampoco permite calcular la varianza de la estimacin. Estos problemas, en el caso lineal, se superan con la tcnica de estimacin conocidad como cokriging[7]. Esta es una metodologa de estimacin que tiene en cuenta la variabilidad regional[8] de las variables involucradas en la confeccin del modelo. El cokriging permite estimar, lo mismo que el mtodos de cuadrados mnimos, para cada posicin en la grilla de atributos el valor de la propiedad petrofsica que se desea. Pero la estimacin por cokriging permite calcular la varianza de la estimacin. El cokriging estima este valor como un promedio pesado entre los puntos de control de los valores petrofsicos y los valores de los atributos ssmicos. Si W(x) y S(x) representan los datos duros y blandos respectivamente, podemos escribir (Wackernagel, 1998):

Los pesos (ai y bi) se determinan segn un modelo de covariabilidad espacial, es decir que adems tiene en cuenta la covarianza entre los puntos de control y los atributos de la posicin que se pretende estimar. El mtodo de estimacin por cokriging es insesgado porque para su formulacin se plantea esta condicin que es equivalente a que la suma de los pesos sea uno. Adems el mtodo se construye por minimizacin de la varianza, de modo que es un mtodo de varianza mnima. Matemticamente se resuelve la minimizacin de la varianza bajo la condicin sobre los pesos con la tcnica de los multiplicadores de Lagrange. El sistema que resulta es:

A diferencia de cuadrados mnimos la estimacin por cokriging es interpoladora (es decir que respeta los puntos de control). El cokriging es un mtodo de alto costo computacional y la definicin del modelo de variabilidad regional es una tarea ardua. Una alternativa de estimacin que no presupone linealidad, no requiere definicin de parmetros ni anlisis de variabilidad regional son las redes neuronales. Bajo el nombre de redes neuronales se conoce a una serie de modelos de estimacin y clasificacin de conjuntos de datos multivariados. Estos modelos incluyen una extensa variedad de mtodos y algoritmos con el objetivo de generar herramientas de prediccin. Una constante en estos mtodos es la base de clculo distribuido o paralelo (de donde se entiende el nombre de neuronal). El elemento bsico de clculo se denomina nodo o unidad neuronal. Este recibe una seal de entrada de otras unidades o de una fuente externa. Cada seal tiene asociado un peso w, que se puede modificar a medida que avanza el procedimiento de entrenamiento. Simblicamente esta unidad procesa una suma pesada de la seal de entrada: -La suma pesada se denomina seal de entrada a la unidad i y se denota por neti. -Los pesos wij reflejan que provienen de la unidad j y se dirigen a la unidad i -La funcin f se denomina funcin de activacin. En el caso ms simple, f es la funcin identidad, que se denominan unidad lineal.

Los mtodos de redes neuronales tienen creciente aplicacin en la solucin de diversos problemas de estimacin entre variables de relacin funcional desconocida. En este artculo describiremos un tipo particular de aplicacin de red neuronal: RBF (RADIAL BASIS FUNCTION, Yee, 1999) y discutiremos los resultados comparando los con los obtenidos por cokriging[9]. IV.- DESCRIPCION DEL METODO RBF

RBF es un mtodo de red neuronal con aprendizaje del tipo supervizado[10]. RBF desarrolla una clasificacin sobre la base de elipses m 1 dimensionales (hiperelipses, notar que m es la cantidad de atributos) en que se particionan los datos de entrada (Burman, 2002). Estas hiperelipses se definen con una funcin radial del tipo:

Donde ... es la distancia medida entre el dato x (en el espacio n-dimensional) y el centroide y (en el mismo espacio). Estos centroides se definen como promedios pesados de los datos en cada nodo de la red y en cada hiperelipse. Si se definen k hiperelipses resulta:

La implementacin de este tipo de red se puede dividir en la construccin del modelo y su posterior utilizacin. A diferencia de la implementacin de una estrategia de cokriging, en este tipo de red neuronal es simple trabajar con mas de un atributo al mismo tiempo[11]. En la etapa de aprendizaje se construye el modelo sobre la base de la minimizacin de una funcin de prdida. En la mayoria de las implementaciones esta funcin es el error cuadrtico. Con esta observacin no debera sorprender que la regresin lineal sea un caso particular de una red de este tipo (ver figura n 3).

Del mismo modo si la funcin de prdida es la varianza de la estimacin, el proceso de aprendizaje de una red de este tipo tiende a la estimacin de cokriging[12]. La aplicacin de una red neuronal se justifica en los casos en que se supone existe en los datos una ley no lineal y de forma desconocida. Entonces la red estima esta ley en la etapa de entrenamiento (sobre el conjunto de datos definido en la interseccin de la capa con la trayectoria del pozo, este conjunto se denomina conjunto de aprendizaje). Una vez finalizado el procedimiento de aprendizaje, el modelo construido se puede aplicar sobre el universo de atributos ssmicos de la grilla definida.

V.- COMPACION CON LOS RESULTADOS La figura nmero 1 muestra un grfico de dispersin entre la profundidad en metros y el tiemp ssmico al mismo evento geolgico. Como se puede observar, el interprete puede inferir algn tipo de relacin entre este par de atributos. La distribucin de estos datos se muestran el el figura nmero 4. En trminos generales, tanto los modelos de cuadrados mnimos o las aplicaciones de cokriging mas comunes (cokriging ordinario, colocated cokriging y kriging con tendencia externa) asumen la linealidad de la relacin. Cuando se plantea una relacin no-lineal (tanto en mnimos cuadrados como en kriging con tendencia externa) los mtodos permiten estimar los parmetros de la relacin pero no la forma o el modelo matemtico subyacente. En la implemetacin de kriging universal el modelo debe ser incorporado a priori, lo que hace en la prctica que el mtodo no sea utilizado. En el caso de los modelos neuronales, no es necesario incorporar las formas de lso modelos no lineales, el costo a pagar por esto es que no se conocer la forma analtica del modelo, solo se obtiene la estimacin puntual en, digamos los nodos de una grilla. De mas estar decir que desde el punto de vista prctico es una solucin aceptable. En este ejemplo particular podemos sospechar una relacin no lineal porque el coeficiente de Kendall tiene un nivel de significacin del 84%. La manera que proponemos para describir esta relacin no lineal es una red neuronal como la descripta en los prrafos anteriores. Al mismo tiempo hemos realizado una estimacin por regresin lineal simple y otra por cokriging ordinario (donde el peso de la relacin lineal tiene, tericamente, influencia para calcular la varianza de estmacin). En los mapas que se muestran en las figuras nmero 5,6 y 7 se puede observar los resultados de la estimacin del valor estructural guiado por el atributo ssmico tiempo doble. Est claro que si los resultados fueran totalmente distintos no podemos extraer conclusiones a favor de uno u otro mtodo. De la observacin de los datos surge que las tendencias generales de las estimaciones son consistentes entre si y con los datos de los

pozos. Luego se impone un trabajo de comparacin mas profundo entre estas tcnicas de estimacin. La primera de ellas es, sin duda, un esquema de validacin cruzada. Mas importante es realizar un seguimiento de estos resultados en la medida que se avance en el desarrollo de este campo petrolero. La siguiente figura muestra el mapa de la densidad estimada por la red neuronal, mientras que la ltima muestra el mismo mapa estimado por cokriging Las diferencias o variabilidad en la respuesta ssmica producto de los cambios de las propiedades de reservorio son menos significativas que aquellas reflexiones producto de modificaciones en el marco geolgico en las cercanas del reservorio objetivo. Estas reflexiones tienen gran expresin areal y su mayor utilidad tiene que ver con la interpretacin estructural. Sin embargo para identificar pequeas variaciones debidas al contexto petrofsico, estas reflexiones constituyen un ruido del tipo coherente. Desde este punto de vista el algoritmo RBF, tiene la ventaja que se puede calibrar frente a reflexiones fuertes producto del marco geolgico circundante y magnificar la sensibilidad a pequeas variaciones laterales atribuibles a cambios en las condiciones de reservorio. Es decir que el algoritmo RBF es robusto frente al ruido coherente. En lo que respecta al efecto del ruido aleatorio sobre el mapa neuronal (Bernir, et all, 2001), se puede demostrar que el algoritmo RBF es el mas resistente porque se puede minimizar simultneamente el error y la sensibilidad. Para ello se debe aplicar el mtodo de los multiplicadores de Lagrange, se demuestra que para resolver este problema el ruido debe ser normal estndar. Como el dato ssmico contiene ruido aleatorio, suponiendo que este es normal, queda claro que con suficiente cantidad de muestras se logra que el algoritmo RBF resulte estable.

VI.- BIBLIOGRAFIA Bernir, J.L., Gonzalez, J., Caas, A., Ortega, J. (2001) Assessing the Noise Immunity of Radial Basis Function Neural Networks, Lecture Notes In Computer Science; Vol. 2085, Springer-Verlag London, UK Buhmann, M.D. (2002) Radial Basis Functions: Theory and Implementations. Cambridge Monographs on Applied and Computational Mathematics Deutsch, Clayton & Journel, Andre (1998) Gslib: Geoestatistical Software Library And User Guide. Oxford University Press Kendall,, M.G., Smith B., "Randomness and Random Sampling Numbers," Journal of the Royal Statistical Society 101:1 (1938), 147-166 Lawson, C., Hanson, J. (1980) Solving Least Squares Problems. Classics in Applied Mathematics, N15 z Yilmaz, (2001); SEG, Investigations in Geophysics; Seismic Data Analysis. Vol:II Schultz, A. Seismic-guided estimation of log properties The Leading Edge, May,June and July, 1994 Yee, P.V., Haykin, S. (1999) Regularized Radial Basis Function Networks: Theory and Applications, John Willey and Son Wackernagel, Hans. (1998) Multivariate Geostatistics, Springer, Berlin Wilkie, D. (1980). Pictorial Representation of Kendalls, Rank Correlation Coefficient. Teaching Statistics 2, pp. 76-78

[1] Por DATO DE POZO entendemos cualquier propiedad petrofsica estimada con los perfiles elctricos [2] Por ATRIBUTO SISMICO entendemos el resultado de cualquier transformacin matemtica sobre la seccin ssmica con o sin la intervencin de otro tipo de datos (por ejemplo datos de pozo) [3] En lo que sigue suponemos que los atributos ssmicos son extrados de una ventana que corresponde, en tiempo, a la capa definida con los datos de pozo, en profundidad [4] Este promedio es rigurosamente cualquier estimador insesgado (conocido como UMBUE). Puede ser el promedio clsico, una media podada, un estimador MAD, etc.

[5] En estadstica, trabajar con muestras ordenadas permite trabajar independientemente de los parmetros de las distribuciones subyacentes, de donde este tipo de indicadores se denominan NO-PARAMETRICOS [6] Es decir que resiste bien la presencia de datos anmalos (o distribuciones de gran dispersin) [7] Dado que su aplicacin requiere un anlisis espacial de datos, muchas veces se habla de geoestadstica, cuando en realidad se trata del problema de estimacin por cokriging. [8] La estimacin de la variabilidad regional de una variable o anlisis estructural, se realiza con ayuda de los variogramas de cada variables y de los covariogramas entre pares de variables. [9] No se discute la comparacin con mnimos cuadrados dado que este mtodo, salvo los casos de muy fuerte correlacin, presenta resultados inconsistentes [10] En redes neuronales, los mecanismos de aprendizaje o entrenamiento de la red pueden ser supervizados (donde se usa una salida correcta o medida en forma independiente) o no Dentro de cada una de estas grandes categoras existen varios algoritmos diferentes. [11] Normalmente el co-kriging se aplica para estimar la variable primaria guiada por la secundaria. El caso multidimensional de la variable secundaria es de resolucin relativamente compleja . [12] Observar que el sistema de cokriging bajo determinadas hiptesis de estacionaridad, se puede escribir en funcin de la funcin semivariograma que es en trminos generales una norma como la utilizada para definir las funciones elementales de RBF

AMPLITUDE ANOMALY (BRIGTH/DIM SPOTS) INTERPRETATION PITFALLS


All of the following conditions can produce an amplitude anomaly that can is indistinguishable from that caused by a commercial hydrocarbon accumulation. Each of these potential pitfalls carries the same grading system, ranging from Known common condition- some evidence, to Definitive well control indicates this outcome is almost impossible. Soft shales, marls, or coal beds. Soft shales, marls, and coal beds are low acoustic impedance beds that can be mis-interpreted as hydrocarbon bearing sands. Criteria to identify these beds are their presence in nearby wells and the amplitude does not conform to the structural closure. High porosity wet sands Good, clean wet sands with a thickness greater than tuning thickness can have very low acoustic impedance and thus mis-interpreted as hydrocarbon bearing sands. Criteria to identify this pitfall are amplitude does not conform to structural closure and the seismic event is often regional over a large area, sometimes appearing to have a long hydrocarbon column height. Wet reservoir with low gas saturation Low gas saturation (approximately 10% gas saturation) in a sand has acoustic impedance essentially the same as high gas saturation (approximately 75%). This phenomenon, often called

fizz gas, is a major factor in the mis-identification of strong seismic amplitudes relating to hydrocarbon bearing sands. Fizz gas sands occur commonly at shallow depths (above 8000 feet) and fizz gas is often biogenic gas. Residual gas saturation in a breached trap is included in the characteristic. Hard shale between two thick wet sands Seismic phase or polarity problems can cause high impedance (hard) shales to appear as low (soft) impedance sands. Salt, volcanics, or carbonates Salt, volcanics, and carbonates are all very high velocity beds, generally 15,000 feet/second or greater. These appear as very strong reflections on the seismic data and sometimes can be misinterpreted as hydrocarbon sands. It is important to determine the phase/polarity of the data and review the geology in the area to determine if salt, volcanics or carbonates could be causing the amplitude anomaly. Diagenetic boundary or unconformity A diagenetic boundary and unconformity can appear as an essentially flat reflection on the seismic data thus resembling a water level or flat spot on the seismic. These seismic events generally can be mapped as intermittent reflections over large areas and conformity to structural closure is usually poor. It is important to review the geology for presence of conditions for a diagenetic boundary (silica rocks and high heat flow) and unconformities. CO2 or nitrogen In some basins non-combustible gases will produce the same response as normal methane+ saturation. Tuning effects The seismic amplitude associated with a geologic formation varies with thickness of that formation, especially for less that tuning thickness. This is caused by the destructive or constructive interference between the reflection from the top and base of the formation. Amplitude changes associated with a reservoir with varying thickness across a prospect can be mis-interpreted as hydrocarbons in a reservoir. Lateral lithology change updip. Reservoir geometry and thickness changes are common. Sands may disappear updip, downdip and/or along strike thus causing changes in reflection strength and character that may be misinterpreted as hydrocarbon related seismic changes. Imaging complications - focusing and defocusing Concave geologic beds will have a focusing effect on the seismic possible causing an increase in seismic amplitude. Conversely, convex geologic beds faults will have defocusing effect on the

seismic and thus possibly a weaker reflection. Both of these imaging complications can impact the interpretation of a seismic amplitude anomaly. Also, geologic faults can cause diffraction patterns that can result in poor (or weak) data near the fault. Heavy oil Heavy oil usually causes a weak seismic reflection but can be often be recognized on seismic data at shallow levels. Heavy oil may not be economic, depending on the viscosity of the oil and other factors. FACTIBILIDAD DE LA INVERSION ACUSTICA 1- FINALIDAD: definir claramente el problema a resolver y analizar la capacidad de respuesta de la herramienta de inversin sismica 2- RESOLUCIN: analizar la frecuencia ssmica a la profundidad del objetivo y determinar resolucin vertical, comparar esta con el espesor del objetivo geolgico, intentar mejorar contenido de frecuencia y relacin seal ruido. Si el espesar del objetivo geolgico es menor que la resolucin vertical la inversin no agrega nada. Mismo anlisis para la resolucin areal 3- CONTRASTE: analizar la impedancia con registros elctricos, determinar contraste de impedancias entre el reservorio y la roca de caja. Definir si el reservorio es de alta o baja impedancia. Repetir el anlisis con los registros filtrados a ancho de banda ssmico 4- INCIDENCIA NORMAL: la inversin acstica es un proceso que supone incidencia normal. Esto es aproximadamente cierto cuando la profundidad del objetivo es grande comparada con los apartamientos entre fuente y receptor. Si esta situacin no se verifica realizar una inversion con los offset cercanos apilados. 5- CALIDAD DEL DATO SSMICO: verificar que el proceso sea en verdadera amplitud, que la relacin seal ruido sea baja, que el contenido de frecuencia est optimizado, en caso de dudas reprocesar antes de invertir

CONSTRUCCION DE UN MODELO DE VELOCIDAD ZONA X


INTRODUCCION El objetivo de este trabajo es generar un volumen 3D de velocidad que abarque un rea que comprende dos volmenes 3D (CxxxxVxxxx y Sxxxxs) as como xxxxx Km. de lneas ssmicas 2D. En total el modelo 3D de velocidad a generar tiene unos 5600 km2 de superficie. El modelo tridimensional de detalle de la velocidad de la columna estratigrfica iluminada por ssmica 3D en la zona de denominada XXXXX. La idea central es que el modelo contribuya en forma sustancial a un mejor manejo de las relaciones complejas entre tiempo y profundidad, disminuyendo la incertidumbre asociada en la construccin de

mapas estructurales a partir de iscronos. La idea es construir un modelo de velocidad a partir de la aplicacin de algoritmos de kriging 3D. Respecto a los mtodos de estimacin convencional esta aproximacin geoestadstica permite obtener mayor detalle de la variabilidad de la velocidad en un volumen, as como mayor exactitud en el clculo (el kriging es un estimador de mnima varianza). El primer paso en este planteo es construir el modelo de velocidad 3D con datos de registros de pozo tales como: snicos, perfiles ssmicos de velocidad y pruebas de velocidad. Como controles estructurales y guas del procedimiento de interpolacin 3D se utilizan datos de topes o marcadores medidos en los pozos y horizontes picados en ssmica. Es central el tema de calibracin mediante sismogramas sintticos. Con los registros calibrados se calculan los registros de velocidad y con ellos y los y horizontes se debe hacer una calibracin final y pasar todos los datos de pozo a tiempo. Luego de esta se deben extraer las tendencias. Las tendencias verticales se pueden modelar con, por ejemplo una ley potencial de la profundidad, mientras que las tendencias areales con promedios mviles. Por ltimo es necesario aplicar una transformada normal de modo de asegurar hiptesis bsica para la estimacin geoestadstica. Luego de los procesos de calibracin, normalizacin y eliminacin de tendencias se puede calcular la grilla de velocidad por algoritmos de kriging 3D en coordenadas estratigrficas sobre los datos en dichas condiciones. Despus de estimar se antitransforma y se restauran tendencias para obtener el modelo final. En la zona hay alrededor de 300 pozos perforados (Fig N 1) a distintos objetivos y que poseen distintos conjuntos de informacin disponible. Existen varios yacimientos productivos entre los que destacamos: xxxxx INFORMACION DISPONIBLE Listado de Pozos con coordenadas y profundidad final Registros de Tiempo de Trnsito Volmenes Ssmicos Lneas Ssmica 2D Horizontes correspondientes a Fm D129 (Fig N 3) y Fm Castillo para todo el conjunto de datos ssmicos 2D y 3D Leyes de Velocidad Topes o Pases Formacionales

METODOLOGIA La geoestadstica es la estadstica de las variables regionalizadas, es decir todas aquellas series de datos (espaciales o temporales) cuyos valores individuales estn relacionados entre s por la distancia que los separa. Por ejemplo, el espesor de un reservorio de petrleo es una variable regionalizada y se encuentra espacialmente autocorrelacionada, de manera que si existen dos puntos cercanos sern probablemente mas parecidos entre s que si estuvieran mas separados. Es decir, la similitud de los mismos varia con la distancia y a veces tambin con la direccin. Esta hiptesis de autocorrelacin es el corazn de cualquier algoritmo de mapeo (o hasta el mapeo manual). En el presente caso, el mapeo o estimacin en un plano ser reemplazada por la estimacin en tres dimensiones (espacial). Los datos a utilizar sern los registros de pozo de velocidad normalizados, calibrados y puestos en tiempo. Es muy importante normalizar los registros de pozo, la manera mas prctica es visualizar la distribucin con histogramas y/o grficos de probabilidad. La idea es observar la distribucin de los datos y procurar que no se alejen de la normal. En cuanto a la calibracin se debern ajustar los registros snicos con VSP o pruebas de velocidad y los markers medidos en los pozos con los horizontes ssmicos en los puntos de interseccin. 1) Generacin de conjunto de horizontes que abarquen el rea completa. Fm D129 y Fm Castillo

Los horizontes se han picado sobre los volmenes o lneas correspondientes. Para generar un volumen de velocidad de la zona en su conjunto la primer tarea fue generar horizontes que abarquen en rea de anlisis por completo. La mayor atencin se ha tenido que colocar en las reas de sutura, es decir en determinar un valor en zonas donde hay datos cercanos que provienen de distinta fuente. El criterio adoptado fue el siguiente: Si en un radio de 500 metros hay datos de ms de una fuente se toma como valor el promedio pesado por la inversa de la distancia a cada fuente de dato. Dado la disparidad de fuentes de datos involucradas, los horizontes generados como resultado de este procedimiento se suavizaron con filtros pasabajos relativamente estrictos NOTA: una hiptesis central en este procedimiento ha sido que todos los datos de las distintas fuentes estn referidos al mismo plano o datum.

2) Normalizacin, Filtrado de Registros Snicos Para obtener dato de velocidad con muestreo suficientemente denso se utiliz el registro snico. Ms all de la correccin con pruebas de velocidad ha sido necesario aplicar una batera de procesos para normalizar y validar la informacin de velocidad de estos registros. El primer proceso fue de inspeccin de posibles fuentes de anomalas en los datos. En los casos que se tena el calibre se control que este no presentara zonas con cavernas o revoques pronunciados. Se control que los valores medios de los distintos registros sean equivalentes. Tambin se corrigieron mediante edicin manual los saltos de ciclo, valores de caera, valores de zona no consolidada y valores iniciales/finales. Finalmente se aplic masivamente un filtro de medianas de 33 puntos. De esta manera el proceso de normalizacin se puede resumir como: Se eliminaron los sectores con poco tramo perfilado, los valores anmalos (outsiders) y se corrigieron valores de empalme, comienzo y final Se llevaron todos los tramos seleccionados a una escala comn (normalizacin geomtrica) Se compar la distribucin estadstica de los valores de DT de grupos de pozos vecinos con la distribucin estadstica de DT de todos los pozos del yacimiento, a los efectos de investigar la presencia de perfiles anmalos. Se aplico un filtro de mediana con la intencin de suavizar la interpolacin del modelo de velocidad(Ver Fig N 4)

3) Generacin de Geometra La nica manera de generar un solo volumen de velocidad con datos de distintos volmenes ssmicos y lneas 2D es generar una nueva geometra que sea abarcativa Para generar una geometra que abarque el rea de estudio se defini una grilla de 100 x 100, dado que un bin menor en 5600 km2 generara un volumen de datos extremadamente grande (Fig N 5). El resultado es una geometra de 800 inlines por 800 xlines numeradas desde uno e incrementando de a uno. En estas condiciones basta fijar las coordenadas (Gauss Kruger) del extremo Sud-Oeste del rea Maurek El diseo de la geometra ha contemplado principalmente que incluya a todos los pozos disponibles en el rea Maurek. Otro aspecto de la geometra es que es necesario atar los horizontes construidos para toda el rea, es decir cada punto del horizonte se debe referir a un nodo de la geometra definida. Esto se logra por interpolacin. Luego de esta tarea se tienen dos juegos de horizontes el referido a las distintas geometras originales y los referidos a la geometra final o abarcativa. Naturalmente el modelo de velocidad 3D se debe generar con los horizontes ligados a la segunda geometra.

4) Correlacin Ssmica Pozos. Correccin por VSP o Check Shot. Correccin con Snico Antes de construir el modelo de velocidad (geometra, parametrizacin en interpolacin) es necesario atar los datos velocidad medida en pozos (en profundidad) con los datos ssmicos. Para ello se emplean los mtodos usuales de calibracin por sismogramas sintticos, es decir calibracin utilizando las interpretaciones en profundidad (topes geolgicos) con las interpretaciones en tiempo de ida y vuelta (horizontes ssmicos). Se han realizado sismogramas sintticos (ver Fig N 6) en todos los pozos utilizados en el modelo, estos son los pozos que tienen el conjunto de datos necesarios para realizar esta tarea (datos geolgicos de topes, registro de velocidad, ya sea snico, perfil ssmico vertical o prueba de velocidad) y no se encuentren anidados . Se ha tenido especial atencin al plano de referencia ssmico dado que al estar trabajando con datos de distintas generaciones (2D y 3D) este es un punto critico. Para los pozos en los que se dispona de una ley de velocidad (obtenida de un perfil ssmico vertical o una prueba se velocidad) se siguieron los siguientes pasos metodolgicos: Se verific el plano de referencia Se aplic la correccin por deriva correspondiente al registro de tiempo de transito. En esta correccin por deriva se puso especial cuidado de no perturbar el dato de velocidad es decir se corrigi la ley de velocidad obtenida por integracin del tiempo de transito sin modificar los valores de amplitud del registro (es decir la velocidad) porque esto genera distorsiones indeseables en el modelo de velocidad que se pretende calcular. Utilizando como gua la interpretacin geolgica y ssmica se realizo un ajuste final de estiramiento/estrechamiento

5) Generacin del volumen utilizando geometra y horizontes La velocidad es una funcin continua con la profundidad, que en el caso ssmico esta se mide en tiempos de ida y vuelta. En la prctica la velocidad se registra en pozos con un intervalo de muestreo mucho menor que el muestreo en tiempo del dato ssmico. El primer problema para la formulacin del modelo velocidad es la parametrizacin de los datos disponibles. Los datos de velocidad medidos en pozos tienen una resolucin vertical muy superior a la resolucin ssmica, de modo que una parametrizacin inicial debera contemplar esta situacin, por ejemplo filtrando los datos de pozos a frecuencia ssmica. La parametrizacin del modelo de velocidad debe reflejar los contrastes ms importantes fundamentalmente en profundidad. Para guiar esta parametrizacin lo mas importante es apoyarse en una interpretacin ssmica / geolgica detallada que defina con certeza tanto la distribucin areal de los horizontes como las relaciones entre ellos. Est claro que, arealmente, es deseable contar con la mayor cantidad de datos de impedancia en pozos, sin embargo estos datos no deben agruparse en nidos, es decir la mejor situacin es que los datos de impedancia utilizados en la parametrizacin del modelo, tengan una distribucin areal uniforme.

6) Interpolacin de velocidades snicas El otro aspecto importante en la construccin del modelo de velocidad es la interpolacin 3D de la parametrizacin. Entre los metodos de interpolacin el mas robusto es el denominado de Kriging. Sin embargo su aplicacin requiere un esfuerzo adicional de anlisis de variabilidad de los datos. Que se conoce como anlisis estructural o modelado de los espacial de los datos. Sea Z(x) la velocidad en el punto x = (x1,x2,x3) y sea Z(x+h) como misma propiedad en el punto situado a h unidades de x, entonces el semivariograma define como:

donde S es el soporte de definicin, es decir todas las muestras separadas a una distancia h y n=#S. (es decir el cardinal del conjunto S). Si los puntos de control estn sobre una grilla regular el semivariograma se puede calcular directamente. En la prctica esto no sucede y los puntos de control tienen una distribucin aleatoria en un plano. En estos casos para calcular un variograma es necesario definir el soporte con una tolerancia sobre h, por ejemplo:

En trminos generales el procedimiento de ajustar un modelo de semivariograma es de prueba y error, en el caso de la velocidad en zona Maurek, para el plano xy, se ha elegido un modelo esfrico con meseta 100000 y rango 16000, sin efecto pepita[1]. El semivariograma vertical que se utilizo tiene una meseta de 650 y rango de 12. Una vez elegido el modelo del Semivariograma, se est en condiciones de proceder a la estimacin por Kriging. Es decir a calcular un valor en cada nodo de la grilla 3D, en la que para uno se calcula un promedio pesado de los puntos de control vecinos. Es decir se calcula:

donde Wk son los pesos que se establecen resolviendo un sistema de ecuaciones lineales que se formula minimizando la varianza de estimacin. Estos pesos no son ni mas ni menos que el variorama para la distancia entre el nodo k y el punto de control es decir que la magnitud de los pesos depende de la distancia y la distribucin espacial de los puntos de control. Desde el punto de vista estadstico, el Kriging es el mejor estimador lineal insesgado debido a que el error de estimacin es minimo. El procedimiento de clculo se realiza sobre los registros de velocidad en tiempo en coordenadas estratigrficas (es decir siguiendo las superficies definidas por los markers y manteniendo la proporcionalidad de los espesores) con datos calibrados, normalizados y con tendencias extradas. RESULTADOS

Una vez finalizado el clculo disponemos de una grilla tridimensional en la que cada uno de los nodos tiene un valor de la velocidad. Luego este modelo tridimensional debe ser analizado con cortes y cutt-off a los efectos de establecer su arquitectura geolgicosedimentaria. Se ha calculado un modelo de velocidad que cubre un rea de 5600 km2 con una geometra adecuada. El modelo se ha construido en tiempo de ida y vuelta y tiene validez desde el plano de referencia hasta la profundidad del horizonte D129. Arealmente el error de estimacin de la velocidad es mayor a medida que nos alejamos de la zona con datos

[1] Este efecto es originado por fenmenos de regionalizacin de rango menor a la mnima distancia entre muestras o por errores de medicin en la variable analizada, y se manifiesta cuando el valor del variograma es distinto de cero para la distancia nula entre muestras. Adems un efecto pepita importante aporta incertidumbre adicional a la estimacin. Por

otra parte cuando los datos se alejan de la normalidad (distribuciones lognormales o ms complejas) el proceso de ajuste es mas difcil. --------------------------------------------------------------------------------------------------------------

SEISMIC INVERSION METHODS


Introduction Integrated studies are essential to hydrocarbon development projects. The interest in seismic inversion techniques has been growing steadily over the last twenty years, because inversion is one of the means to extract petrophysics information from seismic data, i.e. from the continous data set. Inversion replaces the seismic signature by a blocky or layered response, corresponding to acoustic and/or elastic impedance earth model. The seismic inversion transform the seismic constrast model into layer cake model, it facilitates the interpretation of meaningful geological and petrophysical boundaries in the subsurface. It results in optimised volumetrics, improved ranking of leads/prospects, better delineation of drainage areas and identification of sweet spots in field development studies.

The main benefits of seismic inversion are: -More geoscientists understand the concept of impedance and geology than the seismic trace. Thus, working in the impedance domain is a great mechanism for integrating with the various disciplines in a multidisciplinary asset team. -Removes the effects of the wavelet within the seismic bandwidth.

-Forces well ties to be made and understood. -Reservoir properties are separated from the overburden. -May provide quantitative predictions on the reservoir properties. -Stratigraphic interpretation may be improved. -Interpreting in the impedance domain is frequently easier than in the seismic domain. -Possibility of extending beyond the seismic bandwidth. Whilst there are significant benefits there are limitations. For quantitative inversion it is necessary to have good quality input as the quality of the output is governed by this. With good quality seismic data which matches the well data then it may be possible to get a quantitative output. However, one must remember that seismic data has limited frequency content. Therefore it will not be possible to produce a meaningful inversion if the layers are thin. Such high frequency events cannot be resolved within the seismic bandwidth. Furthermore, using seismic alone, it will not be possible to resolve the low-frequency trends and for absolute impedance it will be necessary to input a geological model. Whilst it may be possible with a good quality input to get a quantitative output, these methods are complex, requiring skilled specialists. Such methods are time consuming and can be a source of error. Whilst using good quality input data is always desirable, inverting poorer quality data can give very usable results. Qualitative or semi-quantitative inversion may yield significant benefits on any data and it is much easier to achieve and is less error prone. Frequently taking this approach is sufficient and can be done by a non-specialist within a much shorter time scale.Before embarking on an inversion project it is important to investigate any well log data that is available. It is recommended the frequency content required to image the target is investigated. -Estimate the frequencies available within the seismic by wavelet estimation or spectral analysis. -Take the well impedance data and bandpass it to the same frequencies as the seismic data. -If the target is still visible then using fast track seismic inversion method (like pos stackRecursive Inversion, Band Limited Inversion or Coloured Inversion) should be adequate. -If not, then need to add frequencies by model assumption. (i.e. use model driven algorithm pre or post stack)

The inversion methods are either deterministic or probabilistic and the approach can be post or pre-stack. Inversion schemes generally use migrated time data as basic input. The prestack method exploits AVO effects on migrated CDP gathers. There is a trade-off between method/cost/time and quality of inversion results. Feasibility studies with synthetic modelling are recommended before embarking on an inversion or AVO project. The past track record has demonstrated the benefits of the seismic inversion method. However, it should be realised that the inversion procedure is not a unique process, i.e. there is no single solution to the given problem. Care should be taken when interpreting the inversion results. Adequate data preconditioning is a prerequisite for quantitative interpretation of the end results. The input for seismic inversion is traditionally composed of time prestack migrated seismic

data, a wavelet and initial earth model (velocities and densities from well mesuaremnt). Pre stack inversion is close to AVO analysis, in fact pre-stack inversion is like AVO inversion. The combination of these geophysical study techniques increase the confidence in correct ranking of leads / prospects and definition of sweet spots in the HC accumulations. Such an approach reduces uncertainties and drilling risks, which is an important aspect for optimising an exploration and hydrocarbon development strategy. A pre-stack inversion scheme incorporates AVO effects seen on CDP gathers. The partial stacks show in many cases a characteristic difference in behaviour for the amplitude of the top hydrocarbon reservoir reflection (AVO effect). Compressional P-waves contain information on the lithology and the porefill, while transverse S-waves are not influenced by the fluid contents. Absence of P-wave related DHIs on the corresponding S-sections is, for instance, a useful criterion to discriminate between a hydrocarbon and brine filled reservoir. Other usefull rock physical parameters like the Poisson's ratio, rhomu, lambdarho are estimated from the Vp, Vs and Density variations. The prestack inversion gives a better handle on the lithology, porosity and/or water saturation in the porefill of the rocks under investigation. Stratigraphic deconvolution tries to put a simple spiked reflectivity response at geological boundaries (lithological changes) and the main reservoir interfaces (for instance, a fluid contact). This is often done by inversion of the seismic cube into an acoustic impedance cube. The acoustic impedance of a rock sequence is defined as the product of density and velocity. The link between the seismic and acoustic impedance (AI) cube is the seismic wavelet. The wavelet is derived either directly from the seismic data or computed with the aid of available well data. Under some general hipotesis the seismic spectrum is the same that the wavelet spectrul. The well information is use to phase estimation. The density and sonic logs in the well permit calculation of the AI response. Calibrated sonic with checkshots and/or VSP data are needed for the depth-time conversion of the vertical log scale. The real seismic trace at the well location is subsequently matched with the reflectivity trace computed from the well logs. This comparison yields the seismic wavelet. The main steps in a seismic inversion procedure are:

-Quality Data Control. -Seismic Petrophysiscs Anaysis. Well Cross Ploting and Filtering. -Seismic Data Pre-Conditioning (Deconvolution, Radon Transform, Band Pass Filtering, Super Gathers, etc) -Wellto-Seismic Match. Check Shot and Drift Corrections. Zero-phasing of data in zone of interest and extraction of the wavelet. -Inversion algorithm and parameters choice. Running inversion algorithm with generation of acoustic or elastic impedance cubes. -Attributes extraction. Visualisation and interpretation of the results in terms of reservoir development. Input seismic data conditioning It is important that the seismic input data are screened for their quality. In a pre-stack

approach it means going back to the CDP gathers and making sure that the panels are clean. Several procesing steps must be controled: -Mute function. -Bandpass filtering -Spiking random noise attenuator (like 3D RNA) -Real amplitude procesing[1] -Multiple suppression[2] -Deconvolution -Footprints and other seismic artefacts[3] -Signal/Noise Ratio (must be optimized) -Phase correction (must be unique and preferably zero phase) -NMO Correction, even untill 4th order -Scaling (must be surface consistent) The ideal input to seismic inversion is rigth amplitude procesing, i.e. amplitudes directly proportional to the subsurface reflection coefficients. Proper data conditioning is essential for later quantitative interpretation of the inversion results, i.e. when reservoir characterisation and lateral prediction studies are required. For that matter reprocessing of the seismic dataset may prove necessary; even complete reshoots are sometimes justified. The original data was processed with a special target in mind and all parameters were tuned to this objective. The later use of the same seismic dataset in pre-stack analysis was unfortunately not always foreseen. Pre-stack time migration results in better positioned seismic energy and also the velocity picking is more accurate. The current demands, made by the reservoir engineer on the quality of reliable output at all stages of the seismic processing, have increased the tasks of the geophysicist over the last decade. Detailed knowledge of the geological model is essential to obtain sound processing products. Well Seismic Tie and Wavelet extraction The well-to-seismic tie is a crucial step in seismic interpretation and inversion. In the inversion scheme a comparison is made between the synthetic and the seismic trace at the well location. Several assumptions are made to derive the seismic signal or wavelet: -Time bulk-shift of synthetic trace is correctly determined. -Reflextivity serie is normal randon or gaussian (i.e. the seismic amplitude spectrum is equal to the reflectivity series spectrum) -Seismic data cube is zero-phase. The latter requirement is not always needed, but zero-phase data will facilitate the proper identification of the position of impedance interfaces. A zero-phase dataset is characterised by a symmetrical wavelet, whereby the maximum of the central lobe corresponds with the position of the AI interface. The phase spectrum shows a near zero value for all significant frequencies. The phase spectrum is obtained when a Fourier Transform is performed. The Fourier Transform decomposes the seismic trace into individual periodic sine wave functions. Each frequency has an amplitude and phase assigned to its sine function. The results of this waveform

decomposition is usually summarised in frequency spectra. The periodic waveform decomposition can be performed on the seismic trace as well as on the seismic wavelet itself. The synthetic trace is computed from the calibrated sonic and the density logs. The sonic is converted to a velocity log for this purpose. A reflectivity trace is computed and this is convolved with the seismic wavelet to yield the synthetic trace. The frequency of the sonic signal is much higher than the seismic signal. The seismic method incorporates a larger horizontal velocity component due to the acquisition geometry. Hence, slightly different velocities are measured by these two methods. The discrepancy between the sonic and seismic velocities are usually corrected with the aid of a check shot or VSP survey. The discrepancy is also known as the drift of the sonic log with depth. The check shots allow time conversion of the sonic data. The check shot survey is a simple acoustic recording of the first arrival travel time (one way time) between a shot close to the well head and various geophone positions in the well. Care should be taken not to introduce artificial steps in the calibrated sonic log at these checkshot times. This may lead to artificial reflections on the computed synthetic trace that do not exist in reality. If more than the first arrival is recorded, than a Vertical Seismic Profile (or VSP) is obtained. The VSP data requires special processing to make a direct comparison with the seismic traces possible. The shape of the wavelet depends very much on the time window chosen. A stable wavelet is usually derived in a maximum 1 second TWT time window. The change of the wavelet is caused by the fact that the seismic signal gets progressively distorted on its way into the earth. Moreover, poor and unreliable well logs may give rise to an erroneous wavelet and therefore quality control is a crucial issue throughout the entire processing sequence. This wavelet is subsequently utilised to perform the seismic inversion, whereby the seismic traces are transformed into blocky seismic impedance traces. The spiked response is expressed by the limits of these blocked impedance units. These reflectivity spikes correspond much better to meaningful geological boundaries and internal reservoir interfaces. Many steps in seismic processing assume that the data are zero-phase. Zero-phase means that the phase spectrum of the seismic is flat (in seismic range frecuency). An operator is designed for zero-phasing of the seismic sub-cube. The zero-phasing is normally achieved within a small time window of about 1 second TWT. If the window is selected too small, there are not enough sampling points to perform a reliable calculation. The matching procedures comprises the following steps: Determining and applying a bulk time shift for the well synthetic trace. This trace is computed from the time-converted calibrated sonic and density logs. Comparison of the two traces yields a seismic wavelet and a zero-phasing operator is designed. Many times only a bulk phase rotation angle is calculated for the seismic cube. The change in rotation angle has an influence on the shape of the wavelet, because the match between rotated seismic and the well reflectivity trace will be no longer the same. A bulk phase

rotation applied to all frequencies does not alter the geometry of the seismic reflections, but influences the polarity aspect of the display. The phase rotation optimises the fit between the synthetic trace and the seismic trace at the well location. The aim now is to design a phase rotation whereby the wavelet is zero-phase in shape. This is equal to a more symmetric wavelet, with pre-runners and post-cursors. Applying this bulk phase rotation to the dataset is in fact equivalent to the effect of a zero-phasing operator on the seismic input data. After the phase rotation, a new matching procedure is normally started to extract the best wavelet. It is verified that the residual rotation and time bulk-shift are small (< +-1ms and <>Seismic inversion methods Several methods are available to perform a seismic inversion for both pre stack and post stack. The approach is either deterministic or probabilistic in nature, but most of then are model driven (ie the methos began from initial impedance low frecuency model). The most common deterministic methods are represented by: -Simple integration of the seismic traces, Bandlimited Method or Recursive Inversion (Model Driven or not) -Sparse spike inversion. (Model Driven) -Coloured inversion. (Not Model Driven) The stochastic inversion scheme (or geostatistical inversion) uses a statistical description of the subsurface to do the inversion. Uncertainties in the input model are quantified and these are also retained in the end results. All geostatistics inversion methods are model driven For each of those methods the input of an inversion exercise consists of post-stack or prestack data. The pre-stack method exploits AVO effects in the dataset. As stated already, it is important that the data are as clean as possible with only a limited amount of amplitude distortion if quantitative interpretation is the objective. The pre-stack data should be properly migrated. The goal of model driven impedance inversion is to find a model that is reflection coefficients r(t) given that seismic data x(t) and source wavelet w(t) as input, and then calculate impedance AI(t) from the model. The relationship between data d = (x1, x2, ), model m = (r1, r2, ) and noise n is described as the following:

where L is the operator that links the model to the observation. This kind of problem is called model driven solution. With the known observation d, the model can be defined with the probability P(md), the posterior probability of the model conditional on the observation. It can be described with the Bayes formula:

where P(m) and P(d) describes our prior knowledge on model and data respectively. To build a model based on the probability P(md), we may seek a solution that maximize a posterior probability P(md). Our objective function for minimization can be chosen as:

Our prior knowledge of the model is generally given as a global constraint S(m), and its probability distribution that gives the maximum entropy and subject to the constraint takes the following form:

Where A is a normalization constant. Assume a generalized Gaussian modelisation and observational error, we have probability P(dm) described as a function of discrepancy between the model and the observation:

Choose q equals 1 or 2, we will have a solution of L1-norm or L2-norm. Maximize the objective function J, we obtain a solution that gives least error between the model and the observation, and meanwhile honors our prior knowledge of the model.

1. Post Stack Inversion. Deterministic inversion 1.1. Simple integration of the seismic traces. Band Limited Inversion Simple integration of seismic traces has been carried out in earlier years (1970-80s) to obtain reflection coefficients under the assumption that the density is constant and equal to 2.0. The seismically derived velocity trends are limited in their frequency contents and to compensate for this phenomenon, it is possible to construct a synthetic sonic log section (Lindseth 1979, Yilmaz 2001). A high-frequency velocity component is derived from the sonic log data in a well or from several wells. This velocity field is interpolated between the control points. A basic trend is established between the sonic log and the seismically derived velocity field; thus the high-frequency trend is approximated. It is assumed that there is no variation in density. The seismic response is then directly translated in a vertical low-frequency velocity trend for each of the seismic traces. The high-frequency velocity component is added to this velocity trend and a pseudo sonic log trace is derived under the

assumption that the density is 2.0. In this way all seismic traces are inverted to velocity changes and the inverted traces are called pseudo synthetic sonic logs.

1.2. Coloured inversion The colored inversion method is simplest most technique of inversion which is based on an operator filtering, designed from logs and seismic trace records. It is done by comparing seismic amplitude spectrum with the well-logs spectrum. The amplitude spectrum of the well log in the inversion window is compared with that of the seismic dataset. An operator is designed bringing the seismic amplitudes in correspondence with those seen in the well. This operator is subsequently applied to the whole seismic cube (Lancaster and Whitcombe 2000). A crossplot is made between the amplitude and the logarithm of the frequency to compute the operator. A linear fit is performed to calculate an exponential function f and this serves as a shaping filter. This filter transforms the seismic trace into an assumed acoustic impedance equivalent. The assumption is made that the seismic input cube is zerophase, which is hardly ever the case. Again, it is a quick and rather imprecise inversion method.

1.3. Sparse spike inversion Sparse Spike Inversion is a model driven inversion type and assumes that the actual reflectivity can be thought of as a series of large spikes embedded in a background of small spikes (i.e. assume a Poisson Gauss probability distribution. Sparse Spike Inversion assumes that only the large spikes are meaningful. It finds the location of these large spikes by examining the seismic trace. In this method the seismic trace is simulated from a minimum number of AI interfaces (or reflectivity spikes) that will reproduce the real seismic response when convolved with the wavelet. Sparse Spike Inversion builds up the reflectivity sequence one spike at a time. Spikes are added until the trace is modeled accurately enough. Sparse Spike Inversion seeks the simplest possible reflectivity model that, when convolved with the wavelet, produces a synthetic that matches the input seismic.

The Sparse Spike solution does not have any low frequency components due to the bandlimited nature of input seismic. Therefore, the low frequency trend of the model is imported from the initial model. The recursive method uses a feedback mechanism to generate a more satisfactory output[4]. The inversion solution may vary considerably from trace to trace, thus making the reliability of the output weaker. A low frequency AI variation trend can be imported to obtain more appropriate results and get a better convergence for the found solutions from trace to trace. The constrained option uses a low frequency model as a guide. The low frequency variation is estimated from filtered well logs and this gives much better results. The inversion replaces the seismic trace by a pseudo acoustic impedance trace at each CDP position. The sparse spike assumption implies, however, that a thin bed geometry will not always be reach in the most optimal way. The zero-phase requirement can be circumvented by choosing a compound wavelet for the inversion, thus compensating the non zero-phase aspect of the input data. 2. Post Stack Inversion. Stochastic inversion Sthocastic inversion is also a model driven solution type. In this method a simple initial AI model is perturbed and a synthetic trace is computed using the seismic wavelet. The difference between this synthetic trace and the real seismic trace is determined. The AI model with a very small difference is retained as solution. A technique using a Monte Carlo procedure is applied. It starts with a reflectivity initial model, Mo, and computes the difference with the seismic input data after convolution with a wavelet. The model is perturbed and a new model, Mn, is simulated, for which the same difference is established. The two differences are compared in terms of an objetive function (usualy type minimun square):

Where F is a distribution, variogram, histogram or correlation function. If On is smaller than On-1, then the Mn model is unconditionally accepted. If we use the Annealing Simulation in place than MonteCarlo scheme, when On is biger than On-1, the Mn model is accepted but with a probability:

Where T is a control parameter (acceptance temperature or Metropolis criterion). The process is repeated a large number of times, until a very small residual difference (or threshold value) is found. Computation of cost functions enables the determination of a real regional minimum for these differences. The initial AI model is made up of macro-layers defined by the shape of the seismic mapped horizons. Micro-layers are automatically introduced in this macro model. It provides a stratigraphic grid cell volume together with the inline and crossline subdivision for storing constant AI values. The use of micro-layers ensures that an adequate number of spikes is utilised in the modelling. Normally these

layers are 5-7 ms TWT thick. The method is robust (ie low sencitivity to outsider data), wich is important for the stability of the solution. Well control is not always completely honoured by this method, but a great advantage is that the seismic data are the guide for the inversion. The averaging effect of the 3D approach gives rise to small discrepancies at the well locations that are in fact quite acceptable. In place of simulated annealing could be use the secuencial gaussian simulation. This simulation is done on a local level as well as globally on the totality of the generated model. All models honour the well data. Probability Density Functions (PDFs) are established for each grid point and these are utilised to perform a random simulation. The input for the PDF determination comes from: well logs, spatial properties (variograms) and lithological distributions. The stochastic algorithm calculates for each simulation a synthetic trace, compares it with the real seismic trace, and accepts or rejects it. The number of solutions is reduced in this way and probability maps are produced to assess the amount of uncertainty. The retained simulations are examined on their variance. If they closely resemble each other, then the prediction is rather good and the confidence in the scenarios is increased. The earth models show a high resolution variability comparable to that found in the wells. The proposed variability is clearly beyond seismic resolution. Another problem is selection of a suitable presentation of the results. Normally only the P10, P50 and P90 cases are retained in the output and the rest of the realisations are ignored. These P10-P90 maps can be somewhat misleading as the outcome of an individual simulation is not always realistic, e.g. very rapid changes in geological style that are an artefact of the working method. It is better to use maps that are some sort of an average and concentrate on the areas that are rather stable in several simulations. The predictive value of the simulation is strongly reduced in areas with great variability in outcome of the realisations. The averaging procedure has, however, a negative effect on the high resolution aspect of the proposed solution. 3. Pre-stack inversion The method exploits AVO effects in the pre-stack domain and uses Vp, Vs and density information. Shear waves may yield valuable information on the lithological distribution. The S-waves mainly interact with the rock frame work, whereas the P-waves are influenced by the porefill and rock matrix. The Vs is often estimated in wells using the Castagna formula (of course is better the real mesuarement with array sonics). The full Zoeppritz equations give a description of the amplitude behaviour of reflector with offset in function of Vp, Vs and density (Zoeppritz 1919). The inversion of these equations are tedious to work with and, therefore, diferents approximation was introduced, valid under certain conditions (e.g. Aki and Richards 1980; Shuey 1985). The Aki-Richards and Shuey approximations of the Zoeppritz reflectivity ecuation system that are goods up to 30-35 incidence angle. The assumption is made that Vp is approximately twice Vs and the higher (3tr) terms are dropped due to the 30 angle of incidence condition. There are some assumptions that need to perform a prestack inversion: -Two term NMO approximation is correct. -Dix's velocities are often required in the raytracing going from the offset to the angle of

incidence domain. Dix's equation (Dix 1955) is valid for the following situation: 1) A layer cake geometry and 2). Offset is smaller than the depth of the reflector. -In most of the cases, Angle of incidence is smaller than 30-35 -Transverse isotropic medium. -Correctly balanced pre-stack amplitudes. -Amplitudes are proportional to sin2. The last point implies taking out the acquisition imprint by making the necessary source and cable corrections, spherical divergence correction, static and topographic corrections, prestack time migration, multiple and noise suppression, DMO, NMO and residual NMO in order to get the best migrated stack section. The amplitude should preserve its proportional aspect to the original subsurface acoustic impedance contrasts or reflection coefficients. Visual inspection and quality control tests play a key role in securing that this objective is optimally achieved 3.1. Elastic inversion (EI) Connolly (1999) introduced the concept of Elastic Impedance. He defined a function R that is incidence angle dependent and related to the relative variation of Elastic Impedance:

This function R is now called the Elastic Impedance, in analogue to the acoustic impedance concept. The angle dependant P-wave reflectivity is also approximated by the well known simplified description of the Zoeppritz equations (Aki-Richards):

Combining the two expressions, doing K = (Vs/Vp)^2 constant, results in the Elastic Impedance being equal to:

The EI seismic attribute is the basis for performing an elastic inversion similar to conventional acoustic inversion processing. In acoustic impedance inversion, a wavelet (shaping filter or cross-correlation techniques) is established between the AI trace from the well and the recorded seismic trace. In the elastic inversion, wavelets are derived for different incidence angle traces of EI and the corresponding migrated partial stack trace. The EI inversion give as results cubes of Vp, Vs and Density. Attributes like Rp, Rs, Ip, Is,

Vp/Vs, rhomu (Is^2) and rholambda (Ip^2 2Is^2) are easily calculated from the inverted EI. The Mu and Lambda are known as the Lames constants. Mu is the rigidity factor. The Lambda parameter is the incompressibility and contains the fluid information. The calculated attributes are studied in detail and the attention is usually focused on anomalies. Well plots in zones of interest are utilised to carry out quantitative interpretation and to perform reservoir parameter predictions. 3.2. Simultaneous inversion The Aki and Richards formula (1980) gives access to the approximate reflectivity at the various offsets in the pre-stack domain:

The assumption is now made that the relative changes in (DVp/Vp), (DVs/Vs) and (Dr/r) are small and the incidence angle is much less than 90. The background Vs/Vp relationship should be known to solve this equation. If the Vp and Vs models are not good approximations of the earth model, then the linear inversion will give incorrect results. These functions are utilised to compute the reflectivity at all angles in the formula above. This is convolved with the wavelet to obtain a synthetic gather. The synthetic gather is compared with the original seismic CDP gather and the misfit is computed. The model is subsequently perturbed and a new comparison made to reduce the misfit. The convolution assumes a plane wave propagation across the boundaries of horizontally homogeneous layers and does not take into account geometrical divergence, non-elastic absorption, wavelet dispersion, transmission losses, mode conversions and multiple reflections. These issues should have been addressed in the data pre-conditioning step. The inversion transforms the seismic cube into reflectivity cubes such Vp, Vs and density. Cross sections and layer maps are convenient to visualize lateral changes in the inversion results. The advantage of the simultaneous inversion is that there are few constraints on the validity of the computation caused by the offset angles used. A simple initial Vp, Vs and density models serves as input, summarising the expected low frequency variation. This approach guarantees stability in the end-result. A further advantage is that the same time model is applicable for all offset angles. Inversion Limitation

Seismic inversion is not a unique process. There are several AI earth models that generate similar synthetic traces when convolved with the wavelet. The number of possible solutions is significantly reduced by putting constraints on the modelling and, in doing so, a most plausible scenario is retained. The support of other investigation techniques, like AVO analysis and forward modelling, increases the confidence in the inversion results. Vp and Density are sensitive to the presence of gas in a rock sequence. A 5-10% gas saturation has already a tremendous impact on the seismic response. It will lead to AVO and AI anomalies, but these are non-commercial. The extent of the mapped anomalies should therefore always be treated with some care. AVO and inversion anomalies are likely related to the maximum distribution of hydrocarbons. Seismic inversion depends heavily on the proper integration of well data. Seismic inversion is gradually becoming a routine processing step in field development studies as well as for exploration purposes. Even time lapse inversions are now conducted. The positive track record of case histories clearly demonstrates the added value of this type of seismic analysis.

BIBLIOGRAPHY -Aki, K. and Richards, P.G. [1980] Quantitative seismology, theory and methods. Freeman, San Francisco, 557. -Connolly, P. [1999] Elastic impedance, The Leading Edge, 18, 4, 438-452. -Lindseth, R. [1979] Synthetic sonic logs a process for stratigraphic interpretation. Geophysics, 44, 3-26. -Lancaster, S. and Whitcombe, D. [2000] Fast track "coloured" inversion. Expanded abstracts, 70th SEG Annual Meeting, Calgary, 1572-1575 -Shuey, R.T. [1985] A simplification of the Zoeppritz equations. Geophysics, 50, 609-614. -Yilmaz, O. [2001] Seismic data analysis, Volume 1 and 2. Society of Exploration Geophysicists, Investigations in geophysics, 10, Tulsa, SEG, 2027. -Zoeppritz, K. [1919] On the reflection and propagation of seismic waves, Erdbebenwellen VIIB, Gottinger Nachrichten I, 66-84.

[1] The amplitude behaviour proportional to the acoustic impedance contrasts in the subsurface and eliminate any known amplitude distortions. These amplitude corrections should be implemented when it enhances the overall quality of the seismic dataset.

Whitening of the amplitude spectra is in this respect sometimes a dangerous operation that needs careful evaluation before it is done. Whitening means that the amplitudes for all frequencies are adjusted to the same output level. This artificial amplitude boosting is in many cases rather uncontrolled and accompanied by a significant and unacceptable increase in noise level. A gain function is certainly useful, unless it destroys the preserved amplitude character of the dataset. Preserved amplitude processing implies that only a light gain function is utilised, applied in a fairly large time window. The sliding window should preferably not be smaller than 1000 ms. Each time the sample on the seismic trace has a certain multiplication factor assigned. Amplitude balancing is a delicate process that should be done with care, especially when later quantitative interpretation is the ultimate goal. Even velocity filtering is worthwhile considering on the condition that the F-K operation cuts out only noise. Under such circumstances the F-K filter will indeed alter the amplitudes, but in a good sense. The latter has to be demonstrated by proper testing of the processing parameters. [2] Radon transform or Tau-P processing is an alternative option, a last resort when other methods fail to enhance the dataset. The Tau stands for intercept time at the zero offset position. P is the slowness parameter of the ray in Snell's Law. Seismic noise is sometimes more easily removed in the Tau-P domain. A drawback is that the transform back to the TX domain is rather sensitive to errors, because the operator is not orthogonal. In general, multiples are bad news because inversion will treat them as primaries. Aggressive demultiple operators, however, may cause unwanted damage to the primaries. Decisions on the correct trade-off are usually made on reflectivity sections. The suppression test results may look different in the pre-stack domain. Hence, combined pre- and poststack testing is recommendable for multiple suppression. Artefacts in the input data clearly will lead to unreliable inversion results. Multiple suppression, amplitude balancing and true amplitude processing are closely related subjects that highly influence the inversion end-results. A preserved amplitude section often looks different from a section that pleases the interpreters eye. [3] In order to remove the seismic footprint the FKK (wave number) filter is the most effective approach. The acquisition footprint is often difficult to remove in 3D surveys, but it is an essential step for reconstituting the true amplitude character of a dataset [4] Most of the recursive seismic inversion methods use the Generalised Lineal Inversion algorithm (GLI). In fact all seismic method (pre or post stack, deterministic or sthocastic) are recursive. Band Limited and Colour Inversion are not recursive. In the same way most of the seismic inversion methods are Model-Driven because they use an Initial Solution and try to fit the real solution from the initial

ANALISIS DE ATRIBUTOS: METODOS DE AGRUPAMIENTO JERARQUICOS Y NO JERARQUICOS


1. INTRODUCION El objetivo del anlisis de agrupamiento, visto como procedimiento de clasificacin, es determinar grupos dentro de una muestra multivariada que tengan algn grado de asociacin o similitud entre los miembros de cada grupo y, simultneamente, los miembros de distintos grupos presenten bajo grado de asociatividad o similaridad. El resultado del anlisis de agrupamiento es

poder de relieve las similitudes entre los datos. EL PROBLEMA DE AGRUPAMIENTO Dado un conjunto S de n puntos en un espacio eucldeo de dimensin Rm, el problema es como particionar S en k grupos, clases o nidos. Si llamamos Pk a todas las particiones de S en k nidos, y definimos un criterio de agrupamiento W(Pk) donde cada P es una medida de la confiabilidad de la particin en k nidos. El problema es, entonces, encontrar la particin P' que maximiza (o minimiza) el criterio sobre todas las particiones en k nidos. DETERMINACION DE LA PARTICION Y EL NUMERO DE CLASES Existen muchos algortmos para resolver este problema. Una clasificacin primaria de los mismos es en mtodos jerrquicos y no jerrquicos 2.ALGORITMOS NO-JERARQUICOS DE AGRUPAMIENTO Estos mtodos generan grupos disjuntos (es decir que la interseccin de a pares es vaca), por lo tanto son tiles cuando el conjunto de datos es plano K-Means Supongamos que tenemos n vectores de atributos X1, X2,..., Xn todos extrados del mismo volumen de informacin C y que conocemos que ellos pertenecen a k clases, tales que k < n. Si estas clases estn bien definidas podemos utilizar un criterio de distancia mnima para separarlos. Comenzamos inicializando el vector de medias U1, U2,..., Uk para cada nido (por ejemplo se pueden asignar nmeros aleatorios). Entonces se determina la clase a la que pertenece el vector X utilizando el criterio Dist(X - Ui) = mnimo. Es decir que la distancia mnima clasifica la muestra X en la clase correspondiente. Este algoritmo presenta varios problemas, por ejemplo si algunas de las medias iniciales estn cercanas no se podrn recalcular, adems no es posible conocer de antemano el nmero de clases involucradas Fuzzy K-Means En cada iteracin el algoritmo k-means asume que cada vector de atributos pertenece exactamente a una clase. Si relajamos esta hiptesis y suponemos que cada muestra Xi pertenece a una clase con algn grado de incertidumbre (o pertenece en forma difusa) a una clase Uj tenemos el algoritmo Fuzzy K-Means. Si adems se normaliza la probabilidad que cada vector pertenezca a una clase, es decir:: Uki=1 P(Ui | xj) = 1, donde j = 1,..., n Cada Ui se recalcula como: Uj = ( Unj=1 P(Ui | xj)b xj ) / ( Unj=1 P(Ui | xj)b y cada P(Ui | xj) como: P(Ui | xj) = ( 1 / dij )1/(b-1) / ( Ucr=1 ( 1 / drj )1/(b-1) ), donde dij = || xj - Ui ||2 Este algoritmo mejora la convergencia respecto K-means, pero permanece el problema de conocer

a priori la cantidad de clases. K-Means Secuencial Este algortmo permite actualizar el esquema de clasificacin cuando se modifica el conjunto de datos. Nuevamente, el objetivo es encontrar una particin de c elementos de un conjunto de n muestras que extremiza un criterio funcional (por ejemplo distancia, semblanza, etc.) Dado que el nmero de particiones posibles (cn /c!) es muy grande, no es posible formular un mtodo exhaustivo. La idea subyacente del algortmo K-Means Secuencial es partir de una aproximacin inicial razonable y mover las muestras de un grupo a otro mientras esta operacin optimice el valor de la funcin de criterio.

3. ALGORITMOS JERARQUICOS DE AGRUPAMIENTO Este tipo de algoritmos se aplica cuando los nidos tienen subclases embebidas. Este es el tpico problema de taxonoma numrica. Mas formalmente, una secuencia se dice jerrquica se existen dos muestras, c1 y c2, que pertenecen al mismo nido a determinado nivel k y se mantienen anidadas en cualquier nivel superior a > k. La representacin frecuente del agrupamiento jerrquico es el dendograma donde se observa el agrupamiento de las muestras a distintos niveles. Al nivel inicial cada muestra es un nido (de un solo elemento), a medida que se aumenta el nivel las muestras se agrupan y se definen cada vez menos nidos con mas de una muestra cada uno Los mtodos de agrupamiento jerrquico se pueden clasificar en mtodos de aglomeracin o nidificacin y mtodos de divisin. Entre los mtodos de aglomeracin el algoritmo ms frecuente es el de vecino mas cercano (comienza con n nidos y los mezcla sucesivamente hasta un umbral de la funcin de criterio). El algoritmo de mnima expansin es el ms frecuente que utiliza la estrategia de divisin (comienza con un nido que contiene todas las muestras y lo particiona sucesivamente hasta satisfacer el criterio de convergencia) Este tipo de algoritmos funciona adecuadamente cuando las clases estn bien separadas. Vecinos mas Cercanos El criterio de agrupamiento que se utiliza es: dmin(Di, Dj) = min || x - x' ||, donde x pertenece Di y x' pertenece a Dj Cuando el algoritmo se termina con la verificacin de un umbral sobre la funcin de criterio de agrupamiento se conoce como algoritmo de encadenamiento simple. Este algoritmo siempre genera un rbol (esto porque los bordes entre clases siempre evolucionan a distintas clases) es decir que no se generan ciclos. Vecinos Lejanos El algoritmo es igual al anterior, pero la funcin de criterio de agrupamiento es: dmax(Di, Dj) = max || x - x' ||, donde x pertenece Di y x' pertenece Dj Adems si se agrega un criterio de terminacin sobre esta funcin el se conoce como algoritmo de encadenamiento completo. Con el algoritmo de vecinos cercanos la distancia entre clases es la distancia entre las muestras ms cercanas y en de vecinos lejanos la distancia entre clases es la de muestras ms lejanas.

Una funcin de criterio de agrupamiento que combina estos dos mtodos es: davg(Di, Dj) = ( 1 / (ninj) ) S || x - x' ||, donde x pertenece Di y x' pertenece Dj dmean(Di, Dj) = || mi - mj || 4. CONCLUSION Lamentablemente no existe un algoritmo de agrupamiento que funcione eficientemente para cualquier conjunto de datos. Cada metodologa tiene implcita una seria de hiptesis sobre la estructura interna de la muestra que puede permitir al intrprete seleccionar el algoritmo apropiado. Adems, utilizando distintos algortmos, sobre el mismo conjunto de datos, para obtener la particin y el nmero de nidos se obtienen resultados diferentes. Una alternativa es implementar mas de una solucin y elegir como resultado un promedio de las mismas. Otra forma de seleccionar el resultado puede ser incorporar informacin externa, es decir escoger aquella que mejor describa el comportamiento de otra variable no utilizada en el anlisis de agrupamiento.

EFECTOS DE MARCAS DE REGISTRACION (FOOTPRINT) EN HORIZONTES SOMEROS.


PARTE I La presencia de marcas de registracin es una expresin comn de las carencias en la distribucin de informacin de distintas distancias fuente receptor. Hill et. all. (1999) han demostrado en registros sintticos la influencia de la geometra de registracin en la generacin de patrones de ruidos asociados a procesos dependientes de la distancia fuente receptor. Estos patrones de ruido estn asociados a la fuente ssmica. Los ms comunes son la onda area y la onda superficial (ground - roll). En las secuencias de proceso es muy difcil atenuar estos ruidos sin degradar la informacin. La tcnica mas usada es definir corredores en tiempo y espacio centrados en velocidades correspondientes (Roizman, 2003) Cuando las herramientas de procesamiento antes de suma no han podido atenuar estos ruidos existen alternativas de filtrado despus de suma. Cuando el ruido de marcas de registracin tiene un patrn lineal y peridico en los cortes de tiempo (time slice) es posible filtrarlo en el dominio del nmero de onda. En otras palabras, en el dominio KxKy es posible modelar y discriminar estos ruidos lineales y peridicos, y, de este modo, disear filtros adaptativos en el dominio XYT (Yilmaz, 1987)

La FIG N 1 muestra claras marcas de registracin peridicas y lineales en la zona cuspidal de la estructura. Cuando se calculan atributos tales como energa de reflexin o varianza el efecto de este patrn se magnifica. (Ver FIG. N 2).

RECOMENDACION Desde el punto de vista de la interpretacin este ruido anula la posibilidad de realizar anlisis o estudios sobre atributos. La interpretacin estructural, si bien es perfectamente posible con esta informacin, sera mucho ms certera y podra apoyarse en la varianza para estimar posicin de fallas sutiles si se pudiese eliminar este patrn de ruidos. Por esta razn se recomienda aplicar filtro KxKy despues de suma. REFERENCIAS HILL, S., SHULTZ, M., BREWWER, J. (1999). Acquisition footprint and fold-of-stack plots. TLE v18 n6 pp 686-695 ROIZMAN, M. (2003) FILTRADO DE MARCAS DE REGISTRACION EN SISMICA

3D. V Congreso de Exploracin de Hidrocarburos. Mar del Plata. Argentina. Nov.2003 YILMAZ, O. (1987). Seismic Data Processing. Investigations in Geophysics v2 pp 492-495

EFECTOS DE MARCAS DE REGISTRACION (FOOTPRINT) EN HORIZONTES SOMEROS.


PARTE II APLICACION DE UN FILTRO KXKY Se aplic al volumen ssmico un filtro KxKy para atenuar ruidos de registracin en los horizontes someros. Desde el punto de vista de la implementacin destacamos que se aplic un filtro es nico, pero con un addback variable en el tiempo. De 0 a 500 ms la salida corresponde 100% al cubo filtrado, de 700 ms al final corresponde 100% al cubo original (sin filtrar) y entre 500 y 700 ms vara linealmente la proporcin de uno y otro. Esta implementacin se vincula a que el efecto de marcas de registracin pierde importancia por debajo de 1000 ms y no parece necesario aplicarlo en profundidades mayores. Se han realizado pruebas con distintos porcentajes de addback para evitar elegir la mejor solucin que evite la sobresuavizacin y al mismo tiempo tenga un efecto importante de eliminacin del ruido de marcas.

ESTIMACION DE SONICOS CON CURVAS DE RESISTIVIDAD UN PROBLEMA DE REGRESION: FORMULA DE FAUST El problema que se plantea es estimar un perfil de tiempo de trnsito a partir de un registro de resistividad (la eleccin de una curva de resistividad pasa porque, histricamente, se ha utilizado esta curva para realizar este trabajo, aunque bien se podra usar otra curva). La solucin clsica a este problema fu publicada por Faust en 1953, esta es: Vel = a * (Profundidad * Resistividad ) ^b SONICO = 1000000 / Vel donde a y b son parmetros (conocidos como constante y exponente de Faust respectivamente). Faust, en su trabajo original estim a = 1947 y b = 0.1667. Estos valores fueron calculados en funcin de un gran nmero de mediciones de pares tiempo de trnsito, resistividad en varias localidades, el clculo efectivo se realiz con un modelo de regresin lineal. El resultado de aplicar la frmula de Faust en un pozo con tiempo de trnsito medido, permite comparar el perfil real con el calculado. En la Figura N 1 se observa un diagrama de dispersin entre ambas curvas, si el ajuste fuera perfecto la nube de puntos se debera concentrar en torno a una recta a 45 en el diagrama, est claro que esto no sucede (por lo menos en este caso), y que las desviaciones son importante (por ejempl, el coeficiente de correlacin es de 0.3 entre ambas curva)

Se puede pensar que el resultado puede mejorar resolviendo el modelo de regresin lineal en cada zona a estudiar, para ello se linealiza la ecuacin de Faust y se obtiene: log (SONICO) = k - b * log (Profundidad * Resistividad) Resolviendo el modelo, tenemos que k = 2.238 y b = -0.0756 con un coeficiente de correlacin de 0.35, en la Figura N 2, se observa un diagrama de dispersin (en valores de logartmo) del snico medido y el estimado con el modelo de regresin. No se observa ninguna mejora importante (en este caso) en comparacin que con la aplicacin de la frmula de Faust. Una alternativa metodolgica a la regresin lineal es el entrenamiento de una red neuronal. La ventaja de esta aproximacin es que la red reconoce relaciones no lineales. APLICACIN DE REDES NEURONALES PARA ESTIMAR SONICOS A PARTIR DE RESISTIVIDAD Introduccin Las redes neuronales constituyen una alternativa atractiva respecto al mtodo tradicional de cuadrados mnimos. Este mtodo se utiliza para encontrar una relacin lineal entre una variable independiente y una o mas variables de control. Esta relacin se utiliza para estimar valores de la variable independiente dada una medicin sobre las variables de control. Una aplicacin clsica de este mtodo es estimar una curva snica a partir de una curva de resistividad. En general los mtodos de cuadrados mnimos ajustan relaciones lneas entre las variables (o entre funciones de las mismas), las relaciones no lineales, tericamente se pueden establecer, pero en la prctica tienen dificultad algortmica y de modelado. El uso de redes neuronales se puede ver como una alternativa al mtodo de cuadrados mnimos. Estas redes consisten en un nmero elevado, y densamente iinterconectado, de nodos de procesamiento. Con una de estas redes se pretende simular el comportamiento, en modo simplificado, de una red biolgica y tiene aplicacin en problemas de inteligencia artificial, visin de maquinarias, reconocimiento de patrones, clasificacin y memoria asociativa. Muchas redes actan como 'cajas negras' que aprenden a partir de ejemplos como transformar un nmero anlogo de entradas en un nmero anlogo de salidas. Estas transformaciones pueden ser altamente no lineales y una red no necesita un conocimiento previo de la forma de la relacin (es decir un modelo matemtico). Volviendo al problema de regresin, si las variables de control se utilizan como entrada, la red puede aprender a predecir la variable dependiente como salida de la red. La red mas adecuada a este tipo de problemas, es una red en capas que aprende con un

algoritmo recursivo de propagacin hacia atrs. Cada nodo se transforma: SALIDA(j) = F(SUMA W(i,j)*SALIDA(i)) Donde F es la funcin de distribucin logstica dada por: F(x) = (1+exp(-x))-1 para capas invisibles, o simplemente F(x)=x, para capas con entrada y salida anlogas. En el algortmo de propagacin hacia atrs, en cada paso del aprendizaje de la red se genera un error de salida que se utiliza para ajustar los pesos internodos (que comienza con valores aleatorios) en un procedimiento iterativo de gradiente descendiente. Adems los pesos se deben ajustar luego de cada ejemplo o se pueden acumular los cambios sobre la red completa. El nmero de nodos en las capas ocultas depende de la complejidad del problema, pero por cuestiones de implementacin se debe procurar que sea lo menor posible. Existen varios paquetes de redes neuronales comerciales (siempre para PC). Estos paquetes permiten al usuario especificar la arquitectura de la red (nmero de capas y nodos) y detalles del procedimiento de aprendizaje (algoritmos). El ingreso de los datos para el entrenamiento de la red se realiza con archivos planos o base de datos.. Los pesos finales del proceso de entrenamiento, que constituyen el conocimiento de la red, se utilizan para estimar la variable dependiente con datos de la variable de control. La implementacin particular para calcular perfiles snicos con perfiles de resistividad se realiz ingresando pares (resistividad, snico) de distintos pozos y con ellos impulsar el procedimiento de aprendizaje. Para controlar el procedimiento se calcul un snico dato (con la resistividad correspondiente) y se lo campara con el snico medido. Comparacin de los perfiles snicos real y calculado Para ver la diferencia entre uno y otro perfil, se muestra en la siguiente figura los perfiles real y calculado, promediados cada dos metros. Se observa que el perfil calculado sigue bien al real pero algunos picos no son tan pronunciados. Se observa tambin un buen seguimiento de la compactacin con la profundidad.

Se observa que cualitativamente el acuerdo es bueno. Para comparar en una forma mas cuantitativa la diferencia entre uno y otro perfil, en el siguiente histograma se representa el porcentaje de puntos que tienen un determinado intervalo de porcentaje de diferencia en la velocidad calculada respecto de la medida.

En este histograma se puede observar que la mayora de los puntos calculados dan una diferencia con las velocidades reales inferiores al 5%. Comparacin de los Tiempos de Trnsito Se calcul el tiempo de trnsito desde una profundidad hasta otra integrando los perfiles snicos sintticos y reales para cada uno de los pozos

En la Figura N4 se observa el resultado para el mismo pozo. En este grfico se puede ver que las curvas estn superpuestas. Esto es importante ya que puede ser que los errores punto a punto sean chicos pero que siempre estn orientados en una misma direccin y hacer que la suma de los errores sea importante. Si ese fuera el caso se tendra un desfasaje en las profundidades calculadas a partir de los tiempos de trnsito medidos en la ssmica. Por otro lado, si bien tenamos algunos desajustes entre las curva se observa que con la integracin del tiempo de trnsito los errores se minimizan. Hicimos la misma comparacin con los tiempos de trnsito registrados en el VSP del pozo . En el siguiente grfico se muestran los tiempos de trnsito en funcin de la profundidad obtenidos a partir del snico sinttico junto con los tiempos de trnsito medidos. El siguiente grfico muestra que la diferencia acumulada hasta una profundidad de 1725m es de 18 mili segundos. Este desfasaje es una correccin tpica que se le debe hacer a los snicos reales cuando se los calibra con los VSP. De modo que el snico sinttico tiene un error compatible con el que tendra el snico real. Comparacin de los Sismogramas Sintticos Para ver cual es la diferencia que ocasiona en la ssmica los errores observados en los perfiles, se construyeron sismogramas sintticos utilizando el acstico real y el calculado. En las siguiente figura se muestra el resultado para el pozo VVV-001. Se puede observar que hay una muy buena coincidencia entre los dos sismogramas sintticos.

AVO EXPLORATION
AVO (Amplitude versus offset) analysis is an important tool in identifying hydrocarbons directly from seismic data and reducing drilling risk under certain conditions in some geologic settings. Properly acquired and processed seismic data shot across a basin where the reservoirs are porous enough, thick enough (greater than vertical seismic resolution which is a function of the velocity of the media and the frecuency of the elastic wave) and charged gas (or with light oil) can permit direct detection of hydrocarbons. In this context the AVOs attributes are called DHI (Direct Hidrocarbon Indicator). Exploration around the world driven by Bright Spot/Dim Spot detection and AVO analysis has had a huge positive impact on drilling success. The technology is increasingly employed in areas of poorer rock quality and heavier fluids - pushing the envelope on what can be extracted from (removed the word our) 3D seismic volumes. Large 3D seismic datasets are a challenge to conventional interpretation and AVO analysis techniques. Interpreters typically focus their mapping on structural closures. Many of the best opportunities remaining in oil and gas basins around the world are in stratigraphic traps which may offer billion-barrel-potential. Unfortunately, it is often difficult to extract reliable AVO information from huge 3D volumes with changing data quality and changing geology. The combination of large datasets, limited time and limited staff increases the potential for missing opportunities. A systematic work-flow is required to identify prospects or geologic leads using a combination of processing technology and volume manipulation to more rapidly identify exploration opportunities. The leads highlighted can then be matured to prospects and risked using AVO analysis and other seismic amplitude anomaly characteristics. Processing the seismic data for AVO analysis involves preserving small amplitude changes buried in the prestack dataset. These changes can be hidden by spatial differences in the seismic generally caused by variations in the overlying geology. Correcting for the overburden effects permits a more aggressive detection of anomalies using cross-plot and attribute stack comparisons. Anomalies identified from the above are then compared with a geologic model and ranked. The high-graded anomalies are then used to focus the exploration mapping and prospect analysis ultimately saving time while still capturing unconventional (strat-trap) potential.

AVO EXPLORATION II
Introduction In areas with favorable rock physics it is possible to directly detection of hydrocarbon with conventional seismic data. Amplitude interpretation has the potential to directly impact in the risk evaluation on exploratory prospect and production drilling locations. Using seismic amplitude information in prospect evaluation requires that significance be assigned to seismic amplitude observations. In order to do this requires: 1.-Understanding of the limitations of seismic analysis techniques. 2.-Evaluating the consistency of the observations with the geological frame. 3.-Uncertainty estimation. Not all areas have favorable rock physics and the interpretation of seismic data requires tools to help in the amplitude interpretation and risk decisions. There are a large number of failures of amplitude interpretation in exploration (sure more than notable successes) thus is necessary put the amplitude role interpretation in context. We must attempt to guard against making unrealistic claims for the significance of the seismic amplitude interpretation. In modern work - stations, there are a lot of ways to create seismic attributes and it is a trend to relate the attribute patterns with the geology without considering a physics support. It is very easy to derive spurious relations between the seismic attribute and well data and thus is a need to find a physical explanation for the seismic attributes.

Amplitude (DHI) interpretation The term amplitudes is used here in general sense to cover all interpretation based on seismic reflection and his derivates or attributes (i.e. include full and partial stack amplitude, AVO attributes, Acoustic/Elastic/Simultaneous Inversion, etc). A related term, DHI or Direct Hydrocarbon Indicators generally used to denote a seismic effect related to the presence of hydrocarbon. DHI include different kind of seismic amplitude analysis, such (but not limited to): 1.-Pre/Post Stack Reflections Signatures (Bright Spots, Dim Spots, Phase Reversal) 2.-Flat Spots 3.-Down dip termination of Amplitudes 4.-Seismic Chimneys presence (great decrease of the signal / noise relation and frequency loss over a gas field) The criteria of DHI use are very stringent, but they are often applied foolishly. There is a clear consistency between the observed attributes and the rock physics models. But there are many seismic artifact effects that can cause a seismic signatures like a DHI, then is necessary reject every plausible cause (like improper recording or processing procedure) for the amplitude effects (the human mind seems engaged in a creative search of corroborative evidence for its favored hypothesis). There are a lot of reasons why we can get the interpretation wrong, for example:

1.-Non-uniqueness of the inversion problem (i.e. different geological situation could give the same DHI effect, just for one example a bright spot could be a high porosity effect or gas presence) 2.-Seismic Polarity misinterpreted 3.-Recording and Processing problems. 4.-Anisotropic media. For example, the AVO-gradient attribute increase with the anisotropy parameter and this is a great potential misinterpretation cause. But currently we dont know enough about the AVO anisotropic general model. It is main search actual issue for several scientist research groups. Thus at the present the effects of anisotropy is part of the uncertainly to be taken account in the risk evaluation process.

In other hand, clearly if a verifiable DHI is present on a prospect, then it is possible that the risk on the prospect may be considerably reduced relative to a standard geological risk. The DHI evidence should be used within a probabilistic risking scheme. The most common pitfall is that the DHI tends to be invoked too readily, for example when there has been no play specific corroboration through modeling or direct analogy of the effects under question. The relation between DHI and exploration risk was documented by Allen (1993) in a statistical work over La Yegua offshore gas play in Golf of Mexico Basin. This is a mature gas play of shallow high porosity sands that give bright spots on stack sections and increase amplitude versus offset in the pre stack gathers. Allen worked on 84 wells drilled on this seismic DHI. The historical successes of commercial gas discovery was about 7.5% (without DHI used). With the DHI technique application this rate increase dramatically until 50%. Clearly this relation is for La Yegua Gas Play in Golf Of Mexico basin, thus we can not expect the same relation in others plays / basins. Of course we can said that in not mature plays / basins we can hope a higher chance of success for a prospect with verifiable DHI than other without this kind of seismic anomaly (of course less than 50%). Other point is that only 20% of the total plays was no gas shows, therefore the 30% result was no commercial gas. Optimum Scenario for use Seismic DHI in exploration An optimum scenario is where there is a high degree of confidence in the link between the seismic observations and the seismic/geologic models. This situation is common in: 1.-At least, moderate exploration history with good analogues and 3D seismic coverage and wells with good data quality (for i.- phase and polarity calibration and ii.- Modeling fluid and lithology variations) 2.-Simple sedimentary environment (for example, deep sea deposits), with low degree of lateral variations 3.-Simple structural environment 4.-Shale - Sand lithology situation. Sands reservoirs with low porosity variations 5.-Good Impedance discrimination between sands and shales. Good correlation between acoustic logs (Vp, Vs, Density, Acoustic Impedance) and porosity or fluid filling. Risk and DHIs

Well Seismic calibration is a key point to the DHI application for risk reduction. In virgin areas with no well data (i.e. not available calibration way), the DHI analysis can give us an idea of the degree to which different responses are anomalous, but it can not tell us how likely a particular seismic DHI will be related to hydrocarbons. At best, if you have a number of potential prospects, the seismic DHI can be used as a ranking tool. There is always a risk in DHI interpretation, particularly in exploration. In immature areas we do not have enough statistics to support the risk applied to the seismic DHI interpretation. Thus, whichever way you assign a risk significance to the DHI, it is highly subjective. It depends on the geological knowledge of the play and the DHI signature of the target (always related with the data quality). For example for a structural trap, if the DHI is in conformance with the structure we can hope a low risk, but in stratigraphyc trap, the DHI is the only one indicator, thus we must hope a high risk. Even with 3D seismic data care must be taken to account for possible lithology or porosity explanation before assigning high significance to an amplitude conformable effect. The most difficult situation in which to interpret the significance of a DHI is where there is a localized DHI (such as bright spot) that may be related to sand but where there are no other indicators of a hydrocarbon such as change in down dip amplitudes or clear conformance with the structure. A generic approach is to use a chance of success matrix between this two variables: DHI confidence and Knowledge of the Play

DHI Confidance

The seismic data for a high confidence DHI interpretation must verify the following criteria: 1.-QC for good data quality: continuity of reflectors (pre and post stack), high S/N relation, enough frequency contents. 2.-QC for a processing sequence for true amplitude preservation. Some conventional processing techniques are only useful for relative AVO/Amplitude analysis. For example automatic gain control, whole trace equalization, non amplitude-preserving deconvolution can affect the use of the seismic Amplitude/AVO like DHI. We must check the processing sequence in order to verify the right AVO processing condition. The main issues are: check for spherical divergence correction, attenuation and emergent angle correction). Deconvolution, and Coherent Noise Elimination. Prestack Radon Noise Attenuation.

Surface consistent amplitude balance. Surface consistent Static Correction. The Static Correction must be applied very carefully monitored for incorrect shifts due AVO effects. 3.-Check for migration and other image artifacts. The Multiple Elimination is a key point (in many times the Radon Filter is the only confiable way) and the migration must be Prestack. 4.-QC for residual NMO. In general, velocity Analysis and NMO correction must be accurate; NMO correction must be applied using very fine velocity analysis sampling and surface consistent velocity interpolation. This a key point in the Class II AVO anomaly, because in this situation there is a offset dependent phase change that can result in incorrect stacking velocities an incorrect residual static. 5.-Well Seismic tie must be good enough for phase and polarity determination. The sonic logs used for well seismic tie must be of good quality and in highly recommended the use off check shot data 6.-Check for anisotropy. 7.-Check for tuning effects. Based on reflectivity, a thin bed may be defined as one whose thickness is less than about (predominant wave length /8). Where the wave - length (l) must be computed using the velocity of the bed. The amplitude of a reflection from a thin bed is to the first order of approximation equal to 4pAb/l, where b is the thickness of the bed and A is the amplitude of the reflection if the bed were to be very thick. The equation shows that a bed as thin as 3 m. has, for typical frequency and velocity, considerably more reflective power than is usually attributed to it. This effect is called tuning and in the practique is abnormal strong amplitude related to a thin bed and not with a hydrocarbon effect. 8.-QC for recording effects: there many record problems that can affect the seismic amplitude response. There are source and receiver effects, for example the vibro or gun sources are better because in this case is possible have a good estimation of the wavelet. Also there is much kind of array design effects. For example is the target is very deep and the maximum offset is short there is no way to see a seismic DHI. Also the minimum offset must be availed in order to have a good estimation of the normal reflectivity. 9.-Try to see the DHI in more than one way. Try to use quantitative analysis rather than just qualitative. Optimum DHI Processing Sequence In seismic recording, every shot is recorder at every receiver. The first processing step is the data de-multiplex in order to put the shot sampling the same point in the earth together in a Common Depth Point (CDP) gather. The traces in the gather are ordered by distance (or offset) from the source. There are tree important issues in the varying source receiver distance: 1.-In the raw gather, the amplitude decrease with the distance (more wave travel at long distance is less energy). This effect is called Spherical Divergence. One of the first processing steps is correct this situation with an exponential function. This correction is a central point in order to make a true amplitude process (i.e. for DHI interpretation) 2.-Also in the raw gather the time increase with the offset. If the earth model is a layer cake the reflection has a hyperbolic form. Before the stack, this time decay must be correct and this process step is called Normal Move Out (NMO). The main input for the NMO

correction is the Velocity Analysis, that is find the velocity function that transform the reflection hyperbolas in horizontal lines in the gather. The accurate of this correction is critical for AVO analysis because a residual NMO could be similar to an AVO anomaly. 3.-The third important point in the raw gather is the frequency loss at far offset, this effect is called NMO Stretch and may look like a AVO anomaly. This effect could be important in shallow targets. The gathers show other energy type beside the reflection. They are called Coherent Noise and could have a strong distortion effect over the true seismic amplitude. Direct arrival (direct travel from source to receiver) and Refractions (mainly shallows) results in high amplitudes in far traces. The Mute process step is the way to mitigate this effect. In many cases the reflected energy may include Multiples (i.e. reflected energy from interfaces which has previously been reflected from the base and top of another layer). Multiples are very dangerous coherent noise for DHI interpretation, but a minor problem for a structural interpretation because the Stack process step is a very effective multiple filter (the multiple has a different velocity from the primary, then the multiplea are not corrected by NMO and when the gather is stacked the multiple is filtered). In order to multiple filtering in pre stack time the processing sequence must include a FK (or Velocity) filter and/or a Radon filter The stack is a wonderful filter for random noise (and like said before for multiples). Stacking enhance the reflections and attenuates uncorrelated noise including the multiples. Stacking dramatically increase the signal / noise relation. Thus in pre stack DHI interpretation, the processing sequence must include a Random Noise Attenuation process at pre stack time. This kind of filter are time and computer claimant, and are potentially dangerous for the true amplitude preservation, thus this is a very important checkpoint in the processing sequence. All the processes sequence assume a layer cake model, and this is not always true. The Migration step process serves to correct for the effects of the velocity structure of the earth and put the data in the right place. Conventionally this was a post stack process, but for pre stack DHI interpretation the migration must be in pre stack timing. Pre stack depth migration is applied in areas where there is a complex geology and aims to create a good image of the subsurface, but the pre stack depth migration is potentially dangerous for the true amplitude preservation, then pre stack time migration is always preferred for DHI interpretation There are many processing steps that can be taken to enhance the seismic data for DHI interpretation. Processing for DHI interpretation aims to remove noise and propagation effects unrelated to the primary reflections. Careful QC of the data over each process step is vital in order to obtain a seismic data for DHI interpretation. Any process that scale or average the data should be approached with care as relative amplitudes can be change. In particularly Short Gate AGC and Trace Mix Process should not be applied. The principal points in this kind of processing sequence are: Amplitude Recovery Static Correction Pre Stack Random Noise Attenuation Multiples Remove (FK Filter, Radon Transform) Velocity Analysis and NMO

Pre Stack Time Migration Seismic Models for DHI interpretation Offset algorithms such as the Zoeppritz equations and their approximations (AkiRicharson, Shuey, Fratti, etc) are used to model the gather response. Always is required the Vp, Vs and Density logs. Various types of seismic models can be made, such Single Interface Model and Wedge Model. In order to invert seismic for DHI interpretation, seismic data needs to be calibrated to the geology in a well. This calibration procedure involve the comparison of modeled seismic trace with the real one. If the correlation is good the the seismic can be interpreted in terms of the geology. If it is poor there will remain significant uncertainly in the seismic interpretation (both, for structural and DHI). This is a very important step in order to obtain a high reliable interpretation. The key points are the velocity log condition (sonic and, if available, check shots), wavelet estimation DHI Criteria 1.-DHI over Migrated Stack Seismic. Reflections are the key to understand the first fluid effects on seismic data. There are several phenomena on migrated stack section related to fluid effects, always modeled for a shale / brine sand interface. The most commons are: a. Bright Spot: is a high negative amplitude anomaly because the gas in sand drop lower the impedance dramatically. b. Dim Spot: same like previous one, but the shale has a very low impedance (lower that a gas sand). c. Phase Reversal: it happened when the sand brine impedance is a bit higher than the shale impedance and the gas sand impedance is a bit smaller than the shale impedance. d. Flat Spot: mainly combined with some of the previous, is a flat reflection related with the gas water contact. In some situations there is a clear coincidence of amplitude change at the top of reservoir and locally these effects may be coincident whit structure. If other porosity or lithology effects can be rejected, these is a very qualitative reliable situation 2.-Raw CDP gather. We just can see the AVO presence. A simple rule of thumb said: The Reflectivity (R) becomes more negative with the offset over gas sand. There are two important term: Positive AVO that is when the amplitude increase (in absolute value) with the offset, whereas Negative AVO or when the amplitude decrease with the offset. There are situations where the DHI response came from both lithology and fluid effect. In theory it is possible to differentiate this effects with AVO and/or Simultaneous inversion techniques, but not in stacks sections and even with partial angle stacks. 3.-AVO / AVA: Relating the angular information of a model calculation to the seismic data requires a further model of the overburden to establish the relation between incidence angle (theoretical model) and offset (practical situation). The link between both is (like usual) the velocity. 4.-AVO Classes. For shale / brine sand the AVO response are classified in tree classes. a. Type I: Is a positive reflectivity (i.e. the sand impedance is larger than the shale impedance) together with a decreasing amplitude with the angle. b. Type II: Small reflectivity (positive or negative) with a high negative amplitude values

for a great angles (into this class some authors call Type IIp when there is a polarity change with the offset). c. Type III: have a high negative impedance at zero offset and more negative at far offsets. d. A further is the Type IV: a high negative impedance at zero offset and small negative amplitude at far offsets (this is for high velocity limestone or high velocity layer in the place of the shale). 5.-Common offset stacks and Partial Angle Stacks (mainly Near-Far analysis): Partial Stacks techniques use the power of the stack process in enhanced the signal / noise relation while preserving the DHI effects. In order to help modeling partial stacks can be related to the offset or to the angle and the amplitudes can also be related to the AVO anomaly in the gather. In the presence of AVO anomaly, the amplitude in near offset will be different than the amplitude in the far offset, thus the amplitude difference is a DHI. Also the cross plot between Near and Far amplitude is a interpretation technique. If the there is not AVO anomaly the amplitude in near and far offset will be similar, thus the cross plot will be a cloud in 45, and if there is a AVO anomaly the cross plot will present a separate cloud. 6.-AVO Attribute, Gradient (A) and Intersection (B). The Intercept is the normal incidence amplitude while the gradient is the slope in the AVO regression equation (R = A * sin2 (q) + B). The A * B attribute is the most common AVO volumes. This attribute enhanced the Type III AVO anomaly (because this AVO class has Intercept and gradient negatives). The A * B attribute will be negative for Type I AVO class and is not very useful for Type II AVO class. The cross plots of A and B is the most common AVO cross plot techniques and all the AVO class are well separated in this cross plot. This cross plot can therefore be used to determine linear discriminating trends of the amplitude anomalies. 7.-Rp and Rs reflectivity, (and most interesting the Rp-Rs difference), Poisson Variation (s), Fluid Factor (FF): This attributes are linear combination of the gradient and intercept attributes. That is Rp = A; Rs = (B A)/2 if Vp/Vs = 2 (normal approximation). Also, s = (B + A) * (4/9) and FF = 1.252 * A + 0.58 * B. This kind of AVO analysis can not resolve the called fizz water effect. In a consolidated brine sand a small amount of gas (5%) can has a dramatic effect on the P-velocity and therefore in the AVO attribute. This is the reason why a sand brine with low gas quantity shows a very strong AVO effect. Tree term AVO. This is very interesting because brings a way to minimize the fizz water effect, because give a inversion solution for the density (the effect of gas saturation on density is almost lineal, not like in the P-Velocity). The limitation is that this method need very long seismic offsets. 8.-Acoustic Inversion: By applying the convolutional model in reverse it is possible to derive an estimate of acoustic impedance from the migrated stack seismic data. There are several benefits of interpretation over this kind of volume: Inversion remove the wavelet effect and is more clear picture of lithology and fluid changes. Acoustic Impedance is a link between geophysics and geology Inversion is a layer property model in place of interface model like the migrated stack. In geological simple environment is a great indicator of porosity and/or fluid contents. The main problem is the overlapping between the impedance of shale whit the impedance of the

sand with hydrocarbon. Thus the fluid interpretation of acoustic impedance is reliable when there are thick sand packages and without lateral variations of the lithology. 9.-Simultaneous/Elastic Inversion. Is the most powerful DHI method and we obtain volumes of Vp, Vs and density. With these tree volumes we can calculate Vp/Vs, Poisson Ration, LambdaMuRho relations. And the entire are the most important quantitative seismic DHI. Like the AVO third term long and high quality offsets are necessary. The elastic inversion is the inversion of the partial angle stacks and the simultaneous inversion is the inversion of the full angle range of the gather, therefore is more stable method. In both the idea is that the reflectivity at any point on a migrated gather seismic represents reflectivity at an angle, that the inversion to acoustic impedance can be done over the stacked volume. Using the Zoeppritz equations different author made different approximations in order to revolve the inverse problem in function of the angle, this inversion results are the P-velocity, S-velocity and the Density.

CORRECCION DINAMICA (NMO) NO HIPERBOLICA


La correccin dinmica convencional pierde efectividad en apartamientos lejanos. En la prctica resulta que las reflexiones en un conjunto de trazas de punto comn profundo (CMP Gather) no estn perfectamente horizontales. En general, esta situacin es tolerable para una secuencia de procesamiento despus de suma, pero resulta muy perjudicial para los procesos de conversin a profundidad, migracin en profundidad y para el anlisis de la variacin de la amplitud ssmica con el apartamiento (AVO). Adems en situaciones de baja relacin seal ruido o geologa compleja, el error de la correccin dinmica afecta los procesos de migracin y suma (Carlson, 1997). La correccin dinmica convencional (NMO) asume que las reflexiones, en un arreglo de punto comn profundo, tienen forma hiperblica. En general este modelo es eficiente para apartamientos relativamente cercanos (menos que 3 km?). Sin embargo para apartamientos largos aparecen reflexiones que no se describen adecuadamente con el modelo hiperblico clsico. Es importante destacar que la tecnologa actual permite registrar con arreglos largos que son, tericamente, necesarios para estabilizar las soluciones de tercer orden de AVO en inversin simultnea. Las reflexiones no hiperblicas se han estudiado detalladamente y se han propuesto diferentes soluciones.

CORRECCION DINAMICA HIPERBOLICA La correccin dinmica (NMO) es un paso central en la secuencia de procesamiento ssmico cuyo principal objetivo es horizontalizar las reflexiones agrupadas en un punto comn profundo. NMO se sustenta en una aproximacin hiperblica de la variacin del tiempo de trnsito (T) en funcin del apartamiento (X) de cada reflexin en un agrupamiento de trazas del mismo punto comn profundo. En trminos matemticos (Yilmaz, 1989,):

donde t0 es el tiempo que se obtendra explotando y recibiendo en la misma posicin (es decir apartamiento cero) y V es un parmetro desconocido (en general denominado Velocidad de Suma o Velocidad RMS). En la prctica este parmetro se determina mediante un proceso iterativo que se conoce como anlisis de velocidad. Este proceso calcula una funcin de semblanza de las trazas del agrupamiento a lo largo de trayectorias hiperblicas (para distintos valores del parmetro V), entonces las trayectorias de mxima semblanza son las trayectorias de las reflexiones ssmicas y esto permite determinar el parmetro V. CORRECCION DINAMICA DE CUARTO ORDEN Para un medio de capas horizontales y homogneo, se demuestra que la expresin del tiempo en funcin de la distancia toma la forma (Taner et all, 1969):

Es decir que la correccin dinmica hiperblica es una aproximacin de segundo orden de esta expansin. Un mtodo muy utilizado para corregir los apartamientos lejanos es la utilizar hasta el cuarto orden de la expansin en serie de Taylor. (Gidlow, et all, 1990). En la prctica hay que determinar dos parmetros, esto se puede hacer con un anlisis de velocidad extendido a tres dimensiones. En este caso se requiere picar la funcin de semblanza en el espacio. Tambin se puede determinar el

parmetro hiperblica (es decir la velocidad de suma) utilizando las trazas cercanas, entonces con este parmetro fijo estimar el parmetro de cuarto orden mediante un segundo anlisis de velocidad, pero esta vez con el polinomio de orden cuatro. Se han publicado otras implementaciones que realizan un ajuste utilizando polinomios cuadrticos y/o de orden cuarto aplicados a distintos rangos de distancia estableciendo condiciones de continuidad y suavidad (Bazelaire, 1988) Alternativamente, Yilmaz (1989) propuso el uso de parbolas para realizar una correccin dinmica adicional a la hiperblica. CORRECCION DINAMICA EN MEDIOS ANISOTROPOS Tanto la correccin hiperblica como la de cuarto orden son vlidas bajo la hiptesis de medios homogneos e istropos. En medios anistropos las variaciones azimutales de velocidad generan desviaciones importantes del modelo hiperblico. Tsvankin and Thomsen (1994) han desarrollado una correccin dinmica azimutal vlida para apartamientos largos. En la prctica se modelan dos tipos de anisotropa, estas son la HTI (medio Transversalmente Istropo con eje de Simetra vertical que se utiliza para modelar medios con sistemas de fracturas verticales) y VTI (medio Transversalmente Istropo con eje de simetra Vertical que se utiliza para modelar medios estratificados). Alkhalifah y Tsvankin (1995) demostraron que se necesitan dos parmetros para compensar la correccin dinmica de un medio VTI: i) Inelepticidad (h = (e d ) / (1 + 2d), donde e y d son los parmetros de Tompsen (1986) relacionados con las constantes elsticas del medio y ii) Velocidad NMO. En contraste con el caso istropo para el cual es suficiente estimar el segundo parmetro. En general para estimar la Inelepticidad se necesitas trazas lejanas (como para cualquier parmetro elstico). Este parmetros es, al mismo tiempo, un indicador de anisotropa. El parmetro h se puede estimar con anlisis de velocidad de uno o dos pasos. En el primer caso se estiman simultneamente la Velocidad NMO y la Velocidad horizontal (que es proporcional a h), mientras que en el anlisis de dos pasos primero se estima la velocidad NMO (con las trazas cercanas) y luego, fijando la velocidad NMO y utilizando todas las trazas se estima la inelepticidad. En la prctica la correccin dinmica que ms se utiliza es la propuesta por Alkhalifah y Tsvankin (1995), que estima estos parmetros, en dos pasos, a partir de la ecuacin de cuarto orden dada por:

Notar que para el caso istropo o de anisotropa elptica (esto parmetro de inelepticidad, h = e d = 0) la ecuacin se reduce a la correccin hiperblica. Otro mtodo utilizado para corregir los efectos de anisotropa e inhomogeneidad es el denominado Mtodo de la Hiprbola Desplazada (Castle, 1994). Este mtodo parte de una modificacin de la correccin hiperblica, haciendo:

donde S es el cociente entre la cuarta potencia del cociente entre la velocidad de cuarto orden promedio y la velocidad de segundo orden promedio (es decir la Velocidad NMO), sustituyendo resulta:

Que no es mas que una hiprbola desplazada. El parmetro S controla el comportamiento para trazas lejanas y tiene una relacin sencilla con la inelepticidad (S = 1 + 8h). La solucin de esta ecuacin requiere, tambi, doble anlisis de velocidad.

CORRECCION DINAMICA AUTOMATICA Estos mtodos tienen la ventaja de que no asumen ningn modelo subyacente para aplicar la correccin dinmica. En general utilizan algoritmos de reconocimiento de patrones (Calderon-Macias, et. al. 1998) sobre los agrupamientos de punto comn profundo. Una vez reconocido el evento la correccin se reduce a un corrimiento en tiempo traza a traza. El problema con estos mtodos es que son muy sensibles a la presencia de ruido. Muchos algoritmos de reconocimiento automtico de objetivo pueden incorporar

informacin geofsica a priori para aumentar la eficiencia y mejorar el resultado. Esta informacin se incorpora en la etapa de entrenamiento o calibracin de los algoritmos. Por otro lado estos algoritmos se pueden utilizar en modo estimacin o clasificacin, para reconocer la reflexin en un arreglo de punto comn profundo normalmente se utilizan algoritmos que permitan la clasificacin binaria (es decir: Evento vs Ruido), por ejemplo red neuronal probabilstica (Clark, et al, 1996), test de signo (Curia, et al, 1986), etc. En los casos de aplicacin en modo clasificacin, para cada muestra, siempre se puede calcular una probabilidad a posteriori de pertenencia a la clase adjudicada (bsicamente es una medida de distancia entre el resultado de la clasificacin y el centroide de la clase). La incorporacin de informacin a priori requiere entonces un paso de interpretacin manual para calibrar los algoritmos y luego poder propagarlos al conjunto completo de informacin disponible. Muchos algoritmos requieren pasos de normalizacin y/o escalado antes de su aplicacin de modo de hacerlos menos sensibles a las variaciones absolutas de los datos. La etapa de entrenamiento es crtica para la aplicacin de estos algoritmos porque la hiptesis subyacente es que esta muestra es completamente representativa del conjunto. Otro problema, conocido como sobre entrenamiento, es que si el conjunto de entrenamiento es demasiado grande el algoritmo termina estimando ruido, esto es porque siempre se puede lograr la convergencia, pero si el conjunto de entrenamiento es muy grande el algoritmo converge muy lentamente y quedar entrampado en mnimos locales. Otro problema que presentan los algoritmos que se aplican bajo formas de clasificacin primaria es que bajo el rtulo de ruido puede haber muchas cosas distintas (por ejemplo reflexiones mltiples), sin embargo es muy difcil entrenar conjuntos para clasificaciones mas complejas que la binaria (es decir el interprete debera estar en condiciones de definir, por ejemplo: Reflexiones Primaria, Reflexiones Mltiples y Ruido).

REFERENCIAS CITADAS EN EL TEXTO Alkhalifah, T, and Tsvankin, I., 1995 Velocity analysis in transversaly isotropic media, Geophysics, vol. 54, pp.15501566 Bazelaire, Eric de, 1988, Normal Moveout Revisited: Inhomogeneous Media and Curved Interfaces, Geophysics, vol. 53, No. 2; pp. 143-157. Calderon-Macas, C., Mrinal K. S., and Stoffa P.S., 1998, Automatic NMO correction and velocity estimation by a feedforward neural network Geophysics, vol. 63, No. 5, pp.1696 1707 Carlson, David H., 1997, 3D Long Offset Non-Hyperbolic Velocity Analysis, Expanded Abstracts of 67th Ann. Int. SEG Mtg.; pp. 1963-1964. Castle, R. 1994, Transverse isotropy versus lateral heterogenety in the inversion of P-wave reflection travel time, Geophysics, vol. 59, pp.204212 Clark, G. A., Glinsky, M. E., Sandhya Devi, K. R., Robinson, J. H., Cheng, P. K. and Ford, G. E., 1996, Automatic event picking in pre-stack migrated gathers using a probabilistic neural network, Proceedings of the 1996 Society of Exploration Geophysicists November

10-15,1996, Denver, Colorado Curia, D., Koremblit, M., 1986, Deteccin Automtica de Eventos Ssmicos por Aplicacin de Test de Signo, Primeras Jornadas Argentinas de Geofsica Aplicada, Catamarca, Argentina Gidlow, P. M., and Fatti, J. L., 1990, "Preserving far offset seismic data using nonhyperbolic moveout correction", Expanded Abstracts of 60th Ann. Int. SEG Mtg., 17261729. Taner, M.T., Koeler, M.,1969, Velocity spectra digital computer derivation and applications of velocity functions. Geophysics, 34, pp. 859-881 Thomsem, L. 1986, Weak elastic anisotropy, Geophysics, vol. 51, pp.19541966 Tsvankin, I. and Thomsen, L., 1994, Nonhyperbolic Reflection Moveout in Anisotropic Media, Geophysics, vol. 59, No. 8, pp. 1290-1304. Yilmaz, O., 1989, Velocity-Stack Processing, Geophyscial Prospecting, 37; pp. 357-382.

MULTIFOCUSING (MF) PROCESSING IN BASIN OF PATAGONIA, ARGENTINA


Introduction The multifocusing (MF) approach proposed by Berkovitch et al. (1994) is based on homeomorphic imaging theory (Gelchinsky et. al., 1992.) In the MF approach, each zerooffset trace is constructed by stacking traces that need not belong to the same CMP gather, but rather, whose sources and receivers are within the limits of a certain superbase in vicinity of the central point. The size of such superbase is determined by the size of Fresnel zone. The number of traces falling in this zone can significantly exceed the number of traces belonging to one CMP gather. This allows for a considerable increase in the signalto-noise ratio for the target reflection. Since the traces being stacked no longer belong to the same CMP gather, such procedure requires a more general moveout correction than the one used in conventional CMP stacking. For a given source-receiver pair, the MF moveout equation is based on spherical approximation of reflection events wavefront near the observation surface. In a 2D case, this new time correction depends on three parameters measured at the central point. In other words, the moveout correction expressed by the MF formula is a threeparameter expansion of the travel time in the vicinity of the central point. Hence, it is closely related to paraxial ray approximation. The three abovementioned parameters are: the emergence angle of normal incident ray B and the radii of curvature RCRE and

RCEE of the two fundamental wave fronts. The first front is the CEE (common evolute element) wavefront, which is formed by normal rays emitted by different points on the reflector (like in an ''exploding reflector'' scenario, shown in Figure N 1). The second front is the CRE (common reflection element) wavefront, which is formed by a source located in a position where the zero offset ray emitted from the central point hits the reflector (Figure N 2). MF travel time formulas provide an adequate representation of arrival times for arbitrary source-receiver configurations, just like the conventional NMO correction does for CMP gathers. For a single CMP gather, the MF moveout correction reduces to the Bazelaires shifted hyperbola. It is well known that it gives an approximation of the travel times for a horizontally layered medium s uperior to that of a classical Dix NMO equation.

The MF correction formula is remarkably accurate even for strong curved reflectors. This can be attributed to the fact that it is not a simple hyperbolic Taylor expansion but a double-root square. It should be emphasized that the MF moveout correction is an appropriate basis for a stacking procedure, as it can align reflection events in a large gather of seismic traces (superbase) that spans over many CMP gathers. Implementation of the MF method is technically challenging because it requires defining three moveout parameters instead of a single parameter (stacking velocity) in standard NMO velocity analysis. Although, in principle mixing reflection events from a number of CMP gathers (in other words a number of depth reflection points) may compromise special resolution of the resulting stacked section and make random noise appear as an interpretable signal, our implementation of simultaneous three parameter search mostly avoid this effects leading to minimal number of artifacts. Detailed description of the MF method and its implementation can be found in Berkovitch et al. 2008, The Leading Edge, Vol.27, N2. Practical Implementation

Practical implementation of multifocusing requires determination of three imaging parameters (B, RCRE and RCEE) for each t0. In a conventional NMO stack the single parameter, namely, the stacking velocity is usually determined by means of interactive velocity analysis. This analysis consists of calculating a panel of correlation measure (e.g., semblance) as a function of t0 and velocity, and picking of an ppropriate correlation maxima as a function of t0. A similar procedure for MF is impractical, for an interactive procedure would have to involve displaying and picking the maxima of the correlation measure as a function of four variables (t0 and three unknown parameters). Automatic mode is necessary. Automatic mode is based on coherency measure calculation and its analysis on the MF super-gather. The procedure consists of data correction according to different travel time curves and finding parameters B, RCRE, and RCEE, which correspond to the coherency measure maximum. The correlation procedure described above is repeated for each central point and for each time sample producing a MF time section. Each sample on this section represents a stacked value corresponding to the optimal values of B, RCRE and RCEE. Note that such an optimization procedure optimally sums signals as well as spatially correlated noise. In this case even global maximum may be related to some kind of coherent noise rather than to desired signal. For example, strong multiple reflections may have a higher correlation measure than weaker primary events. This undesired effect can be avoided or reduced by using a priori information on search parameters and applying constraint optimization. Potential benefits of MF Potential benefits of MF stacking as compared to the CMP stack are as follows: *Stacking a large number of traces covering many CMP gathers can increase the stacking power and increase signal to noise ratio. Typically, the number of traces in the MF supergather exceeds the CMP fold at least by an order of magnitude. This can be particularly beneficial for data with low fold and/or low signal-to-noise ratio. *All the time samples of a given reflection event on a given central trace in MF should have the same parameters within the wavelet. Thus, the moveout correction curve is parallel for all samples within the wavelet and moveout corrected signals are stretch free. The MF moveout correction formula represents double root square equation that differs from the conventional NMO formula for CMP stacking. The formula describes travel time behavior for wider class of subsurface models. *Definition of wavefront curvatures and emergence angle makes it possible to determine dip-independent velocities. Hence, the MF method incorporates the key property of DMO processing and these velocities may be used for time migration. *Multifocusing parameters may be estimated automatically. Caadon Asfalto Seismic Data Context Processed data is corresponding to a category of rather complicated in geological and seismic senses region. Complex tectonics and reflectors with short radius of curvature form a rather complicated wave field. The velocity field obtained with seismic processing of such data has mosaic character. Such velocity field requires smoothing prior to migration. Complex overburden structure, as exemplified by strong lateral velocity variation and curved interfaces, poses major challenges in seismic imaging. In such situations, the common-midpoint (CMP) method and its modifications do not provide necessary signal-to-

noise ratio (SNR), adequate resolution and accuracy for imaging of subsurface targets. The MF section has the qualitative look which may be compared with CMP-stacked time section, but generally has significantly better signal quality and preserves interfering events. However the processing of data acquired in complicated geological conditions can confronts with situations when the signal becomes comparable with a noise by its Parameters. The Kirchhoff migration of deep seismic reflection data can produce severe artifacts, which appear as circular arcs or smiles, due to the existence of apparent truncations and out-of-plane reflections on the MF stack section. This the major disadvantage of MF processing. The same preprocessing steps as in the conventional processing were applied to the input data for MF. One can see a substantial advantage of MF over the conventional section in SNR and resolution (see tectonic structure in the left part of the stack after migration in the Line showen in (Figure N 3) after migration, which is lacking on the migrated stack after conventional processing (Figure N 4); the advantage is obvious on the migrated MF.

PROCESAMIENTO MULTIFOCO: TEORIA, IMPLEMENTACION Y CASO HISTORICO


Fundamentos El Procesamiento Ssmico Multifoco fue propuesto por Berkovitch et all (1998) basado en los trabajos de Gelchinsky et all (1997) sobre teora de migracin homomrfica. La diferencia central del Procesamiento Multifoco respecto al Procesamiento Ssmico Convencional es la correccin dinmica (NMO/DMO). Sin embargo ambos comparten el mismo objetivo: crear una seccin suma que sea aproximadamente una seccin de trazas de apartamiento cero con la mayor relacin seal/ruido (S/N) posible En el Procesamiento Ssmico Multifoco la correccin dinmica se aplica sobre un amplio conjunto de trazas (Super-Gather) que no necesariamente responden al concepto tradicional de Punto Comn Profundo (CMP Gather). La condicin de dicho conjunto de trazas es que las fuentes y receptores correspondientes se localicen en una determinada vecindad del punto iluminado (por ejemplo una Zona de Fresnel). Esta claro que este conjunto y el conjunto de trazas de punto comn profundo es distinto (o en otras palabras tiene geometra diferente), por lo tanto la correccin dinmica a aplicar ser diferente. En muchos casos el conjunto de trazas a sumar en el enfoque multifoco es mayor que cuando se aplica el criterio de punto comn profundo, y es claro que esta situacin en si misma mejora la relacin S/N La Correccin Dinmica Multifoco (DMO/MF) que se aplica a esta geometra se fundamenta en la representacin esfrica de los frentes de onda para cada par fuente receptor respecto a la traza de apartamiento cero. Se puede demostrar que esta Correccin Dinmica Multifoco depende de tres parmetros independientes medidos en el punto iluminado, estos son el Angulo Emergente y los dos Radios de Curvatura de los Frentes de Onda. La DMO/MF es un modelo que describe adecuadamente los tiempos de arribo para una configuracin fuentes receptor arbitraria, del mismo modo que la NMO/DMO describe para la geometra de CMP. Adems, si la DMO/MF se resuelve en una geometra CMP, se reduce a la correccin dinmica convencional, es decir que la correccin DMO/MF es una generalizacin espacial de la correccin NMO/DMO. La implementacin de la correccin DMO/MF es un desafo tcnico porque es necesario definir tres parmetros. No est dems recordad que en la correccin NMO/DMO solo hay que definir un parmetro (velocidad de suma). El Procesamiento Ssmico Multifoco agrupa eventos ssmicos (reflexiones) que perteneces a distintos puntos. Esta situacin afecta la resolucin espacial (este es un precio a pagar) y puede generar ruidos aleatorios y otros artefactos ssmico que se debern filtrar en la implementacin de la DMO/MF Correccin Dinmica Multifoco

La Correccin Dinmica Multifoco (DMO/MF) se ha derivado el concepto de medio auxiliar donde el medio real se ha reemplazado por un medio de velocidad homognea (V0, cercana a la superficie). En este medio auxiliar todos los rayos se pueden representar como sucesin de segmentos rectos. Para una configuracin Fuente (S) y Receptor (R) definida, el primer trmino de la ecuacin de correccin DMO/MF corresponde al tiempo para recorrer el trayecto SF (que se obtiene resolviendo el triangulo SFX0). El segundo trmino corresponde al tiempo necesario para recorrer la trayectoria FPR. Para calcular este trmino hay que considerar una fuente imaginaria F que nos es mas que la imagen especular del punto F en el reflector para luego resolver el triangulo FPR.

Adems se demuestra que F es el centro de curvatura del frente de onda S+, mientras F lo es de S-. Las cantidades R+ y R- son los radios de curvatura de los frentes de onda S+ y S-. , respectivamente. Es fcil ver que estos valores dependen de la posicin del punto F, donde el rayo paraxial intercepta al rayo central y por lo tanto tambin depende de la posicin de la fuente y del receptor. Estos valores se calculan en funcin de los radios de curvatura de los frentes de onda principales, es decir RCEE y RCRE. Estos estas definidos solo por el rayo central y son los mismo para cualquier configuracin fuente-receptor. El valor s, denominado parmetro de foco contiene la relacin funcional de R+ y R- con la posicin del punto F. Observar que si s=0 entonces es R+ = R- = RCEE , es decir que el punto F coincide con el centro de curvatura del frente de onda normal (o sea la situacin de explotar y recibir en la misma posicin), adems si s=1 o s=-1, entonces se tiene y corresponde la situacin de fuente comn y receptor comn, por ltimo si s es infinito resulta R+ = R- = 0 y corresponde la situacin de fuente comn y receptor comn, por ltimo si s es infinito resulta R+ = R- = Rcre que es equivalente que el punto de foco F coincide con el punto O (el punto de reflexin normal) La ecuacin de correccin DMO/MF es la suma de dos hiprbolas. Sin embargo para determinadas geometras fuente receptor se reduce a una hiprbola. Por ejemplo para fuente comn (fuente comn) basta hacer DX+ (DX-) = 0. Y para una geometra de CMP (Rcee tendiendo a infinito) se reduce a la correccin NMO/DMO. Ventajas del Procesamiento MF El Procesamiento Multifoco permite sumar un conjunto de trazas mas grande que el conjunto usual de CMP, de este modo mejora la relacin S/N. Este punto es significativamente importante para geometras de baja suma Para todas las muestras temporales de un mismo punto multifoco los parmetros son iguales de modo que en la suma multifoco no hay efectos de estiramiento. Los parmetros dependen del ngulo de emergencia y de los radios de curvatura de los frentes de onda principales de modo que la suma MF permite incorporar variaciones de velocidad con la pendiente del reflector. Por esta razn hemos utilizado le sigla DMO/MF para denominar a esta correccin dinmica. Aplicacin en Cuenca Patagonia Argentina La informacin ssmica en la Cuenca Caadn Asfalto proviene de un contexto geolgico (deformacin intensa y basaltos superficiales) que genera datos de gran dificultad de procesamiento. La tectnica compleja con planos de ngulos altos de buzameinto implica reflexiones de campos de onda complicados con radios de curvaturas cortos. El campo de velocidades que se obtiene con estos datos es muy ruidoso, por lo tanto para poder migrar, se requiere aplicar procesos de suavizado, que pueden generar artifactos ssmicos de proceso. Esta geologa estructural genera adems fuertes variaciones laterales de velocidad e interfases curvas, situaciones siempre desafiantes en cualquier proceso de imagen del subsuelo. En estas situaciones el procesamiento convencional de punto comn profundo (CMP) resulta en imgenes de baja relacin seal - ruido, baja resolucin vertical y errores en la imagen de las estructuras. El procesamiento MF genera una imagenes de relacin seal - ruido significativamente mejor pero no elimina eventos producto de interferencia. Sin embargo, en el caso de la informacin de Caadn Asfalto, donde alcanza situaciones donde el ruido y la seal son comparables, el primer efecto positivo permite habilitar a pagar el costo del efecto no

deseado. La migracin de reflexiones profundas genera efectos arifactos severos que aparecen el la seccin ssmica como "sonrisas". Esta es la desventaja major del procesamiento MF. La figuras 3 y 4 son los resulatdos del procesamiento MF (Figura N 3) y convencional (Figura N 4) con la misma secuancia de procesamiento en cuanto a correciones estticas, recuperacin de amplitud, atenuacin de ruidos aleatorios, deconvolucin y migracin. Las diferencias son evidentes, centralmente llama la atencin la mejora de la relacin seal - ruido y el contenido de frecuencia (o resolucin vertical) con el procesamiento MF.

Blibliografa Berkovitch A., Gelchinsky B., Keydar S. [1998] Basic formula for multifocusing stack. 56th Meeting, European Association of Exploration Geophysics, Expanded Abstracts, p. 140. Gelchinsky, B., Berkovitch, A., and Keydar, S.,[1997], Multifocusing Homeomorphic Imaging: Part 1: Basic concepts and formulae: Presented at the special course on Homeomorphic Imaging by B. Gelchinsky, Seeheim, Germany. Gelchinsky, B., Berkovitch, A., and Keydar, S., [1999], Multifocusing Homeomorphic Imaging: Part 2: Multifold data set and multifocusing

AVO: FUNDAMENTOS Y PROCESAMIENTO


Introduccin El anlisis AVO es una metodologa de procesamiento e interpretacin de los datos ssmicos cuyo objetivo es la identificacin del contenido de fluidos y la caracterizacin litolgica. El fundamento de esta metodologa es el modelo fsico de la reflectividad que depende de las variaciones en una interfase de tres propiedades: Velocidad Compresional (Vp), Velocidad de Corte (Vs), Densidad (r). Para relacionar este modelo fsico a la caracterizacin de reservorios se debe entender la relacin entre estos parmetros (Vp, Vs y r) con los parmetros de roca tales como litologa, porosidad y contenido de fluidos. Desde el punto de vista metodolgico, se debe poder procesar el dato ssmico de modo que la amplitud sea proporcional al coeficiente de reflexin y luego poder invertir este a los parmetros ssmicos Vp, Vs y r, para, finalmente interpretarlos en trminos los parmetros de roca. Desde el punto de vista prctico el anlisis AVO se puede definir como una tcnica que relaciona la variacin de la amplitud de la seal ssmica respecto al apartamiento (distancia fuente - receptor) con variaciones en las constantes elsticas del medio atravesado y a partir de ellas con los parmetros de caracterizacin de reservorios tales como porosidad, litologa y contenido de fluidos. Un siglo de historia A principios del siglo XX Zoeppritz (1919) publico el trabajo terico que es fundamento de la tcnica AVO. Este trabajo se resume en un sistema de ecuaciones que permite calcular la amplitud una onda plana reflejada y transmitida en una interfase en funcin del ngulo de incidencia y conociendo las constantes elsticas fundamentales de los medios involucrados (Vp, Vs y r). Medio siglo despus, Bortfeld (1961) simplific las ecuaciones de Zoeppritz y abri un camino para entender el comportamiento fsico de la reflexin y transmisin de ondas planas en una interfase. Para la misma poca Koefoed (1955) reescribi estas ecuaciones (sin realizar simplificaciones) en trminos de la relacin de Poisson. Las consecuencias del trabajo de Koefoed constituyen la base fundamental del anlisis AVO moderno. Shuey (1985) desarroll una simplificacin de la ecuacin de Koefoed en trminos del coeficiente de Poisson. Esta simplificacin es vlida para ngulos de incidencia menores a 30, y en estos casos, permite una implementacin sencilla de un algoritmo de inversin AVO. Ostrander (1982) present por primera vez una aplicacin sobre datos reales, en este artculo clsico el autor mostr la forma de utilizar el anlisis AVO como indicador directo de hidrocarburos. Allen and Peddy (1993) publicaron un trabajo estadstico sobre la base de aplicaciones del anlisis AVO como indicador directo de hidrocarburos en la cuenca del Golfo de Mxico. El trabajo es una recopilacin de datos ssmicos e informacin de pozos, as como la interpretacin AVO de los mismos y el anlisis a priori y a posteriori de la tasa de xito exploratorio. El trabajo no solo incluye los casos exitosos sino algunos fracasos de donde se intenta aprender un contexto de aplicacin mas eficiente. Hoy en da el anlisis AVO se utiliza tanto como para disminuir el riesgo de un proyecto

exploratorio como herramienta de integracin de la informacin ssmica en los modelos de caracterizacin de reservorios Ecuacin de Zoeppritz Supongamos que una onda plana se encuentra en una interfase que presenta contraste de velocidad y densidad. Entonces la onda incidente se particiona en dos ondas al enfrentar la interfase. Dicho de otro modo parte de la energa de la onda compresional incidente se convierte a onda de corte. Ambas ondas (compresional y de corte) parcialmente se reflejan y parcialmente se transmiten. Dadas las velocidades y la densidad del medio, la fraccin de la onda compresional incidente que se refleja (o se transmite) como onda compresional (o como onda de corte) depende del ngulo de incidencia. De este modo el anlisis de la variacin de la amplitud de las ondas reflejadas y / o transmitidas se puede utilizar para investigar las propiedades elsticas del medio. La ecuacin de Zoeppritz permite calcular la amplitud de la onda reflejada y transmitida en funcin del ngulo de incidencia y de las propiedades elsticas del medio. A partir de la ley de Hocke se puede resolver la ecuacin de onda en medios istropos. Luego la ecuacin de Zoeppritz se deriva utilizando el principio de conservacin del esfuerzo en las interfases as como la ley de Snell. La Figura N 1 ilustra el comportamiento de una onda compresional que incide sobre una interfase con contraste de velocidad y densidad. Las ecuaciones de Zoeppritz son un sistema de cuatro ecuaciones con cuatro incgnitas cuya expresin matricial es la siguiente:

Aproximacin de Bortfeld La ecuacin de Zoeppritz permite calcular la amplitud exacta de la onda compresional reflejada en funcin del ngulo de incidencia, sin embargo la relacin no solo no es intuitiva sino que la inversin directa presenta serias dificultades algebraicas. Durante muchos aos se ha trabajado para derivar aproximaciones en condiciones razonables que

sean intuitivas y/o se puedan invertir con elementos algebraicos sencillos. La primera aproximacin fue publicada por Bortfeld en 1961. La expresin algebraica de esta es:

Esta ecuacin alumbra el comportamiento de la variacin de la amplitud con el ngulo de incidencia en funcin de los parmetros elsticos del medio. Bortfel denomin al primer trmino de la ecuacin se como coeficiente fluido fluido (A) y el segundo trmino como trmino de rigidez (porque aparece la velocidad de corte) (B), es decir que se puede escribir R(q) = A + B sen2 (q). Sin embargo no es algebraicamente factible invertir estos trminos a las propiedades elsticas de las rocas. Aproximacin de Aki - Richards Aki y Richards (1980) reformularon la aproximacin de Bortfeld. Esta aproximacin tiene la ventaja que se escribe en tres trminos donde cada uno de ellos involucra a uno de los parmetros elsticos de los medios de la interfase. Esta aproximacin es vlida para ngulos pre crticos y pequeos cambios en los medios. Esta ecuacin se escribe como: donde:

Cada parmetro depende del ngulo de incidencia, de modo que es posible invertir esta ecuacin por cuadrados mnimos sobre determinados (Lines et all, 1984). Este es el camino que tomaron Fatti, et all (1994) para obtener el hoy denominado algoritmo de inversin simultnea. Sin embargo Aki y Richards, al no observar en la prctica, variaciones relativas separadas de velocidades y densidad, reformularon la ecuacin en funcin del ngulo de incidencia, esto es:

La ecuacin es conocida como ecuacin general AVO o AVO de tres trminos. Aproximacin de Gelfand - Larner La ecuacin (3) fue rescrita por Gelfand and Larner (1986) en funcin de las reflectividades P y S. Estos investigadores comenzaron por ignorar el tercer trmico, aproximacin vlida para ngulos de incidencia pequeos (en ese caso el seno vale casi lo mismo que la tangente

y de este modo se anula el tercer trmino), y asumiendo que la relacin entre la velocidad de corte y la compresional es un medio (b/a=0.5), entonces: Y definiendo las reflectividades Rp y Rs,

respectivamente y reemplazando, resulta: En la prctica se define G=Rp-2Rs, o Gradiente AVO, atributo que permite calcular la reflectividad de onda de corte. Rp se denomina Intercepcin AVO y es directamente la reflectividad de onda compresional, esta ecuacin es tan difundida que se asocia biunvocamente a la tcnica AVO Aproximacin de Shuey La aproximacin de Shuey (1985) parte de la ecuacin (3) pero elimina la velocidad de la onda de corte, utilizando el coeficiente de Poisson, s que se define segn: b/a=[(1-2s)/(2(1s)]1/2. donde:

Asumiendo nuevamente ngulos pequeos y un medio que verifica (b/a=0.5), resulta que R(q) se expresa como en la ecuacin (7) Aproximacin de Smith - Gidlow Smith y Gidlow (1987) parten de la ecuacin (3), pero eliminan la densidad utilizando la relacin de Gadner (es decir r = a a ), operando algebraicamente resulta:

Si adems, se asume un medio que verifica (b/a=0.5) resulta: c=(5-sen2(q))/8 y d=-sen2(q) La ventaja prctica de esta formulacin es que se puede resolver por cuadrados mnimos (o por el mtodo del gradiente descendiente o una combinacin de ellos). Por este mtodo se

obtiene una solucin para la variacin relativa de las velocidades del medio. Utilizado la solucin del sistema de cuadrados mnimos de la ecuacin (14) Smith y Gidlow (1987) tambin construyeron un atributo que se denomina Factor de Fluido y se utiliza frecuentemente como un indicador directo de hidrocarburo. Para este desarrollo parten de la relacin emprica de Castagna (1993) entre velocidad compresional y velocidad de corte (relacin conocida tambin como lnea de arcilla). Esta relacin es vlida en secuencias slico - clsticas y es lineal, es decir tiene la forma: a=a+bb. En presencia de gas, se observa una fuerte disminucin de a pero no de b, por lo tanto se debera definir una anomala en un grfico de dispersin entre las velocidades. El Factor de Fluido es una medida de dicha anomala. Diferenciando la relacin de Castagna, se obtiene: Entonces ante un descenso de a (por ejemplo presencia de gas) la igualdad no se verifica y la diferencia entre los trminos de la misma se define como Factor de Fluido, es decir:

Est claro que el Factor de Fluido es aproximadamente cero en secuencias silico clsticas. En el tope de una capa gasfera a cae y DF se hace negativo, inversamente en la base de una capa gasfera a aumenta y DF se hace positiva. Aproximacin de Goodway Goodway et al.(1998) expres la ecuacin (3) de Aki Richards en terminus de la variacin de impedancia compresional (o sea DIp/Ip) y de corte (o sea DIs/Is). Operando algebraicamente resulta:

Aplicando la, a esta altura clsica aproximacin, es decir ngulos pequeos (de modo que seno y tangente sean muy similares y el tercer trmino de la ecuacin (16) se anula) y un medio que verifica (b/a=0.5), resulta que R(q) se expresa como los dos primeros trmicos de la ecuacin (16). De nuevo, esta ecuacin tiene la ventaja que se puede resolver por cuadrados mnimos, aunque, en este caso la solucin es para la variacin relativa de las impedancias acsticas del medio. Un ventaja adicional es que a partir de la solucin en impedancias acsticas se pueden derivar las constantes de Lam, utilizando las ecuaciones:

Aproximacin de Verm -Hilterman Verm y Hilterman (1995) reacomodaron la ecuacin (9) o ecuacin de Shuey con el objetivo de enfatizar la dependencia de las propiedades elsticas del medio con el ngulo de incidencia:

Si suponemos ngulos pequeos b/a=0.5 (esto es equivalente a decir que s=1/3) y resulta:

Con esta ecuacin, el primer trmino depende de la reflectividad compresional y el segundo de la relacin de Poisson. Adems dado que las funciones trigonomtricas involucradas son complementarias se deduce que la reflectividad para ngulos pequeos est dominada por la impedancia de la onda compresional y para ngulos grandes por la relacin de Poisson. Por otro lado esta ecuacin permite una solucin de cuadrados mnimos para estos parmetros. Aproximacin de Fatti (o Algoritmo de Inversin Simultnea) Partiendo de la ecuacin (2) de Aki Richards, donde cada parmetro depende del ngulo de incidencia, es posible invertir esta ecuacin por cuadrados mnimos sobre determinados. En esta direccin Fatti, et all (1994) reformularon la ecuacin (2) hasta una forma computacionalmente estable, conocida por inversin simultnea y cuya expresin es:

El algoritmo de inversin simultnea, para simplificar el desarrollo, asume la hiptesis que a/b es constante y que las reflectividades son pequeas. Adems se supone una relacin lineal entre logaritmo de a con el logaritmo de b y entre el logaritmo de a con el logartmo de r Clasificacin AVO La clasificacin AVO ms conocida se sustenta en la forma de la curva de amplitud (o reflectividad) respecto al espaciamiento (o ngulo de incidencia). La misma fu introducida por Rutherford y Williams (1989) y est asociada a los conceptos previos de puntos brillantes. La clasificacin es vlida para formaciones clsticas saturadas. Originalmente consideraba solo tres clases de pendientes negativas, sin embargo, Castagna (1998) introdujo una cuarta clase de comportamiento inverso.

Clase I (Arenas Alta Impedancia): Asociada a arenas consolidas con altas velocidades intervlicas. Las arenas tienen impedancia acstica mayor que las arcillas limitantes, es decir que la ondcula tiene carcter pico valle (por lo menos en ngulos cercanos) Clase II (Intermedia): La caracterstica mas fuerte es la inversin de polaridad con la distancia. Un elemento diagnstico es que la diferencia entre la amplitud de trazas cercanas y lejanas se magnifica por el cambio de signo. Clase III (Punto Brillante o Arenas de Baja Impedancia): Asociada a arenas no consolidadas con baja velocidad intervlica. La impedancia acstica es menor que las arcillas limitantes. Clase IV: Similar a Clase IIII pero con rocas sobreyacentes duras (calizas o similares) con alta velocidad de corte Inversin AVO Las primeras implementaciones del anlisis AVO se desarrollaron sobre la base de interpretar las amplitudes sobre un CDP corregido por dinmica y migrado. Estos valores se grafican en funcin del seno cuadrado del ngulo de incidencia (en general el CDP est en distancia, pero conociendo la velocidad es fcil pasar a dominio del ngulo) y se calcula la recta de cuadrados mnimos. Claramente, la pendiente es el atributo gradiente AVO (G) y la ordenada al origen es el atributo intercepcin AVO (Rp)

Las implementaciones modernas han automatizando el procedimiento de clculo pero siempre manteniendo la aplicacin del mtodo de cuadrados mnimos, aunque en este caso generalizado, o cuadrados mnimos sobre determinado o GLI por sus siglas en ingls. Yilmaz (1987) denomina a este proceso Inversin Lineal Generalizada (GLI) y, hoy en da, es el proceso estndar de transformacin de los CDP en volmenes de propiedades elsticas de roca. Este mtodo, GLI permite calcular las fluctuaciones AVO partiendo de CDPs utilizando diversas aproximaciones a las ecuaciones de Zoeppritz tanto de dos como de tres trminos. Las mas utilizadas son las ecuaciones (2), (14) (20) y (21). La aplicacin de ecuaciones de dos trminos es que la clasificacin, y al mismo tiempo tcnica de interpretacin, con grficos de dispersin de Rutherford y Williams (1989) ha penetrado profundamente en los intrpretes geofsicos. Por esta razn no est dems resaltar que estas aproximaciones son vlidas para ngulos de incidencia pequeos (menores que 30). La utilizacin de los tres trminos (conocida como inversin simultnea), no solo genera una solucin para los tres

parmetros elsticos fundamentales (velocidades de compresin y corte y densidad, cualquier otro parmetro elstico se deriva con ellos) sino que es estable para ngulos de incidencia de hasta 50. La solucin en trminos de a, b y r permite, mediante operaciones algebraicas sencillas, generar otros volmenes de atributos elsticos como Factor de Fluido, parmetros de Lam (l, m), parmetro de Poisson (s), relacin a/b, etc. En detalle el algoritmo se implementa sobre cada traza en un arreglo de CDM, donde se escribe la ecuacin de Aki Richards en cualquiera de sus aproximaciones. Si hay N trazas entonces se construye un sistema sobre determinado de N x 3. (Las incognitas son las variaciones fraccionales de las velocidades y densidad). Este problema es el problema que se resuelve por cuadrados mnimos. El objetivo es, entonces, determinar los tres parmetros de modo que la diferencia entre las reflectividades medidas (valores de las trazas ssmicas, Xi) y las modeladas (valores resultantes de aplicar la ecuacin elegida, Ri) sea mnima, es decir:

Por ejemplo la solucin de dos trminos sobre la ecuacin (14) resulta:

Conclusiones Este estudio no pretende agotar el tema de anlisis AVO en las pocas referencias y mtodos analizados. Solo se busca dar un panorama de las grandes lneas del desarrollo de esta metodologa con una perspectiva histrica, y de este modo resultar til a quien desee una introduccin a esta tcnica. Es importante mantener siempre en mente que todas las implementaciones AVO se sustentan en un modelo fsico y una serie de simplificaciones que permiten resolver matemticamente el problema, todas estas simplificaciones se deben considerar como hiptesis, es decir que antes de aplicar algn procedimiento AVO se deben conocer y verificar las simplificaciones asumidas en el desarrollo de la implementacin. Bibliografa Aki, K., and Richards, P.G., 1980, Quantitative seismology: Theory and methods: W. H. Freeman and Co.

Allen, J.L. and Peddy, C.P., 1993. Amplitude Variation with Offset Gulf Coast Case Studies. Society of Exploration Geophysicists, Tulsa, OK., 120 pp. Bortfeld, R., 1961, Approximation to the reflection and transmission coefficients of plane longitudinal and transverse waves: Geophys. Prosp., 9, 485-503. Castagna, J.P. and Backus, M.M., 1993, AVO analysis-tutorial and review, in Offset-dependent reflectivity . Theory and practice of AVO analysis: Soc. Expl. Geophysics, 3-37. Castagna, J.P. and Swan, H.W., 1998, Principles of AVO crossplotting: The Leading Edge, 16, 337-342. Fatti, J., G.Smith, P.Vail, P.Strauss, and P.Levitt, 1994, Detection of gas in sandstone reservoirs using AVO analysis: a 3D seismic case history using the Geostack technique: Geophysics, 59, 13621376. Goodway, B., Chen, T., and Downton, J., 1998, Improved AVO fluid detection and lithology discrimination using Lam petrophysical parameters; , , & fluid stack, from P and S inversions: 67th Ann. Internat. Mtg., Soc. Expl. Geophys., Expanded Abstracts, 183-186. Gelfand, V., et al, 1986: "Seismic Lithologic Modeling of Amplitude-versus-offset Data", Proceedings of the 56th Annual Meeting of the SEG, Nov. 2-6, 1986, p. 334-336 Koefoed, O., 1955, On the effect of Poisson.s ratios of rock strata on the reflection coefficients of plane waves: Geophys. Prosp., 3, 381-387. Lines, L.R. and Treitel, S., 1984, Tutorial: A review of least-squares inversion and its application to geophysical problems: Geophys. Prosp., 32, 159-186. Ostrander, W.J., 1982, Plane-wave reflection coefficients for gas sands at non normal angles of incidence: Geophysics, 49, 1637-1648. Rutherford, Williams(1989); Amplitude-versus-offset variations in gas sands; Vol: 54, N:6 Shuey, R.T., 1985. A simplification of the Zoeppritz equations: Geophysics, 50, p. 609614. Smith, G.C. and Gidlow, P.M., 1987, Weighted stacking for rock property estimation and detection of gas: Geophys. Prosp., 35, 993-1014. Verm, R. and Hilterman, F., 1995, Lithology color-coded seismic sections: The calibration of AVO crossplotting to rock properties: The Leading Edge, 14, 847-853. Yilmaz, O., 2001, Seismic data analysis: Society of Exploration.

Zoeppritz, K., 1919, Erdbebenwellen VIIIB, On the reflection and propagation of seismic waves: Gttinger Nachrichten, I, 66-84.

http://davidcuria.blogspot.com/2010/04/avo-fundamentos-y-procesamiento.html

Anda mungkin juga menyukai