Anda di halaman 1dari 619

METODOLOGIA DE LA INVESTIGACION CIENTIFICA

EL PROYECTO Y EL INFORME DE TESIS


EL INFORME Y EL PROYECTO DE TESIS

UNPRG- UNT- UNPRG- UNT-


UNASAM UNASAM

TESIS
PROYECTO
DE TESIS

Autores

AUTORES:VÁSQUEZ GARCÍA
ANTERO
OPTACIANO VÁSQUEZ
ÁNTERO VÁSQUEZ GARCÍA
GARCÍA
NOEMÍ
NOEMÍDÍAZ
DÍAZVILLENA
VILLENA
OPTACIANO VÁSQUEZ GARCÍA

TRUJILO–PERU
TRUJILLO
2004
–PERU
2008
2

ÁNTERO VÁSQUEZ GARCÍA


BIOLOGO PESQUERO
*DOCTOR EN MEDIO AMBIENTE
*MAESTRO EN CIENCIAS MENCION: ADMINISTRACION Y EVALUACIÓN DE
RECURSOS PESQUEROS
PROFESOR PRINCIPALDE
CURSO: METODOLOGIA DE LA INVESTIGACION CIENTIFICA
FACULTAD DE CIENCIAS BIOLOGICAS
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO- LAMBAYEQUE
anterovasquez@gmail.com
044-9920934

NOEMI DIAZ VILLENA


ENFERMERA
MAESTRA EN ENFERMERIA
MENCIÓN SALUD DE LA MADRE Y EL NIÑO
CANDIDATA A DOCTORA EN ENFERMERÍA
PROFESORA PRINCIPAL DE
FACULTAD DE ENFERMERIA
UNIVERSIDAD NACIONAL DE TRUJILLO
noludivi@hotmail.com

OPTACIANO VÁSQUEZ GARCÍA


FISICO
MAESTRO CIENCIAS, MENCIÓN MATERIALES
PROFESOR ASOCIADO
CURSO: METODOLOGIA DE LA INVESTIGACION CIENTIFICA
FACULTAD DE CIENCIAS
UNIVERSIDAD NACIONAL SANTIAGO ANTUNEZ DE MAYOLO – HUARAZ
optacianovas@hotmail.com

© Derechos Resevados conforme a Ley


UPSA- UNPRG.
Lambayeque
3

LA TEORIA DEL CONOCIMIENTO

Tamayo (1998), señaló que conocer es una actividad por medio del cual el hombre adquiere
certeza de la realidad y que se manifiesta como un conjunto de representaciones sobre las
cuales tenemos la certeza de que son verdaderos. Todo conocimiento es una relación
obligada en la que intervienen dos elementos ligados entre sí: uno cognoscente (sujeto); y
otro conocido llamado objeto; esto implica una actividad intencional del sujeto que consiste
en aprehender el objeto, por lo que se afirma que el sujeto determina la relación con el
objeto y por lo tanto determina la actividad de conocer y puede entrar en relación con el
objeto en diversos niveles que van desde el conocimiento vulgar hasta el conocimiento
científico el filosófico y el teológico.

El proceso del conocimiento:

Todo parte de la realidad y luego se produce la aprehensión de ésta mediante los sentidos y
su reflejo en el plano metal del ser humano, lo que constituye el concepto; la expresión de
los rasgos fundamentales del concepto mediante el uso del lenguaje constituye la definición
como se ilustra en la figura 1. Así la realidad es el punto de partida de todo conocimiento
humano y la forma de universalisarlo es mediante las definiciones

Los vocablos conocimiento y saber, se utilizan indistintamente como sinónimos por la


persona no formada en la ciencia; sin embargo para quien si lo está; estos términos son
totalmente distintos en su concepción y utilidad. Conocer el proceso bioquímico de la
maduración de una manzana, en el que se suceden reacciones enzimáticas de naturaleza
diversa que al final la transforman en una deliciosa fruta; será muy distinto de saber en que
momento, esta fruta se encuentra ya madura; sin hurgar en la esencia misma de todo el
proceso de maduración. El que sabe algo acerca de una realidad sin haberla captado con
los sentidos, cultiva el saber; compatible con el conocimiento Acientífico, común cotidiano;
universal; vulgar; es decir sabe el como se realiza un fenómeno; pero el que tiene un
conocimiento científico; es capar de explicar como y porque se suceden los fenómenos; es
decir va mas allá de la simple observación y descubre la esencia del fenómeno creando
nuevo conocimiento científico y en base a este dominio puede predecir lo que podría ocurrir
con este objeto de estudio.

Tratamos de discriminar los tipos de conocimiento mas comunes: i) el cotidiano; vulgar,


acientífico; universal; espontáneo; aquel que consiste en un mero sentido común que el
sujeto no preparado tiene acerca de una realidad o un hecho, éste es acrítico y se queda al
nivel de las apariencias (implica un modelo gnoseológico); ii) el conocimiento empírico
(aquel que ha sido comprobado por la experiencia o la razón), implica un modelo compatible
con el empirismo y iii) el conocimiento científico, aquel que ha sido obtenido con el uso del
método científico; en estos dos últimos casos, si consideramos el conocimiento como
sistemas, nos referimos a los modelos empíricos y epistemológico (figura 2).

Se acepta que el conocimiento común es el punto de partida del conocimiento científico;


técnico y tecnológico; pero se puntualiza que para llegar a ello se debe utilizar los métodos
científicos y técnicos respectivamente.

La consideración del proceso del conocimiento como un todo, lo abarca y explica la rama de
la filosofía denominada Gnoseología; la Epistemología, en cambio, es la disciplina filosófica
que trata del estudio de la ciencia o del conocimiento científico en particular. Consideramos
pertinente discriminar los tres tipos de realidades u objetos de estudio: i) las realidades
eminentemente ideológicas que son objetos de estudio de la filosofía; las realidades
4

estéticas, objeto de estudio del arte y las realidades objetivas (concretas) u objetivables
que son el objeto de estudio de la ciencia.

Enfatizamos el hecho de que el problema central de la teoría del conocimiento es la relación


sujeto cognoscente y objeto cognoscible.

i) En el conocimiento cotidiano la relación sujeto – objeto, se produce básicamente


a través de los sentidos. El conocimiento sensorial; mundo de la apariencia; pero como junto
a los sentidos está siempre presente la actividad intelectual, también se produce un saber
que rebasa la apariencia y penetra en la esencia de las cosas.
ii) en la investigación científica, sobre una base sensorial, interviene la actividad
intelectual del sujeto de manera predominante; el conocimiento es racional penetra en la
esencia y rebasa la apariencia.

Según la perspectiva de la relación sujeto-objeto; se tienen las siguientes corrientes


en la investigación científica:

1. El Idealismo; si se pone el acento en el sujeto lo que orienta a la concepción de


un sujeto productor de conocimientos al margen del objeto.

2. El Empirismo; si se pone el acento en el Objeto; se está frente a una concepción


que se orienta a producir conocimientos, solo registrando mecánicamente los que se capta
directamente a través de los sentidos.

3. Si se pone el acento en la interacción sujeto objeto se está frente a una


concepción en la que la producción de conocimientos, no solo utiliza la vía de los sentidos,
sino preponderantemente la actividad intelectual. Esta es la ciencia, que impulsan Bunge;
Piaget y el Materialismo Dialéctico.

Egg en Castañeda (1995) mencionó que el conocimiento científico se asienta en los


siguientes supuestos:

 El conocimiento es posible ; este principio lo dan por sentado tanto el hombre


común como el científico
 Existe un mundo objetivo y la realidad tiene una contextura independiente del
conocimiento que el hombre pueda tener de ella.
 De esta realidad se puede afirmar algo de sus propiedades estructurales y
racionales que se captan por una serie de procedimientos y por la imaginación e
intuición del hombre.
 Esta realidad es la base y el punto de arranque del conocimiento, en
consecuencia el conocimiento científico queda acotado al terreno o ámbito de la
realidad.
 Como la realidad es devenir, la esencia del conocimiento científico ha de ser
descubrir los hechos y fenómenos en el devenir de la realidad.
 El conocimiento científico procura establecer una conexión universal de los
fenómenos.
 Para que el conocimiento tenga carácter científico, es necesario elaborar
instrumentos que garanticen la validez de los conocimientos adquiridos.
Esto nos orienta a la conclusión de que el conocimiento científico es un cuerpo
sistematizado de información (teoría) coherente que explica un sector bien delimitado o
definido de una realidad en estudio.
5

Principios de la teoría del conocimiento

i) El conocimiento es un reflejo dinámico de las leyes y propiedades de la realidad


objetiva. Según ello, la investigación científica, solo es posible si el sujeto se pone dé
acuerdo con el objeto.

ii) La práctica es la fuente del conocimiento; es decir, la investigación científica se


desarrolla si tiene como centro a la práctica de la investigación; es a partir de ella que la
actividad intelectual crea conocimientos.

iii) La teoría orienta a la práctica, en otros términos, la investigación científica no es


una práctica ciega; sino iluminada por la teoría de la ciencia dentro de la cual se inscriben
las investigaciones.

Los obstáculos del conocimiento:


Castañeda (1997) señaló que el conocimiento es un proceso interminable de
acercamiento sucesivos limitados por las condiciones históricas concretas del individuo que
conoce y de su sociedad; en el denominado obstáculo epistemólógico de Bachelard. Este
se presenta de dos maneras: i) como dificultad técnica, referida al nivel poco desarrollado de
los instrumentos de investigación; ii) como dificultad cultural tiene que ver con la ideología
de la época y lo ejemplificó con el conocimiento de la circulación sanguínea. Galeno el gran
médico griego del siglo III d. C., pensaba que la sangre iba y venía suavemente por las
arterias y pasaba a través de orificios invisibles en la pared que dividía el corazón en dos
mitades; la sangra iba primero en una dirección y luego en la contraria; esta teoría subsistió
durante mil cuatrocientos años; en el siglo XVII (año 1602 en adelante) William Harvey
rompió la teoría de Galeno, las especulaciones de los médicos de su época y concluyó que
la sangre que salía del corazón tenía que volver a él; la sangre tenía que circular por el
cuerpo. Estableció que la sangre podía salir del corazón por las arterias y entrar en él a
través de las venas; las válvulas impedían que el movimiento se invirtiera. Malphighi(1961)
examinó tejido vivo al microscopio y encontró diminutos vasos sanguíneos que conectaban
las arterias y venas en los pulmones de una rana. Los llamó capilares (como cabellos) por
sus pequeñísimas dimensiones y con ello completo la teoría de la circulación sanguínea.

Otro obstáculo es el denominado epistemofílico, expuesto por Pichón-Riviére


orientado a describir el problema que una persona tiene que franquear para poder acceder
al nuevo conocimiento, a los seres humanos nos cuesta renunciar a lo conocido para pasar
a lo desconocido, la resistencia al cambio se atribuye a que las estructuras cognoscitivas del
sujeto no están tan desarrolladas como para enfrentar ese nuevo objeto. Su manifestación
puede ser la conducta de ataque por un sentimiento de molestia o coraje, por tristeza o
aburrimiento. Este es el primer obstáculo que debe vencer el hombre de ciencia para luego
oponerse a las explicaciones existentes en ese momento histórico y trascenderlas en una
obra creativa que supere dicha visión, logrando así un conocimiento mas preciso que el que
la sociedad sostiene.
6

SUJETO OBJETO
COGNOSCENTE COGNOSCIBLE
REALIDAD
CONOCIMIENTO
PROCESO

CONCEPTO

LENGUAJE

MANZANA

DEFINICIÓN
Figura 1. Proceso del conocimiento
Figura 2 MODELO DEL CONOCIMIENTO COMO SISTEMAS

ENTRADAS PROCESOS PRODUCTOS

CONOCIMIENTO ESTADO
REALIDAD CONOCIMIENTO ACCION
1 LENGUAJE
REALIDAD:
FILOSOFICA CONOCIMIENTO
S VULGAR,
PROCESO DEL CONOCIMIENTO CONCEPTO DEFINICION
UNIVERSAL,
ESTETICAS GENERAL
EMPIRICAS:

2
PERCEPCION
REALIDADES:
EMPIRICAS:
OBJETIVAS U DESCRIPCION
CONOCIMIENTO
OBJETIVABLES INTERPRETACION APLICACION EMPIRICO

EXPERIMENTACION
3
ACCOPIO DE PROBLEMA
REALIDADES INFORMACION RESULTADOS
CONOCIMIENTO
EMPIRICAS, CONTRASTACION LEYES,
CARACTERIZACION OBJETIVOS CIENTIFICO
OBJETIVAS U PRINCIPIOS,
DE LA REALIDAD
OBJETIVABLES, PROBLEMATICA TEORIAS, NUEVOS
HIPOTESIS PROBLEMAS, ETC
PROBLEMATICAS

3 .MODELO
1. MODELO GNOSEOLOGICO 2. MODELO EMPIRICO
EPISTEMOLOGICO
8

Tabla 1. El EMPIRISMO Y EL RACIONALISMO EN EL


ORIGEN DEL CONOCIMIENTO

EMPIRISMO RACIONALISMO

Relación Sujeto objeto Acción predominante del Sujeto alejado del objeto
sujeto

Punto de partida El objeto concreto A partir de otras verdades,


axiomas; principios apriori

Obtención Por la experiencia Por el racionalismo o la


sensorial inferencia deductiva

Métodos y técnicas Utiliza el proceso de Razonamiento a priori


observación y necesario para el avance del
experimentación; Usa la conocimiento
intuición pero inmerso de
inteligencia

Abordaje del tema Toma de contacto con la Desarrollo e una explicación


realidad sistemática de los fenómenos(
teorías)

Base conceptual Confrontación con la Razonamiento lógico de la


realidad; generalización de estructura de una teoría
los hechos observados en
el mundo natural

Verificación Implica confrontación con Mediante el juego de


la realidad proposiciones

Estrategia Primero investigación Primero teoría; luego


luego teoría investigación

Origen Todo conocimiento viene Todo conocimiento viene de


de la experiencia los principios a priori; los
sentidos nos suministran una
visión confusa y provisional de
la verdad
Acción de los sentidos Otorgan visión confiable y Nos dan una visión confusa y
cierta de la realidad provisional
9

Procedencia Procede casi siempre de Procede de las ciencias


las ciencias naturales matemáticas

Representantes Bacon John Locke; David Platón, descartes


Hume; Candy LLac

Investigadores recientes Watson; Skinner Einstein

Características del conocimiento científico:


A diferencia del conocimiento espontáneo; el conocimiento científico exige mayor rigor,
trata de e encontrar las regularidades en los acontecimientos, para explicarlos,
conocerlos y predecirlos y las características se pueden resumir en los términos
siguientes

1. Es objetivo: parte de hechos que se observan y se pueden describir tal como son,
independientemente del valor que posean; la ciencia no poetiza hechos; se ocupa de
realidades objetivas u objetivables

2. Trasciende los hechos; porque los selecciona, los analiza mas profundamente afín
de explicarlos con mas criterio; descarta aquellos que no son congruentes para luego
crear y explicar los nuevos; racionaliza la experiencia en vez de limitarla y buscan el
porque, además del como propio del conocimiento cotidiano.

3. Es analítico; porque analiza un problema en forma total y en forma adecuada cada


uno de sus componentes; La ciencia no trata de entender toda la situación total e
intenta descubrir los elementos que componen la realidad; escrutando el mecanismo
responsable de los fenómenos observados.

4. Es especializado; consecuencia del análisis del problema planteado dependiendo


siempre del tema que trata y en muchos casos con técnicas adecuadas.

5. Es claro y preciso; sus problemas son distintos; sus resultados son claros; se las
ingenia para mejorar la exactitud, nunca está libre de error; pero posee una técnica
para encontrar errores y corregirlos. Se preocupa por definiciones con la mayor
precisión posible y sin enmarañar al que trata de estudiarlo.

6. Es comunicable; porque puede expresarse y compartirse con cualquier persona


siempre y cuando ésta se encuentre debidamente preparada para entenderlo;
dependiendo de la precisión con la que se explique. No es privado; si no público.

7. Es verificable; debe aprobar el examen de la experiencia pues debe tener los


medios necesarios para demostrar su autenticidad; para así explicar lo que está
tratando de plantear a los demás; sin recurrir a suposiciones.

8. Es metódico; no es errático sino planeado; pues no especula con relación a lo que


busca; si no que se encuentra preparado para obtenerlo que desee por medio del
método científico
10

9. Es sistemático; porque todas las ideas que plantea tienen siempre una conexión de
carácter lógico; formando así un sistema de ideas interconectados entre sí.

10. Es general porque trata de ubicar hechos singulares en pautas generales; los
enunciados particulares en esquemas generales sin dejar de lado su fin principal que
son los asuntos particulares; utilizando términos adecuados.

11. Es legal; busca leyes (de la naturaleza y e la cultura) y las aplica en su planteo
trata de buscar leyes aplicables mayormente de manera transitoria y otras
generalizadas.

12. Es explicativo; porque intenta encontrar la esencia de los hechos comparándolos


con principios; leyes; teorías; etc. que ya han sido establecidas anteriormente.

13. Es predictivo porque basándose en lo explicado con relación a un objeto de


estudio puede predecir como sucederá este en el futuro. Es la manera más eficaz de
poner a prueba las hipótesis.

14. Es abierto; porque no conoce barreras que limiten su espacio de estudio; si no que
trata de obtener la mayor información posible.

15. Es útil; porque buscando siempre la verdad de las cosas, ofrece un mejor avance
tecnológico; siempre procurando obtener beneficios para el bienestar del ser humano.

Elementos del conocimiento científico


El punto de partida es la realidad que con el uso del método científico se plantean las
hipótesis; las mismas que al ser comprobadas se transforman en leyes científicas; la
sistematización de estas en elementos del mas alto nivel del conocimiento científico los
convierte en la teoría científica

TEORIAS CIENTIFICAS

LEYES

HIPÓTESIS

REALIDADES
OBJETIVAS (HECHOS)
OBJETIVABLES
(Sánchez y Reyes, 1987)
11

CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA


Práctica 1: TEORIA DEL CONOCIMIENTO

1. El dominio de la teoría del conocimiento en general se denomina:


a. Filosofía b. Epistemología c. Gnoseología d. Ontología

2. La disciplina filosófica que realiza la investigación crítica de la teoría de la Ciencia, la


estructura del conocimiento científico, su fundamento y alcance es la
a. Filosofía b. Epistemología c. Gnoseología d. Ontología

3. El proceso mental, actividad humana orientada a reflejar la realidad en la conciencia del


hombre, corresponde a la definición de:
a. Conocimiento b. Realidad c. Memoria d. Ciencia

4. En la acción de conocer en términos generales es característica importante:


a. La previsión b. La inteligencia c. La intencionalidad d. La personalidad

5. Si en Biología Celular a través del microscopio estudiamos la célula de la mucosa labial y


posteriormente expresamos aspectos de su forma, tamaño, volumen, posición del núcleo y
otras características o atributos; es incorrecta una de las siguientes proposiciones:
a. La célula de la mucosa labial es la realidad.
b. La formación en el plano mental de las características de la célula en mención es la
definición.
c. La expresión de los características de la célula mediante el lenguaje constituye la
definición
d. La formación en el plano mental de las características de la célula en mención es el
concepto.

6. La realidad que puede ser empíricamente demostrable o en otros términos verificable por
medio de la experiencia y la razón es objeto de estudio de:
a. El Arte b, La Filosofía c. La Ciencia d. La Psicología

7. El elemento del conocimiento científico que es considerado como el punto de partida es:
a. La Teoríab. La hipótesis c. La ley científica d. La realidad

8. El conocimiento que tiene el Biólogo sobre la acción del Virus del SIDA sobre el sistema
inmunológico humano es un conocimiento científico; mientras que el mero sentido común
que tiene cualquier persona no formada en esta ciencia es un conocimiento
a. Empírico b. Vulgar c. Filosófico d. Etnico

9. Los elementos del Proceso del conocimiento integral se pueden esquematizar de la manera
siguiente, relacionándolo con flechas:
12

CONOCIMIENTO CIENTÍFICO ENFERMERO


Taller 1

Instrucciones: Complemente el cuadro según las indicaciones del docente.


CONOCIMIENTO AUTORA (OR) CONOCIMIENTO
CIENTÍFICO ENFERMERO COMÚN
1. Las personas que tienen Nola Pender (1996) en
una alta valoración de la Marriner-Tomey y Alligood
salud es más probable que (1999).
intenten promover la
propia.
2. Las respuestas
asistenciales aceptan a la Jean Watson en Marriner-
persona no sólo en su Tomey y Alligood (1999).
estado actual sino también
sus perspectivas de
evolución futura.
Diagnósticos enfermeros
3. Hipotermia: estado en que de la NANDA
la temperatura corporal de
la persona está disminuida
por debajo de los límites
normales.
4. Estreñimiento: Reducción Diagnósticos enfermeros
de la frecuencia normal de de la NANDA
evacuación de una
persona acompañada de
eliminación dificultosa o
incompleta de las heces,
estas son excesivamente
duras y secas, o ambas
cosas.
5. Fatiga: Sensación Diagnósticos enfermeros
sostenida y abrumadora de la NANDA
de agotamiento y
disminución de la
capacidad para el trabajo
mental y físico al nivel
habitual.
6. El nivel de adaptación de Sor Callista Roy en
la persona presenta una Marriner-Tomey y Alligood
zona que indica el nivel de (1999).
estimulación que conducirá
13

a una respuesta positiva.

CONOCIMIENTO CIENTÍFICO BIOLOGICO


Taller 1A
Instrucciones: Complemente el cuadro según las indicaciones del docente.

CONOCIMIENTO CIENTÍFICO AUTORA (OR) CONOCIMIENTO


BIOLOGICO COMÚN
1. La caseína, presente en un 80 % (Felhaber y Janetschke;
constituye la fracción principal de la 1995 p: 588-589)
proteína pura de la leche

2. La mantequilla es un producto de grasa (Felhaber y Janetschke;


láctea pura obtenido mediante una 1995 p: 618)
inversión de fases que pasa de ser de
grasa en agua a emulsión de agua en
grasa

3. La proteína del pescado ocupa en lo (Tscheuschner; 2001. p:


referente a valor nutritivo el segundo lugar 60)
8 después de la leche de mujer y por
delante incluso de la leche de vaca y de la
carne de animales de sangre caliente

4. El agua, debido a sus propiedades


físicas y químicas, es la base de todos los (Tscheuschner; 2001 p:
procesos que acontecen en el ser vivo. 74)
Todos los alimentos contienen agua,
también el agua potable es un alimento
en si misma

5. El valor F0, es el valor letal integrado (Jay ,2002. p: 327)


del calor recibido por todos los puntos del
contenido de un envase durante el
tratamiento; representa una medida de la
capacidad de un determinado tratamiento
térmico para reducir el número de
esporas o de células vegetativas de un
determinado microorganismo por envase
6. Desde el punto de vista de la calidad (Jay 2002. p: 305- 306).
general la congelación rápida tiene más
ventajas que la congelación lenta
7. El agua destinada a la producción de (Tscheuschner; 2001. p:
alimentos debe ser potable y cumplir con 76).
los dispositivos legales al respecto. En
100 ml de agua para beber no deben
existir Escherichia coli, gérmenes
14

coliformes, estreptococos fecales. El


número total de gérmenes se limita a
100 / ml y a 20/ ml si se trata de agua
desinfectada.

CONOCIMIENTO CIENTÍFICO BIOLÓGICO


Taller 1B
Instrucciones: Complemente el cuadro según su iniciativa y conocimientos

CONOCIMIENTO AUTORA (OR) CONOCIMIENTO COMÚN


CIENTÍFICO
15

TALLER No. 1. CONOCIMIENTO CIENTÍFICO ALIMENTARIO

Dado la lista de conocimientos científicos, seleccione uno que tenga relación con su
proyecto de investigación; explíquelo y justifíquelo considerando cinco características
del conocimiento científico, expuestas en clase.

1. Casi todas las materias primas destinadas a la producción de alimentos proceden de la


naturaleza viva; suelen ser plantas y animales explotados por el hombre que, en merced a
procesos de selección y cría, cuentan con características especiales y con una elevada
proporción de partes adecuadas para la nutrición humana (Tscheuschner; 2001. p: 9).

2. Los cereales son las plantas superiores mas importantes para la alimentación humana;
poseen una alta concentración de nutrientes, son fácilmente transportables y, en virtud de su
bajo contenido de humedad (12- 15%), toleran almacenamientos prolongados.

3. Como materias prima los cereales pueden almacenarse durante varios años, siempre que su
contenido de humedad no exceda el 13%, la temperatura ambiente no alcance los 14ºC y la
humedad relativa ambiental sea inferior al 60%.

4. Se consigue prolongar el tiempo de almacenamiento de la fruta sobretodo frenando la


respiración e inhibiendo la actividad microbiana (Tscheuschner; 2001. p: 39).

5. La caseína, presente en un 80 % constituye la fracción principal de la proteína pura de la


leche (Felhaber y Janetschke; 1995 p: 588-589)

6 La mantequilla es un producto de grasa láctea pura obtenido mediante una inversión de fases
que pasa de ser de grasa en agua a emulsión de agua en grasa (Felhaber y Janetschke; 1995
p: 618)

7. Conservas completas son productos capaces de almacenarse con seguridad sanitaria


durante largo tiempo sin problemas y sin condiciones especiales de temperatura ambiental.
Requisito previo es la exclusión de Clostridium botulinum que se consigue con valores F 0 de 4,0
y 5,5 (Felhaber y Janetschke; 1995 p: 638).

8. Como aditivos a los alimentos sólo sirven conservantes estandarizados y de comprobada


pureza. (Felhaber y Janetschke; 1995 p: 176)

9. La función protectora del envasado de alimentos se dirige sobretodo contra agentes externos
como suciedad, microorganismos, mohos, parásitos, sustancias tóxicas, modificadores del
aroma y sabor, capacidad de humedad y contra la desecación. Ello protege al alimento de
influencias que rebajen su calidad, de descomposiciones prematuras y mermas de peso entre
su producción y el consumidor, durante su transporte, depósito y salida al mercado (Felhaber y
Janetschke; 1995 p: 177)

10. La densidad de la leche ordeñada y medida a unos 20ºC suele estar comprendida entre
1,026 y 1,033 g/cm3 (Tscheuschner; 2001. p: 54).
16

11. Histológica y funcionalmente se distingue entre tejido muscular liso y estriado (cardiaco y
esquelético) en la carne propiamente dicha solo tiene sentido hablar de tejido muscular
esquelético debido a que está compuesto principalmente por fibras musculares (Tscheuschner;
2001. p: 56).
12. En la carne en el momento más intenso de la rigidez cadavérica, el valor del pH desciende
a su punto mas bajo, entre 5,3 y 5,5 y con el también la capacidad de retención de agua
(Tscheuschner; 2001. p: 58).

13. La proteína del pescado ocupa en lo referente a valor nutritivo el segundo lugar 8 después
de la leche de mujer y por delante incluso de la leche de vaca y de la carne de animales de
sangre caliente (Tscheuschner; 2001. p: 60)

14. El agua, debido a sus propiedades físicas y químicas, es la base de todos los procesos que
acontecen en el ser vivo. Todos los alimentos contienen agua, también el agua potable es un
alimento en si misma (Tscheuschner; 2001 p: 74)

15. El agua destinada a la producción de alimentos debe ser potable y cumplir con los
dispositivos legales al respecto. En 100 ml de agua para beber no deben existir Escherichia
coli, gérmenes coliformes, estreptococos fecales. El número total de gérmenes se limita a 100 /
ml y a 20/ ml si se trata de agua desinfectada (Tscheuschner; 2001. p: 76).

16. El agua utilizada en la producción de bebidas de jugo de frutas debe estar libre de sales que
producen la dureza carbonatada porque atenúan la acidez y neutralizan el ácido cítrico
(Tscheuschner; 2001. p: 77).

17. El aseguramiento de la calidad incluye todas las actividades que permiten garantizar de
forma planificada un determinado nivel de calidad de los productos alimenticios (Tscheuschner;
2001. p: 195).

18. La dispersión de un gas (normalmente aire) en un alimento o en un producto semifacturado


de consistencia líquida, cremosa o pastosa sirve para obtener una estructura espumosa más o
menos suelta, mayormente de poros finos y con una membrana delgada que proporciona al
alimento una textura ligera. El gas a dispersar es introducido en función de la consistencia de la
fase líquida, viscosa o viscoplástica, mediante inyección, batido, agitación, amasado o
extensión y roto por medio de las fuerzas de cizallamiento en forma de pequeñas burbujas
gaseosas (Tscheuschner; 2001. p: 270).

18. La extrusión- HTKZ y el inflado de cereales permite obtener cuerpos sólidos dispersos de
poros finos, basados en un rápido calentamiento de los cereales con un contenido en humedad
del 15 al 18% a temperaturas a 100 ºC. La presión de vapor que surge en el sistema físico,
provoca una plastificación de la estructura compacta y finalmente una expansión repentina,
escapando el vapor por los poros formados (Tscheuschner; 2001. p: 275).

19.Cocción térmica son cambios con una base mas o menos química; físico-química y
mecánico-estructural en los componentes de los alimentos provocados intencionalmente por
efectos del calor, los cambios modifican de forma característica el aroma, el sabor, el color, la
textura, dependiendo todo ello de la ejecución del proceso y del alimento en cuestión
(Tscheuschner; 2001. p: 275).

20. Desde el punto de vista de la calidad general la congelación rápida tiene mas ventajas que
la congelación lenta (Jay 2002. p: 305- 306).
17

21. La exposición de endosporas bacterianas a tratamientos con ultrasonidos inmediatamente


antes o durante el calentamiento se traduce en una disminución de la termorresistencia de las
esporas (Jay 2002. p: 305- 306).

22. En la conservación por radiación de los alimentos las proteínas y otros compuestos
nitrogenados son más sensibles a la irradiación;
23. La radiólisis del agua en los alimentos deriva en la formación de iones H +; OH-; H202 y H2.

24. El valor F0, es el valor letal integrado del calor recibido por todos los puntos del contenido de
un envase durante el tratamiento; representa una medida de la capacidad de un determinado
tratamiento térmico para reducir el número de esporas o de células vegetativas de un
determinado microorganismo por envase (Jay ,2002. p: 327)

24ª. El termino probiótico alude al consumo de productos alimenticios que contienen organismos
vivos que se cree son beneficiosos para el consumidor. (Jay 2002. p: 118).

25. En la sublimación del alimento el agua contenida en estado congelado pasa de la fase
sólida a la fase gaseosa. El proceso de realiza a presiones menores de 1Pa ( 10-2 mbar)
(Tscheuschner; 2001. p: 237).

26. El sistema lacto peroxidasa (SLP); la lisozima y la lactoferrina son sustancias


antimicrobianas presentes naturalmente o formadas en el alimento
18

LA TEORIA DE LA CIENCIA

Etimología
La palabra ciencia deriva del vocablo latino Scientia que significa conocimiento, saber,
erudición, doctrina.

Definiciones
Bunge (1983) la define como un estilo de pensamiento y acción, el más reciente, el
más universal y el más provechoso de todos los estilos y explica que es un trabajo
(Investigación), que genera un producto (Conocimiento Científico).

Falcón et al (1978), definen ciencia como el estudio de las realidades empíricamente


demostrables (demostrables por la experiencia y la razón); es decir la creación de
nuevo conocimiento a partir de realidades objetivas u objetivables por la experiencia.

Ramos (1990) expresa que la ciencia es el conocimiento cierto de las cosas por sus
principios y causas.

Kopnin (1966) al expresar el punto de vista dialéctico opina que la ciencia es la síntesis
suprema del saber humano y que el método de la ciencia es el motor que mueve todo
lo relacionado a lo científico.

Barragán en Tamayo (1996), define ciencia como un cuerpo de conocimientos


organizados objetivos, ampliados de lo real en el que se indican las pautas
generales de los fenómenos naturales y sociales.

Desde un punto de vista pragmático se define ciencia como el ordenamiento


sistemático de los conocimientos científicamente comprobados.

Objetivos
1. Objetivo cognitivo o intrínseco: orientado a incrementar el conocimiento científico.
2. Objetivo utilitario o extrínseco: orientado a incrementar el bienestar y poder del ser
humano y el perfeccionamiento continuo de las principales leyes y teorías.

Características
1 Es el modelo más verdadero que cualquier otro no científico en el mundo.
2. Es capaz de probar su pretensión de verdad sometiéndola a comprobación
experimental o racional.
3. Es capaz de descubrir sus propias deficiencias.
4. Es capaz de corregir sus propias deficiencias, es decir de construir
representaciones parciales de las estructuras del mundo que sean cada vez mas
adecuadas.
19

Significado
Por una parte, la ciencia tiene un significado funcional, es un proceso que puede
considerarse como acción, que permite obtener un producto que es el conocimiento
científico, por lo que se puede definir que en su aspecto funcional se concibe como
ciencia acción que es sinónimo de Investigación Científica. En su significado
estructural, ciencia es la acumulación de definiciones en forma de premisas, principios,
leyes, teorías, es un sistema de conceptos, contenido de modelos conceptuales acerca
de las formas del mundo exterior y de la actividad espiritual del individuo. Entonces
podemos inferir que, ciencia acción es sinónimo de Investigación científica y ciencia
estructura es el contenido específico de cada una de las ciencias.

Presupuestos axiomáticos
1 La realidad existe, es objetiva, porque se puede predecir con certeza y
validez, es concreta porque sintetiza múltiples determinaciones y sus manifestaciones
ideales tienen un sustento material, pues el pensar es una función del ser humano.
2 El movimiento sea en forma de cambio, desarrollo, progreso, es propiedad
de todo objeto factual o ideal de la realidad.
3 Los fenómenos de la realidad están relacionados entre sí; constituyendo en
su diversidad la unidad de lo real.

Criterios ordenadores
Se consideran cuatro criterios ordenadores básicos para sistematizar las ciencias, los
que se resumen en la tabla 1

Tabla 1. Criterios ordenadores básicos para sistematizar las ciencias

CIE FORMALES FACTUALES


NCIAS

Criterios ordenadores
1. Naturaleza del
objeto Objetos formales, Objetos factuales, hechos
en estudio ideas

2. Método de Por demostración o Por verificación o


comprobación de sus deducción Experimentación.
proposiciones.

Correspondencia objetiva
3. Criterio de verdad Coherencia lógica

4. Carácter de los Lógicamente Lógicamente necesarios


enunciados necesarios y verificables

Clases de ciencia
a. En función de los objetivos
1. Ciencia pura, aquella que incrementa el conocimiento científico, tiene
objetivos netamente cognitivos, por ejemplo: Biología.
20

2. Ciencia aplicada, utilización de los conocimientos a fines prácticos, por


ejemplo Patología, o a técnicas o tecnologías (Medicina).

b. En función del objeto

1. CIENCIAS FORMALES
- Estudian la forma de las ideas.
- Se refieren a formas analíticas.
- Las realidades se estudian por análisis racional.

LOGICA: estudia los principios formales del conocimiento humano y la forma de


las leyes.

MATEMATICA: ciencia que trata de la cantidad ya sea en abstracto o en


relación a objetos o a fenómenos determinados.

2. CIENCIAS FACTUALES O FACTICAS


- Estudian hechos.
- Contrastan las realidades.
- Son verificables.
- Son autosuficientes.

a. CIENCIAS FACTUALES NATURALES

Aquellas que sistematizan los hechos o fenómenos del ambiente físico por lo
tanto no depende de la persona humana:

BIOLOGIA: Ciencia que estudia los organismos vivos y las relaciones existentes
entre ellos.

FISICA: Ciencia que estudia los cuerpos y sus leyes mientras no cambien la
composición.

QUIMICA: Ciencia que estudia la transformación conjunta de la materia y la


energía.

PSICOLOGIA INDIVIDUAL: Estudia el alma, sus facultades y operaciones, es


decir la manera de pensar, sentir y reaccionar de una persona.

b. CIENCIAS FACTUALES CULTURALES

Derivadas de la creación de la persona humana sobre la base de su interacción


social.
PSICOLOGIA SOCIAL: estudia los caracteres morales y espirituales de un
pueblo o nación.
ECONOMIA: estudia la recta administración de los recursos naturales o bienes
de una familia, un pueblo o una nación.
21

SOCIOLOGIA: estudia las condiciones de existencia y desenvolvimiento de las


sociedades humanas.
CIENCIAS POLITICAS: opinión de los gobiernos de los estados, actividad de
los que rigen o aspiran a regir los asuntos públicos.
HISTORIA MATERIAL: se ocupa de la narración verdadera de los hechos
pasados.
EDUCOLOGIA: estudia el proceso enseñanza aprendizaje.
En los últimos años los científicos M.B. Kedrow y A. Spirkin en Torres (1994)
clasificaron las ciencias basados en determinados principios, conexiones,
distribuciones y otros aspectos más, tal como se ilustra en la figura 1. Según estos
autores las ciencias se clasifican en: naturales, sociales y filosóficas. Cada una de ellas
comprende a otras que tienen una compleja relación. Las líneas más gruesas indican
conexiones de primer grado y las más delgadas o puntos suspensivos indican
conexiones de segundo grado. Las primeras explican la aparición histórica de las
ciencias, la interdependencia entre las leyes más generales (dialéctica) y las
particulares. Las segundas dan a conocer que las ciencias técnicas se encuentran
relacionadas con las ciencias naturales y sociales; mientras que las matemáticas, se
hallan entre las ciencias naturales (principalmente la física) y las filosóficas (en especial
la lógica).

M.B. Kedrow y A. Spirkin, toman la naturaleza, la sociedad y el pensamiento como


fuentes de clasificación general de las ciencias y a partir de ellas se establece la
terminología más adecuada para su tipificación. El objeto de estudio de la ciencia es la
base para determinar sus diferencias y conexiones, en él se fundamenta los principios
gnoseológicos, metodológicos, lógicos y dialécticos. Todas las ciencias constituyen
sistemas teóricos y contienen los elementos de una misma estructura, las diferencias
existentes entre ellas están determinadas por la naturaleza del objeto de estudio, lo
que también determina las interconexiones. Así en la figura 2, se puede apreciar que
las ciencias han experimentado profundos cambios y son pilares del desarrollo
tecnológico; ha surgido la física subatómica que transformó la relación entre la física y
la mecánica, la física y la química y han vinculado en mayor o menor grado las ciencias
naturales con las matemáticas y las técnicas. Así mismo se aprecia muchas ciencias
intermedias y de transición, debido a que ellas por su naturaleza y relaciones forman
un sistema de conocimientos entrelazados e interconectados mutuamente.

Figura 1. Clasificación de las ciencias según Kedrow y Spirkin


22
23

Figura 2. Clasificación de las ciencias naturales y técnicas según Kedrow y Spirkin

La ciencia como un sistema conceptual y social

Antes de hablar de la ciencia como un sistema conceptual y social o concreto, tenemos


que definir los términos: sistema; es un conjunto de objetos cualesquiera, cada uno de
los cuales está relacionado con los demás componentes del sistema, sea directamente
o ya sea por intermedio de otros elementos del sistema; sistema conceptual de la
ciencia; un sistema conceptual está constituido por conceptos, proposiciones o teorías
donde sus relaciones son de naturaleza lógica. El paradigma del sistema conceptual es
el sistema hipotético – deductivo; es decir, un sistema conceptual está conformado en
general por objetos conceptuales; por ejemplo una teoría es un sistema conceptual.

La ciencia de un período dado se puede concebir, ya como un sistema conceptual; se


la concibe como un sistema compuesto por investigadores y sus equipos de
investigación, (instrumentos, libros, etc.). La ciencia debe concebirse, pues, como un
sistema conceptual compuesto de subsistemas, que son las ciencias especiales y las
interdisciplinarias tales como la biofísica y la psicobiología. La interdependencia de las
ciencias particulares se refleja en su evolución, cada una evoluciona con las demás; la
ciencia se parece entonces a la biosfera, ambos son sistemas extremadamente
complejos. El estado y evolución de casi cada uno de sus componentes dependen del
estado y la evolución de los demás, entonces podrá adivinar la consecuencia de la
sistematicidad de la ciencia para toda política de desarrollo científico.

Un sistema social de la Ciencia; un sistema social o concreto está constituido por


componentes materiales o concretos (atómicos, campos, organismos, personas) y
cada uno de dichos componentes actúan sobre los demás, sea directamente o por
intermedio de otros. La ciencia puede concebirse como un sistema social y por lo tanto
concreto; más precisamente, todo centro de investigaciones científicas es un sistema
24

social y, en particular, un subsistema de la cultura de la comunidad. Semejante unidad


está compuesta por investigadores y administradores, técnicos de laboratorio, y
bibliotecarios, empleados y personal de maestranza, así como de las investigaciones
está en relación más o menos estrecha con otros centros, sea de la misma comunidad
o del exterior.

Se establecen los siguientes postulados:

Postulado 1: todo gremio científico es, en escala internacional, un sistema,


concreto (social) compuesto de los investigadores y sus auxiliares.

Postulado 2: todo sistema científico es un subsistema del sistema científico


internacional.

Postulado 3: toda ciencia, considerada como un conjunto de ideas (conceptos,


proposiciones, teorías, reglas metódicas, etc.), es un sistema conceptual y cada
sistema conceptual científico es un subsistema del supersistema conceptual que es el
conjunto de todas las ciencias.

EL DESARROLLO CIENTIFICO

El desarrollo de una ciencia particular consiste en el aumento del volumen y de la


calidad de la producción científica de la comunidad que cultiva dicha ciencia.

Desarrollo = Progreso y Aumento de la Producción

No es posible impulsar el desarrollo nacional de una ciencia sin insertarla en el


sistema científico internacional. Los científicos de una nación bloqueada o aislada
voluntariamente podrán seguir trabajando durante un tiempo pero terminarán por
quedarse atrás y por producir resultados de importancia decreciente.

Teoremas: Estas conclusiones tienen consecuencias tan obvias como importantes


para el desarrollo científico y de las comunicaciones científicas. Tenemos los siguientes
teoremas1:
1. El investigador rinde tanto más cuanto mejor dispuesto esté a aprender
de especialidades y aún ciencias vecinas.
Dicho negativamente: la especialización excesiva, al cortar los vínculos de una
componente del sistema científico con los demás, bloquea el flujo de información y
corta las alas de la imaginación científica.

2. El investigador rinde tanto más, cuanto mejor se integre en sus


comunidades científicas (local, nacional, regional e internacional). Dicho
negativamente: el investigador aislado no puede estar al día, ni recibir o dar estímulo
de, a consecuencia de lo cual su producción baja de calidad o se acaba.

1
BUNGE, Mario. “Ciencia y Desarrollo”. Buenos Aires, Argentina. Ed. Talleres “El
Gráfico/Impresiones”, 1ª edición, 1989, pág. 50 – 53.
25

3. El desarrollo de toda ciencia exige el desarrollo de las ciencias


contiguas: es multidisciplinario; expresado de otro modo, el descuido de una ciencia
frena el desarrollo de los demás.

4. El desarrollo de toda ciencia requiere la colaboración internacional


directa (por intercambio de información) o sea, el desarrollo científico es
multinacional y transnacional. dicho negativamente: el nacionalismo científico (y, en
general, el nacionalismo cultural) conduce al estancamiento.

5. El desarrollo de la comunidad científica de una nación depende tanto del


fortalecimiento de los centros científicos locales como de su integración en un
sistema nacional y de la cooperación de éste con otras comunidades científicas
(nacionales, regionales e internacionales). Dicho negativamente: la ausencia
nacional como a nivel internacional bloquea el avance científico.

6. La libertad de flujo de información científica y de movimiento de


investigadores es indispensable para el desarrollo de toda comunidad científica,
sea local, nacional, regional o internacional, en otros términos: la censura y las
restricciones a la libertad de viajar (sea por motivos políticos o económicos); al debilitar
los vínculos que mantiene unidos a los sistemas científicos (a diversos niveles), los
desintegra y con esto los esteriliza.

La política científica que tiene en cuenta lo anterior puede llamarse sistémica y


se caracteriza por las notas siguientes:

(a) Favorece la información o el fortalecimientos de sistemas científicos


a los niveles local, nacional y regional, o sea, de comunidades científicas bien
integradas y dotadas de una “masa crítica”, de modo que brindemos un sólido apoyo, a
los investigadores individuales;

(b) Es integral, o sea, abarca a todas las ciencias (matemáticas, naturales


y sociales, básicas y aplicadas) y tiene en cuenta al resto de la cultura;
(c) Es realista; cuenta con los recursos humanos y materiales del país, no
importa sino la indispensable en material de personal e instrumental; no promete
resolver todos los problemas del país sino tan sólo aquellos que dependen
primordialmente del conocimiento científico; aborda temas accesibles.

(d) Es moderna; estimula en primer lugar la investigación en áreas nuevas


descuidadas, en las que aún es posible llegar rápidamente al frente; descorazona la
línea de investigación obsoletas;

(e) Es participativa; invita a la investigación de investigadores en lugar de


imponerles políticas y planes;

(f) Es moderada; propone planes globales (no del detalle) y flexibles


(susceptibles de ser modificados si no dan resultado), que no coarten la libertad de
creación;
26

(g) Es ágil; crea administraciones livianas y ágiles que no entorpezcan el


trabajo específico de los investigadores.

PRINCIPIOS BÁSICOS DE LA ONTOLOGÍA DE LA CIENCIA

Sugiriendo que los principios de la ontología de la ciencia, o supuestos ontológicos que


motivan, justifican o guían la investigación científica, son los que se enuncian a
continuación:2

1. Existe un mundo exterior al sujeto que conoce y es en gran medida


independiente de éste. Si no existiese no sería tema de investigación; más bien,
recurriríamos a la introspección o haríamos matemática pura en lugar de intentar
descubrir lo desconocido más allá del yo.

2. El mundo está compuesto de cosas concretas; por consiguiente las


ciencias de la realidad (natural o social) estudian cosas, sus propiedades y sus
cambios. Si hubiera objetos reales que no fuesen cosas concretas sería imposible
actuar sobre ellos con ayuda de otras cosas.

3. Las formas son propiedades de las cosas; no hay formas (ideas) platónicas
en sí mismas, que planeen por encima de las cosas concretas. Toda propiedad es
propiedad de alguna cosa. Por esto es que estudiamos y modificamos las propiedades
examinando cosas, y en lo posible, obligándolas a cambiar.

4. Las cosas se agrupan en sistemas o agregados de componentes que


actúan entre sí. No hay cosa que no sea componente de por lo menos un sistema
(excepto el universo que es el sistema máximo). No hay cosas independientes: las
fronteras que trazamos entre las cosas son a menudo imaginarios. Lo que existe
realmente son sistemas físicos, químicos, biológicos y sociales.
5. Todo sistema, excepto el universo interactúa con otros sistemas en
algunos respectos y está aislado de otros sistemas en otros respectos. Una cosa
totalmente aislada sería incognoscible. Y si no hubiera aislamiento relativo nos
veríamos forzados a conocer el todo antes de conocer cualquiera de sus partes.

6. Toda cosa cambia. Todo, incluso las llamadas partículas fundamentales,


cambia o termina por cambiar en algún respecto en el curso de sus interacciones con
otras cosas.

7. Nada proviene de la nada y ninguna cosa se reduce a la nada. Si así no


fuera no haríamos el menor esfuerzo por descubrir el origen de cosas nuevas ni las
huellas dejadas por las que han sido destruidas (transformadas).

8. Toda cosa satisface leyes. Las leyes, sean naturales o sociales, son
relacione sin variantes entre propiedades, y son tan objetivas como éstas. Más aún,
toda ley es una propiedad. Sino hubiera leyes jamás podríamos descubrirlas ni

2
BUNGE, Mario. “Ciencia y Desarrollo”. Buenos Aires, Argentina. Ed. Talleres “El
Gráfico/Impresiones”, 1ª edición, 1989. pág. 117 – 119.
27

utilizarlas para explicar, predecir y actuar. En particular, el método experimental no


sería factible porque consiste en la modificación deliberada y controlada de una
componente o propiedad de algún sistema para averiguar que efecto pueda tener
sobre otras características del sistema. Nuestro esfuerzo para averiguar hechos de
este tipo presupone que hay relaciones legales entre los elementos considerados.

9. Hay diversas clases de ley. Hay leyes causales (o, mejor predominantemente
causales) y leyes estocásticas, así como leyes que exhiben estos dos modos de
devenir y acaso otros más. Hay leyes de un solo nivel (p.ej. leyes biológicas) y leyes
que abarcan a más de un nivel (p.ej. psicosociales).

10. Hay diversos niveles de organización: físico, químico, biológico,


social, etc. Los llamados niveles superiores sumergen de otros niveles en el curso de
procesos; pero, una vez formados (con leyes propias), gozan de cierta estabilidad. De
lo contrario no podríamos averiguar nada acerca de organismos y sociedades antes de
haber agotado la física y la química (que de todos modos son inagotables).

MÁXIMAS GNOSEOLOGICAS DE LA CIENCIA

GNOSEOLOGICAS:
Llamada también la teoría del conocimiento y epistemología. Todos estos nombres
tienen el mismo significado, nos indican, como igualmente se crea a menudo, una
disciplina filosófica general como la lógica, la ética o la estética, sino más bien la
consideración de un problema que nace de un supuesto filosófico, esto es, en el ámbito
de una determinada dirección filosófica.

MAXIMAS:3
Se mencionan:
G1. El Conocimiento fáctico (o sea de cosas concretas) se obtiene
combinando experiencia y razón. No existen medios cognoscitivos extraordinarios
accesibles a unos pocos iniciados. Si hubiera individuos dotados de semejantes
poderes, los resultados de sus esfuerzos no serían plausibles de examen y crítica
públicos. La ciencia ingenua es lo opuesto de la ciencia oculta. Si bien muchos trabajos
científicos son entendidos tan sólo por unos pocos especialistas, en principio
quienquiera se interese en ellos podrá lograrlo si aprende los medios necesarios en
fuentes accesibles al público.

G2. Todo proceso de conocimientos consiste en tratar problemas. O


sea, en buscarlos, plantearlos y tratar de resolverlos, sea con ayuda del conocimiento
nuevo, y en todo caso a la luz de la razón y de la experiencia. Aunque hay problemas
difíciles e incluso insolubles, ni hay misterios, y menos aún misterios que sólo la no-
ciencia podrá develar.

G3. Toda solución propuesta un problema de conocimiento debería


poder ser constrastable de alguna manera objetiva que no sea la mera

3
BUNGE, Mario. “Ciencia y Desarrollo”. Buenos Aires, Argentina. Ed. Talleres “El
Gráfico/Impresiones”, 1ª edición, 1989. pág. 119 – 122.
28

compatibilidad con las creencias establecidas. La autoridad y la intuición pueden


proveer datos o conjeturas, ambos corregibles, pero no cuentan como verificación o
refutación.

G4. El conocimiento fáctico puede obtenerse por observación,


medición o experimento a condición de que cada una de estas operaciones
empíricas sea diseñada y controlada en lugar de ser causal o espontánea. La
observación espontánea tiene poco valor científico, como lo sugiere el que fue
practicado por nuestros antecesores durante un millón de años sin dar lugar a la
ciencia.

G5. Los procesos mentales que ocurren durante la ejecución de


operaciones empíricas destinadas a obtener conocimiento fáctico no ejercen
influencias directas sobre cosa externa alguna, en particular sobre los
instrumentos de observación. Si hubiera psicocinesis, los experimentos no valdrían
nada, ya que los experimentadores podrían forzar a los instrumentos a que marquen
los valores que ellos deseasen.

G6. El conocimiento fáctico es parcial antes que exhaustivo, pero es


perfectible. Incluso los datos más exactos pueden perfeccionarse o ser reemplazadas
por otras mejores. La verdad total y definitiva puede obtenerse sólo ocasionalmente y
en respectos limitados: en ciencia la regla es la verdad parcial y temporaria.

G7. El conocimiento fáctico puede perfeccionarse tanto gradualmente


como a saltos. En ambos casos todo perfeccionamiento es temporario, o sea, está
sujeto a revisión. Por consiguiente el progreso del conocimiento, cuando ocurre, no es
ni puramente acumulativo ni una sucesión de revoluciones cada una de las cuales
destruye lo anterior. Incluso la más profunda de las revoluciones científicas es parcial,
esto es, deja sin tocar el grueso de la ciencia, y enriquece el pasado en lugar de barrer
con él. Y ninguna revolución científica será la última, a menos que la humanidad
abandone la ciencia. (Recuérdese que la ciencia murió varias veces, y que la próxima
puede ser la definitiva)
G8. El conocimiento científico de una cosa, lejos de ser directo y visual,
es indirecto y simbólico. Las hipótesis y teorías científicas más poderosas contienen
conceptos no observacionales (tales como los de masa, campo, tensión, mutación
génica, viabilidad, clase social, y estabilidad política) y se formulan en términos
matemáticos (no necesariamente cuantitativos). Y los datos empíricos más refinados
contienen en conceptos teóricos y se producen con ayuda de teorías que participan del
diseño y la interpretación de mediciones y experimentos.

G9. La meta final de la investigación científica es descubrir las


regularidades (leyes) de la realidad y utilizarlas para explicar, predecir y
retroceder hechos. Si la investigación se limitase a registrar datos no tendríamos
necesidad de teorías. Y si no tuviéramos teorías, nuestros serían todos superficiales o
inexactos, ya que sólo las teorías nos permiten diseñar observaciones mediciones y
experimentos capaces de producir datos profundos y precisos, esto es, datos que van
más allá de la experiencia ordinaria.
29

Las mejores teorías científicas son las que combinan amplitud con
profundidad, así como la verdad (aproximada)con la compatibilidad con otras
teorías, en el mismo campo de investigación o en campos vecinos. Y los mejores
datos son los que sirven para alimentar o poner a prueba las mejores teorías
existentes, o para estimular investigaciones que se propongan construir teorías
mejores.

CIENCIA UNA CONCEPCIÓN RECIENTE

Bunge (1985) muestra una concepción interesante para explicitar la definición o facilitar
la comprensión de lo que es ciencia como un campo de investigación, tratando de
sistematizar todos los criterios que se deben tener en cuenta para definir una ciencia,
expresados en la fórmula siguiente:

C = (W, S, G, F, D, B, P, K, O, M)
Donde en cualquier momento dado:

W, es un sistema compuesto por personas que han recibido educación especializada,


inician o continúan una línea e investigación

S, es una sociedad capaz de apoyar, y estimular o al menos tolerar a W.

G, trasfondo filosófico de C y consta de: i) una ontología de cosas cambiantes, ii) una
gnoseología realista; pero crítica, no ingenua en vez de una gnoseología idealista; iii) el
ethos de la libre búsqueda de la verdad.

F, trasfondo formal de C, colección de teorías lógicas y naturales actuales.

D, dominio o universo del discurso de C, compuesto exclusivamente por entes reales,


certificados o presuntos, pasados, presentes o futuros.

B, trasfondo específico de C, colección de datos, hipótesis, teorías confirmadas


(aunque no incorregibles) y actuales, obtenidas en otros campos de investigación
relevantes a C.

P, problemática de C, problemas cognoscitivos referidos a la naturaleza (en particular


de las leyes) de los miembros de D.

K, fondo de conocimiento de C, colección de teorías, hipótesis y datos al día y


comprobables (aunque no finales) compatibles con los de B y obtenidos por miembros
de W en tiempos anteriores.

O, Objetivos de C, incluyen el descubrimiento o uso de leyes de los D, la


sistematización (en teorías) de hipótesis acerca de D y el refinamiento de métodos en
M.
30

M, Metodología de C, consta de procedimientos escrutables (examinables, analizables


y criticables) y justificables (explicables)

C, es un componente de un campo cognoscitivo mas amplio, es decir hay por lo menos


otro campo de investigación contiguo

De aquí se deriva los criterios siguientes:


Conocimiento Acientífico, cualquiera que no cumpla con las condiciones
anteriores. Cuando el objetivo que se desea alcanzar es el de la ciencia; pero no se
usa el método
Científico, por ejemplo la Filosofía de la naturaleza, la metafísica y la mitología.

Semiciencia o Protociencia, campo del conocimiento que los satisfaga


aproximadamente o en parte. Llamada también ciencia embrionaria, cuando las
técnicas científicas se aplican a la consecución de datos sin hallar estructuras
generales.

Ciencia emergente, aquella que se halla evolucionando a la plena satisfacción


de todas las condiciones

Pseudociencia, cuerpo de creencias y prácticas cuyos cultivadores desean


ingenua y maliciosamente dar como ciencia; pero que no comparte ni el planteamiento,
ni las técnicas ni el cuerpo de conocimiento de las ciencias, es básicamente falsa, no
fundamenta sus doctrinas; no contrasta sus pretensiones de verdad, carece de
mecanismo autocorrector y no formula, no contrasta, ni corrige hipótesis. En este grupo
se consideran:

i) Rhabdomancia, ciertos individuos sensibles pueden percibir


inconscientemente y directamente heterogeneidades subterráneas como minas,
yacimientos de agua. Esta es una seudociencia porque es imposible una acción de los
cuerpos físicos en los estados mentales; sus hipótesis son incontrastables, pues no
supone mecanismos determinados ni leyes.

ii) Parapsicologia, (espiritismo, actividad de los mediums, cartomancia y otras


ciencias arcaicas), esta pseudociencia sostiene la existencia de ciertos fenómenos
como la telepatía (transmisión del pensamiento), La videncia a distancia, La videncia
del futuro y la telequinesis (causación mental de fenómenos). Se refuta porque, se trata
de entidades no físicas, trata de acontecimientos no físicos (Telepatía), no ofrece
alternativas detalladas acerca de mecanismos de acción capaces de contrastarse, no
formula sus tesis como hipótesis, las tesis son meras afirmaciones acerca de la
existencia de los acontecimientos, además no son fundamentados, los “experimentos”
son metodológicamente inaceptables (fraudes no repetibles).

iii) Psicoanálisis, diferente de la Psicología y la Psiquiatría, refutada como


ciencia porque sus tesis son incontrastables y ajenas a la Psicología, la Antropología y
la Biología.

TECNOLOGÍAS
31

Técnica que emplea el conocimiento científico, cuerpo de conocimientos


compatibles con la ciencia coetánea y controlable por el método científico y se emplea
para controlar; transformar o crear cosas o procesos naturales o sociales.

La tecnología puede considerarse como el campo de conocimientos que se


ocupa de diseñar artefactos y planear su realización y mantenimientos a la luz de los
conocimientos científicos. La precisión en su definición se pretende alcanzar con la
fórmula planteada por Bunge (1985) representada por una endecatupla

T = <C, S, D, G, F, E, P, A, O, M, V >

Donde en cualquier momento dado:

C, la comunidad profesional de T, es un sistema social compuesto por personas que


han recibido entrenamiento especializado, mantienen vínculos de información entre sí,
comparten ciertos valores e inician o continúan una tradición de diseño, ensayo y
evaluación de artefactos o planes de acción.

S, es la sociedad (con su entorno natural y social, su economía, política y cultura) que


alberga a C y lo estimula o tolera.

D, es el dominio de T compuesto exclusivamente de cosas reales (o presuntamente


tales) presentes, pasadas o futuras, algunas naturales, otras artificiales.

G, es la visión general o Filosofía inherente de T y consta de: i) una ontología de cosas


cambiantes en forma legal y en particular modificables por el ser humano, ii) una
gnoseología realista con poco pragmatismo; iii) el ethos de la utilización de recursos
naturales y humanos (en particular cognoscitivos).
F, es el fondo formal de T, es la colección de teorías y métodos lógicos y matemáticos
al día.

E, es el fondo específico de T, es una colección de datos, hipótesis y teorías


actualizadas y razonablemente confirmadas (pero corregibles), de métodos de
investigación razonablemente eficaces y de diseños y planes útiles, elaborados en
otros campos de conocimiento particularmente en las ciencias y tecnologías
relacionadas con T.

P, es la problemática de T consta de problemas cognoscitivos y prácticos


concernientes a los miembros del dominio D, así como a problemas referentes a otras
componentes de la endecatupla que define T.

A, es el fondo de conocimiento de T, es una colección de teorías, hipótesis y datos


actualizados y contrastables (aunque no finales), así como de métodos, diseños y
planes compatibles con el fondo específico E y obtenidos por miembros de C en
épocas anteriores.
32

O, son los objetivos de los miembros de la comunidad profesional C, incluyen la


invención de nuevos artefactos, nuevas maneras de usar o adaptar los viejos y planes
para realizarlos, mantenerlos y manejarlos, así como evaluarlos.

M, es la metodología de T consta exclusivamente de procedimientos escrutables y


justificables en particular e involucra el método científico (problema cognoscitivo -
hipótesis - contrastación - corrección de la hipótesis o reformulación del problema) y el
método tecnológico problema práctico - diseño - prototipo - prueba - corrección del
diseño o reformulación del problema)

V, son los valores de T constan de una colección de juicios de valor acerca de cosas o
procesos naturales o artificiales, en particular materias primas, y productos
manufacturados, procesos de trabajo y organizaciones sociotécnicas.

Se debe tener en cuenta que existe por lo menos otra tecnología contigua que se
solapa parcialmente con T y que los miembros de cada una de las nueve últimas
componentes de la endecatupla que define a T cambian, aun cuando sea lentamente,
como resultado de las investigaciones y desarrollos en T, así como en ciencias y
tecnologías relacionadas con ella.

Se califica como No tecnológico, un campo de conocimientos que no satisfaga ni


siquiera aproximadamente las condiciones estipuladas. Un campo de conocimientos
que comparta los objetivos utilitarios de la tecnología y satisfaga aproximadamente
algunas de las demás condiciones podrá llamarse prototecnología o una tecnología
emergente, por ejemplo las ciencias de la salud, la administración, etc.

Una tecnología alta o avanzada (high tech) será aquella que posea un voluminoso
fondo específico o sea que tome mucho conocimiento prestado de las ciencias,
ejemplo las ingenierías química y nuclear y la biotecnología que emplea la biología
molecular. Una tecnología que diseña artefactos que emplean pocos recursos
escasos, que no dañan el medio ambiente y que promueven una economía de trabajo
intensivo se denomina tecnología blanda, o intermedia, o apropiada y finalmente un
campo de conocimientos que no es tecnológico por carecer de base científica y por no
hacer uso del método científico ni del método tecnológico; pero que es anunciado o
vendido como tecnológico(o científico) se denomina seudotecnología o tecnología
fraudulenta, por ejemplo la psicoterapia verbal y el monetarismo.

Ramas de la tecnología
Bunge (1981) propone una clasificación de las tecnologías, las que se exponen a
continuación
1. MATERIALES

a. FISICAS :- Ingeniería Civil


- Ingeniería Eléctrica
- Ingeniería Electrónica
- Ingeniería Nuclear
- Ingeniería Espacial

b. QUIMICAS : Inorgánica y Orgánica


33

c. BIOQUIMICAS : Farmacología y Bromatología

d. BIOLOGICAS : - Medicina
- Agronomía
- Bioingeniería
2. SOCIALES

a. PSICOLOGICAS : Psiquiatría; Pedagogía

b. PSICOSOCIOLOGICAS : - Psicología Industrial


- Psicología Comercial
- Psicología Bélica

c. SOCIOLOGICAS :- Sociología
- Politología
- Urbanismo
- Jurisprudencia

d. ECONOMICAS : - Administración
- Investigaciones operativas

e. BELICAS : - Militares

3. CONCEPTUALES : - Informática (computación)

4. GENERALES : - Teoría de sistemas


- Autómatas
- Sistemas Lineales
- Sistemas de Control
Importancia del estudio de las ciencias
1. Orientada a la satisfacción de necesidades de la persona humana.
2. Consigue reconstrucciones de las realidades problemáticas.
3. Constituye una fuente inagotable de problemas científicos.
Historia de la ciencia; una perspectiva

Las ciencias surgieron como un intento de explicar y dividir el estudio de la naturaleza,


desde los albores de la humanidad la ciencia se convirtió en una herramienta de
estudio para las personas encargadas de interpretar; divulgar, guardar o procesar el
conocimiento. Podemos entender la clasificación como una manera didáctica y postura
filosófica de cada época, intento por dividir por categorizaciones y objetos de estudio.

En la historia de la ciencia han existido tres grandes etapas:

a. Época de la antigüedad; Grecia; Roma y Medio Oriente, inauguraron después de


profundas reflexiones una estrecha vinculación entre la filosofía y ciencia a tal punto
que no existía diferencia entre ambos; Platón; Aristóteles, Sócrates, fueron los
iniciadores de esta disciplina del saber humano; pero sin embargo ellos pasan como
filósofos y no como científicos. Esta primera etapa de la historia de la ciencia tiene
mucho que ver con el humano, es mas materialista y concreta y se quiere expresar
aquellos factores de la mente y la sociedad que determina su condición; esta
34

denominación fue acuñada en épocas mas recientes a pesar que se hacía ciencia
desde las épocas presocráticas en forma empírica y el razonamiento lógico.

b. Edad Media; es la época en donde la filosofía escolástica reduce a la ciencia a un


nivel religioso vinculado con el origen divino. Es en esta etapa donde lo metafísico
cobra mayor poder que lo concreto. La religión y lo místico ocupan un lugar
preponderante y lo humano pasa a segundo plano, podemos decir que este período es
el mas evolucionado para la ciencia por lo dogmático que resultaba la interpretación y
explicación de la naturaleza. Las siete artes liberales: el trivium y cuadrium; fueron las
materias y el resumen de todo el sabor humano.

c. Época moderna; este es el período mas dinámico y rico en variedad por las
posturas filosóficas, el apego o aversión por los filósofos y concepciones del pasado.
Podemos decir que en este lapso de la historia de la humanidad se clasifican en cuatro
sub periodos: a antieclesiástica, b. La premarxista, c. La Marxista, d. La post marxista

La antieclesiastica; que es la reacción directa de lo medieval, lo religioso, puro y


místico, es una actitud por los excesos al que había llegado este período oscuro de la
humanidad, donde todo se reducía a explicaciones en cuestión de dogma o de fe.
Algunos representantes como Hegel, fueron los que intentaron dar una nueva
explicación y reconversión del volver de la cultura griega en algunos postulados sobre
la interpretación del mundo, pero utilizando un método mas racional en el conocimiento
de la realidad que rodea al hombre y ya no solo en él como eje de todo el universo sino
el todo. Este primer momento puede considerarse que marcó un hito revolucionario del
cambio de mentalidad de lo religioso a lo material.

La premarxista; considerado como una etapa preparatoria de un nuevo tipo de


mentalidad de filosofía científica, tenemos a los filósofos como Habbs; Kant, Kiergard,
Jansen que trataron de abrir paso a la comprensión del mundo por sus actividades y
circunstancias que los rodean.

La marxista; el aspecto económico en el capital y el trabajo fueron los ejes de Carlos


Marx para inspirarse en un nuevo tipo de filosofía como el materialismo dialéctico
histórico; una ciencia basada en las relaciones sociales de producción que divide a los
hombres en explotados y explotadores, obreros y capitalistas; entre los que tienen
poder y aquellos que están bajo el poder. La época post marxista, es la que rompe todo
el monopolio de una filosofía socialista, basado en la propiedad social por la privada, el
estado protector por el estado reducido y acortado y la liberación del mercado

Intentos de clasificación de las ciencias


La dualidad siempre ha sido una de las condiciones para clasificar a las ciencias:
 Por el estudio y las relaciones
 Por el método y las condiciones
 Por los fines y el servicio
 Por lo general y particular
 Por lo concreto y abstracto
 Por lo empírico y lo teórico
 Por lo material y lo abstracto
35

 Por la naturaleza y lo social


 Por lo físico-concreto y lo humano ético
 Por lo inductivo y lo demostrativo
 Por lo racional y lo ideal
 Por lo dialéctico-histórico y lo filosófico-idealista
 Sociales y materiales
 Económicas y sociales
 Fácticas y humanísticas
 Orgánicas e inorgánicas
 Sociales y filosóficas.

El desarrollo evolutivo de las clasificaciones de las ciencias ha dado lugar a un


sinnúmero de clasificaciones; pero lo fundamental es que la ciencia se ha convertido
en una disciplina humana y de interpretación de ayuda y de progreso al mismo hombre,
que para su mayor estudio se han dividido en múltiples disciplinas que guardan una
relación de correspondencia, de ayuda y complemento Cada quien aporta desde su
punto de vista de especialización con un solo fin: interpretar el mundo y buscar reducir
los esfuerzos humanos para dar mayores resultados, beneficios y satisfacción de la
humanidad.

La clasificación de las ciencias estará siempre obedeciendo a posturas y a las


condiciones en que se ubique el ser humano, es decir aquella postura en que se ubica
el filósofo o el científico. De allí que ahora se habla de científicos sociales, científicos n
Biología, Matemáticas, astronomía, Psicología, química, Educativos; etc. Por esta
razón ahora ya no se puede hablar de una ciencia acaparada por una sola persona;
pues tendría que aprender de todas las disciplinas, cosas que en estas épocas es muy
difícil por la gran cantidad de conocimientos y los vertiginosos cambios que
experimenta el conocimiento ahora con mucha mas velocidad que en las épocas de
Platón, Hegel, San Agustín, Marx, etc.

CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA


Práctica. 2: LA CIENCIA
I. Encierre con un círculo la respuesta correcta:
1. La definición de ciencia: “Es el conocimiento cierto de las cosas por sus principios y
causas”, es expuesto por:
a. Bunge (1983) b. Ramos (1990) c. Kopnin (1966) d. Falcon et al., (1978)

2. Cuando los objetivos de la ciencia se orientan a incrementar el conocimiento científico, se


refiere al objetivo de tipo:
a. Causal b. Perfeccionado c. Intrínseco d. Extrínseco

3. Son enunciados característicos de la ciencia, excepto:


a. Es el modelo más verdadero que cualquier otro en el mundo.
b. Se puede comprobar experimentalmente o racionalmente.
c. Es capaz de descubrir sus propias deficiencias.
d. Necesita la ayuda de la tecnología para corregir sus deficiencias.

4. En su significado funcional, la ciencia:


36

a. Es sinónimo de investigación científica.


b. Es la acumulación de definiciones, leyes, teorías.
c. Es considerada como ciencia sistema.
d. Es considerada como ciencia estructura.

5. De acuerdo a la tipología de Bunge (1983), la verificación o experimentación, es un criterio


ordenador referido a:
a. La naturaleza del objeto en estudio.
b. Método de comprobación de sus proposiciones.
c. Criterio de verdad.
d. Carácter de los enunciados

6. No es característica de las ciencias factuales:


a. Estudian ideas. c. Contrastan las realidades.
b. Son verificables. d. Son autosuficientes.

7. En relación a la tipología de Bunge (1983) de acuerdo al objeto de estudio la Biología es:


a. Una ciencia pura. b. Una ciencia aplicada.
c. Una ciencia factual cultural. D. Una ciencia factual natural.

8. La clasificación de las ciencias en: Naturales, Sociales y Filosóficas, es propuesto por:


a. Bunge (1985) b. Kopnin (1966)
c. Morless (1978) d. Kedrow y Spirkin (1993)

9 De acuerdo a la concepción moderna de Bunge (1985), la ciencia que esta evolucionando a


la plena satisfacción de todas las condiciones determinantes es:
a. Una semiciencia b. Una protociencia
c. Una pseudociencia d. Una ciencia emergente

10 Una tecnología que posee un voluminoso fondo específico es decir mucho conocimiento
prestado por la ciencia es:
a. Una prototecnología b. Una tecnología emergente
c. Una tecnología alta (HT) d. Una tecnología apropiada

DISCURSO CIENTÍFICO TÉCNICO


Para muchos socio-lingüistas la construcción del conocimiento es el resultado de los
procesos de comprensión de experiencias a través de la formalización en el lenguaje.
Esto hace que el conocimiento que quiere ser transmitido sea dependiente de las
capacidades comunicativas de sus portadores, y éstas no son sino formas socialmente
construidas que dan sentido a la experiencia. No se trata de verdades absolutas. Esta
postura explica por qué a lo largo de la historia humana la ciencia ha edificado y
demolido dogmas que se establecieron en el pensamiento y en la forma de actuar de
muchas generaciones. La ciencia se ha cuestionado a sí misma, se ha reconstruido y
sigue avanzando en la búsqueda del conocimiento sobre nuestra especie y sobre todo
lo que conforma el universo micro y macroscópico. Si asumimos que el concepto de
naturaleza y de cada una de sus manifestaciones es el resultado de una lenta
edificación histórica y social que ha quedado plasmada en el lenguaje verbal y no
verbal de la humanidad, entonces la denominación de algo como objeto natural es una
forma de concebirlo que depende de un sistema de clasificación. La comunicación de
esta determinada forma de concebir los fenómenos naturales ha tomado cuerpo en
37

distintos contextos, o discursos. Así, por ejemplo, el concepto de materia tiene un


sentido particular en diferentes ámbitos:
1. En la ciencia, materia está referida a la sustancia de la que están formados
los cuerpos, la cual posee una serie de propiedades tanto generales (masa y volumen,
por ejemplo) como específicas (punto de ebullición, reacción con el oxígeno, etcétera.)
2. En una escuela, materia está referida a una disciplina de estudio como la
biología, la historia o la química.
3. Las religiones conciben la materia como el aspecto mortal del hombre, el cual
es antagónico con la esencia inmortal que es el espíritu.
4. En un discurso presidencial, el ejecutivo puede hablar del rezago en materia
económica, educativa o en los servicios de salud pública. Aquí el término materia
puede representar cualquier cosa.

Los cuatro ámbitos que han servido de marco en este ejemplo otorgan una forma y
sentido distintos de la idea de materia. Esto es precisamente lo que nos interesa
apuntar en esta ocasión.

La forma en la que el conocimiento se comunica tiene lugar dentro de un discurso y es


éste el que permite construir el puente que le otorga un sentido particular. En
consecuencia, cualquier adquisición de conocimiento, y sea por la lectura de un texto
de divulgación, por las hipótesis relacionadas con nuevos hallazgos experimentales,
por la formación escolar, por la participación en un taller, o por la escritura de un
artículo como éste, requiere de una comprensión del mensaje, o mejor dicho, de una
atribución del significado de los signos que forman el mensaje, y esta atribución está
hecha dentro de un contexto continuo de actividad e intereses.

Es en este contexto en el que se comunica una forma particular de comunicar, que es


precisamente el discurso. Pongamos un ejemplo, la divulgación de la ciencia
contextualizada en dos objetivos de la Sociedad Mexicana para la Divulgación de la
Ciencia y la Técnica (somedicyt) plantea:
1. Divulgar el conocimiento científico y técnico con claridad, amplitud y
responsabilidad.
2. Favorecer el acercamiento entre la comunidad científica y el resto de la
sociedad.

Estos dos objetivos articulan las formas de comunicar en lenguaje verbal (libros,
revistas) o no verbal (fotografías, equipamientos) el conocimiento que quiere hacerse
llegar a quienes no pueden comprender el discurso científico porque necesitan de un
contexto distinto al académico para poder dar un sentido propio a los hallazgos de la
ciencia. Algunas investigaciones de Edwards-Mercer, Bruner, Lemke y Candela, entre
otros, muestran que la ciencia no puede aprenderse solamente a partir de la
experiencia perceptiva, sino a partir de la descripción de ella misma en el discurso
científico.

El discurso, como vimos en el ejemplo sobre la idea de materia, es una acción social
que construye diversas realidades o conocimientos y otorga identidades que van
formando un modo de conocer. El discurso está formado por procedimientos y recursos
a los que es legítimo acudir para establecer una construcción de la realidad en el
38

ámbito científico. Estos recursos deben ser legítimos en la medida en que su calidad
ha sido evaluada rigurosamente por quienes tienen un reconocimiento académico
sustentado en una visión antidogmática y un compromiso con el trabajo científico, más
que por quienes ostentan cierta postura ideológica.
Hay tres aspectos que caracterizan el discurso de la divulgación científica:
1) El discurso es incluyente, porque considera y aproxima el lenguaje de la vida
cotidiana y el de la ciencia.
2) Es autónomo, porque construye y evalúa sus propias formas de
comunicación.
3) Es científico porque busca, produce y valida conocimiento multidisciplinario
sobre la comunicación más adecuada de los conceptos y productos de la
ciencia.

Es también importante mencionar que gracias al discurso de los participantes se


conocen, se comprenden y otorgan sentido a un mensaje que tiene la intención de
convertirse en un conocimiento entre todos.

En una concepción más lingüística, la divulgación también puede entenderse como una
tarea de traducción o interpretación entre registros diferentes de un mismo idioma:
entre el tecnolecto propio de cada disciplina y la variedad funcional más general, al
alcance del público no especializado. Este punto de vista pone énfasis en los aspectos
gramaticales y léxicos de la tarea divulgadora, evita juicios de valor sobre ambas
variedades funcionales (prefiere divulgación a vulgarización, con evidentes matices
peyorativos) y, en definitiva, presupone una visión más flexible y heterogénea de la
diversidad lingüística. Pero, desde otro punto de vista, desvincula el contenido
científico que se transmite de la forma verbal con la que se va a presentar, de manera
que esta última pasa a ser sólo un envoltorio de un saber que existe –de facto–
independientemente de su representación discursiva. De esta forma, lo lingüístico se
concibe como algo complementario, accidental y, en consecuencia, secundario.

Finalmente, desde una percepción más discursiva y pragmática (Calsamiglia, 1997:


16), la tarea de la divulgación consiste en recontextualizar en una situación
comunicativa común (para una audiencia lega y masiva, con medios diferentes, etc.) un
conocimiento previamente construido en contextos especializados (entre científicos,
con unos instrumentos comunicativos especiales: tecnolecto, lenguajes matemáticos,
lógicos, etc.). En esta concepción, el contenido científico está estrechamente
relacionado con su representación discursiva, insertada y dependiente de un contexto
comunicativo concreto (identidad y estatus de los interlocutores, circunstancias
temporales, espaciales, sociales, políticas, etc.; Aronowitz, 1988: 342-352), hasta el
punto de que la tarea divulgadora no sólo exige la elaboración de una forma discursiva
acorde con las nuevas circunstancias (conocimientos previos del destinatario,
intereses, canal comunicativo, etc.), sino la reconstrucción del mismo conocimiento
para una audiencia diferente.

Ciapuscio (1993: 82-104, y 1997: 23-28) identifica algunos de los problemas que debe
resolver el divulgador de ciencia y que merecen el interés del analista del discurso:

Los tipos de texto. El discurso científico original se representa en unos géneros


discursivos (comunicaciones y ponencias en congresos, artículos o papers en revistas
39

especializadas), altamente estereotipados y muy estrictos respecto a cuestiones


formales (Hagge, 1994), por las restricciones que impone la misma metodología
científica. Por otra parte, los géneros periodísticos informativos (noticias, aparato titular,
crónicas, entrevistas, etc.), que suelen transmitir la divulgación científica, están también
sujetos a unos tipos textuales estrictos, que sufren las limitaciones socioeconómicas de
la prensa y del mundo editorial (intereses de los lectores, formas de lectura, hábitos
culturales, etc.). En consecuencia, la tarea de recontextualizar el saber científico debe
enmarcarse forzosamente dentro de estos dos parámetros textuales notablemente
diferentes, y requiere la transformación de un tipo discursivo a otro, la reconversión de
los recursos lingüísticos de un discurso (estructura informativa, registro, fraseología,
marcadores, etc.) a los del otro. El análisis de S. Bonilla se sitúa en este ámbito y
analiza el uso de marcas discursivas formales en la transmisión oral del conocimiento.

Las voces. Varios investigadores (Moirand, 1997; Jacobi, 1987: 83) han presentado el
discurso de la divulgación como el espacio discursivo de interacción entre los distintos
componentes del proceso de producción y transmisión del saber (ciencia, periodismo y
ciudadanía), o como una encrucijada de voces científicas, periodísticas y legas. Los
enunciadores y las enunciaciones de los discursos científicos originales deben ser
citados y referenciados en los discursos divulgadores segundos, respetando las
convenciones más corrientes de los respectivos géneros. No se trata sólo de una
cuestión de diversidad de formas de citación (el nombre del autor y el año de
publicación de la obra, o bibliografía en el paper; y la reproducción directa o indirecta
en la noticia divulgadora), sino también de variedad de funciones pragmáticas: por
ejemplo, en el discurso divulgador la cita aporta la autoridad del investigador o la
legitimidad del conocimiento científico. El estudio de H. Calsamiglia y C. López analiza,
dentro de este campo, la utilización que hace el divulgador de las citas y las voces
científicas.

Los conceptos y los términos. La dificultad de transmitir conceptos científicos nuevos


a una audiencia lega no se debe sólo a la falta de conocimientos especializados de
ésta, sino también a las sensibles diferencias léxico-semánticas que presentan el
lenguaje especializado y el general. La ciencia se representa discursivamente a través
de tecnolectos con una proporción muy elevada de terminología, que corresponde a
una elaboración conceptual extremadamente precisa y fijada. Un término denomina
unívocamente con escasa variación sinonímica a un determinado concepto, el cual
queda definido a partir de sus relaciones con otros conceptos con los que conforma
una amplia red semántica, previamente elaborada y definida. En cambio, la lengua
general se refiere a los conceptos con bastante más flexibilidad, carga las palabras con
significados diversos, explota la sinonimia contextual y carece de denominaciones
biunívocas. De este modo, la divulgación no consiste simplemente en hacer
comprender al lego la red conceptual científica, con su terminología correspondiente,
sino en saber hallar y utilizar las palabras y los recursos idóneos de la lengua general
que puedan dotar de sentido los conceptos concretos que se deben transmitir. El
trabajo de D. Cassany y J. Martí analiza las estrategias discursivas y léxicas que utiliza
el periodista para comunicar un concepto altamente especializado como ‘el prión’.

En conjunto, estos trabajos suponen las primeras aproximaciones que realiza el grupo
al estudio de estos problemas de divulgación científica. En los tres casos, el objetivo
40

consiste en elaborar hipótesis que puedan ser ampliadas, contrastadas y/o


reformuladas en trabajos posteriores y más extensos.

LA INVESTIGACION CIENTIFICA

El vocablo Investigación significa pesquisa, búsqueda controlada y sistemática. En


sentido más exacto Investigación Científica es la actividad de hacer ciencia, es decir, el
proceso de producir conocimiento científico. La Investigación Científica se desarrolla a
partir del punto donde la experiencia y el conocimiento ordinario ya no son capaces de
plantear y resolver problemas del conocimiento.

La investigación científica puede concebirse como un proceso y como producto; como


proceso consiste en construir y plantear hipótesis en relación a determinados
problemas científicos y contrastarlos paso a paso con la realidad usando el método
científico, como producto la investigación científica logra un resultado, el conocimiento
científico.

Definición
La investigación científica se define como el proceso formal, sistemático, racional e
intencionado en el que se lleva a cabo el método científico de análisis como un
procedimiento reflexivo, controlado y crítico que permite descubrir nuevos hechos o
41

datos relaciones o leyes en cualquier campo del conocimiento en un momento histórico


dado (Egg 1971 en Sánchez y Reyes 1987)

Otra definición considera a la investigación científica como un conjunto de


procedimientos regulados por las normas de la ciencia, mediante los cuales buscamos
solucionar problemas obteniendo nuevos y más exactos conocimientos sobre la
realidad.

De otro lado se concibe a la Investigación Científica como un proceso que implica


planeamiento y ejecución de un conjunto de operaciones tácticas; racionales y
observaciones pautados por el método de la Investigación Científica y orientada al
logro de los objetivos de la ciencia.

Rodríguez y Rodríguez (1988) consideran que en sentido concreto, la investigación


científica es la actividad de hacer ciencia, es el proceso de producir conocimientos
científicos

La investigación científica puede concebirse como un proceso y como un producto,


como proceso consiste en construir y plantear hipótesis en relación a determinados
problemas científicos y contrastarlos paso a paso con la realidad usando el método
científico, como un producto la investigación científica logra un resultado: el
conocimiento científico. Morles (1977) señala que la investigación científica es un
proceso sistemático, controlado, empírico y crítico de resolver problemas científicos.

Características

La Investigación Científica se caracteriza porque:

1. Requiere de la formación del investigador, es decir de una persona capaz de


plantear y ejecutar un proyecto de investigación en todos los aspectos que comprende
desde el planteamiento del problema, la formulación de la hipótesis, la contrastación de
las mismas, el procesamiento y análisis de datos y la preparación del informe.

2. Requiere del desarrollo de un método de trabajo, para explicar un determinado


problema mediante la formulación y contrastación de la hipótesis especifica.
3. Exige rigor científico o técnico, que posibilite una adecuada aplicación y contribución
a la solución de los problemas en las etapas en los que se ejecute la investigación.

4. Exige una infraestructura de apoyo, la organización y equipamiento son factores que


influyen decididamente en el desarrollo de la investigación en cada investigación.

Etapas de la investigación científica


Si consideramos que la investigación científica constituye un proceso
sistemático y por tanto configurando etapas definidas en las que se desarrollan
determinadas acciones podemos identificar las etapas que se esquematizan en el
diagrama esquematizado en la figura 3

Planteamiento
42

Organización

Implementación Evaluación

Ejecución

Comunicación

Figura 3. Etapas de la investigación científica (Sánchez y Reyes 1987)

1. Planteamiento de la investigación; es la etapa inicial del proceso de investigación


que consiste en prever por anticipado lo que se va a hacer. En esta etapa se
fundamenta el estudio planteándose y definiendo el problema (¿Porqué se va hacer?)
se definen los objetivos (¿Para qué se va hacer?); se traza la metodología de trabajo y
el diseño de contrastación (¿Cómo se va hacer?); se programan las acciones en
relación al tiempo (¿Cuándo se va hacer?) y se plantea y define la asignación y
distribución de los recursos necesarios para que se pueda ejecutar el trabajo (¿Cómo
se va hacer?). El planteamiento es una etapa decisiva porque permite la dirección y
control posterior de la investigación en ejecución y básicamente en ella se formula El
Plan de Investigación o El Proyecto de Investigación.
2. Organización de la investigación, en esta etapa se define el cuerpo básico de
trabajo. Se delimitan las funciones y responsabilidades respectivas a cada uno de los
elementos, distribuyéndose las tareas en relación a los objetivos trazados. Se puede
considerar también la adecuación o ambientación física necesaria para que pueda
operar cada uno de los elementos que participan en la tarea de investigar.
3. Implementación de la investigación; en esta etapa se asignan los recursos
materiales y financieros necesarios para la puesta en marcha de la investigación;
asimismo se preparan el material o instrumentos que se utilizaran; tales como hojas de
muestreo, aparatos, instrumentos, etc. que deben estar listos en el momento oportuno.
Puede comprender también el establecimiento de coordinaciones necesarias con las
personas e instituciones que participan en el trabajo de investigación.

4. Ejecución; la investigación propiamente dicha se inicia con la ejecución del


proyecto de investigación; en esta etapa se recopilan datos, se realizan experimentos o
trabajos de campo, todo ello de acuerdo a la metodología previamente establecida.
Esta etapa incluye también el procesamiento de datos recopilados y el análisis e
interpretación de los resultados.

5. Evaluación; Comprende las acciones orientadas a recoger información del proceso


mismo de investigación con el propósito de controlar y evaluar los resultados, se debe
evaluar la metodología y el diseño adoptado, las limitaciones encontradas, el tiempo de
desarrollo de la investigación, la inversión de recursos, etc.
43

6. Comunicación; comprende la elaboración y redacción del informe o reporte de


investigación con fines de difusión o divulgación de los resultados, diferenciándose tres
tipos de informes, un informe académico, un informe científico y un informe para
difusión.

Relacionado con este aspecto es necesario mostrar un interesante diagrama


desarrollado por Pineda et al (1994) que sistematiza las etapas de la Investigación
científica considerando básicamente tres, planificación, ejecución y comunicación, las
que se muestran en la figura 4

Figura 4. Etapas de la Investigación Científica (Pineda et al 1994)

Tipos de investigación científica


Existe una corriente que considera las clases de investigación científica según el tipo
de problema:

a. Investigación básica o sustantiva, teórica o pura:

Aquella que utilizando el método científico intenta solucionar problemas referidos a


propiedades de los objetos (problemas sustantivos). Esta investigación emplea
cuidadosamente el problema de muestreo a fin de extender los hallazgos más allá del
grupo o situaciones estudiadas. La Investigación Científica Sustantiva puede
clasificarse en:

1. Investigación descriptiva:
De tipo exploratorio diseñada para identificar las condiciones en las cuales ocurren
determinados hechos o fenómenos. Ejemplo de este tipo son las Investigaciones
taxonómicas en Biología. Este tipo de investigación describe una o más variables sin
establecer relaciones causa - efecto.
44

Siguiendo a Bunge (1983) podemos afirmar que una investigación descriptiva podría
responder según el problema a las cuestiones siguientes:
- ¿Qué es?------------------------------------------------Correlato
- ¿Cómo es? ---------------------------------------------Propiedades
- ¿Dónde está? ------------------------------------------Lugar
- ¿Cuándo ocurre? -------------------------------------Tiempo
- ¿De qué está hecho?----------------------------------Composición
- ¿Cómo son sus partes?-------------------------------Configuración
- ¿Cuánto?------------------------------------------------Cantidad

Por lo general este tipo de investigación no requiere la formulación de hipótesis, sin


embargo se asume que ésta se encuentra explícitamente expresada. En algunos casos
la definición de objetivos es suficiente; sin embargo esto no quiere decir que cuando la
naturaleza del problema lo requiera debe dejarse de formular la hipótesis.

2. Investigación explicativa:
Tiene como propiedades identificar las causas y explicar porque suceden ciertos
hechos; fenómenos; procesos sociales. Este tipo de investigación requiere de
formulación de una hipótesis de trabajo o de investigación que relacionan variables de
causa - efecto.

3. Investigación experimental:
Se trata de una investigación explicativa; la diferencia radica en que en este tipo de
investigación se maneja o manipula la variable independiente (causa, estímulo) a
voluntad del investigador para lograr resultados previstos en la hipótesis (efecto)

b. Investigación aplicada o tecnológica


Es aquella que, valiéndose de la metodología y aplicando los resultados de la
investigación sustantiva intenta solucionar problemas técnicos, su propósito es
descubrir la eficiencia y funcionalidad de ciertos modelos, procedimientos, técnicas
para explicar los objetos. Ejemplos de investigación tecnológica son los que
corresponden a la Hidráulica, sustentados en la Física, a la Agricultura y a la Medicina
que se basan en la Biología y Bioquímica y a la Pedagogía que se basa en las ciencias
sociales.

Tipos de investigación según el enfoque


Luego de formulado adecuadamente un problema se pasa a la selección del enfoque
de la investigación a través del cual, en la práctica se recopilan los datos. Fox (1981) al
considerar el enfoque de la investigación refiere que se deben tener en cuenta dos
aspectos separados e independientes: uno de ellos es una especie de línea
cronológica que refleja lo que se piensa acerca de si la respuesta de la investigación
está en el pasado, en el presente o en el futuro, otro es una intención que refleja lo que
queremos hacer con la investigación una vez terminada. Desde la perspectiva de las
exigencias de las Ciencias Biológicas; de las motivaciones del investigador y del
enfoque de la investigación en relación a la respuesta cronológica, se pueden distinguir
tres tipos:

1 .Investigación bibliográfica
45

Sí se piensa que la respuesta al problema está en el pasado, es un enfoque de


investigación que nos esforzamos en aclarar las condiciones y problemas actuales
mediante una comprensión mas profunda y completa de lo que ya se ha hecho antes.
Corresponde a una monografía, trabajo fundamentalmente teórico donde los datos
son recopilados esencialmente de la documentación científica.

2. Investigación descriptiva
Si se piensa que la respuesta se encuentra en algún lugar del presente a través del
cual se intentan aclarar los problemas actuales mediante una descripción y
comprensión mas profunda de las condiciones actuales, es decir tratamos de
comprender de forma mas completa el presente mediante un proceso de acopio de
datos que nos permita describirlo de modo completo y objetivo. Es un proceso
fundamentalmente exploratorio diseñado para identificar condiciones en las cuales
ocurren determinados fenómenos. En una etapa inicial, cuando aún no se tiene
conocimiento científico o información acerca de éste o del problema, la investigación
descriptiva puede estar orientada a describir características desconocidas o poco
conocidas de los hechos, fenómenos o procesos materia de la investigación
correspondiendo a un tipo de Investigación de Identificación.

3. Investigación experimental
Si lo que interesa es predecir lo que ocurrirá en el futuro, es decir si emprendemos algo
nuevo o diferente o si se introducen ciertos cambios en las condiciones actuales. Es
experimental en el sentido de que intenta establecer una nueva situación sobre la
base de ensayos en condiciones controladas, además en este tipo de investigación el
investigador manipula una o más variables causales, requiere de la formulación de
hipótesis y de un diseño experimental para la contrastación.

Niveles de investigación.
El nivel de un trabajo de investigación, que es la dimensión de intensión refleja lo que
se quiere hacer con la investigación una vez terminada, aspecto que tiene mayor
importancia en la redacción del informe de investigación.

Una primera intención, es un enfoque de la investigación con el que intentamos


esencialmente describir un conjunto limitado de condiciones en función de las medidas
aplicadas a los elementos constituyentes de esas condiciones y con el cual no
esperamos hacer juicios, afirmaciones sobre la calidad ni las valoraciones, es
solamente una descripción. Un segundo aspecto de la dimensión de la intención es la
comparación, en este caso lo que interesa es obtener información sobre mas de una
condición o grupo de temas, es decir lograr más de un conjunto de datos y compararlos
entre sí. Aquí se intenta formular juicios sobre si hay diferencias o no, sobre si algo es
mayor o menor que otra cosa es decir; hacer juicios comparativos. El tercer aspecto de
la dimensión de la intención es hacer una evaluación que se particulariza porque es
única en el sentido que aplica algún criterio o norma para que se pueda elaborar juicios
de valor tales como: bueno o malo; logrado o no logrado.

Importancia de la investigación científica


1. Aproximación al conocimiento de la verdad.
2. Orienta la obtención de nuevo conocimiento científico.
3. Descubre principios generales y va en busca de leyes.
46

4. Tiende a organizar los datos en términos cuantitativos.


5. Facilita la comunicación de conocimientos científicos logrados.
6. Nos lleva a conocer la realidad y a proponer innovaciones para su mejoramiento y desarrollo .

Estrategia y metodología de la investigación descriptiva y experimental


La investigación es descriptiva si se considera que la respuesta a los problemas se
encuentra en algún lugar del presente, a través de la cual se pretenden aclarar los
problemas actuales, en otras palabras se intenta de comprender íntegramente el
presente mediante un sistemático proceso de acopio de datos que posibilite describir la
realidad en estudio de un modo mas completo y adecuado.

Mortmontoy (1994), señaló que la investigación descriptiva es un estudio que cuenta


con una sola población, la cual pretende describir en función de un grupo de variables
y respecto de la cual no existen hipótesis centrales, es probable que se tengan un
grupo de hipótesis que se refieren a la búsqueda sistemática de asociaciones entre
variables dentro de la misma población. Es frecuente observar que en las
investigaciones descriptivas no se señalen en forma explícita una o más hipótesis
centrales, no es que no existan en absoluto, sino probablemente se encuentren en
proceso de planteamiento o definición y los hallazgos permitirán formularlas
convenientemente, para posteriormente proceder a su contrastación.

Rodríguez y Rodríguez (1986) afirmaron que la investigación descriptiva aborda


hechos en su dimensión fenoménica, precisando características o propiedades y
construyendo taxonomía o tipologías.

Pineda et al., (1994) consideran a la investigación descriptiva como uno de los


mayores exponentes de la investigación y señalan que ésta se refiere a etapa
preparatoria del trabajo científico que permite ordenar el resultado de las
observaciones de las conductas, las características, los factores, los procedimientos y
otras variables de fenómenos y hechos. Indican además que este tipo de investigación
no tiene hipótesis explicitas
Van Dalen y Meyer (1996), desde la perspectiva de la investigación educacional,
señalaron que en las primeras etapas – al igual que en otras disciplinas – es necesario
efectuar evaluaciones precisas para determinar la incidencia, distribución y relaciones
de los hechos o fenómenos educativos, su objetivo consiste en llegar a conocer las
situaciones, costumbres y actitudes predominantes mediante la descripción exacta de
las actividades, objetos, procesos y personas señalando además que la investigación
descriptiva no se limita a la mera recolección de datos; la meta de los investigadores
competentes es la predicción e identificación de las relaciones que existen entre dos o
mas variables y aseveran que en los estudios descriptivos los investigadores no se
limitan a presentar puntos personales basados en observaciones casuales, sino que
recogen los datos sobre la base de alguna hipótesis o teoría, exponen o resumen la
información de manera cuidadosa y luego analizan cuidadosamente los resultados
para extraer generalizaciones significativas que contribuyan al avance del
conocimiento.

Tamayo (1996) al considerar la investigación descriptiva como un tipo de investigación,


siguiendo a Abounhamad, señala que ésta interpreta lo que es, y comprende la
descripción, registro, análisis e interpretación de la naturaleza actual y la composición o
47

procesos de los fenómenos. El enfoque se hace sobre conclusiones dominantes o


sobre como una persona, grupo o cosa se conduce o funciona en el presente
(Best ). La investigación descriptiva trabaja sobre realidades de hecho, y su
característica fundamental es la de presentarnos una interpretación correcta.

Metodología
El método descriptivo consiste en describir o interpretar sistemáticamente un conjunto
de hechos relacionados con otros fenómenos tal como ocurren en el presente. Estudia
el fenómeno en su estado actual y su forma natural, las posibilidades de control de las
variables son mínimas, su propósito es describir.

Las etapas de una investigación descriptiva, como cualquier otra comprende las etapas
siguientes:
1. Determinación de las características del problema escogido
2. Definición y formulación de las hipótesis
3. Enunciado de los supuestos y los diversos procesos adoptados.
4. Selección de los temas y las fuentes apropiadas
5. Selección y elaboración de las técnicas de recolección de datos
6. Establecimiento de categorías precisas adecuadas al propósito del estudio
7. Verificación de la validez de las técnicas empleadas para la recolección de
datos.
8. Realización de observaciones precisas y exactas.
9. Descripción, análisis e interpretación de los datos obtenidos en términos
claros y precisos.

Metodología de la investigación experimental


La investigación es experimental si lo que interesa es predecir lo que ocurrirá en el
futuro; es decir si se emprende algo nuevo y diferente o si se introducen ciertos
cambios en las condiciones actuales; es experimental en el sentido de que intenta
establecer una v nueva situación sobre la base de ensayos en condiciones
controladas; además en este tipo de investigación el investigador manipula una o mas
variables, requiere de hipótesis y de un diseño experimental de contrastación de
hipótesis; Best en Avila (1990) define investigación experimental como la descripción y
análisis de lo que será u ocurrirá en condiciones cuidadosamente controladas; es el
tipo de investigación clásica de laboratorio y probablemente la mas difícil pero a su vez
mas exacta.

Pineda et al (1994) lo definieron como el proceso metodológico en el que un grupo de


individuos o conglomerados son divididos en forma aleatoria en grupos experimental y
control y analizados en sus reacciones o efectos respecto a una medida o factor que el
investigador manipula o introduce deliberadamente. Gil y Alva (1991) señalaron que se
trata de una investigación explicativa en laque se maneja o manipula variable
independiente (causa en una relación causa - efecto).
Avila (1990) señala que las características de la investigación experimental son las
siguientes:
1. Su objetivo es probar hipótesis de diferentes grados de abstracción y
complejidad fundados en la identificación de la causa de un determinado
efecto.
2. Son estudios orientados a lograr la predicción.
48

3. Involucra una investigación descriptiva puesto que registra hechos pasados;


determina el estado del fenómeno y determina las condiciones existentes;
pero además realiza se realiza la manipulación de la variable estímulo.
4. Precisa variables importantes; independientes (causas, estímulos);
dependientes (efectos, criterios) e intervinientes.
5. Trabaja con muestras rigurosamente diseñadas y representativas; requiere
de un diseño experimental.
6. Las condiciones en las que se realiza son rigurosamente controladas
En la estrategia se consideran: la naturaleza y etapas; las bases; el control, los factores
a ser controlados y la validez de los diseños pertinentes (figura )

Este tipo de investigación esta relacionada directamente con el experimento, que


según Bunge (2000) implica un cambio planificado en el que se provoca
deliberadamente algún cambio y sus resultados se interpretan con finalidad
cognoscitiva en la que en un medio artificial se verifica la acción de un sujeto
estimulador controlador sobre un objeto que manifiesta una señal que se registra en
forma adecuada.; incluye como un segundo aspecto el control sobre las variables
independientes; las condiciones de producción de los hechos y las condiciones de
observación; se establece sistemas testigo; neutral o control y grupo experimental al
que se aplica el estímulo con la consideración de que ambos grupos deben ser
homogéneos la consideración en relación al proyecto, se menciona que depende del
problema experimental que se espera resolver y de la exacta técnica requerida para
obtener los datos requeridos con la precisión de que se debe usar la técnica específica
par los resultados experimentales. La significación se interpreta comparando si
efectivamente el resultado corresponde a la repuesta al estímulo y si la diferencias
entre los grupos experimentales y testigos son significativas requiriéndose en todo
caso hacer la inferencia en base a la repetición escrupulosa del experimento; las
pruebas de contrastación erradican la ciega creencia en los resultados obtenidos sino
que mas bien estimulan el uso de técnicas independientes para comprobar el
experimento y básicamente tienen fundamentación; objetividad; estabilidad y
concordancia. Las funciones se relacionan con las consideraciones de que el
experimento es un medio; no un fin para la ciencia; produce nuevas ideas y
materializa las ideas contrastándolas y enriqueciéndolas. En resumen es la manera
mas adecuada de hacer ciencia y la más rica de las experiencias humanas.

El método experimental consiste en organizar deliberadamente condiciones, de


acuerdo a un plan previo con le fin de investigar las posibles relaciones causa efecto;
exponiendo a uno o mas grupos experimentales a la acción de una variable estímulo y
contrastando sus resultados con grupos de control o comparación.
49

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


FACULTAD DE CIENCIAS BIOLOGICAS
CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA

PRÁCTICA No. 3: INVESTIGACION CIENTIFICA


I. Encierre con un círculo la respuesta correcta:
1. Uno de los siguientes significados no corresponde a investigación científica:
a. Es la actividad de hacer ciencia
b. Producir conocimiento científico
c. Producir conocimiento protocientífico
d. Se desarrolla a partir del conocimiento científico.

2. Con relación a Investigación científica es incorrecto.


a. Puede concebirse como proceso y como producto.
b. Como proceso plantea hipótesis en relación a problemas científicos
c. Usa el método científico para contrastar hipótesis
d. Como proceso logra el conocimiento científico
50

3. La definición Investigación científica: es un proceso sistemático, controlado y


criticote resolver problemas científicos, corresponde a:
a. Morles (1977) b. Egg (1971)
c. Alvitres (1997) d. Rodríguez y Rodríguez (1988)

4. La definición de investigación científica: Es un proceso formal, sistemático, racional


e intencionado en el que se lleva a cabo el método científico de análisis como un
procedimiento reflexivo, controlado y crítico que permite descubrir nuevos hechos o
datos relaciones o leyes en cualquier campo del conocimiento en un momento
histórico dado; corresponde a:
a. Morles (1977) b. Egg (1971) en Sánchez y Reyes 2002)
c. Alvitres (1997) d. Rodríguez y Rodríguez (1988)

5. El hecho de que la investigación científica posibilite una adecuada aplicación y


contribución a la solución de los problemas en las etapas en las que se ejecuta una
investigación; corresponde a las características de la investigación científica:
a. Requiere de la formación del investigador
b. requiere del desarrollo de un método de Trabajo
c. Exige rigor científico y Técnico
d. Exige una infraestructura de apoyo

6. La etapa de la investigación científica en la que se formula el proyecto de


investigación; según Sánchez y Reyes (2002); corresponde a:
a. Organización. b. Planteamiento c. Implementación d. Ejecución.

7. la etapa de la investigación científica en la que básicamente se recopilan datos;


según Sánchez y Reyes (2002); corresponde a:
a. Organización. b. Planteamiento c. Implementación d. Ejecución
8. la etapa de la investigación científica en la que se elabora el informe de investigación
con fines de difusión o divulgación de los resultados; según Sánchez y Reyes
(2002); corresponde a:
a. Planteamiento b. comunicación c. Implementación d. Ejecución
9. El tipo de investigación científica que intenta solucionar problemas referidos a
propiedades de los objetos; corresponde a las denominaciones siguientes; excepto:
a. Básica b. Sustantiva c. Teórica d. Tecnológica

10. La investigación científica de tipo exploratorio, diseñada para identificar condiciones


en las cuales ocurren determinados hechos o fenómenos es:
a. Descriptiva b. Explicativa c. Experimental d. Aplicada

11. Según el enfoque; Fox (1981) si se piensa que la respuesta al problema está en
algún lugar del presente corresponde al tipo:
a. Bibliográfica b. Explicativa c. Experimental d. Aplicada

12. Según el enfoque; Fox (1981) si se piensa que la respuesta al problema está en el
pasado; corresponde al tipo:
a. Bibliográfica b. Explicativa c. Experimental d. Aplicada
51

13. En relación con los niveles de la investigación; el prever lo que se puede hacer con
los resultados de una investigación científica corresponde a:
a. La explicación b. La predicción c. El control d. La atenuación

14. En relación con los niveles de la investigación; el hecho de tratar de ejercer dominio
sobre los hechos o fenómenos naturales y las causas que lo originan luego de una
investigación científica, corresponde a:
a. La explicación b. La predicción c. El control d. La atenuación

15. Complete el esquema siguiente en relación a las etapas de la investigación científica según
Sánchez y Reyes (2002)

CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA


PRÁCTICA Nº 4: EL EXPERIMENTO

1. CONTESTE BREVEMENTE LAS PREGUNTAS SIGUIENTES:


1.1. Porque el experimento es un cambio planificado:

1.2. En un experimento; ¿De que naturaleza es el medio que rodea al objeto y como
se explicita?.

1.3. ¿Que diferencia hay entre el control pasivo y el activo?

1.4. ¿En que casos se habla de un experimento cuantitativo, semicuantitativo Y


cualitativo?
52

1.5. Cual es la consecuencia pedagógica respecto al experimento cualitativo y


cuantitativo?

1.6 En que consiste el método experimental

1.7 ¿En que clase de ciencia es posible aplicar el método experimental y de que
depende la planificación efectiva?

II. Encierre con un círculo la respuesta correcta


2.1. De las variables descritas; las deliberadamente variadas por el experimentador
son:
a. Las dependientes b. Las Independientes
c. Las variables intervinientes d. las variables adecuadas

2.2. Testigo o control:


a. Es un sistema en el que se controlan las variables independientes.
b. Es un sistema en el que se controlan las variables dependientes
c. Es un sistema en el que se controlan las variables intervinientes.
d. Es un sistema en el que no se controlan variables.

2.3. Al sistema control tambi9en se le denomina:


a. Sistema experimental b. Sistema neutral
c. Sistema independiente d. Sistema paralelo

2.4. La diferencia del grupo control respecto al grupo experimental se debe:


a. A la semejanza de los estímulos situados bajo control del experimentador
b. A la semejanza de estímulos sobre el grupo control
c. A los estímulos activos sobre el grupo control
d. A los estímulos situados bajo control del experimentador; activos sobre el G.
experimental no sobre el grupo control

2.5. Los grupos control y testigo, tienen en común el hecho de ser:


a) Heterogéneos b. Disímiles c. Homogéneos d. Desiguales

2.6. El experimento en el cual se varía a la vez una o más variables y en los que las
diferencias se registran cualitativamente se denomina:
a. Cualitativos b. De proyecto factorial c. Factoriales d. De Proyecto
funcional-

2.7. La proyección de un experimento, No depende:


a. Del problema de experiencia que se debe resolver. b. De la cuestión planteada
c. Del contexto de la cuestión d. Del trasfondo teorético
disponible

2.8. El experimento de producción de aminoácidos bajo posibles condiciones primitivas


de la tierra (S. Miller), es considerado como un experimento de tipo:
a. No estadístico b. Estadístico c. Esquemático d. Vivencial
53

2.9. La Videncia del autor G. Price es un tipo de experimento:


a. No estadístico b. Estadístico c. Esquemático d. Vivencial

2.10. El hecho de experimentar los resultados de un experimento propiamente dicho en


base a teorías existentes o mediante la construcción de una nueva teoría
corresponde a:
a. Cambio planificado b. Control del experimento
c. Significación d. Funciones del experimento

2.11. En la significación una vez obtenidos los datos expuestos, puede hacerse
cualquiera de las siguientes cosas excepto:
a. Sugerir una nueva hipótesis cualitativa
b. Hacer un nuevo enunciado legaliforme de las variables
c. Usar los datos para contrastar o recontrastar una hipótesis disponible.

2.12. El enunciado: el experimento científico es una antorcha que ilumina en la


búsqueda de estructuras; pero no es la única antorcha, ni es tampoco infalible; se
relaciona con:
a. Funciones del experimento b. significación
c. Pruebas de contrastación d. Proyecto

2.13. Las técnicas experimentales deben convalidarse teorética o experimentalmente


por las razones siguientes; excepto:
a. Experimentalmente porque pueden no funcionar
b. Teorética mente porque aun cuando funciones el funcionamiento puede deberse
a alguna causa distinta.
c. La contrastación teorética de un tema experimental consiste en explicarlo en
base a teorías independientemente corroborables
d. En la ciencia aplicada se analiza una nueva técnica para en base al significado
dar dar resultados sobre la base del conocimiento disponible

2.14. Un buen procedimiento de contrastación debe cumplir con las siguientes


condiciones; excepto:
a. Fundamentación b. Objetividad
c. Subjetividad d. Estabilidad
e. Concordancia con otros procedimientos

2.15. La respuesta a una pregunta que inquiere el valor de un experimento, tiene que
buscarse en el curso del análisis de los siguientes aspectos; excepto:
a. El proyecto funcional b. El proyecto experimental
c. Los resultados experimentales d. La relación lógica entre los datos y sus
Hipótesis y Teorías

III. Enuncie en forma secuencial las operaciones de un experimento en relación al


control
54

EL METODO CIENTIFICO

En el contexto de la definición de Investigación científica se consideran dos aspectos


fundamentales, por un lado el método científico y por otro los instrumentos de medición
y recolección de datos. Bunge en Oblitas (1991) asevera que la investigación científica
es la actividad de descubrir mediante un método válido y fiable; las leyes que rigen la
naturaleza, es decir las relaciones constantes o red de relaciones constantes que se
emplean en la naturaleza.

El método científico, definido como un conjunto de normas mediante las cuales se


plantean los problemas, se prueban las hipótesis como posibles soluciones, tiene su
base mayormente fijada sobre aspectos racionales antes que emocionales y sugiere
que los puntos de vista empíricos deberían decidir entre puntos de vista rivales o
enfrentados. Se explica como la manera de proceder encaminada, es un
procedimiento válido y fiable que han utilizado los investigadores para descubrir las
leyes por las cuales se rigen los hechos y las ideas. Es válido, porque mediante él se
describe lo que se pretende describir y es fiable, porque en condiciones similares
siempre se llega al mimo resultado. El método científico proporciona valiosa
información para proceder en la investigación científica de una manera lógica, evitando
errores; pero no suplanta la creatividad del científico y con la ciencia se relaciona en el
55

sentido de que el cuerpo de conocimientos que lo constituyen deben ser objetivos;


comprobados y sistemáticos de las leyes que rigen la naturaleza resultantes de la
investigación hecha con un método válido y enunciados en proposiciones lógicas.

Supuestos del método científico


El método científico en su perfeccionamiento se orienta a métodos particulares para
cada disciplina y en su estructura conceptual se basa en supuestos sobre la naturaleza
(universo) y en las metas que el investigador se propone lograr. Los supuestos se
orientan acerca de la naturaleza y los procesos psicológicos, estos influyen en toda la
actividad del investigador, constituyen la base de sus procedimientos, determinan las
características de los métodos empleados y afectan la interpretación de sus hallazgos.

Supuesto de la uniformidad de la naturaleza, en la naturaleza existe lo que podríamos


llamar procesos paralelos, es decir que lo que ocurre una vez, no solo volverá a ocurrir,
sino que se repetirá siempre en condiciones similares. La naturaleza es ordenada, los
acontecimientos no son sucesos casuales, sino interrelacionados, por eso se afirma
que La ciencia solo es posible en la medida en que la naturaleza sea razonablemente
unidor

En este supuesto se incluyen los siguientes postulados:


a. De las clases naturales, los fenómenos naturales según sus propiedades
esenciales, estructuras y funciones pueden ser agrupados en clases, las denominadas
clases naturales, por ejemplo los trabajos de Linneo en el siglo XVIII sobre la
clasificación de los organismos vivos y los objetivos educacionales de Bloom (1956) y
Krathwohl (1964).

b. De la constancia, durante un determinado período de tiempo algunos


fenómenos no cambiarán sus características básicas, al menos de manera apreciable.
Esto constituye una condición imprescindible para el progreso de la ciencia.
c. Del determinismo, un fenómeno no se produce al azar o por accidente, los
fenómenos naturales son determinados por hechos anteriores.

Supuestos relacionados al proceso psicológico

Todo investigador acepta el supuesto de que puede obtener conocimientos del


mundo que lo rodea mediante los procesos psicológicos de percepción, memoria y
razonamiento. En éste se consideran los postulados siguientes:

a. De la confiabilidad de la percepción, a pesar de la escasa confiabilidad de la


percepción, el científico supone que se puede obtener conocimientos valederos
mediante los órganos sensoriales; pero es necesario que conozca los errores.

b. De la confiabilidad del recuerdo. el recuerdo al igual que la percepción está


sujeto a error, a pesar de la debilidad de la memoria humana, el investigador acepta el
supuesto de que ella puede proporcionar conocimientos fundamentalmente ciertos.

c. De la confiabilidad del razonamiento, se produce cuando se parte de


premisas falsas o se violan las reglas de la lógica por prejuicios intelectuales o por la
56

emisión de juicios defectuosos con respecto a la conveniencia y el uso de las técnicas


estadísticas y de experimentación. A pesar de las limitaciones del razonamiento, los
científicos reconocen su valor como complemento de la investigación.

Para el científico, incrementar su habilidad y su éxito para explicar predecir y


controlar las condiciones y sucesos y comprender los fenómenos que observa,
constituyen las metas científicas.

La explicación, el propósito esencial de la investigación, no se reduce a la mera


descripción de los fenómenos, sino a explicar las causas que lo determinan. La ciencia
busca explicar los fenómenos incorporándolos en su conjunto de relaciones
sistemáticas coherentes, la meta es formular generalizaciones - esquemas
conceptuales - que permitan explicar los fenómenos por un lado y por otro orienten a la
unificación progresiva de sus generalizaciones, es decir la formulación de leyes de
carácter mas general y de mayor alcance. La predicción, un científico no puede
considerarse satisfecho al formular generalizaciones que explican los fenómenos,
también desea predecir la manera en que una generalización operará en nuevas
situaciones. El control, el científico busca la posibilidad de manejar algunas de las
condiciones esenciales que determinan un suceso para lograr que esto ocurra o
impedirlo. El deseo mas profundo del científico es controlar las fuerzas de la
naturaleza, hecho que es difícil lograr, existen diversos fenómenos que se pueden
predecir; pero no controlar, como por ejemplo las condiciones climáticas y la ocurrencia
de terremotos.

Elementos del método científico


Para una comprensión mas adecuada de la concepción del método científico es
necesario hablar brevemente de las relaciones entre los elementos involucrados en el
proceso y que contribuyen a la sistematización de conocimientos. El punto de partida lo
constituye un conjunto de conceptos interrelacionados cuyos componentes deben ser
definidos, ambos (conceptos y definiciones) son importantes para la formulación de
hipótesis de trabajo que sirven para la construcción de modelos teóricos. Las hipótesis
expresan de manera clara las relaciones entre atributos, características,
procedimientos y factores que toman el nombre de variables y que son dimensionadas
o traducidas en indicadores, que en última instancia son los que permiten la
observación directa de un hecho o fenómeno en estudio y que se refieren a
subdimensiones de las variables, a componentes o índices del hecho o fenómeno que
se estudia (Figura 5).
57

Figura 5. Elementos del método científico

Características del método científico

1. Es teórico en su origen y en su fin, parte de una teoría y termina en otra.

2. Se basa en la duda científica, en la ciencia no hay ningún conocimiento,


ninguna ley, ninguna teoría, ningún descubrimiento de la misma de los que no se
pueda dudar, lo que origina su comprobación; sustitución o revisión.

3. Es problemático - hipotético, en cuanto se basa en la formulación de


problemas o interrogantes sobre la realidad y en adelantar conjeturas o soluciones
probables.

4. Es empírico, su fuente de información y de respuestas al problema, es la


experiencia.

5. Es inductivo y deductivo, la inducción y la deducción en la ciencia no se


oponen entre si, sino que ambas están íntimamente ligadas a ella. La inducción solo da
lugar inmediatamente a datos sobre la realidad; pero el relacionar estos datos,
establecer conceptos y enunciados con base en ellos y obtener conclusiones de todo
género es en gran parte obra deductiva.
6. Es autocrítico, es decir se autocorrige y debe ser evaluado y perfeccionado en
base a fallas en su concepción y etapas.

7. Es circular, en el método científico los principios se prueban mediante datos


empíricos y estos se prueban sobre la base de aquellos. El modelo tradicional no
funciona; sino que se ajusta al esquema siguiente:
:

Observación empírica------------------------------TEORIA

TEORIA--------------------- --------------OBSERVACION EMPIRICA

8. Es analítico y sintético, utiliza el proceso de dividir el todo en sus partes y a


la vez posibilita la reunión de las partes en un todo con sentido lógico
9. Es selectivo en lo referente a:i) concentrar su atención en aspectos mas
relevantes del fenómeno, ii) analizar los datos mas significativos y iii) explicar la
realidad, trascendiéndola.
10. Se atiene a las reglas metodológicas formales, y abierto a la imaginación.
58

11. Es preciso, pues pretende obtener conocimientos lo más exactamente


posibles de la realidad y reemplazar los términos vagos.

Etapas del método científico


A este nivel se debe discriminar lo que es fase, etapa y paso, fase es cada uno de los
diversos aspectos, estadios, períodos que presenta un hecho, una cosa, un tema (por
ejemplo apariencia de la luna en cada fase), etapa, esta referida a la época o avance
en el desarrollo de una acción u obra y paso es un período relativamente corto. Luego
se debe puntualizar que las etapas dependen de la concepción de los investigadores,
por ejemplo, Falcón et al (1978) consideran las etapas siguientes:

Percepción: es la toma de contacto con la realidad mediante los sentidos

Descripción: implica la codificación de los atributos de la realidad a nivel del


cerebro humano.

Interpretación, proceso de planteamiento de problemas e hipótesis.

Experimentación, realización activa de la comprobación de las hipótesis.

Aplicación, que corresponde a la esquematización de modelos conceptuales


del cuerpo de la ciencia (teorías) y a la aplicación práctica de estos (tecnologías).

Para estos autores, el método de la ciencia o método científico es general y describen


el método de la investigación científica en particular, que comienza con el
planteamiento de un problema, la formulación de una hipótesis, la selección de
modelos de contrastación de hipótesis que permitan obtener datos que orienten a la
obtención de modelos conceptuales (principios, hipótesis, leyes, teorías) y luego a la
generación de nuevos problemas.

Pineda et al (1994) sugieren las siguientes etapas:

1. Planteamiento del problema, que involucra la identificación (determinación),


descubrimiento y delimitación del problema a partir de hechos o fenómenos que se
desea estudiar.

2. Construcción de un modelo teórico. es decir enmarcar el problema a estudiar


y sus objetivos en un marco que contemple: i) la selección de los factores relativos al
problema, ii) formulación de hipótesis centrales y suposiciones complementarias, y iii)
elaboración de un esquema de relaciones

3. Deducción de consecuencias particulares, en la búsqueda de soportes


racionales, (juicios y razonamientos pertinentes) y la búsqueda de soportes empíricos
(no verificadas).
4. Prueba de hipótesis, que abarca:
i) El diseño de la prueba y metodología a emplear.
ii) Ejecución d ella prueba y recolección de datos.
iii) Elaboración de datos y su procesamiento.
59

iv) Inferencia de la conclusión en base a datos elaborados y como respuesta al


problema.
5. Inclusión de las conclusiones en la teoría, logrado a través de:
i) Comparación de las conclusiones con las predicciones
ii) Reajuste del modelo conceptual o esquema de relaciones.
iii) Sugerencias para el trabajo ulterior para que con el uso del método científico
se sigan investigando problemas.

Cervo y Bervian (1980) sugieren las siguientes etapas para el método científico:

1. Observación, que es la aplicación atenta de los sentidos a un objeto de


estudio para adquirir por ella un conocimiento claro y preciso. Lo consideran de vital
importancia en las ciencias, puesto que de ella depende el valor de los otros procesos.
Sin observación el estudio de la realidad y sus leyes se reduce a simples conjeturas y
adivinación.

Las condiciones exigidas para una buena observación son:

a. Condiciones físicas mínimas, que permitan al observador tener sensaciones


normales y correctas, y el uso de instrumentos que aumenten el alcance, precisión y
que hasta cierto punto puedan suplir a los sentidos
.
b. Condiciones intelectuales, como curiosidad para observar lo que se ve todos
los días y sagacidad para discernir sobre los hechos significativos.

c. Condiciones morales, tales como paciencia para hacer uso racional del
tiempo, valor para separar de los hechos ciertos fenómenos raros o decisivos, e
imparcialidad, es decir el respeto escrupuloso y el amor apasionado a la verdad
La observación debe obedecer a algunas reglas, tales como:

Debe ser atenta.

Debe ser exacta y completa.

Debe ser precisa en cuanto a numerabilidad de los fenómenos y susceptibilidad
de medición cuantitativa.

2. Hipótesis, suponen conocida la verdad o la explicación que se busca, es una


suposición verosímil, luego comprobable o rebatible por los hechos, los que decidirán
la verdad o falsedad de lo que se pretende. Tienen doble función, la primera es de
naturaleza práctica es decir orienta al investigador dirigiéndolo hacia la causa probable
o de la ley que busca, la segunda es teórica para coordinar y completar los resultados
ya obtenidos agrupándolos en un conjunto completo de hechos. Existen algunas
sugerencias para la formulación de las hipótesis y entre ellas se mencionan las
siguientes:
a. No deben contradecir ninguna verdad ya aceptada o explicada.
b. Debe ser simple, es decir escogida como la menos complicada.
c. Sugerida y verificable por los hechos. Newton dijo, No invento hipótesis.
60

3. Experimentación, conjunto de procesos utilizados para verificar la hipótesis, que


sujetados a las reglas de Bacón en Van Dalen (1996) sugieren: i) alargar la
experiencia, ii) variar la experiencia, iii) invertir la experiencia y iv) investigar los
procedimientos de experimentación.
Las formas de experimentación más comunes son:
a. Métodos de las coincidencias constantes: tablas de Bacón; la causa será siempre el
fenómeno en presencia del cual se producirá siempre el efecto y en cuya ausencia no
se producirá nunca, el método de las coincidencias constantes puede explicarse así:
puesta la causa, se da el efecto; retirada la causa, no se da el efecto; alterada la causa
se altera el efecto. Para proceder correctamente, Bacón sugiere tres tablas: i)Tabla de
presencia, en la cual se anotan todas las circunstancias de producción del fenómeno
cuya causa se buscan; ii)Tabla de ausencia, en la cual se anotan todos los casos en
que no se da el fenómeno, debiéndose tener cuidado de anotar los antecedentes
presentes y los ausentes; iii) Tabla de grados, en la cual se anotan los casos con las
variaciones de intensidad del fenómeno y todos los antecedentes que varían junto con
él.
b. Coincidencia constante y coincidencia aislada: Las coincidencias constantes tienen
más valor negativo que positivo, pues un antecedente constante, relacionado con un
fenómeno puede ser apenas una condición sine qua non o un efecto concomitante de
la misma causa.
c. Métodos de exclusión de Stuart Mill
 Método de la concordancia, similar a la tabla de presencia de Bacón.
 Método de la diferencia, similar a la tabla de ausencia de Bacón.
 Método de las variaciones concomitantes, similar a la tabla de grados.
 Método de residuos, como una forma particular del método de diferencia.

4. Inducción, alma de las ciencias experimentales, tienen valor y legitimidad considera


a la Inferencia, equivalente a raciocinio, que puede ser mediata o inmediata.
5. Deducción, es la argumentación que vuelve explicitas verdades particulares
contenidas en verdades universales.
6. Análisis y síntesis; consideran básicamente las cuatro reglas formuladas por René
Descartes para cualquier trabajo científico: i. Nunca aceptar como verdadera cualquier
cosa sin conocerla como tal; sugiere que la evidencia es criterio de verdad; ii) Dividir
cada una de las dificultades que se va a abordar en el mayor número de partes que
fuesen necesarias ( es el análisis ); iii) Conducir con orden los pensamientos
comenzando por los objetos mas simples y mas fáciles para ascender poco a poco,
gradualmente , al conocimiento de los mas complejos(es la síntesis); iv) hacer siempre
numeraciones tan completas y revisiones tan generales que den certeza de no omitir
nada (condición común y garantía del análisis y síntesis); se pueden considerar
diferentes tipos de análisis y síntesis :
Análisis y síntesis experimentales: operan sobre hechos concretos, materiales o
inmateriales y constituyen el patrón de toda experiencia científica en la investigación de
laboratorio, en función del objeto de estudio se cumple de una de las siguientes
maneras: i) por medio de la separación real y cuando es posible por medio de la
reunión de sus partes; por ejemplo la descomposición del agua en hidrógeno y oxigeno
y la reunión de estos elementos para formar agua. ii) análisis y síntesis racionales,
61

operan no solo sobre seres y hechos; sino sobre ideas y verdades, más o menos
generales.

7. Teoría, empleado para significar un resultado al cual tienden las ciencias las que no
se quedan o se detienen en la formulación de leyes , sino que determinadas las leyes ,
procuran interpretarlas o explicarlas y propician el surgimiento de llamadas teorías
científicas que reúnen determinado número de leyes particulares bajo la forma de una
estructura superior y mas universal.. En otros términos un conjunto de leyes
particulares, mas o menos ciertas, ligadas por una explicación común toma el nombre
de teoría científica o teoría, por ejemplo la teoría de la evolución o el sistema de
Laplace.
Son funciones de las teorías
1. Coordinan y unifican el saber científico.
2. Son instrumentos esenciales para el científico pues le sugieren analogías hasta
entonces ignoradas y les posibilitan nuevos descubrimientos.
3. Las teorías orientan al científico con economía de pensamiento.
4. Las teorías no son verdaderas ni falsas,, son cómodas.
5. Las teorías sirven para clasificar los hechos y las leyes.
6. Las teorías son explicativas, es decir expresan la esencia de la naturaleza sensible
dado que toda ciencia tiene por objeto lo que las cosas son o sus esencias. Con
todo no expresan la esencia en sí misma (como la hace la filosofía); sino en sus
aspectos observables y experimentables.

8. Doctrina, propone directrices para la acción es el a priori que el investigador fija


para el fin que espera lograr e involucra ideas morales, posiciones filosóficas; y
políticas y actitudes psicológicas, tienen también interese de clase o nacionales. La
doctrina es un ordenamiento de corrientes, de pensamientos que no se limita a
comprobar o explicar los fenómenos sino que los aprecia en función de determinadas
concepciones éticas y en función de ellas preconiza unas y prohíbe otras. Finalmente
debemos explicitar que la doctrina se sitúa en la línea divisoria de los problemas del
espíritu y de los hechos (teoría = ciencia x acción).

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


FACULTAD DE CIENCIAS BIOLOGICAS
CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA

PRÁCTICA Nº 5: MÉTODO CIENTÍFICO

I. Encierre con un círculo la respuesta correcta:


1. Porque con el método científico, se describe lo que se pretende describir, se
afirma que:
a. Es valido. b .Es fiable. c. Determinístico d. Heurístico
2. Porque con el método científico, en condiciones similares, siempre se llega al
mismo resultado, se afirma que es:
62

a. Válido. b. Fiable. c. Susceptible d. Exacto.


3. El enunciado: La ciencia, solo es posible en la medida en que la naturaleza sea
racionalmente uniforme, se refiere al supuesto:
a. Del proceso psicológico b. Del determinismo.
c. De la uniformidad de la naturaleza d. De la transformación de la naturaleza.
4. El supuesto del método científico relacionado con el proceso psicológico, involucra
los postulados siguientes; excepto:
a. De la confiabilidad de la percepción b. De la confiabilidad del recuerdo.
c. De la confiabilidad del razonamiento d. De la confiabilidad de la
Constancia
5. Son metas científicas; excepto:
a. La explicación b. La predicción c. La objetividad d. El control

6. De os elementos del método científico, los que en última instancia permiten la


observación directa de un hecho o fenómeno y que se refieren a subdivisiones de
las variables, se denominan:
a Conceptos b. Definiciones c. Hipótesis d. indicadores.
7. Se afirma que en la ciencia no hay ningún conocimiento, Ley o Teoría científica de
la que no se pueda desconfiar, orienta a una característica del método científico
denominada:
a. El método científico es teórico en su origen y fin
b. El método científico es problemático-hipotético
c. Es empírico
d. Se basa en la duda científico

8. El método científico pretende obtener conocimientos lo más exactamente posibles


de la realidad, ello es compatible con la característica:
a. El método científico es autocrítico
b. Es selectivo
c. El método científico es analítico sintético
d. Es preciso

9. Las etapas del método científico: Percepción—Descripción—Interpretación—


Experimentación—Aplicación; son propuestas por:
a. Falcón et al. (1978) b. Sierra (1988)
c. Torres (1994) d. Van Dalen y Meier (1996).

10. Las etapas del método científico:


- Planteamiento del problema
- Construcción de un modelo teórico
- Deducción de consecuencias particulares
- Prueba de Hipótesis
- Inclusión de las conclusiones en la teoría científica
Son propuestos por:
a. Kopnin (1966) b. Moya (1994)
c. Pineda et al., (1994) d. Falcón et al., (1978)
63

11. Las etapas del método científico: Observación—Hipótesis—Experimentación—


Inducción—Deducción—Análisis y síntesis –Teoría –Doctrina; son propuestos por:
a. Bunge (1981) b. Moya (1994)
c. Cervo y Bervián (1980) d. Hernández et al (1991)
12. En la experimentación, las tablas de Bacón no incluyen a uno de los siguientes
enunciados
a. Tabla de presencia b. Tabla de ausencia
c. Tabla de grados d. Tabla de similitudes

13. Los métodos físicos y químicos estarían considerados dentro de:


a. Los métodos generales b. Los métodos específicos
c. Los métodos particulares d. Los métodos indirectos determinantes

14. El enunciado: El método científico es el motor de la ciencia, es una frase acuñada


por:
a. Bunge (1981) b. Kopnin (1966)
c. Kedrow y Spirkin d. Gil y Díaz (1993)

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


FACULTAD DE CIENCIAS BIOLOGICAS
CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA

PRÁCTICA Nº 6: METODO CIENTIFICO


¿QUE ES Y A QUE PUEDE APLICARSE EL MÉTODO CIENTÍFICO?

I. Encierre con un círculo la respuesta correcta:


1. El concepto general de método se consolida al nacer la ciencia moderna a partir del:
a. siglo XII b. Siglo c. Siglo XVII d. Siglo XIX

2. Los primeros pensadores que propusieron la adopción de métodos generales para


lograr avances en el conocimiento científico, Fueron:
64

a. Arquímedes y Aristóteles b. Bacón y Descartes


c. Hooke y Wirchow d. Leibniz y Einstein

3. El método científico se define como el conjunto de reglas para observar fenómenos


e inferir conclusiones a partir de las observaciones indicadas y corresponde a:
a. Arquímedes b. Descartes c. Bacón d. Leibniz

4. La idea de que existe el método inductivo y de que su aplicación no requiere de


preparación previa, la atractiva y que se cree muy eficiente está dentro de lo que
se considera:
a. Metodología b. Metodolatría c. Metodonimia . Metodonomía

5. Descartes, a diferencia de Bacón plantea como métodos básicos.


a. La deducción y la inducción b. El análisis y la síntesis
c. El análisis y la deducción d. La inducción y la generalización

6. La adición del método de invención al método de análisis fue una propuesta de:
a. Arquímedes b. Bacón c. Descartes d. Leibniz

7. La ciencia natural moderna nace con:


a. Bacón b. Descartes c. Leibniz d. Galileo

8. Fueron criterios de Galileo; excepto.


a. No se conforma con la observación; pero si la competencia arbitraria.
b. Propone hipótesis y las pone a prueba experimental
c. Se interesa vivamente por los problemas metodológicos, Gnoseológicos y
ontológicos
d. Enuncia los pasos del método científico moderno.

9. Las comprobaciones indirectas nunca son:


a. Excluyentes b. Concluyentes c. Probables d. Evidentes
10. Que todas las teorías deben poder contrastarse directamente con datos empíricos
son opiniones de:
a. Galileo y Arquímedes b. Carnap y Pope
c. Bacón y descartes d. Kedrow y Spirkin
11. El núcleo de la cientificidad (un neologismo expresado por Mario Bunge (1981) es:
a. La Probabilidad b. La posibilidad
c. La contrastabilidad d. La generalidad.

12. Para discriminar los tipos de contrastabilidad debemos partir de:


a La realidad b. El método científico
c.Las Hipótesis y Teorías d. El experimento

13. El diámetro del campo microscópico se puede medir directamente usando una
regla graduada al 0,1 cm , sin embargo si se usa una fórmula para calcularlo nos
referimos a una constrastabilidad empírica:
a. Directa b. Indirecta c. Compatible d. Teórica

14. Científica; significa que:


65

a. Solamente es verificable experimentalmente. c. Es contrastable


solamente
b. Solamente es verificable racionalmente
d. Es contrastable y compatible con el grueso del conocimiento (científico).

15. Los primeros en emplear el método científico en las ciencias sociales fueron:
a. Los Biólogos b. Los Físicos c. Los Matemáticos d. Los Economistas.

16. En relación a la universalidad del Método científico; la diferencia fundamental entre


filosofía y ciencia (cuando la hay), se refiere:
a. La máxima generalidad de la filosofía. c. La Epistemología
b. La máxima generalidad de la ciencia d. La Gnoseología

17. En relación al método científico es incorrecto:


a. El nombre es ambiguo b. El método existe y es eficaz
c. Es engañoso porque no hay recetas para investigar.
d. Es verdadero porque si hay recetas para investigar.

18. En conclusión el método científico:


a. es milagroso b. Es la manera de hacer buena ciencia
c. Es de corto alcance d. Busca pautas particulares.

19. Ordene las etapas del método científico colocando en el paréntesis que antecede a cada proposición,
el número de orden correspondiente:
( ) Planteo preciso del problema.
( ) Corrección de las hipótesis
( ) Obtención de una solución exacta o aproximada.
( ) Invención de nuevas ideas; (hipótesis, teorías o técnicas) o producción de nuevos datos
( ) Búsqueda de conocimientos o instrumentos relevantes.
( ) Puesta a prueba, contrastación de la solución.
( ) Descubrimiento del problema.
( ) Tentativa de solución del problema
( ) Investigación de las consecuencias.

21. Ejemplifique la aplicación del método científico a un determinado problema siguiendo


a Bunge (1982).
UNIVERSIDAD NACIONAL DE TRUJILLO

FACULTAD DE ENFERMERÍA

SECCION DE SEGUNDA ESPECIALIDAD

CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA

Práctica 7: TIPOS DE ESTUDIOS

1. Se desea identificar la relación que existe entre el nivel de información sobre insuficiencia
cardiaca congestiva y el estilo de vida en pacientes adultos diagnosticados del servicio de Medicina
del H:V:L:E: de Trujillo.
El estudio será: .....................................................................................................
66

2. Se pretende probar la efectividad del NaCl en el mantenimiento de la vía endovenosa permeable,


haciendo uso de la doble vía sin necesidad de utilizar la solución de heparina, con lo que se lograría
evitar los costos de procedimientos, así como contribuir a los conocimientos de enfermería en
aspectos técnicos e instrumentales, para mejorar la atención.

El estudio será: .....................................................................................................

3. Se planifica la realización de una investigación sobre el nivel de ansiedad y la dimensión y la


dimensión del dolor en mujeres adultas maduras sometidas a histerectomía abdominal total en el
Hospital EsSALUD III-Chimbote en las primeras seis horas y luego a las 24, 48 y 72 horas de post
operadas.

El estudio será: .....................................................................................................

4. Se pretende determinar la relación de los factores de riesgo: edad, estancia hospitalaria,


ventilación mecánica con la neumonía nosocomial en pacientes de la Unidad de Cuidados intensivos
del HB de Trujillo.

El estudio será: .....................................................................................................

5. Se planifica aplicar modelos educativos directamente a los niños en edad escolar e


indirectamente a través de sus madres a fin de determinar cuán de los dos tiene un resultado más
efectivo en la calidad de prácticas de medidas higiénicas en escolares.

El estudio será: .....................................................................................................

6. Se pretende identificar los dilemas éticos que confrontan las/os estudiantes de enfermería de
Universidad Nacional y la Universidad Privada Antenor Orrego de la ciudad de Trujillo, durante sus
prácticas pre-profesionales.
El estudio será: .....................................................................................................

7. Se desea determinar si el grado de estrés de la enfermera tiene relación con la percepción que el
paciente tiene de su interrelación con ella en los servicios de Cirugía”A” y Cirugía “B” del H:V:LE. de
Trujillo.

El estudio será: .....................................................................................................

8. Se planifica la realización de un estudio durante cinco años en mujeres que utilizan


anticonceptivos orales y que desarrollan cáncer de cuello uterino, con los criterios de inclusión
siguientes: i) que vivan en pareja, y ii) mayores de 15 años y menores de 30 años.
El estudio será: .....................................................................................................
9. Se pretende identificar la causa por la que los pobladores de Miramar en los meses de febrero y
marzo del 2002 presentaron una alta incidencia de cólera, considerando dos grupos, el primero que
incluya a personas en las que se les diagnosticó ciertamente que padecieron esta enfermedad y un
segundo grupo que no padecieron esta enfermedad, analizando en ambos casos la causa o variables
condicionantes en base a las historias clínicas de los pacientes que acudieron a la posta médica del
MINSA en Miramar y a las encuestas a personas que no fueron afectadas.

El estudio será: .....................................................................................................

10. Se pretende estudiar la incidencia de pacientes con SIDA que acuden al HVLE y que en el
diagnóstico preliminar fueron diagnosticados como portadores, evaluándolos primeramente para
verificar las manifestaciones clínicas y se hará un seguimiento durante cinco años para apreciar la
evolución seleccionará un grupo que no presente signos de esta enfermedad, los mismos que serán
evaluados durante el mismo periodo de tiempo.

El estudio será: .....................................................................................................


67

QUE ES Y A QUE PUEDE APLICARSE EL CONOCIMIENTO CIENTÍFICO

El autor asevera que el método científico debe examinarse desde dos puntos de vista;
i) en lo que es el método científico y ii) su extensión más allá de la naturaleza. Si se
concibe el método científico identificándolo con el método experimental, su alcance
queda limitado; en cambio si se le considera en sentido amplio queda también
ampliado en cuanto a su aplicabilidad.

De los orígenes a la actualidad.

Un método es u procedimiento regular; explicito y repetible para lograr algo, sea


material o conceptual. La idea de método es antigua, la de método general aplicable a
un conjunto de operaciones, lo es menos.
68

El método surge en el período clásico griego mencionándose el método de Arquímedes


para calcular áreas de figuras planas de figura curva. El concepto general de método
se consolida y populariza a comienzos del siglo XVII al nacer la ciencia moderna con
Bacón que aplica el método inductivo; exageraba la importancia de la experiencia
ordinaria e ignoraba la experimentación y la existencia de teorías. Descartes en cambio
empleó el método de análisis y la deducción y menospreciaba la experiencia.

Leibniz a fines del siglo XVII pedía que al método de análisis se agregara el método de
la invención de las verdades iniciales. La ciencia natural moderna nace con Galileo,
quien no se conforma con la observación pura ni con la conjetura experimental; funda
la dinámica moderna, primera fase de a la ciencia moderna; engendra el método
científico moderno; pero no encamina sus pasos, dando importancia a los datos
empíricos y mas tolerantes a las teorías

Contrastabilidad empírica y teórica.


La ciencia pura y la aplicada han llegado a un punto tal que las teorías son tan
complicadas que es difícil refutarlas y las observaciones tan cargadas de teorías que
no es fácil determinar que confirman o refutan.Los avances de la ciencia nos obligan a
usar la contrastabilidad que el autor considera como núcleo de la cientificidad ya
que una idea puede considerarse científica solo si es contrastable con datos empíricos.

Debemos distinguir dos tipos de contrastabilidad: directa o indirecta y proceder de


acuerdo al diagrama siguiente:

EMPIRICAMENTE
DIRECTAMENTE

HIPOTESIS CONTRASTABLES

O INDIRECTAMENTE

TEORICAMENTE
TEORIAS
INCONTRASTABLES
Sin embargo a ello debe agregarse el requerimiento de suficiencia o compatibilidad con
el grueso del conocimiento científico.

En resumen;
CIENTIFICA = CONTRASTABLE + COMPATIBLE CON EL GRUESO DEL CONOCIMIENTO
CIENTÍFICO

FORMULACION ACTUAL DEL MÉTODO CIENTÍFICO:

Una investigación (de un conjunto de problemas) procede en arreglo al método


científico si cumple o al menos se propone cumplir las siguientes etapas:
1. Descubrimiento del problema
2. Planteamiento preciso del problema
3. Búsqueda de conocimientos o instrumentos relevantes del problema
4. Tratativa de solución del problema con ayuda de medios identificados
69

5. Formular las hipótesis , teorías o prácticas


6. Obtención de una solución (exacta o aproximada del problema con ayuda
del instrumental conceptual o empírico disponible.
7. Investigación del las consecuencias de la solución obtenida
8. Contrastación de la solución.
9. Corrección de la hipótesis

El método científico ayuda a ordenar precisar y enriquecer conocimientos, decisiones,


planes, etc. El método forma, no informa, es una actitud más que un conjunto para
resolver problemas

UNIVERSALIDAD DEL METODO CIENTIFICO


El método científico se emplea tanto en ciencias naturales como sociales y
posiblemente a la filosofía científica y la ontología (o metafísica o cosmología filosófica)

CONCLUSIONES
Se han usado varios procedimientos para abarcar todos los campos del saber;
pero se detesta a los metodólatras.
La manera de proceder característica de la ciencia se ha dado en llamar Método
científico; aun cuando el nombre es ambiguo, por una parte el método existe y es
eficaz y por la otra es engañoso; pues llevaría a creer que consiste en un conjunto de
recetas exhaustivas e inefables que cualquiera pueda manejar para inventar ideas y
ponerlas a prueba; se considera que no hay tales recetas sino mas bien una estrategia
de la investigación científica.

En resumen, el método científico no es tan milagroso como suelen creerlo sus


entusiastas que solo lo conocen de oídos, ni de tan corto alcance como quieren
hacernos creer sus detractores. El método científico no es ni mas ni menos que la
manera de hacer buena ciencia, natural o social; pura o aplicada, formal o fáctica.

BUNGE M. 1981. Epistemología, Barcelona. Ariel. P: 28-36, 42- 45.

CRITERIOS PARA SELECCIONAR UN TEMA DE INVESTIGACION


ADAPTADO DE TAMAYO, J. (2002)

CRITERIO DEFINICIÓN EN CONTEXTO


1. PERTINENCIA Cuando el problema es prioritario
a. Por su magnitud o extensión
b. Porque afecta a muchas personas
c. Por la seriedad o gravedad
d. Por su importancia
2. AUSENCIA DE Cuando el problema no ha sido objeto de
DUPLICACION investigación
3. VIABILIDAD Cuando se dispone de personal, tiempo, equipo y
dinero para efectuar la investigación.
4. ASENTIMIENTO POLITICO Cuando las autoridades de la institución están
interesadas en la investigación
70

5. POSIBILIDAD DE No solo depende del VB de las autoridades sino de


APLICACION la disponibilidad de recursos para ejecutar las
recomendaciones
6. URGENCIA DE LOS DATOS Cuando se requieren los resultados a corto plazo
para tomar decisiones
7. ASENTIMIENTO ETICO. Necesidad de contener el conocimiento informado
por escrito de las personas que van a ser objeto de
investigación.

ESCALAS DE VALORACION PARA LOS CRITERIOS


CRITERIO DEFINICIÓN EN CONTEXTO
1. PERTINENCIA 1. Poco pertinente
2.Temas mas o menos aceptable
3. Muy pertinente
2.AUSENCIA DE DUPLICACION 1. Se dispone de información suficiente
2. No se dispone pero no cubre determinada información
importante
3. No se dispone de información fidedigna para la
solución del problema
3.VIABILIDAD 1. El estudio no es viable con los recursos disponibles.
2. El estudio es viable con los recursos disponibles
3. El estudio es muy viable con los recursos disponibles
4.ASENTIMIENTO POLITICO 1. Las autoridades no aceptan el tema
2.Tema mas o menos aceptable
3. Tema plenamente aceptable
5.POSIBILIDAD DE APLICACION 1. Ninguna probabilidad
2. Alguna probabilidad
3. Bastante probabilidad.
6. URGENCIA DE LOS DATOS 1. La información no es urgente
2.La información podría utilizarse en varios meses
3.La información es urgente para la toma de decisiones
7. ASENTIMIENTO ETICO. 1. Problema ético de importancia.
2.Problema ético de poca importancia
3. Ningún problema ético.,
MATRIZ PARA LA SELECCIÓN DE TEMA DE INVESTIGACION

1 2 3 4 5 6 7
CRITERIO PERTINENCIA AUSENCIA DE VIABILIDAD ASENTIMIENTO POSIBILIDAD URGENCIA ASENTIMIENTO PUNTAJE
DUPLICACIÓN POLITICO DE DE LOS ETICO TOTAL
TEMA APLICACION DATOS
PROPUESTO

1.

2.

3.

4.

5.
EL PROYECTO DE INVESTIGACION CIENTIFICA

CONCEPCION
¿Será posible realizar una investigación científica?; ¿Será posible concebir una
técnica y un método que guíe al investigador a la realización de un evento
científico?. Frente a estas cuestiones, se puede aseverar que no existen reglas
absolutas que nos orienten sin incurrir en error a la plena consecución de una
investigación; pero no significa esto que el hombre de ciencia se oriente por la
improvisación, que de hecho lo llevará al caos.

El investigador debe contar sino con algo definitivo e infalible, con algunas normas
elementales que le ayuden a evitar el despilfarro de tiempo y esfuerzo y lo que no
debe descuidar es: i) la honestidad intelectual, es decir el aprecio por la objetividad;
ii) la independencia del juicio, es decir, la capacidad de convencerse a si mismo con
pruebas pertinentes; iii) coraje intelectual, para defender la verdad y iv) amor por la
libertad intelectual; que le otorguen la confianza como investigador; salvando estas
situaciones el investigador orienta su trabajo elaborando el proyecto de
investigación sobre la base de aspectos gnoseológicos y metodológicos adecuados.

Nuestra primera tarea sería la definición de proyecto de investigación desde


diferentes perspectivas:

Hayman (1981) define un proyecto de investigación como una propuesta,


que redacte en detalle un plan de la manera y estrategia para conducir un trabajo
de investigación; el plan debe ser tan completo que cualquiera que sea la forma que
se le dé otra persona aparte del investigador, pueda seguirlo.

Rojas Soriano (1983) lo define como una guía en la que se indican los aspectos
mas importantes a desarrollar en nuestro trabajo científico, necesario para realizar
la investigación; es como un mapa en el que se señala la ruta (diseño de
investigación) el mismo que se elabora una vez que se tiene conocimiento teórico
del tema y se dispone del material empírico de la realidad que interesa investigar.

Tecla (1980) afirma que el proyecto posee una estructura, expresa un orden lógico
no solo de las fases de la investigación, sino también hacia el interior de cada una
de ellas , por lo tanto ya es, hasta cierto punto, un producto de cierto nivel de
investigación que nos introduce en la temática, nos aproxima al objeto de estudio y
nos expresa una estrategia en el proceso del conocimiento.

Ary et al., (1982), lo definen como un plan gradual para encontrar nuevos
conocimientos, etapa en la cual la intuición e inspiraciones de los investigadores
adquieren una forma concreta.

Sánchez y Reyes (2002), señalan que un proyecto de investigación es un modelo


abstracto de cómo se va a desarrollar un tipo particular de producción,
caracterizado por un grupo secuencial de actividades tendientes a lograr un
resultado y el proyecto de investigación prevé a través del planeamiento y
programación, como se va a llevar a cabo el proceso de investigación científica.

Moya (1994) luego de enjuiciar la mayoría de estas definiciones, define el proyecto


de investigación como una propuesta teórica metodológica y técnica para plantear y
resolver un problema científico. Es el primer gran momento en el proceso de
73

investigación que conducir a cristalizar la ciencia y la experiencia acumulada por los


investigadores.

Y nuestra consideración se expresa en los términos siguientes: es un estudio que


propone la investigación de problemas científicos o tecnológicos con el
propósito de lograr soluciones explicativas que incrementen el saber
científico, que sean capaces de generar o adoptar tecnologías para alcanzar
objetivos de desarrollo y que anticipa la forma lógica , metodológica y
secuencial de las estrategias a seguir en la ejecución de una investigación
sobre la base de aspectos concretos y científicamente explicitados.
Considerando como aspectos básicos el planeamiento y la proyección éste consiste
en decidir por anticipado lo que se debe hacer, obteniéndose como resultado un
plan de actividades configuradas en etapas con orden lógico y temporal que
promueve conductas y que es susceptible de evaluación y valoración, la
programación como un proceso de diseño de un programa, constituye la
consideración de un plan de actividades específicas las que deben cumplirse en
tiempos límites a emplear y sus respectivos costos

Modelos

Basados en el método científico se pueden distinguir los modelos siguientes:


i) Modelos teóricos, son modelos generales y abstractos que contienen las fases
centrales de un proyecto de investigación basados en la secuencia: Problema,
Marco teórico, Hipótesis, material y métodos. Estas fases se dan en las diversas
áreas del conocimiento y su generalidad puede llegar al máximo y pueden
apreciarse en las siguientes páginas propuestos por autores e instituciones en
función de su orientación, líneas de investigación e intereses.

ii) Modelos concretos, son los proyectos elaborados por los investigadores, se
elaboran sobre la base de un objeto específico y se producen de manera parcial los
elementos del mismo. En estos modelos, aparece planteado determinado problema
sobre la base de un marco teórico que le sirve de sustento y base y que incluye una
estructura secuencial según la naturaleza del problema dotados de movimiento y
relaciones bien definidas.

En general todos los proyectos tienen estas características, la diferencia radica en


que los que por su mayor desarrollo y profundidad se convierten en modelos y
ejemplos los que constituyen material didáctico parta orientar los procesos de
enseñanza aprendizaje

Estructura básica

Conceptualmente, la estructura en general es una forma según la cual se ordenan


los elementos del proyecto dispuestos en una relación secuencial; según este
criterio, el proyecto de investigación no tiene una estructura y secuencia de etapas
absolutas; pero si debemos referirnos a una serie de principios metodológicos que
deben ser adaptados a proyectos de investigación según la clase y los
requerimientos, por lo que de acuerdo ala problemática que ha de ser resuelta y
buscando la necesidad de la eficiencia y método, materia de estudio y verificación;
el proyecto de investigación se elabora siguiendo la estructura que a continuación
se menciona: i) Generalidades, ii) Plan de investigación, iii)Aspecto administrativo y
iv) Referencias.
74

Tomemos como ejemplo el proyecto de investigación científica de la Facultad de


Ciencias Biológicas de la Universidad Nacional Pedro Ruiz Gallo y de la Facultad
de Enfermería de la Universidad Nacional de Trujillo.

PROCESO DE ELABORACIÓN Y PLANTEAMIENTO DE CADA UNA DE SUS


FASES Y CONDICIONES CIENTÍFICAS DE ELLAS.

La investigación no es un simple planteamiento teórico, retórico y literario, es un


proceso que se realiza a partir de los hechos, de los problemas. Además de la
información científica que se pone en juego; la experiencia del conocimiento
acumulado y de una estrategia de trabajo.

Para investigar se debe tener contacto con los hechos, estudiarlos y analizarlos
sistemáticamente, obteniéndose resultados y conclusiones. La investigación como
aplicación de procedimientos científicos debe ser planificada a fin de garantizar el
logro de los objetivos esperados en forma oportuna y confiable.

La planificación de la investigación es un proceso racional, permanente y dinámico,


que adecua los medios y recursos para el logro de objetivos y de resultados
propuestos. En función de la naturaleza y estructura del problema, como
instrumento de la planificación se elabora el proyecto de investigación que permitirá
alcanzar los objetivos, metas y resultados propuestos, para lograr esto se tiene que
trabajar con precisión, ordenamiento coherente y racional de las acciones,
actividades y planos, de los medios técnicas y recursos disponibles elegidos para
desarrollar la investigación.

Existen diversas propuestas para la estructura y contenido del proyecto de


investigación, en los cuales más que discrepancias conceptuales, solo se perciben
diferencias formales. En este documento se detalla un esquema de proyecto de
investigación que ha nuestro criterio es el que mas se ajusta para el trabajo en el
área de

I. GENERALIDADES.
1.1. Título:
El título debe ser en lo posible analítico enunciado con una conexión lógica
de conceptos bien definidos y que contenga las variables involucradas en la
formulación del problema científico.

1.2. Autor(es):
Nombres de los investigadores que han de participar en el proyecto. De ser
posible indicar sus experiencias y niveles investigativos. Señalar al
investigador responsable.

1.3. Tipo de investigación:


El tipo de investigación está referido a la clase de investigación que se esta
planificando realizar, en relación a consideraciones según las cuales se
pueden estructurar las ideas de investigación. Así, de acuerdo a lo
anteriormente referido en el proyecto se debe indicar si corresponde a una
investigación bibliográfica, descriptiva o experimental.

1.4. Localidad o institución donde se realizará:


Se anotará la ubicación geográfica donde se ejecutará el proyecto e
igualmente el nombre de la institución.
75

1.5. Duración del proyecto:


Tiempo estimado que demorará la ejecución del proyecto.

II. PLAN DE INVESTIGACIÓN

2.1. PROBLEMA CIENTÍFICO

2.1.1. ANTECEDENTES DEL PROBLEMA


En esta sección se presentará los antecedentes bibliográficos del problema
de investigación a nivel internacional, nacional y local. Es decir se realiza
una exposición en el devenir de los conocimientos en el área elegida y
particularmente aquellos referidos al problema específico. Así mismo se
realiza una descripción de la situación actual en relación al problema y su
importancia en el contexto social y/o tecnológico.

2.1.2. JUSTIFICACIÓN DEL PROBLEMA


Este aspecto responde al porqué y para qué se realiza la investigación. En
tal sentido, se puede destacar su importancia o justificar el proyecto de
investigación, tomando en cuenta cualquiera de los siguientes criterios:
a) Puede haber una justificación legal en el sentido que se realiza el
estudio cumpliendo con las exigencias de dispositivos, normas y
directivas de dependencias que fijan políticas de investigación.
b) Puede mostrarse la importancia del estudio desde un punto de vista
Teórico – Científico o Tecnológico, en el sentido de que los resultados y
productos de la investigación sean contribución al desarrollo de la
ciencia y de la técnica.
c) Puede mostrarse la importancia práctica del estudio, en el sentido de
que los logros del mismo, servirán para reajustar políticas de acciones
concretas que permitan actuar sobre un fenómeno en forma inmediata.

2.1.3. PLANTEAMIENTO DEL PROBLEMA CIENTÍFICO


Todo problema se plante sobre un trasfondo de conocimientos científicos
(datos, teorías y técnicas de la ciencia de estado). Por ello es indispensable
elegir y delimitar el problema científico antes de iniciar la investigación.
El planteamiento del problema ha sido muy bien establecido por Bunge
(1979), quién concede a su determinación papel fundamental en el
desarrollo del proceso científico de la investigación; diversos aspectos de su
propuesta se incluyen en las líneas que sobre estadios y formulación se
exponen a continuación:
a) Formulación (¿Qué es?)
b) Exploración preliminar (¿Qué aspecto tiene, es medible, etc.)
c) Descripción (Como está, cómo es, cuándo ocurre, etc.)
d) Interpretación (Cuáles son las variables relevantes y cómo están
relacionadas)
e) Control de la solución (Cuál es el dominio de validez de la solución)

2.1.4. DELIMITACIÓN DEL PROBLEMA


No es suficiente haber encontrado una dificultad de importancia para tener
un problema de investigación. Es absolutamente indispensable determinar la
extensión del problema, conocer sus límites y sus alcances. De esta
manera, el investigador habrá logrado conocer el sentido real del problema.
Para tal efecto, el investigador utiliza la información de que dispone,
examina los antecedentes del problema, lo que se relacione con él. A fin de
76

evitar confusiones, también aclara los conceptos que estén relacionados con
el problema, precisa el significado de los términos con los que se expresa,
complementa u opone al marco teórico respectivo. De esta manera el
problema queda centrado a través de términos de significado claro. Sus
límites quedan definidos.

2.1.5. FORMULACIÓN DEL PROBLEMA


Cuando han sido establecidas las bases conceptuales del problema a través
de una precisión de su significado y se han fijado también los alcances del
mismo es hora de expresarlos, de formularlo, ya que un problema bien
formulado tiene grandes posibilidades de ser resuelto correctamente. Según
KERLINGER (1975) existen tres criterios para formular un problema, ellos
son:
a) Debe referirse a relaciones entre “variables” de una realidad.
b) Debe ser formulado de modo claro e inequívoco, de preferencia en
forma de pregunta o proposición interrogativa, y.
c) Debe ser susceptible de verificación empírica.
Si el investigador satisface estos criterios en la formulación del problema,
tendrá una idea clara de lo que él desea hacer.

2.2. HIPÓTESIS CIENTÍFICA

2.2.1. CRITERIOS DE FORMULACIÓN


Cuando el investigador tiene definido el problema, los pasos siguientes
están encaminados a encontrar la solución adecuada.
En la búsqueda, la hipótesis jugará un papel importante. Aunque en algunas
oportunidades se a renegado el empleo de hipótesis, la ciencia tiene en ella
un elemento indispensable. Es también en la hipótesis donde el hombre de
ciencia pone en juego su capacidad creadora, su imaginación para vincular
experiencias y razón, elementos de la realidad viva con elementos teóricos.
Las hipótesis científicas deben ser formuladas en términos inequívocos, esto
es, que no deben dar lugar a dobles interpretaciones para poder diseñar una
experiencia que posibilite su contrastación. Las condiciones que
caracterizan a una hipótesis válida se reducen a:
a) Claridad y precisión en su significado. La hipótesis debe enunciar su
contenido en términos comprensibles y debe estar basada en conceptos
e ideas bien definidas. De esta manera no serán posibles las
confusiones, las imprecisiones y los desvíos conceptuales a través de
desvíos idiomáticos.
b) Posibilidad de comprobación empírica. Para el avance de la ciencia la
hipótesis que es comprobable en el presente es superior a la hipótesis
que sólo es potencialmente comprobable.
c) Referencia a hechos relacionados con el problema sujeto a
investigación. El investigador debe atender sólo a las hipótesis que son
necesarias, dejando a un lado las que son superfluas, no referidas
directamente con el problema que estudia. Además la hipótesis tiene que
referirse precisamente a aquellos hechos comprendidos dentro del
problema.
d) Tener vinculación y fecundidad teórica. La hipótesis debe guardar una
relación armónica con los conocimientos científicos ya debidamente
comprobados. No puede elaborarse una hipótesis al margen de las
teorías científicas. Ella de hecho, se apoya en éstas, tiene a
77

modificarlas, rectificarlas o ratificarlas, revisarlas, cuestionarlas o


precisarlas.
e) Vincular explícitamente dos o más variables. La hipótesis establece
relaciones entre variables. Si ella es una explicación provisional y
condicionada a prueba, lo que tiene que probarse precisamente es que
se da en la realidad el nexo o vinculación que el científico supone existir
entre dos o más variables. A través de la relación entre variables, se está
atribuyendo una vinculación causal, directa o indirecta.

2.2.2. ELEMENTOS DE LA HIPÓTESIS.


a) Términos lógicos: Son las palabras que establecen la relación entre los
otros elementos de la hipótesis.
b) Unidades de análisis: Son los sujetos u objetos de estudio.
c) Variables: Son propiedades o atributos de las cosas, es decir se refieren
a algo real, y no a meras ficciones o construcciones del pensamiento.
Las variables comunes en la investigación pueden clasificarse en:
Variable independiente (VI): Es la variable que el investigador manipula
y tiene a control de manera directa. En la práctica, actúa como
presumida causa de la variable dependiente.
Variable dependiente (VD): Es la variable que se desea explicar el
efecto de la variable independiente. Dicha en otra forma, la variable
dependiente es la variable observada.
Variable extrañas: Son todas aquellas que rodean a las variables antes
mencionadas y que son difíciles de encontrar.

2.2.3. FUNCIONES DE LA HIPÓTESIS EN LA INVESTIGACIÓN


Las funciones principales de las hipótesis son:
a) Orientar la investigación.
b) Define la investigación.
c) Propone la metodología de la investigación o el diseño de contrastación.
d) Enriquece y pone a prueba la teoría.

2.2.4. FORMULACIÓN DE LA HIPÓTESIS


La hipótesis se expresa mediante una proposición afirmativa, en la que debe
existir una relación entre las variables independiente y dependiente, y
fácilmente de comprobar.

2.3. DISEÑO DE CONTRASTACIÓN


Para que una hipótesis esté debidamente fundamentada tiene que
someterse a contrastación, ya sea lógico o empírica o bien, la
fundamentación de una hipótesis se puede establecer contrastándola en dos
formas teórica y empírica. Para dicha contrastación debe seleccionar un
determinado diseño.

a) DISEÑO
Es una estructura u organización esquemática que adopta el investigador
para relacional y controlar las variables de estudio; cuyo objetivo es imponer
restricciones controladas a las observaciones de los fenómenos. Implica
pasos que se deben seguir en la solución de problemas para poder
encontrar las posibles soluciones del mismo. Cumple dos funciones básicas:
 Permite hacer las comparaciones necesarias requeridas para la
hipótesis de investigación.
78

 Capacita al investigador, a través de análisis estadístico de datos,


para hacer las interpretaciones significativas con relación a los
resultados de estudios.

b) SELECCIÓN DE DISEÑOS DE CONTRASTACIÓN


El investigador para contrastar la hipótesis debe seleccionar entre los
diseños mencionados el que más se ajuste al problema de investigación,
estos diseños son:
 Diseño de Goode y Hatt (1986)
 Diseño de Sánchez y Reyes (1984)
 Diseño de Campbell y Stanley (1979)

2.4. METODOLOGÍA
Aquí se deben detallar los métodos que se emplearán en la ejecución del
trabajo de investigación sin embargo cuando los métodos y/o las técnicas
sean conocidas solamente se debe indicar la referencia bibliográfica, donde
se localiza, inclusive indicar la modificación del método si la hubiese. La
metodología debe abarcar desde el método de muestreo pasando por lo que
se emplean para analizar las muestras y para el análisis de datos.

2.4.1. UNIVERSO Y MUESTRA


a) UNIVERSO
El autor aquí indica el universo o población del cual va ha ser tomada la
muestra.

b) MUESTRA
Debido a que no es posible trabajar con toda la población se debe tener en
cuenta que el registro de datos se realizará solamente de una parte de
aquella, la cual constituye la muestra. En el proceso de selección de la
muestra. En el proceso de selección de la muestra se debe determinar e
identificar la población a la que se van hacer extensivos los resultados del
estudio.
La determinación de la muestra accesible, en cierta forma, estará
influenciada por e tiempo, espacio y los recursos que disponga el
investigador.
Así mismo considerar que la muestra debe ser representativa de la
población en estudio, para lo cual se tendrá en cuenta el número de
ejemplares a trabajar.

c) TAMAÑO DE MUESTRA
Depende básicamente de:
 Las variables del problema. Si las variables están relacionadas
estrechamente, se necesitan muestras relativamente pequeñas y si
existen diferencias muy marcadas requerirán muestras más grandes.
 De las características de la población. Poblaciones homogéneas
requieren muestras pequeñas y poblaciones heterogéneas de muestras
grandes.
 Del grado de confiabilidad que el investigador espera, tengan resultados
y
 De la exactitud de los resultados que se quieren obtener (error permitido
por el investigador) resultados más exactos; muestras más grandes.
79

El tamaño de muestra para estimar la media () de la población se


determina:
A) Cuando la varianza 2 es conocida
z 2 2 N z 2 2
n n
h2 h 2 N  z 2 2
Población infinita Población finita
o desconocida o conocida

B) Cuando la varianza 2 es desconocida

z2s2 N z2s2
n n
h2 h 2 N  z 2 2
Población N Población N
desconocida conocida

Donde:
z= Factor de confiabilidad o número de unidades de error
estándar igual a la probabilidad deseada.
2 = Varianza poblacional (de la variable objeto de estudio).
h= error permitido, de diferencia entre el valor real y el
experimental = x –  = h
s2 = varianza muestral (estimador de 2)
N= Tamaño de población.
n= Tamaño de muestra definitiva.

2.4.2. TÉCNICAS DE MUESTREO


El investigador indicará técnicas para realizar el muestreo:
 Muestreo aleatorio simple
 Muestreo aleatorio estratificado
 Muestreo aleatorio por conglomerados
 Muestreo aleatorio sistemático

2.4.3. TÉCNICAS Y PROCEDIMIENTOS


En los procedimientos el investigador indicará todos y cada uno de los
planes que debe ejecutar para cumplir con el diseño de contrastación de la
hipótesis.

2.5. TRATAMIENTO ESTADÍSTICO


Cuando se trata de trabajo un enfoque experimental es necesario indicar el
tipo de diseño a emplear para la contrastación de la hipótesis formulada.
Para estos casos se debe consultar con un estadístico y revisar la
bibliografía especializada, a fin de que se adopte el diseño experimental
adecuado.
En esta etapa de proyecto de la investigación se debe prever el tipo de
técnicas estadísticas que se van a tener que emplear, para datos cualitativos
y/o cuantitativos por registrar.
Se debe prever el uso de procedimientos estadísticos como medidas de
tendencias centrales y de dispersión para una variable, correlación y
regresión entre dos o más variables, así como análisis de varianza y/o
covarianza.
80

III. CRONOGRAMA DE TRABAJO


Etapas que comprende el proyecto. Tiempo aproximado de duración de
cada etapa del proyecto. Indicadores de finalización de cada etapa e informes
parciales. Fecha aproximada de informe final.

IV. RECURSOS.
Recursos humanos y materiales necesarios para realizar el proyecto.

4.1. PERSONAL
Específicas:
a) Personal de investigadores;
b) Personal técnico: auxiliares de investigación, encuestadores.
c) Personal de apoyo; administrativo y de servicios.

4.2. BIENES Y BIENES DE CAPITAL


a) Libros, revistas, impresos
b) Equipos científicos e insumos
c) Instrumentos y máquinas
d) Instalaciones e infraestructura
e) Reactivos e implementos diversos
f) Equipos y elementos de limpieza
g) Otros materiales de trabajo

4.3. SERVICIOS
a) Transporte y viáticos
b) Computación. Redes de información
c) Otros servicios

4.4. MATERIALES E INTRUMENTOS


Se indica equipos, reactivos, animales de experimentación, instrumentos altamente
especializados, etc., que se requieren para llevar a cabo la investigación.

V. PRESUPUESTO
Cuando la institución que prepara el proyecto es estatal, es necesario en
concordancia con la ley de presupuesto y normas complementarias que regulan y
controlan el gasto.
Presupuesto analítico. Según clasificador de gastos del presupuesto general de la
República:
01 Remuneraciones
02 Bienes de capital
03 Servicios
04 Seguro y previsión social
05 Equipos e instrumentos
06 Gastos de administración
07 Imprevistos (indicar su código. según clasificador general de gastos de la
República )

Presupuesto Global.- Ejecución del presupuesto.


Cronograma de adquisiciones/
Inversión y Financiamiento.-
a) Costo total del proyecto
b) Forma de financiamiento
81

Si la institución que va a ejecutar el proyecto requiere apoyo económico de algún


organismo cooperante, indicar el monto de su participación y la cantidad que
solicita.

VI. REFERENCIAS BIBLIOGRÁFICAS

Toda la información bibliográfica recopilada que es relevante para la elaboración del


proyecto tiene que se referida en el ítem referencias bibliográficas.
En los estudios descriptivos particularmente y en los experimentales cobra
fundamental importancia la bibliografía de investigación, esto es la que se presenta
en revistas, pues es donde se divulgan datos.
Para el asiento de la bibliografía se tiene que seguir ciertas normas esenciales, de
los estándares establecidos por Organismos Internacionales, las que básicamente
deben considerar.

- PARA REVISTAS
Autor, año de la publicación, título del trabajo, título de la revista, lugar de
publicación, volumen, número de páginas.

- PARA LIBROS
Autor, año de publicación. Título de la obra, notas tipográficas y notas bibliográficas.

BIBLIOGRAFÍA UTILIZADA EN EL PRESENTE TRABAJO


1. Arista, G. 1984. Metodología de la investigación, Lima. Edt. Universitaria San
Martín de Porres.
2. Sánchez, H. y C, Reyes. 1984. Metodología y diseños en la investigación
científica, Lima, Talleres Repro-offset.
3. López, L. 1988. Método e Hipótesis Científicos, México, Trillas.
4. Rodríguez, M. y M. Rodríguez. 1986. Teoría y diseño de la Investigación
Científica. Lima, Ediciones Atusparia.
5. Moya, A. 1994. El Proyecto de Investigación Científica, Trujillo, Editorial Trilce.
6. Sierra Bravo R. 1986, Tesis Doctorales y Trabajos de Investigación Científica,
España, Editorial Paraninfo.
7. Gil, G. y D. Alva, 1993. Metodología de la Investigación Científica, UNT.
82

EL PROYECTO DE TESIS EN LA FACULTAD DE CIENCIAS AGRARIAS


DE LA UNAM ANEXO A.

PROYECTO DE TESIS

FACULTAD DE CIENCIAS AGRARIAS


ESCUELA PROFESIONAL DE INGENIERÍA AGRÓNOMA (*)
ESCUELA PROFESIONAL DE INGENIERÍA EN
INDUSTRIAS ALIMENTARIAS
83

PROYECTO DE TESIS

1. TÍTULO DEL PROYECTO :

2. RESPONSABLE :

3. PROFESOR ASESOR :

4. CO-ASESOR :

5. COLABORADOR (ES) : (Si lo hubiera)

6. COOPERADOR (ES) : (Si lo hubiera)

7. LUGAR DE EJECUCIÓN :

8. DURACIÓN ESTIMADA :

9. APROBADA POR

ASESOR DECANO

PRESIDENTE SECRETARIO

VOCAL RESPONSABLE

10. LUGAR Y FECHA DE PRESENTACIÓN :


(*)
Se indicará la Escuela Profesional que corresponda.
84

ANEXO B

DEL PROYECTO DE TESIS

ÍNDICE

Pág.

II. INTRODUCCIÓN ........................................................................................

III. REVISIÓN DE BIBLIOGRAFÍA ................................................................

IV. PROBLEMA .................................................................................................

V. OBJETIVOS ..................................................................................................

VI. HIPÓTESIS ...................................................................................................

VII. MATERIALES Y MÉTODOS ......................................................................

VIII. CRONOGRAMA DE TRABAJO .................................................................

IX. PRESUPUESTO Y CALENDARIO DE GASTOS ......................................

X. BIBLIOGRAFÍA ..........................................................................................

Nota: En el proyecto de inversión no se desarrolla los items III y V.


85

ANEXO C
LA TESIS

1ra. pág. : El título

2da. pág. : Aprobación por el Jurado de Tesis

3ra. pág. : Dedicatoria

4ta. pág. : Agradecimiento

5ta. pág. :

ÍNDICE

Pág.

I. INTRODUCCIÓN .............................................................................

II. REVISIÓN DE BIBLIOGRAFÍA .....................................................

III. MATERIALES Y MÉTODOS ...........................................................

IV. RESULTADOS Y DISCUSIÓN (OPCIONAL) .................................

V. DISCUSIÓN ......................................................................................

VI. CONCLUSIONES .............................................................................

VII. RECOMENDACIONES ...................................................................

VIII. RESUMEN .......................................................................................

IX. BIBLIOGRAFÍA ..............................................................................

X. ANEXO (OPCIONAL) .....................................................................

Nota: Para el caso el proyecto de inversión el índice comprende el anexo C-1


86

ANEXO D

MODELO DE LA CARÁTULA Y PRIMERA PÁGINA DE LA TESIS

UNIVERSIDAD PRIVADA

FACULTAD DE CIENCIAS AGRARIAS

ESCUELA PROFESIONAL DE INGENIERÍA AGRÓNOMA (*)

ESCUELA PROFESIONAL DE INGENIERÍA EN

INDUSTRIAS ALIMENTARIAS(*)

TÍTULO DE LA TESIS(**)

Para optar el título de

INGENIERO AGRÓNOMO (***)


(***)
INGENIERO EN INDUSTRIAS ALIMENTARIAS

NOMBRES Y APELLIDOS DEL AUTOR DE LA TESIS(**)

TRUJILLO – PERÚ

AÑO

(*)
Se indicará la Escuela Profesional correspondiente.
(**)
En letras mayúsculas.
(***)
Se indicará el título profesional correspondiente.
87

ANEXO E

MODELO DE LA PÁGINA DE APROBACIÓN DE LA TESIS

La presente tesis ha sido aprobada por el siguiente Jurado:

Título y Grado Nombre completo


PRESIDENTE

Título y Grado Nombre completo


SECRETARIO

Título y Grado Nombre completo


VOCAL

Título y Grado Nombre completo


ASESOR
88

ANEXO F
DEFINICIONES

Título: Debe ser breve, lo más claro y completo posible. No se deben utilizar más
de veinte palabras. En caso de necesidad, se puede desdoblar el título en dos
subtítulos.

Antecedentes: Comprende los conocimientos previos, que sustentan el


planteamiento del problema a investigar, y el estado actual de los conocimientos.
De preferencia deben ser citados, trabajos recientes relacionados al tema de
investigación

Justificación: Se debe indicar la importancia de la investigación en la búsqueda de


resolver un problema de actualidad, así mismo la relevancia del tema con los
avances científicos, señalar el grado de generalización que tendrá el estudio.

Revisión de Literatura: Es el análisis cronológico de las citas bibliográficas que


tengan conexión con el tema por estudiar. Es necesario interpretar correctamente
las conclusiones de los autores citados. El número de orden de las referencias
bibliográficas deben figurar en el texto dentro de paréntesis, o también puede
ponerse sólo el apellido paterno del autor con letras mayúsculas seguido del año de
la publicación entre paréntesis. También se pueden citar a los autores en orden de
importancia a la contribución del tema por investigar dejando las citas históricas al
final.

Se recomienda citar no menos de quince autores.

-Problema: Es la interrogante que formula o plantea el investigador ante una


realidad desconocida o ante el hallazgo de un defecto o incoherencia del
conocimiento.
Entre los criterios para su formulación se pueden señalar los siguientes:
-Debe referirse a relaciones de variables de una realidad variable
independiente (causa), variable dependiente (efecto).
-Debe plantearse de manera clara y precisa, de preferencia en términos de
pregunta
-Debe ser susceptible de verificación empírica comprobación, contratación}
-Se debe determinar los limites del problema, es decir, indicar con claridad los
contextos geográficos, poblacional" teórico, cronológico, etc., en los cuales el
problema será observado e investigado.

Objetivos: Para formular los objetivos, es necesario analizar las variables de la


hipótesis. Se expresan en forma precisa en uno o más párrafos cortos y también en
número reducido
89

Hipótesis: Es una proposición que afirma la existencia de alguna forma de relación


entre, por lo menos, dos hechos. Esta proposición es el resultado de la
especulación bien fundamentada y tiene carácter provisional, ya que está
construida con la finalidad de validarla y ponerla aprueba empírica mediante la
investigación científica. La formulación de la hipótesis deberá realizarse bajo los
siguientes criterios:-Las hipótesis deben ser expresadas en términos claros y
precisos:
-Las hipótesis deben expresar la forma como se relacionan los hechos y las
variables en la investigación.
-Las hipótesis deben ser coherentes con el marco teórico existente y del
cual se deducen.
-Las hipótesis deben ser relevantes.
-De preferencia, deben redactarse usando una forma lógica de implicación
general

Materiales y Métodos: Se describen detalladamente los materiales y métodos


utilizados, de tal forma que se puedan ser repetidos por otros investigadores.

Resultados: Los datos obtenidos se deben presentar en forma breve, evitando las
interpretaciones personales. Se indicarán en forma numerada los cuadros y figuras
necesarias, los que deben tener leyendas claras y concisas. Las leyendas en los
cuadros se indicarán sobre ellos y en el caso de las figuras (gráficos, fotografías,
mapas y otros) .se colocarán en el lado inferior.
Discusión: Es la interpretación, aclaración y justificación de los resultados y su
relación con las conclusiones obtenidas. Si se desea, se puede proponer una
hipótesis nueva, también se explican los resultados y se establecen comparaciones
entre ellos y con los de otros trabajos de investigación similares.

Conclusiones: Se indican en forma clara y precisa. Estas se obtienen de los


resultados y de la discusión. Se escriben en forma numérica secuencial y no más
de tres o cinco como máximo.

Recomendaciones:

Se incluyen los logros significativos y que puedan ser utilizados en la práctica. De


no ser así es necesario repetir el trabajo para confirmar los resultados obtenidos.
Se incluirán las indicaciones que sirvan para guiar nuevas líneas de trabajo, en
base a las deducciones científicas.

Bibliografía: Se indican de acuerdo a las normas existentes, de modo que sea fácil
ubicarlas y revisarlas por otros investigadores. Se ordenan en forma alfabética y
numerada. Se recomienda presentar no menos de quince citas bibliográficas.

-Internet: Se debe utilizar las citas provenientes de Instituciones


reconocidas nacionales e internacionales, indicando ficha y autor.
90

Apéndice: En este capítulo se incluyen cuadros de cálculos estadísticos, datos de


mediciones contadas en forma natural y sus transformaciones para cálculo
estadístico, también información meteorológica detallada y otra información que el
tesista considere que es necesario se conozca.
doradas para Agronomía y azul para Industrias Alimentarias.

ANEXO G

CARACTERÍSTICAS DEL VOLUMEN DE LA TESIS

1. Para la escritura del texto deberá utilizarse papel tamaño A4 de 80 gramos y de


buena calidad.

2. Se conservará un margen de 2.5 cm del lado derecho e inferior, y de 4.5 cm en el


lado izquierdo y superior de todas las hojas, incluyendo en estas especificaciones a
los cuadros y figuras.
Las páginas que inicien un nuevo capítulo deberán tener un margen superior de 5.5
cm.
,

3. El texto se escribirá en letra Courier new 12 y a 1.5 espacio entre líneas.

4. Todas las páginas serán numeradas 7 excepto la primera. La página número uno
será la que lleve el título de la tesis. Los números deberán colocarse al centro de la
página ya 1.5 cm del borde superior, excepto en las páginas, en las que se inicia un
nuevo capítulo, en las de los cuadros y figuras de página completa, allí se
sobreentiende que la numeración es correlativa.

5. No se recomienda el uso de páginas dobladas. Los cuadros muy extensos


pueden fraccionarse en dos o tres páginas. En este caso, el cuadro tendrá título
completo en la primera página. En las siguientes se colocará únicamente el número
del cuadro y las primeras palabras del título seguido de un paréntesis con la palabra
continuación.

6. Las figuras donde van fotografías deben presentarse sobre fondo de cartulina
negra con leyenda en página especial de papel bond standard o escaneadas.

7. El empaste será de buena calidad con pasta de color verde pacae para
Agronomía y amarillo maíz para Industrias Alimentarias sobre el cual se imprime el
texto en letras
91

8. Los nombres de las plantas, animales y términos latinos que se utilicen en el


texto se diferenciarán de la escritura escribiéndolas en letras cursivas. En el caso
de que la máquina de escribir (mecánica) no pudiera escribir letras cursivas estas
palabras se subrayan.

9. Los símbolos de litro, kilo, gramo, metro, kilómetro, etc. se escribirán de acuerdo
a las normas indicadas por INDECOPI y normas técnicas internacionales de pesas
y medidas.
92

TÉRMINOS Y SÍMBOLOS DE PESAS Y MEDIDAS MÁS UTILIZADOS EN LAS

COMUNICACIONES CIENTÍFICAS O TÉCNICAS

TÉRMINO SÍMBOLO
Kilómetro km
Kilómetros por hora km/h
Decámetro Dm
Metro m
Centímetro cm
Milímetro mm
Micra 
nanómetro (10-9m) mil millonésima parte del metro nm (m)
amstrong (10-10m) Å
kilómetro cuadrado km2
metro cuadrado m2
centímetro cuadrado cm2
milímetro cuadrado mm2
Tonelada t
Kilogramo kg
Gramo g
Miligramo mg
Litro L
Mililitro mL
microlitro (10-9l) l
metro cúbico m3
centímetro cúbico cc
Hora h
Minuto min
Segundo seg
nanosegundo (milmillonésima parte de un segundo) n seg
hectárea (s) ha
acre (4,046 m2 ó 40.47 áreas) acre
yarda (0.91m) yd
pulgada 2.54 cm pulg
TÉRMINO SÍMBOLO
pulgada cuadrada pulg2
pies cúbicos por minuto p3/min
galón (americano 3.785 l, inglés 4.546 l ) gal
bushel (E.U. 35 l, Inglaterra 36.35 l ) bushel
partes por millón ppm
partes por billón ppb
pie 27.85 cm p
pie2 776cm2 p2
pie3 21.63 dm3 p3
metros sobre el nivel del mar m.s.n.m.
propágulos por mililitro Propa/ml
milla terrestre (inglesa) 1,609.3 m
milla marina 1852m milla marina
legua (España 5572.7m; México, Cuba y Puerto Rico 4190 m) legua
vara (835.9 mm = 0.8395 m) vara
cuadra (en Piura) 6,987 m2 (1.431 cuadra = 1 ha) cuadra
93

fanegada (en Piura) 28,978 m2 faneg


topo (en Arequipa) 4,761 m2 = 0.21 ha topo
quintal métrico 100 kg qqm
quintal 45.35 kg (4 arrobas, 100 libras) qq
libra (16 onzas) 0.45359 kg lb
arroba 25 lb = 11.502 kg @
unidades formadoras de colonias ufc(UFC)
voltio (volt, potencial eléctrico, diferencia potencial de la fuerza
V
electromotriz, W/A)
watt (nombre del vatio en la nomenclatura internacional, poder,
W
flujo, radiante, J/s)
kilovoltios (unidad de tensión eléctrica equivalente a 1,000 voltios) kV
hertz (frecuencia, es la frecuencia de un fenómeno periódico cuyo
Hz
periodo es un segundo)
newton (fuerza) N
pascal (presión, N/m2) Pa
joule (energía, trabajo, cantidad de calor, N.m) J
coulombio (coulomb, cantidad de electricidad, carga eléctrica A.s) C
TÉRMINO SÍMBOLO
amperio (ampere = nombre del amperio en la nomenclatura
internacional, unidad de la intensidad de la corriente A
eléctrica equivalente al paso de un coulombio por segundo)
ohm (resistencia eléctrica, V/A) 
lumen (flujo luminoso, unidad de radiación de la luz) lm
lux (iluminación, unidad de intensidad luminosa, igual a una bujía-
lx
metro)
weber (flujo magnético, unidad de flujo magnético igual al flujo que
al atravesar una espiral produce una fuerza electromotriz de Wb
un voltio si se anula uniformemente en un segundo)
henrio (henry, conducción, potencia conductora, Wb/A) H
siemens (conducción, potencia conductora, A/V) S
antemeridiano  (na) a.m.
postmeridiano  (na) p.m.
Unidades Internacionales (vitaminas) U.I.
Conductibilidad eléctrica (contenido de sales que contiene un
líquido (agua), solución nutritiva, solución nutritiva, etc. Y se C.E.
expresa en moho/cm.
pH (una solución nutritiva es ácida si su pH es menor de 7, neutro,
pH
si tiene un valor de 7 y alcalino si el pH es superior a 7)
94

4. MODELOS DE PROYECTOS
95

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO

FACULTAD DE CIENCIAS BIOLOGICAS

PROYECTO DE INVESTIGACIÓN

1. TITULO: CONCENTRACION DE HISTAMINA EN PESCADO CONSERVADO


A BAJAS TEMPERATURAS QUE SE COMERCIALIZA EN LA
CALETA SANTA ROSA (CHICLAYO); ENERO-DICIEMBRE 2002

2. CODIGO:

3. PERSONAL INVESTIGADOR

3.1. AUTORES:
3.1.1. ANTERO CELSO VASQUEZ GARCIA
PROFESOR PRINCIPAL DE

3.1.2. JOSE REUPO PERICHE


PROFESOR ASOCIADO DE

4. TIPO DE INVESTIGACION

4.1. De acuerdo al objetivo de la investigación: Básica


4.2. De acuerdo a la respuesta al problema: Descriptiva

5. DEPARTAMENTO ACADÉMICO. DEPARTAMENTO DE BIOLOGÍA- FCCBB


-UNPRG
6. PROGRAMA DE INVESTIGACIÓN. Proyecto libre

7. LUGAR DE EJECUCION:
Caleta Santa Rosa, Provincia de Chiclayo; Departamento de Lambayeque.
Laboratorio de Bromatología- FCCBB- UNPRG
Laboratorios LACBI – Chimbote.

8. DURACION ESTIMADA: 12 meses (Diciembre 2 001 – Enero 2003)


96

9. FECHA DE INICIO: 01 de Diciembre del 2001

10. Presentado por:

.......................................................... ..........................................................
MSc. ANTERO VASQUEZ GARCIA MSc. JOSE REUPO PERICHE
Autor Autor

Lambayeque, Diciembre 01 del 2001

II. ASPECTO DE LA INVESTIGACION

2.1 MARCO LOGICO

2.1.1 SITUACION PROBLEMATICA:

El pescado, en términos generales, es rico en proteínas, grasas, vitaminas y


minerales; y es por lo tanto un alimento de elevado valor nutritivo; además,
por la coincidencia de los tres factores: i) fácil digestibilidad, ii) un contenido
óptimo de aminoácidos desde el punto de vista nutricional, y iii) el abundante
acidos grasos poliinsaturados de la serie Omega 3, 6, vitaminas y sales
minerales, permite catalogarlo como un alimento de elevado valor,
particularmente indicado para proporcionar a nuestro cuerpo, todos los
aminoácidos esenciales.

Fehlhaber y Janetschke (1993) le otorgan especial interés en la intoxicación


por aminas biógenas; específicamente histamina que proviene de productos
pesqueros tales como caballas, sardinas y atunes. La intoxicación provocada
por estos peces recibe en USA el nombre de Scombroid fish poisoning
(intoxicación por escómbridos); y establecieron que como requisito para la
producción de concentraciones tóxicas de histamina, debe haber una tasa
relativamente elevada de histidina, la presencia de gérmenes capaces de
producir histidin decarboxilasa y la coincidencia de condiciones óptimas para
la actividad enzimática y que concentraciones de histamina de 5 a 10 mg %
ingresados por vía oral pueden tener ya efectos tóxicos en personas
sensibles; dosis superiores a 100 mg resultan altamente tóxicas.

El Perú es uno de los países pesqueros más importantes del mundo, sus aguas
marinas, están caracterizadas por la presencia de zonas de intenso afloramiento
que, asociada a diversos factores ambientales y biológicos, constituyen un
ecosistema de gran productividad natural, con la consecuente presencia de una
gran diversidad específica y biomasa de recursos pesqueros. En el contexto
internacional, el Perú ha ocupado en los últimos años el segundo lugar en volumen
de producción de recursos pesqueros, después de China, habiendo alcanzado los
desembarques, en algún momento, niveles cercanos al 10% de la captura mundial
(ITP, 1998)
97

A pesar de la riqueza del mar peruano, el nivel de consumo de pescado es


relativamente bajo, alrededor de 14,5 kg/persona/año; un poco mas del promedio
mundial (11Kg/persona/año); sin embargo existe una marcada variación de un lugar
a otro, de modo tal que en Lima y en ciudades costeras del norte el consumo es
casi tres veces el promedio nacional.( BBVA Banco continental, 2000)

La importancia del pescado en la alimentación aumenta de manera creciente,


debido al desarrollo de la técnica pesquera de procedimientos de conservación,
tratamiento y preparación, así como, por la divulgación de los conocimientos
científicos que consideran al pescado como una buena fuente de proteínas,
vitaminas y otros compuestos inorgánicos, siendo cada uno de éstos componentes
casi similar al de otras carnes y en algunos casos logra superarlos (Felhaber y
Janetschke, 1993).

La tendencia del consumo de pescado a nivel mundial se explica desde dos


perspectivas; la primera es la tendencia cualitativa, que se debe al avance
tecnológico y en las preferencias de los consumidores que incluye: i) cambios en la
dieta por motivos de salud (beneficios en el tratamiento de enfermedades como el
Parkinson y Alzheimer; reduce los niveles de colesterol en sangre y a motivos
nutricionales); ii) cambios de preferencia; iii) mejoramiento en los procesos de
empaque y canales de distribución d)incremento en los niveles de vida debido al
crecimiento económico en los países desarrollados y iv)cambios en los factores
sociales.(BBVA Banco Continental, 2000)

En el pescado se distingue tres tipos de músculo: i) músculo estriado, que


constituye la carne del pescado; ii) músculo liso que se encuentra en las vísceras y
iii) músculo cardíaco que es más o menos una estructura intermedia entre las otras
dos. Igualmente, la principal parte comestible de los animales marinos está
constituida por los músculos corporales de mayor tamaño; sin embargo, también se
aprovechan como alimento muchas otras partes, en especial la piel, hígado, bazo,
huevas, aletas de los escualos y el tracto alimentario de los calamares (Suzuki,
1987).

Los músculos que forman los filetes de los peces reciben el nombre de grandes
músculos laterales y discurren a ambos lados del cuerpo. Están cubiertos por capas
musculares más delgadas, que se extienden por debajo de la piel. Los grandes
músculos laterales son por lo general de tonalidad blanquecina. Se denominan
músculos blancos u ordinarios; mientras que el músculo subcutáneo contiene
mucha mioglobina, recibiendo el nombre de músculo rojo u oscuro. La cuantía y
distribución de la carne oscura en el cuerpo del pez, es una característica de las
diferentes especies (Sikorski, 1994). Desde el punto de vista nutritivo, el músculo de
pescado se puede comparar favorablemente con otros alimentos de origen animal
tales como la carne de los animales de abasto. El valor nutritivo y comercial de los
diversos peces, dependen de la estructura de su carne y otras partes comestibles,
de la proporción en que estas partes entran en el peso total de los ejemplares, de la
composición química de la carne, y de factores referentes a los métodos de pesca y
manipulación. El pescado es una de las principales fuentes de proteínas en la
alimentación del hombre. Pero no es sólo un buen alimento sino que también
proporciona aceites, piensos y productos de valor para la industria, que puedan ser
aprovechados con la finalidad de obtener nuevos productos destinados al consumo
humano. (Ordóñes, 1998)
98

Los principales componentes químicos de la carne de pescado son: agua, proteínas


y lípidos; en conjunto forman hasta el 98% del peso total de la carne. Estos
componentes tienen máxima importancia en lo referente al valor nutritivo,
propiedades texturales, calidad organoléptica y capacidad de almacenamiento de la
carne. Los restantes constituyentes, es decir, los hidratos de carbono, vitaminas y
sales minerales, se encuentran en menor cantidad. los contenidos de los
componentes principales en el cuerpo de los peces dependen principalmente de la
especie, grado de madurez sexual y estado nutritivo de los animales. Además
indica que Los músculos del pescado están constituidos por varios grupos de
proteínas: i) las que forman la fracción sarcoplasmática, que desempeñan las
funciones bioquímicas en las células; ii) las proteínas miofibrilares del sistema
contráctil; y iii) las proteínas de los tejidos conjuntivos, responsables principalmente
de la integridad de los músculos. Del mismo modo el autor agrega que los músculos
oscuros de los peces contienen más lípidos que los músculos blancos, debido a su
superior proporción de triacilgliceroles, necesarios como reserva energética para
nadar. Por lo común los peces pelágicos tienen más músculos oscuros y son más
grasos, mientras que los peces demersales, menos móviles, son generalmente
magros, con carne blanca (Sikorski, 1994).

Un estudio detallado del músculo rojo, generaliza que todas las especies de
pescado contienen en el músculo rojo más cantidad de grasa bruta que en el
músculo blanco; define igualmente que las grasas del pescado son más ricas en
ácidos grasos poliinsaturados y estos son los que en realidad diferencian a las
grasas de los peces de los animales de origen terrestre y son, por tanto, los que
confieren sus características peculiares. En general, y comparando con otros tipos
de grasa, puede afirmarse que la del pescado posee cantidades relativamente
abundantes de ácidos grasos poliinsaturados (Love en Suzuki, 1987).

Por ello, se ha sugerido que aumentando el consumo de ácidos grasos


poliinsaturados n-3 hasta 0,5 - 1,0 g/día se podría reducir un 40% del riesgo de
muertes por problemas cardiovasculares en personas de mediana edad; manifiesta
además que el pescado en general, tiene una grasa mucho más insaturada y con
un mayor contenido de ácidos grasos poliinsaturados n-3 que la de la carne, por lo
que son alimentos mucho más sanos desde el punto de vista nutritivo (Ordóñes,
1998).

Desde otra perspectiva, el pescado es uno de los alimentos más perecederos, por
lo que necesita de cuidados adecuados desde que es capturado en fresco hasta
que llega al consumidor o a la industria transformadora. La manera de manipular el
pescado en este intervalo de tiempo determina la intensidad con las que se
presentan las alteraciones, que obedecen a tres causas: i) enzimática, ii) oxidativa y
iii) bacteriana y la rapidez con que se desarrollan cada una de estas alteraciones
depende de como se aplican los principios básicos de la conservación de los
alimentos, de la especie de los peces y de los métodos de pesca; por tanto, la
frescura del pescado determina la calidad de los productos derivados y la limitan
considerablemente. El pescado y los mariscos tienen una gran variedad de
minerales, siendo los más abundantes el calcio, fósforo, sodio, potasio, y magnesio.
Algunos pescados son excelentes fuentes de calcio con concentraciones que varían
de 5 a 200 mg por 100g de producto. Esta variabilidad puede atribuirse a la
cantidad de calcio en el agua y/o alimentos del pez, edad, tamaño y desarrollo
sexual del animal (Ordóñes, 1998).
99

Los peces que se consumen enteros son buena fuente de calcio, así como también
los productos enlatados que llevan las espinas. La carne y residuos del pescado
son muy ricos en vitaminas y minerales (Sikorski, 1994). El contenido de vitaminas
del pescado varía con la especie, edad, estación, madurez sexual y área geográfica
de captura. Las vitaminas hidrosolubles son más abundantes en la carne del
pescado que las liposolubles (Ordóñes, 1998)

Frazier y Westhoff (1993) definieron que en general en el medio acuático el


pescado tiene como flora bacteriana normal 1x10 6 bacterias /cc de las cuales el 95
% son gram negativas; en el tubo digestivo se encuentran bacterias de los géneros
Proteus, Vibrio, Clostridium tetani, Clostridium botulinum y enterobacteriáceas
y en el mucus Pseudomonas, Achromobacter, Flavobacterium que son
aeróbicas o anaerobias facultativas y que en las alteraciones de tipo bacteriana
conducen a la putrefacción de los tejidos por su capacidad invasiva luego de la
muerte del pez; aspecto que debe tomarse muy en cuenta por su marcada
influencia en los distintos procesos de conservación
Cheftel y Cheftel (1983) reportaron que la producción de histamina es mas
frecuente en pescados de carnes (relativamente) oscuras, tales como los
escómbridos (túnidos y caballas) donde la histidina es abundante; razón por la cual
a la histamina se le da el nombre de escombrotoxina, señalando además, que la
histamina proviene en parte de la autólisis no microbiana; pero determinaron que su
origen principal es por alteración bacteriana

Ludorff y Meyer (1978) reportaron concentraciones de histidina de 1 348 mg % en


caballas y de 559 mg % en mugílidos. La histamina, sustancia tóxica incluida en el
grupo de biotoxinas; a cuya sustancia se atribuye el gusto picante del pescado en
descomposición, la que se forma en el músculo incluso en condiciones asépticas.
Este proceso se efectúa por acción bacteriana sobretodo por Proteus morgagni. Al
respecto Kietzmann et al., (1974) manifestaron que en Japón se conoció la
importancia de determinadas especies de Proteus como formadoras de histamina
en pescado y se aclaró su papel en la denominada intoxicación histamínica por
consumo de pescado y confirmaron que tipos especiales de Proteus morgagnii
son conocidos como intensos productores de histamina; además indicaron que la
temperatura óptima de crecimiento es de 20°C y con pH de 6 a 7. La actividad
productora de histamina varía de una cepa a otra; pero la cantidad producida
depende especialmente de la histidina existente en los músculos del pescado y se
encuentra en mayores proporciones en la carne roja de atún caballa bonito o
albacora también en arenque y pez espada. En el contexto de los aminoácidos
proteicos, mención especial merece la histidina que se encuentra en cantidades
entre 1,27 y 2,40 mg por gramo; aunque en los peces de músculo rojo, estos
valores superan los 20 mg por gr. Los peces son los únicos animales productores
de carne que contienen histidina libre y 1-metilhistidina en cantidades que van del
0,87 a 18,87 mg en la corvina y de 0,34 a 4,79 mg por gramo de proteína en la
merluza. Los mismos autores determinaron que la concentración crítica para que se
produzca una intoxicación histamínica o escombroidosis; que es la forma mas
frecuente de intoxicación por pescado en todo el mundo atribuyéndose como la
causa mas común es la falta de refrigeración rápida en el pescado en el ser
humano por consumo de pescado se estiman en 100 mg %. Otras especies
bacterianas, entre ellas (salmonellas y shiguelas) son también formadoras de
histamina pero en menores proporciones que Proteus motgagnii; éste último
pertenece a la flora normal de la superficie del pescado; por lo consiguiente es de
origen marino y se ha determinado que los gérmenes productores de histamina
100

representan del 0,1 al 1% de todos los gérmenes que integran la flora de la


superficie del pescado.

Se ha sugerido que el contenido de histamina es un indicador del grado de


frescura del pescado. Los peces de carne blanca y los moluscos sólo contienen
trazas de histidina en sus tejidos y es escasa la cantidad de histamina que pueden
generar. La histidina forma hojitas incoloras insolubles en alcohol y agua, funde a
los 285°C, presente en muchas proteínas como la leche, albúmina de huevo, en la
fibrina, queratina, es de gran significado para el organismo humano, constituyendo
a menudo el centro activo de diversas enzimas y con los metales pesados puede
formar enlaces, tal como sucede en la unión con el hierro en todas las
hemoproteínas, coopera en la generación del ácido fólico, nucleínico y hemoglobina
y es componente de la quimotripsina al ser catabolizada mediante una
desaminación específica lleva a la formación de ácido formiaminoglutámico
(FIGLU), el mismo que en presencia del ácido fólico es convertido en ácido
glutámico, en otras circunstancias por decarboxilación produce la histamina.

Taylor (2000) en relación al envenenamiento histamínico, conocido también como


envenenamiento por pescado escombroide sugirió que éste se incluye en los
debates sobre las alergias alimentarias y la sensibilidad a ciertos alimentos y
determinó que éste, no es propiamente una sensibilidad alimentaria, ya que puede
afectar a todas las personas. La confusión obedece a que el envenenamiento
histamínico produce síntomas similares a las alergias, cosa que no debe
sorprendernos ya que la histamina es una de los principales causantes de alergias
alimentarias mediadas por IgE. En el caso de las alergias alimentarias mediadas
por IgE, la histamina, es liberada por los mastocitos in vivo.

En la caleta Santa Rosa (Chiclayo) se comercializa una abundante cantidad de


especies de peces que son capturadas en el área de influencia de los pescadores
que faenan en la zona aledaña; igualmente se comercializa significativos
volúmenes de pescado traídos de toda la zona norte del Perú; desde Tumbes;
Máncora, Talara; Paita; Parachique; San José y en algunas oportunidades desde
las regiones centro y sur como Chimbote y Huacho. El pescado es recepcionado en
el centro de acopio de la empresa ECOMPHISA, generalmente fresco; en cámaras
isotérmicas en refrigeración con hielo o equipadas con unidades de refrigeración o
congelamiento. La posterior comercialización del producto, en refrigeración o
congelado, se destina al consumo humano directo en mercados de las ciudades de
Chiclayo; Lambayeque u otras de la Provincia o departamentos (Cajamarca, Trujillo
y Lima).

2.1.3 JUSTIFICACION E IMPORTANCIA

Se justifica la ejecución de este proyecto, por que el pesado conservado a


temperaturas bajas, en la mayoría de los casos, se realiza sin ningún criterio
científico y porque este producto es mas accesible a los estratos poblacionales de
menor poder adquisitivo, asociado al desconocimiento del potencial peligro de la
presencia de histamina. Con los resultados obtenidos y divulgados, se lograría
incrementar el conocimiento de la relación intrínseca entre esta forma de
conservación y la presencia de microorganismos productores de histamina, que sin
duda redundará en el conocimiento y adecuado consumo del pescado como
alimento de origen hidrobiológico.

2.1.4 PROBLEMA CIENTIFICO


101

El problema científico se plantea en los términos siguientes:


¿Cual es la concentración de histamina en pescado conservado a
temperaturas bajas que se comercializa en la caleta Santa Rosa; (Chiclayo)?

2.1.5 HIPOTESIS:
La concentración de histamina en pescado conservado a temperaturas de
refrigeración y congelamiento que se comercializa en la en la caleta Santa Rosa
(Chiclayo) se encuentra en niveles considerados normales.

2.2.2 DISEÑO DE CONTRASTACION DE HIPOTESIS


El proyecto propuesto enmarca su diseño de contrastación en los diseños
descriptivos correspondientes a una investigación descriptiva causal
comparativa, según Sánchez y Reyes (1987) en la que las variables en estudio
serán las concentraciones de histamina en pescado conservado a temperaturas
bajas que se comercializa en la caleta Santa Rosa en relación con aspectos
pertinentes; tales como contenido de proteínas totales, cloruros; pH y aspectos
físico organolépticos durante un tiempo determinado; los que proveerán datos para
determinar la calidad del producto.

2.1.6 OBJETIVOS
1. Determinar la concentración de histamina del pescado
conservado a temperaturas bajas que se comercializa en la caleta Santa
Rosa (Chiclayo) con énfasis en los peces de consumo humano masivo.

2.2. MARCO METODOLOGICO

2.2.1. TIPO DE INVESTIGACION

Lo previsto para la realización de este proyecto, corresponde a una investigación de


tipo descriptiva y prospectiva según las consideraciones de Pineda et al., (1994)

2.2.2 POBLACION Y MUESTRA EN ESTUDIO

La población objeto de estudio estará constituido por peces que son acopiados y
comercializados en la caleta santa Rosa, considerando especies, y condiciones de
conservación a temperaturas bajas diferenciándose según los procedimientos y el
tiempo de almacenamiento.

Se realizarán muestreos quincenales durante doce meses, según disponibilidad;


para el estudio se tomará al azar una muestra de 25 especímenes de cada especie
los que serán sometidos a evaluaciones de concentración de histamina en fresco y
luego de transcurridos: 1, 2 y; 8 días después de haberse sometido al proceso de
conservación registrándose todos los datos pertinentes.

2.2.3. MATERIAL INSTRUMENTAL Y EQUIPO DE LABORATORIO Y/ O CAMPO


1. 5 columnas de intercambio iónico cilíndricas de 50 mm x 500 mm
2. 1 Espectrofotómetro, marca Jenway modelo 6300, rango de 0,300 a
1,999 A°, resolución 0,001 A°
3. Cronómetro de mano marca Casio LC 787
4. Balanza analítica marca Mettler, sensibilidad 0,0001 g
5. Equipo MicroKjeldahl
6. Balanza de precisión Marca OHAUS Capacidad 2 kg, sensibilidad 0,1 gr
102

7. Ictiómetro de madera de 0,5 m sensibilidad 0,001 m


8. Cintas de pH Marca Whatman de 0 a 14; sensibilidad al 0,5
9. Material de laboratorio diverso; probetas, pipetas, buretas, fiolas, etc.
10. Hojas de registro de datos
11. Reactivos adecuados según las técnicas de análisis.

2.2.4. TECNICAS E INSTRUMENTOS DE RECOLECCION DE DATOS

Seleccionada la especie, se los numerará, ordenará y realizará la medición de la


longitud total (mm) utilizando un ictiómetro de madera; se registrará luego el peso
total utilizando una balanza de platillos; se identificará el sexo del espécimen, luego
el grado de madurez sexual de acuerdo a la escala de Johansen en Vásquez
(1996). Se determinará posteriormente el grado de frescura de acuerdo al sistema
completo de puntuación descrito en Ludorff y Meyer (1978). En los especímenes
seleccionados para el estudio; se procederá a medir los siguientes parámetros de
análisis:
El pH se determinará en cada etapa; la cantidad de proteínas y cloruros en fresco y
luego del salpreso, transcurridos 1, 2 y 8 días se realizará de acuerdo a las técnicas
y métodos de la AOAC expuestos en Hart y Fischer (1991) y siguiendo a Obregón
(1975) considerando:
1. Determinación de proteínas, por el método de Kjeldahl
2. Determinación de la cantidad de NaCl según el método de Moore
3. Determinación de Grasas totales por el método de Soxhlet

Para la determinación de histamina se utilizará el método de Kawabata (1975)


descrito en Vargas (1990) modificado por los autores utilizando columnas de
intercambio iónico usando amberlita de 100 a 200 meah, CG 50 (tipo 1) en los
términos siguientes como se describe a continuación:

a. PREPARACIÓN DEL LIQUIDO EXTRAIDO DE LA CARNE DE PESCADO:

De una muestra de 5 especímenes de pescado; se obtendrán porciones del


músculo dorsal libre de escamas y piel se mezclará uniformemente y luego se
pesarán exactamente 10 gramos de carne bien mezclada pasándola posteriormente
a un mortero triturándola adecuadamente. Se agregarán 20 ml. de agua destilada y
seguir mezclando, y después 20 ml de una solución de ácido tricloroacético al 10%
y mezclar bien dejando en reposo durante 10 minutos. Luego se filtrará con papel
filtro seco Toyo No 5A, y se pasará el líquido a una fiola de 50 ml, y enrasará
exactamente a 50 ml; considerando que 1 ml de líquido extraído equivale a 0.2 g de
muestra.

Se realizará luego la separación de la histamina a través de la columna de resina


de intercambio iónico. Del líquido extraído de la carne de pescado preparado; se
tomarán 10 ml y se los colocará en un vaso de precipitación de 30 a 50 ml, luego se
modificará el pH de 4,5 a 4,7 utilizando gotas de una solución de NaOH 10%, a esto
se agrega 10 ml de ácido acético bufferizado 0,4 N de pH 4,6 y se mezcla para
posteriormente verterlo a la columna. Con 80 ml de ácido acético 0.2 N se lavará, el
pequeño vaso de precipitación utilizado y se vierte también a la columna a fin de
pasar toda la amina. La Histamina absorbida por la resina se removerá con 8 ml de
ácido clorhídrico 0,2 N. El pH del líquido se modifica a 7 con una solución de
carbonato de sodio 1,5 N agregándoles agua destilada hasta tener 10 ml, que es el
volumen constante. Este será el líquido de prueba para la reacción de diazo.
103

Colorimetría de la Histamina con el Reactivo Diazo.

En un tubo de prueba de tamaño mediano (18 mm de diámetro, 180 mm de longitud


aproximadamente) se colocará 1,25 ml de nitrito de sodio 5% y luego por las
paredes se adicionará 1,25 ml de solución de ácido sulfanílico. Luego se agregará 1
ml de la muestra y se esperará 1 minuto luego se adicionará por las paredes 2,5 ml
de carbonato de sodio 1,1N y se agitará. La lectura en el espectrofotómetro se
realizará después de 5 minutos 510 nm a una longitud de onda.

Se puntualiza que las muestras serán procesadas de la siguiente manera: los datos
biológico pesqueros se tomarán en los módulos de procesamiento en la caleta
Santa Rosa y la determinación de proteínas; cloruros así como la cuantificación de
histamina en los laboratorios de Bromatología de la Facultad de Ciencias Biológicas
de la UNPRG.

2.2.5. ANALISIS ESTADISTICOS DE LOS DATOS


Los datos obtenidos se ordenarán en tablas y se tabularán utilizando la hoja de
cálculo Excel del software Office 2000; y para valorarlos estadísticamente se
utilizarán medidas de tendencia central, validados con la prueba F de Fisher y T de
Student según lo pautado en Hernandez et al., (1998).

III. ASPECTO ADMINISTRATIVO

3.1 CRONOGRAMA DE ACTIVIDADES

Las actividades a realizar se resumen en la siguiente Diagrama de Gannt


Años 200 2 0 0 2 2
Meses 1 E F M A M J J A S O N D
Actividades D
1. Preliminares
- Contacto con la realidad --
- Implementación ---- ---- --

2. Ejecución
- Recolección de datos --- --- --- --- --- --- --- --- ---

- Tabulación y Análisis --- --- --- --- --- --- ---


3. Comunicación
- Preparación del informe --- --- --
- Presentación del
informe Final ---

3.2 PRESUPUESTO

02.00 BIENES S/ 6 400, 00

02.02 Material de Escritorio...............................................S/ 100,00


02.03 Material para procesamiento de datos S/ 200,00
02.05 Reactivos de Laboratorio S/ 2 000,00
02.06 Material de impresión, fotográfico y de
104

fotocopiado...........................................................S/ 400, 00
02.12 Otras
Materias primas....................................................S/ 3 500, 00
Material fungible.................................................S/ 200, 00

03.00 SERVICIOS S/ 1 700, 00

03.05 Servicio de procesamiento de datos.......................S/ 200, 00


3.0 0 Pasajes y viáticos..................................................S/ 1 500, 00

09.00 BIENES DE CAPITAL S/ 1 000, 00

Equipos de laboratorio......................................................S/ 1 000,00

TOTAL S/ 9 100, 00

3.3 FINANCIACION

El proyecto será financiado por el FEDU de la UNPRG

IV. REFERENCIAS BIBLIOGRAFICAS

BBVA BANCO CONTINENTAL. 2000. Perspectiva Mundial del Consumo Humano


Directo de Pescado, en Perú País en Marcha, Analysts View on Peruvian
Fisheries, Lima. PROMPERU-Ministerio de Pesquería.

CHEFTEL, J. Y H. CHEFTEL. 1983. Introducción a la bioquímica y tecnología de


los alimentos. Vol I., Zaragoza Acribia. p: 60-85.

FELHABER. K. y P. JANETSCHKE. 1993. Higiene veterinaria de los alimentos,


Zaragoza Acribia

FRAZIER, W. y D. WESTHOFF. 1993. Microbiología de los alimentos. 4ª. ed.,


Zaragoza. Acribia.

HART, F. Y H. FISCHER. 1991. Análisis moderno de los alimentos, 2ª reimpresión.


Zaragoza. Acribia

HERNANDEZ, R.; C. FERNANDEZ y P. BAPTISTA. 1998. Metodología de la


investigación 2ª. Ed. Santa Fe de Bogota. McGraw Hill.

INSTITUTO TECNOLOGICO PESQUERO DEL PERU. 1998. Focus: 1(1)

KIETZMANN, U.; D. RAKOW.; K. PRIEBE y K- REICHSTEIN. 1974. Inspección


veterinaria de pescados. 2ª. ed., Zaragoza, Acribia.

LUDORF, W. y V. MEYER. 1978. El pescado y los productos de la pesca,


Zaragoza. Acribia p: 151-159

OBREGON, R. 1975. Análisis químico bromatológico comparativo de la trucha arco


iris (Salmo gairdneri irideus, Gibbons 1855, de rio y estanque. Tesis Bach.
En Ciencias Biológicas, , Trujillo. UNT. Mimeo.
105

ORDOÑES, J. 1998. Tecnología de alimentos; alimentos de origen animal. Vol II,


Zaragoza. Acribia.

PINEDA, E.; E. DE ALVARADO y F. DE CANALES. 1994. Metodología de la


Investigación. 2ª. ed., Washington. OPS.

SANCHEZ, H. Y C. REYES. 1987. Metodología y diseños en la investigación


científica 3ª reimpresión, Lima. Repco

SIKORSKI, Z. 1994. Tecnología de los productos del mar. Recursos Composición y


Conservación. Zaragoza. Acribia.

SUSUKI, T. 1987. Tecnología de las Proteínas del Pesado y Krill. Zaragoza. Acribia.

TAYLOR, S. 2000. Envenenamiento histáminico. En Conferencia sobre comercio


internacional de alimentos a partir del año 2000. FAO
VASQUEZ, A. 1996. Evaluación del recurso Sardinops sagax sagax (sardina) norte
del Perú (05°S – 10°S) Setiembre de 1995 - Agosto 1996, Tesis Maestría en
Ciencias., Trujillo UNT. Mimeo.

VASQUEZ, A. y J, REUPO. 1999. Bromatología Analítica, Manual de Prácticas,


Lambayeque, UNPRG.

VARGAS, A. 1990. Histamina, método de Kawabata, Chimbote. LACBI S.C.R.L. vs.


Pgs mimeo.
106

UNIVERSIDAD NACIONAL DE TRUJILLO


ESCUELA DE POSTGRADO
PROYECTO DE TESIS DE DOCTORADO

I. GENERALIDADES
1. TITULO: IMPACTO DE LA INDUSTRIA PESQUERA SOBRE EL SISTEMA
MARINO LITORAL DE PUERTO MALABRIGO; MAYO -
DICIEMBRE DEL 2003.

2. AUTOR:
2.1. NOMBRE: ANTERO CELSO VASQUEZ GARCIA
2.2. GRADO ACADÉMICO: MAESTRO EN CIENCIAS; MENCIÓN
EVALUACIÓN Y ADMINISTRACIÓN DE
RECURSOS PESQUEROS

2.3. TITULO PROFESIONAL: BIÓLOGO PESQUERO


2.4. DIRECCIÓN: ANTÚNEZ DE MAYOLO 319. URB LOS GRANADOS;
TELEFONO 425671; 9672373; TRUJILLO

- 2.5 CENTRO DE TRABAJO:


UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO;
FACULTAD DE CIENCIAS BIOLÓGICAS;
2.6. PROGRAMA DE DOCTORADO EN MEDIO AMBIENTE
107

3. TIPO DE INVESTIGACIÓN
4.1 De acuerdo al fin que se persigue: aplicada
3.2 De acuerdo a la técnica de contrastación: descriptiva

4. LOCALIDAD E INSTITUCIÓN EN DONDE SE DESARROLLARÁ EL


PROYECTO:
Litoral de Puerto Malabrigo; Distrito de Rázuri; Provincia de Ascope.
Departamento La Libertad.
IMARPE; estación de muestreo de Puerto Malabrigo y Laboratorio Costero
Santa Rosa.
Laboratorio de Biología Pesquera de la Universidad Nacional Pedro Ruiz
Gallo
Laboratorio de Biología Pesquera de la Universidad Nacional de Trujillo
Laboratorio de Química Analítica de la Universidad Nacional de Trujillo
5. DURACIÓN DEL PROYECTO: 8 meses
5. CRONOGRAMA DE TRABAJO
Etapas Fecha de inicio Fecha de Dedicación
término semanal
6.1 Recolección de 02-05-2003 31-10-2003 30
Datos
6.2. Análisis de los 02-06-2003 15-11-2003 30
datos
6.3 Elaboración del
informe 15-10-2003 30-12-2003 30

7. Recursos:

7.1. Personal
1 Investigador
8 auxiliares
1 chofer

7.2. Bienes:
7.2.1. De consumo:
Material fungible: frascos de plástico; baldes y bolsas plásticas; cajas de
tecnoport; placas petri; láminas y laminillas; rollos de película fotográfica;
cintas de filmadora y vídeo; material de laboratorio; reactivos para análisis
microbiológicos

7.2.2. De inversión:
1computador personal marca Hewlett packard
108

1 microscopio binocular; 1 estereoscopio; 1 maquina fotográfica Canon AE1;


1 filmadora de 8 mm marca Sony.
1. espectrofotómetro;
1 equipo analizador de aguas;
1 Balanza analítica Mettler 0,0001 g;
1 pH-Metro Hanna 8135;
1 botella Niskin;
1 GPS
redes de fitoplancton, etc.

7.3. Servicios
Fotocopiado; viáticos y asignaciones; remuneraciones de chofer y auxiliares;
alquiler de embarcación, movilidad etc.

8. Presupuesto

5.3.0.1 Bienes y Servicios US$ 6 500,00

5.3.11.30 Materiales de consumo


Materiales de oficina y escritorio US$ 2 000,00
Materiales de salud, farmacéuticos y reactivos US$ 2
000,00
Materiales de impresión 1 000,00
Materiales fotográficos y fonotécnicos
500,00
Impresiones y suscripciones 1 000,00

5.3.00.00 Servicios US$ 6 700,00


5.3.11.20 Viáticos y asignaciones
Viáticos US$ 2 000,00
Movilidad Local 2 000,00
Otros; pago, auxiliares 2 000,00

5.3.11.36 Otros servicios de terceros


Publicaciones US$ 200,00
Impresiones 300,00
Encuadernaciones 200,00

6.0.0.0 GASTOS DE CAPITAL US$ 8 500,00


6.5.22.0. Inversiones
6.7.11.51. Equipamiento de materiales duraderos US$ 5 000,00
Mobiliario y equipo de oficina 2 000,00
Equipo de procesamiento automático de Datos 1 500,00

Total US$ 20 700,00

9. Financiamiento
9,1 Con recursos propios US$ 1 700,00
9.2 Con recursos externos US$ 19 000,00

Trujillo, Abril 07 del 2003


109

II. ASPECTO DE LA INVESTIGACION

1. ANTECEDENTES Y JUSTIFICACIÓN DEL PROBLEMA


La teoría científica que sustenta el proyecto propuesto es la expresada por
Seoanez (1996), referido a impacto ambiental, definido como la alteración del
medio producida por una acción antrópica (de origen o acción humana), y la
consideración de que Evaluación de Impacto Ambiental; es el estudio de
identificación, predicción y previsión de los efectos de una acción antrópica
sobre el medio ambiente y de su posible minimización.

Una segunda teoría se refiere a la calidad de vida explicitada por Coneza


(1997a) de la manera siguiente: El término calidad de vida está definido por el
nivel de renta; el bienestar social (condiciones de trabajo y vida) y calidad
ambiental en función de índices de desarrollo como el tiempo y la ubicación
geográfica.

Al describir los principios de la gestión ambiental; considera el entorno de una


actividad, como el ambiente que interacciona con aquella en términos de entradas
(recursos, mano de obra, espacio, etc.) y de salidas (productos, empleo, rentas,
residuos) y por tanto en cuanto a provisor de oportunidades, generador de
condicionantes y receptor de impactos. Sugiere considerar en el entorno, un estudio
del medio físico, tanto inerte (aire, clima y tierra) como biótico (flora, fauna) y
perceptual (paisaje) y otro del medio socioeconómico, lo que conllevaría a realizar
un inventario de aquella parte del entorno real o potencialmente afectado.

En otros términos, toda actividad empresarial, recibe del entorno, recursos y los
transforma en productos, generando residuos que devuelve al medio; genera
igualmente empleo y simultáneamente es motor de desarrollo. Ello permite el
incremento de la calidad de vida, que se reflejaría en la elevación de las rentas y el
bienestar social y en la mejora de las condiciones del entorno; paralelamente, la
sociedad va presionando a la empresa de manera directa o a través de las
administraciones públicas que regulan actividades y exige mejores condiciones de
protección medioambiental.

Miller (1994); mencionó que toda forma de tecnología y todo lo que hacemos y
consumimos resulta en contaminación y degradación del ambiente; ello implica
algún grado de riesgo para la salud del ser humano y el bienestar de otras
especies, por tanto no hay productos o procesos ambientalmente inocuos, sino que
en algún grado son mas o menos nocivos para el ambiente.

Glynn y Heincke (1999), señalaron que un principio pertinente y significativo


que se debe considerar es el de desarrollo sostenible, definido como el
desarrollo que satisface las necesidades del presente y preserva los que
serán requeridos por las generaciones futuras. Este paradigma ha cambiado la
filosofía de la explotación destructiva de la sociedad a una que a largo plazo,
fomente la protección del ambiente y sus habitantes; esto implica que para los
científicos, es un cambio respecto a las prácticas pasadas cuando los avances
tecnológicos tenían como guía criterios de eficiencia; productividad, rentabilidad y
otros de aspecto netamente económico. Sin perder su validez; a ellos se han
adicionado inquietudes por los impactos en la salud y el ambiente, la conservación
110

de los recursos y la energía, el manejo de los residuos y los problemas sociales


como las demandas públicas; el desempleo y la criminalidad. Indudablemente que
las mejoras tecnológicas que se han conseguido para la existencia humana han
sido significativas, pero también es innegable que se han producido impactos
destructivos en el ambiente.

Para relacionar, tanto las teorías científicas, como el marco filosófico en el que se
pretende ejecutar el presente proyecto podríamos mencionar lo siguiente:

Las aguas del mar territorial del Perú están consideradas entre las más ricas del
mundo por la variedad, calidad y cantidad de recursos hidrobiológicos que contiene.
El valioso potencial hidrobiológico debido a la corriente peruana y los afloramientos
costeros, se sustenta en una productividad que en promedio alcanza los 330 g C/
m3 / año, condición que ha permitido catalogar al ecosistema marino peruano como
uno de los de mayor productividad en el planeta (Brack y Mendiola, 2000).

Particularmente, la pesquería marina es una de las más abundantes debido a las


características bioecológicas de la corriente peruana y en especial a la presencia de
zonas de afloramiento de mayor intensidad en Paita, Pimentel, Puerto Malabrigo,
Chimbote y San Juan. En estos ambientes, la diversidad y abundancia de especies,
ha permitido el asentamiento de industrias destinadas a la elaboración de productos
hidrobiológicos en condiciones tecnológicas diferentes. La historia de la industria
pesquera se asocia inmediatamente con la disponibilidad de Engraulis ringens
(anchoveta) y Sardinops sagax sagax (sardina); pequeños pelágicos que en nuestro
mar han posibilitado el desarrollo de la industria de harina y aceite de pescado, y en
menor escala de conservas que son exportadas hacia distintos países del mundo
(Tresierra y Culquichicón; 1993).

El desarrollo de la industria pesquera, requiere siempre de un esfuerzo de


investigación científica y tecnológica considerables incluyendo producciones piloto y
pruebas de aceptación de mercado. En la industria del congelado se favorece la
preservación del pescado fresco y mantiene sus características naturales durante
un largo período de tiempo; sin embargo su comercialización, por los elevados
costos de la infraestructura, está restringida a grupos poblacionales de mayores
ingresos y de ciudades grandes, donde haya instalaciones disponibles. En el
desarrollo de la industria conservera, cuyo origen se asocia al comercio de
exportación durante la segunda guerra mundial y a la disminución de algunas
especies, objetos de pesquerías de otras latitudes; se han observado fluctuaciones
dependiendo de la abundancia de la materia prima. Inicialmente, Sarda chilensis
(bonito), fue la materia prima principal, mientras que la sardina desempeñó este rol
en la década de 1970 a 1980. Las conservas ofrecen un campo amplio para la
adaptación de los productos a las preferencias de consumidores específicos, tienen
la ventaja de favorecer el uso de especies que hayan encontrado resistencia en el
consumidor, en su comercialización no requieren facilidades especiales y por su
duración como productos esterilizados, su producción es significativa; sin embargo
el desarrollo de la industria conservera en el Perú es frenado frecuentemente por el
elevado costo de los envases, que lo convierte en un producto mayormente
destinado a la exportación, tal como sucede con las conservas de bonito, sardina,
atún, caballa y jurel. En la historia de la industria de producción de harina y aceite
de pescado se ha notado un incremento de las embarcaciones y plantas de
procesamiento; ligados con i) la relativa abundancia de materia prima, ii) el
incremento de la flota, en número y capacidad de bodega; iii) el aumento del
número de plantas de procesamiento y su capacidad de transformación, así como
111

su emplazamiento en los puertos cercanos a lugares en los que se facilitó el


desembarque, la transformación y comercialización. Ello permitió resaltar el
marcado crecimiento de esta actividad en Chimbote; Coishco, Callao; Pisco; Supe;
Huarmey; Paita y en años recientes Puerto Malabrigo (Espino, 1993).

El Instituto Nacional de Estadística e Informática; INEI (2000) reportó que la pesca


marina en 1999 alcanzó 8 484 200 toneladas métricas (t), de los cuales 7 821 700 t
fueron destinados a la producción de harina, siendo la anchoveta la que aportó el
87 % del total. En la región norte, se desembarcaron 3 195 494 t con los mayores
volúmenes en los puertos de Chimbote; Coishco, Malabrigo; Paita, Parachique;
Casma y Huarmey. Igualmente reportó que desde enero hasta mayo del 2000 se
registraron desembarques del orden de 5 068 700 t de los cuales en enero (303 000
t); Marzo (1 782 t) y Mayo (1 423 500 t), fueron utilizadas en la industria de harina y
aceite de pescado, resaltando el hecho de que en la zona norte, los mayores
volúmenes de desembarque, se registraron en Chimbote, Puerto Malabrigo, Paita y
Parachique a partir del mes de Marzo. En Puerto Malabrigo, los volúmenes de
captura se incrementaron desde 41 243 t en octubre del 2000 hasta 214 535 t en
mayo del 2001 habiendo experimentado un descenso hasta 38 395 t en julio del
mismo año.

El DL. 25977; Ley General de Pesca, en el numeral 1; inciso a del artículo 20,
diferencia la actividad extractiva de menor escala o artesanal (aquella que se
realiza con empleo de embarcaciones menores a 30 t de capacidad de bodega, con
predominio de trabajo manual) de la pesca industrial que se efectúa con
embarcaciones cuya capacidad de bodega es mayor que 30 t. Actualizado este
criterio con lo contemplado en el DS. No. 012-2001-PE, del 14 de marzo del 2001
Reglamento de la Ley General de Pesquería, en su artículo 29 considera que la
extracción en el ámbito marino se clasifica en:
a) Comercial:
1. Artesanal a menor escala
1.1. Artesanal: la realizada por personas naturales o jurídicas
artesanales
1.1.1 Sin empleo de embarcación
1.1.2 Con el empleo de embarcaciones de hasta 32,6 metros
cúbicos de capacidad de bodega y hasta 15 metros de
eslora, con predominio del trabajo manual.
1.2. Menor escala; la realizada con embarcaciones de hasta 32,6
metros cúbicos de capacidad de bodega, implementada con
modernos equipos y sistemas de pesca cuya actividad
extractiva no tiene la condición de actividad pesquera
artesanal.
2. Mayor escala: la realizada con embarcaciones mayores de 32,6
metros cúbicos de capacidad de bodega.
b. No comercial:
1. De investigación científica: comprende la extracción de recursos
hidrobiológicos mediante la pesca exploratoria o de prospección
y la pesca experimental.
2. Deportiva: la realizada con fines recreacionales o turísticos. El
ejercicio individual de la pesca deportiva no requiere permiso de
pesca.
3. De subsistencia: la realizada confines de consumo doméstico o
trueque.
112

El Ministerio de Pesquería, MIPE (1999); reportó que la flota pesquera para


consumo humano directo involucra dos actividades bien diferenciadas; i) la pesca
industrial, que abastece a las plantas harineras y las que fabrican productos
pesqueros para el consumo humano directo, como el caso de la industria
conservera, de congelado y de seco salado; etc. y ii) la pesca artesanal, que
abastece de pescado fresco para la población. Las embarcaciones artesanales para
pesca de consumo humano directo en el litoral peruano alcanzaron a 6 288 con una
capacidad de bodega promedio de 3,5 t; de las cuales 1 476 operan en Piura, 278
en Lambayeque; 138 en La libertad y 614 en Ancash; (la capacidad de bodega
promedio es de 5,3; 10,7; 7,0 y 2,3 t, respectivamente); la flota industrial estuvo
constituida por 145 embarcaciones de las cuales, 69 son de cerco (con capacidad
de bodega de 13 126 m3); 73 son de arrastre (con capacidad de bodega de 11 593
m3 ) y 3 utilizan palangre (con capacidad de bodega de 185 m3).
En lo referente a infraestructura pesquera, el número de plantas dedicadas a la
elaboración de la conserva llegó a 157 en 1994 disminuyendo hasta 99 en los años
1997 y 1998; en la producción de harina, las plantas procesadoras llegaron a un
número de 129 en 1994; 130 en 1997 y 126 en 1998 con una capacidad instalada
de 5898; 7830 y 8241 t/hora respectivamente. En 1998 las plantas dedicadas a la
producción de harina de pescado según zona de trabajo fueron: 19 en Piura; 3 en
La Libertad y 52 en Ancash.

La industria de harina y aceite de pescado en nuestro país, en la última década, ha


incrementado sus niveles de producción utilizando tecnologías de punta, que han
permitido obtener productos de mayor calidad y competitividad en el mercado
internacional; sin embargo, desde sus inicios, esta industria, ha ocasionado muchos
problemas ambientales; que aún persisten.

Una de las acciones de mayor impacto de la industria pesquera es la emisión de


efluentes líquidos, como el agua de bombeo, agua de cola y sanguaza, que se
generan como resultado de sus operaciones y que perjudican el desarrollo de la
vida marina, debido a su alto contenido de materia orgánica. Se ha definido que
todo ecosistema marino puede verse gravemente afectado por los efluentes
líquidos que emite las plantas de harina y aceite de pescado, y entre los efectos
negativos, se señalan: i) bloqueo de la penetración de la luz en la columna de agua,
debido a su alto contenido de materia orgánica y sólidos suspendidos, lo que es
muy perjudicial para la productividad marina; ii) desoxigenación del cuerpo receptor,
con la consecuente perdida de la biodiversidad debido al elevado volumen de
nutrientes y materia orgánica, iii) en alteraciones geomorfológicas del litoral y fondo
marino por la sedimentación de partículas con la consecuencia desaparición de la
vida y alteración del sistema. (MIPE, 2001).

Aumentos moderados de la productividad primaria o de la producción instantánea


de algas pueden ser considerados como beneficiosos o como efectos neutros
siempre que no resulten en efectos secundarios, tales como disminuciones
substanciales del oxígeno disuelto, donde éstos deben ser normalmente altos;
mortandad de peces o el estímulo de florecimientos nocivos o tóxicos de
fitoplancton. Por otro lado los desechos orgánicos emitidos hacia el mar se
degradan formando gases; sobretodo ácido sulfhídrico causante de infecciones
respiratorias en seres humanos; en cultivos agrícolas origina manchas químicas
que destruyen tejidos foliares. Una fábrica de harina de pescado evacua 90 000 m 3
de gases / hora lo que significa 720 000 m3 de gases / en 8 horas (COMISION
PERMANENTE DEL PACIFICO SUR; 1984).
113

Guillén (1981) citado por Orozco et al., (1997), realizó un diagnóstico preliminar de
las fuentes y efectos de este problema en el Perú; en términos genéricos las aguas
marinas son afectadas por descargas de desagües domésticos; de la industria de
harina de pescado y mineras, así como por los efluentes de las actividades
petroleras y agrícolas. En cuanto a los efectos de la contaminación marina en los
recursos hidrobiológicos se notó que las aguas adyacentes a las fábricas de harina
de pescado habían adquirido propiedades corrosivas; en algunos casos;
produciendo gases sulfurosos; en otros provocando mortandad de peces en zonas
de bahías y por último degradación de las arenas y de las aguas de las playas
vecinas; siendo la bahía de Chimbote la más afectada. La contaminación del agua
por descarga de la industria pesquera, con mas intensidad desde 1950, se verificó
de dos formas; i) por el agua de cola emitida a temperatura de 80°C originando una
DBO5 promedio de 75 000 ppm; ii) la sanguaza mezclada con escamas y trozos de
pescado que originó una DBO5 promedio de 25 000 ppm. La contaminación del aire,
originada por la industria de producción de harina y aceite de pescado, se verifica
por emisión de gases y polvo de secado y como emisiones malolientes integrados
por compuestos tóxicos como amoniaco; trimetilamina; ácido sulfhídrico; que se
dispersan tanto dentro, como fuera de las ciudades.

Jacinto et al (1996), realizaron en julio de 1994 la evaluación de la contaminación


marina en la bahía Ferrol, Chimbote, en una época de intensa actividad industrial
pesquera y determinaron que la bahía presentó signos serios de deterioro
ambiental, con desarrollo de procesos eutróficos que conducen a pérdidas de
condiciones ambientales apropiadas en detrimento de los recursos hidrobiológicos
costeros; determinaron igualmente que la configuración de la bahía y las
condiciones mínimas de flujo son factores que agudizan los problemas de
contaminación. Los estudios realizados en el programa del Plan de Acción
(Programa de Inventario y caracterización, 1987) calificaron a la bahía de Ferrol,
Chimbote como un área crítica por contaminación y que a la fecha del reporte la
situación se había agudizado. Los autores concluyeron que: i) la configuración de la
bahía y la mínima circulación de sus aguas, asociados a vientos de poca intensidad
origina continua acumulación de las descargas de origen terrestre; ii) la actividad
pesquera industrial seguida de la industria siderúrgica constituyeron las principales
fuentes de contaminación, la considerable carga de materia orgánica induce a
procesos anóxicos y de eutrofización tanto a nivel de superficie como de fondo,
magnificándose con la considerable carga de nutrientes, sobretodo fosfatos, que se
manifiesta en el deterioro de la calidad del agua (anoxia; turbidez, floración,
sulfuros, etc.). La existencia de una importante población de fitoplancton con el
predominio de determinadas especies, a pesar de las condiciones de anoxia, indica
la resistencia de aquellas menos sensibles que utilizan los nutrientes y se favorecen
por una limitada competencia. Se mencionan aquí a Chaetocerus curvisetus;
Coscinodicus perforatus y el dinoflagelado Protoperidinium obtusum.

Orozco et al., (1997), evaluaron la contaminación y calidad microbiológica del agua


de mar en las bahías de Ferrol y Samanco, en febrero de 1996. En la bahía Ferrol
determinaron rangos desde 43 hasta 233 NMP/100 ml para coliformes totales y
desde menos de 30 hasta 23 exp102 NMP/100 ml; en Samanco, las cifras
determinadas fueron del orden de <30 NMP/ 100 ml a nivel de playas, los valores
fueron elevados en la Bahía Ferrol tanto para coliformes totales y fecales; mientras
que en Samanco éstos, fueron menores. Las comunidades bénticas en algunos
casos fueron tipificadas como azoicas, que relacionadas con el tenor de oxígeno,
presentaban anoxia. Esta, se explicó por la intensa actividad industrial y se la
114

calificó como una zona de contaminación crítica. La zona de Samanco mantuvo


características de contaminación leve.

Carrasco y Carbajal (1998), mencionan que los poliquetos representan uno de los
grupos más importantes en el macrobentos sub litoral y que son organismos cuya
presencia o ausencia, de formas específicas en el sedimento, proveen una
excelente indicación de las condiciones del estado de salubridad del ambiente
bentónico. La determinación de la estructura de las comunidades del macrobentos
marino es importante en la evaluación del impacto ambiental, por el hecho que
estos organismos se comportan de modo muy diferente a los componentes del
plancton, los que con mas facilidad, pueden desplazarse o ser arrastrados por las
corrientes marinas.

La otra consideración esta relacionada con Evaluación del Impacto Ambiental


definido como la alteración favorable o desfavorable en el medio o en alguno
de sus componentes, debido a una acción o actividad humana (Coneza,
1997b).

Canter (1999), considera que el mejor enfoque en un estudio de impacto ambiental


es realizar un trabajo intenso de identificación y análisis, documentando
detalladamente todas las tareas y las fuentes de información utilizadas en el estudio
y que la evaluación de impacto ambiental, es la identificación y valoración de los
impactos (efectos) potenciales de proyectos, planes, programas o acciones
normativas relativos a los componentes físico-químicos; bióticos, culturales y
socioeconómicos del entorno cuyo propósito fundamental es la necesidad imperiosa
de que se considere el medio ambiente en la planificación y en la toma de
decisiones, para acabar definiendo actuaciones que sean mas compatibles con el
medio ambiente.

Un criterio importante en este tipo de investigaciones, es el relacionado con el


inventario ambiental, una descripción completa del medio tal y como es en un
área donde se plantea ubicar una determinada actuación; este se estructura a partir
de unas lista de control de parámetros de los medios físico químicos, biológico,
cultural y socioeconómico; los medios fisico-químicos y biológicos pueden
denominarse Medio Natural o Medio Humano.

El medio físico- químico incluye:


1. Áreas principales;
2. Suelos; geología ; Topografía
3. Recursos hídricos superficiales y subterráneos
4. Calidad del agua (características químicas y físicas y biológicas del agua
en función de sus uso)
5. Calidad del aire (Nivel de aproximación al óptimo de su composición y
con mínimos de sustancias extrañas
6. Debe referirse además al clima (la climatología) manifestación del
estado del tiempo atmosférico determinado por la temperatura; Humedad
relativa; Luminosidad; Horas Luz; etc.

El medio biótico, se refiere a: la flora y la fauna de un área incluyendo las


especies existentes; es necesario hacer referencia a cualquier especie amenazada
o en peligro de extinción; además de la biodiversidad y la estabilidad del
ecosistema.
115

El medio cultural incluye los lugares arqueológicos e históricos y los recursos


estéticos; como la calidad visual

El medio socioeconómico, se refiere a un abanico de aspectos relacionados con


el ser humano y el medio entre las que se incluyen:
1. Tendencias demográficas
2. Distribución de la población
3. Indicadores económicos del bienestar humano
4. Los sistemas educativos
5. Las redes de transporte
6. Otras infraestructuras
- Abastecimiento de agua
- Saneamiento
- Gestión de residuos sólidos
- Servicios públicos (Policía; protección contra incendios; Instalaciones
médicas; etc.)

García, C. (2001) com. pers., considera que una evaluación de impacto ambiental
básicamente debe considerar efectos sobre
1. Población;
2. Flora,
3. Fauna
4. Suelo
5. Aire
6. Clima
7. Agua
8. Recursos arqueológicos
9. Estructura paisajística

Las Metodologías de la EIA enfrentan una gran problemática y se estima que las
razones que dificultan la consecución de una metodología estándar, entre otras,
son: i) el cambio de factores afectados hace que el método cambie. ii) sólo
podemos llegar a un tipo de método según la actividad. iii) hay varios métodos para
estudiar el impacto sobre un mismo factor; sin embargo un primer criterio es el
orientado a tipificar los impactos; los que según Coneza (1997b) se clasifican en:

1. POR LA VARIACIÓN DE LA CALIDAD AMBIENTAL:


1.1. Impacto Positivo
1.2. Impacto Negativo

2. POR LA INTENSIDAD (GRADO DE DESTRUCCIÓN)


2.1. Impacto Notable o Muy Alto
2.2. Impacto mínimo o bajo
2.3. Impactos medio y Alto

3. POR LA EXTENSIÓN
3.1. Puntual (localizado)
3.2. Impacto parcial (con incidencia apreciable en el medio)
3.3. Impacto extremo (detectable en una gran parte del medio)
3.4. Impacto Total (efecto en todo el entorno)
3.5. De ubicación crítica (en impactos puntuales)

4. POR EL MOMENTO EN EL QUE SE MANIFIESTA:


116

4.1. Impacto Latente( corto, mediano y largo plazo)


4.2. Impacto inmediato
4.3. Impacto de momento critico

5. POR SU PERSISTENCIA
5.1. Temporal
Fugaz durante un año
Temporal: propiamente dicho; entre uno y tres años
Pertinaz desde 4 hasta 10 años.
5.2. Permanente, por tiempo indefinido.

6. POR SU CAPACIDAD DE RECUPERACIÓN:


6.1. impacto irrecuperable
6.2. Impacto Irreversible
6.3. Impacto reversible
6.4. Impacto Mitigable
6.5. Impacto Recuperable

7. POR LA RELACIÓN CAUSA EFECTO:


7.1. Impacto directo
7.2. Impacto indirecto o secundario

8. POR LA ACUMULACIÓN DE ACCIONES Y/O EFECTOS


8.1. Impacto simple; efecto sobre un componente ambiental
8.2. Impacto acumulativo
8.3. Impacto sinérgico

9. POR SU PERIODICIDAD
9.1. Impacto continuo
9.2. Impacto Discontinuo
9.3. Impacto periódico
9.4. De aparición irregular

10. POR LA NECESIDAD DE APLICACIÓN DE MEDIDAS CORRECTORAS


10.1. Impacto ambiental crítico
10.2. Impacto ambiental severo
10.3. Impacto ambiental moderado

Siguiendo a Bolea en Coneza (1997b), entre las metodologías para una EIA
se consideran:

Aspectos generales y listas de revisión


Metodología de matrices interactivas:
Matrices simples; Matriz de Leopold et al.
Matrices en etapas (llamadas también matrices de impactos cruzados)
Métodos de diagrama de redes (diagramas de redes; o diagramas de
secuencia)
Métodos basados en indicadores, índices e integración de la evaluación
Métodos cuantitativos;

El método del Instituto Batelle–Columbus; es uno de los pocos estudios


serios sobre la valoración cuantitativa que por el momento existen, permite la
117

evaluación sistemática de los impactos ambientales de un proyecto mediante el


empleo de indicadores homogéneos, posibilita una planificación a mediano y largo
plazo con un mínimo impacto ambiental posible. La base metodológica es la
definición de una lista de impacto con 78 parámetros ambientales, considerados
separadamente que nos indican la representatividad del impacto ambiental derivada
de las acciones consideradas; estos 78 parámetros se ordenan en primera instancia
según 18 componentes ambientales agrupados en cuatro categorías ambientales

De Torres (1999) ha planteado la posibilidad de cuantificar los impactos en base a


la diferenciación clara de las causas (u orígenes de la acción), de los efectos
previstos, que es lo que se valora. Para ello se debe distinguir entre la magnitud del
bien afectado; la cantidad de efecto que va a soportar y la capacidad intrínseca de
“soportar” dicho efecto, considerando de manera distinta la calidad o importancia
del valor medioambiental de dicho bien “destino “del efecto.
Se debe tener en cuenta igualmente, que la evaluación del Impacto ambiental se
puede tomar en el contexto preventivo, cuando aún la acción se halla en fase de
propuesta o de acción correctiva cuando ya se está ejecutando la acción y de lo
que se trata es de minimizar los impactos negativos en el ecosistema.

Según Instituto Nacional de Protección del Medio Ambiente para la Salud;


INAPMAS (1995), en nuestro país, la normatividad ambiental en el sector pesquero
es abundante; además la Constitución Política del Perú del 29 de diciembre de
1993 en sus artículos 67 y 68 determinan la política ambiental nacional. La ley
general de pesca D. L. No. 25977 del 22- 12- 92 señala en su artículo 6 que el
Estado, dentro del marco regulador de la actividad pesquera, vela por la protección
y preservación del medio ambiente, exigiendo se adopten las medidas necesarias
para prevenir, reducir y controlar los daños o riesgos de contaminación o deterioro
en el entorno marítimo, terrestre y atmosférico. El reglamento de la Ley general de
Pesca DS. No. 012-2001-PE en su título VII sobre la protección del medio ambiente
determina en el artículo 76.2 responsabilidad del ministerio de pesquería en lo
relacionado a los instrumentos de gestión ambiental pertinente y en el capítulo II;
sub capitulo I, artículo 78 determina que los titulares de las actividades pesqueras y
acuícolas son responsables de los efluentes, emisiones, ruidos y disposición de
desechos que se produzcan como resultados de los procesos efectuados en sus
instalaciones, de los daños a la salud o seguridad de las personas, de efectos
adversos sobre el ecosistema o calidad de los recursos naturales en general y de
los recursos hidrobiológicos en particular, así como de los efectos o impactos
resultantes de sus actividades.

La ley general de aguas; DL 17752 y su reglamento modificado según decreto


supremo No 007-83-SA en el artículo 81 determina la calidad de los cuerpos de
agua de acuerdo a su uso. Los tipos de interés para el presente estudio se incluyen
en i) clase IV, aguas de zonas de recreativas de contacto primario (baños y
similares); ii) clase V, aguas de zonas de pesca de mariscos bivalvos y iii) clase VI,
aguas de zonas de preservación de fauna acuática y pesca recreativa o comercial.
En el mismo dispositivo se fijan límites bacteriológicos para presencia de coliformes
totales en 5000; 10000 y 20 000 NMP/100ml respectivamente y límites de
coliformes fecales en 1000; 2000 y 4000 NMP/100 ml; los valores de DBO 5 en 10;
mg/L en los tres casos citados y de 3,5 y 4 mg/L en los otros casos contemplados
en la Ley.

Puerto Malabrigo, ubicado en la costa norte del Perú (7° 42'S - 79°27'W), Distrito de
Rázuri, Provincia de Ascope, Departamento La Libertad; desde hace más de dos
118

décadas, desarrolla una importante pesquería industrial y artesanal; hasta 1994,


contó con una planta procesadora de harina de pescado, incrementándose a dos en
1995, esta última con capacidad operativa de 120 toneladas/hora, y producción
anual de 140 000 toneladas considerando ambas fábricas. Indudablemente que
esta actividad ha originado una serie cambios en el ambiente marino adyacente;
los que no han sido sistemáticamente evaluados desde una perspectiva
considerada en el sistema de gestión medio ambiental

En la actualidad, son seis las fábricas que desarrollan actividades de producción de


harina de pescado de diferentes tipos; las según su capacidad; tipo de harina y
características del efluente, se resumen en el cuadro 1.

Cuadro 1. Plantas de procesamiento de harina de pescado ubicadas en Puerto


Malabrigo

Empresa Capacidad de Efluente


Procesamiento: Tipo de
t /h Harina
Pesquera Industrial El Angel 139 Convencional Directo
S.A.
Sindicato Pesquero del Perú 138 Convencional Directo
S.A.
Pesquera Catamarán S:A. 80 Prime Submarino
Alexandra S:A.C. 80 Prime Submarino
Pesquera Exalmar S.A. 60 Prime Submarino
Pesquera Hayduk S.A: 130 Convencional Submarino
y Prime

En esta zona, el IMARPE realiza el monitoreo de las condiciones ambientales,


principalmente, temperatura superficial del mar (TSM) habiendo registrado valores
promedios de 15 ºC en los meses de invierno y de 20,5 ºC en los meses de verano;
la cantidad de oxigeno disuelto en la zona litoral ha variado desde 1,01 ppm en la
zona cercana al muelle y a la empresa PIANGESA, hasta 9,62 ppm en el mes de
marzo del 2001 en época de veda.

Como se puede apreciar los trabajos son dispersos, no secuenciales y mas aún, no
planificados por lo que, hay serias dificultades para generalizar de modo inferencial;
Además por el hecho de que la industria pesquera en nuestro país es uno de los
pilares de la economía y en la consideración de que las cuestiones ambientales no
deben ser abarcadas desde una perspectiva teórica; sino eminentemente
pragmática y puntualmente en lo ambos criterios involucran a Puerto Malabrigo, en
donde a pesar de la existencia de leyes que dan especificaciones de índole
ambiental en relación al funcionamiento de plantas productoras de harina de
pescado; éstas posiblemente no se cumplen en su totalidad debido a
implementación progresiva de políticas ambientales o deficiencias en los
seguimientos y monitoreos; hechos que evidentemente ponen en serio riesgo el
ecosistema y sus componentes, se justifica la realización de presente proyecto de
investigación que posibilitaría la orientación de la atención de científicos y
estudiosos para orientar sus acciones a preservar el medio ambiente a fin de que
las futuras generaciones tengan una mejor calidad de vida.
El presente estudio tiene previsto lograr los OBJETIVOS siguientes:
119

1. Identificar y valorar los impactos de la industria pesquera sobre el


sistema marino litoral de Puerto Malabrigo
2. Identificar los índices e indicadores de impacto ambiental el sistema
marino litoral de Puerto Malabrigo
3. Formular recomendaciones para que se ejecuten acciones de mitigación
de impactos desde una perspectiva científica y legal.
2. PROBLEMA CIENTIFICO
El problema científico se plantea en los siguientes términos:
¿Cuál es el impacto de la industria pesquera sobre el sistema marino
litoral de Puerto Malabrigo, mayo – diciembre del 2003?

3. HIPOTESIS:

La industria pesquera origina impactos ambientales negativos en el


sistema marino litoral de puerto malabrigo.

3.1 Identificación de variables:

Variable Independiente (Factor causal; causa):

Actividad de la Industria Pesquera

Variable dependiente (Efecto):


Impactos de la industria pesquera en el sistema marino litoral de Puerto
Malabrigo.

INDICADORES

Grupos de organismos específicos, con énfasis en poliquetos presentes en


los sedimentos como indicadores de impacto ambiental en el sistema
marino litoral del Puerto Malabrigo.

Estructura de las comunidades del macrobentos marino de importancia


significativa en la evaluación del impacto ambiental

4. DISEÑO DE CONTRASTACIÓN DE HIPOTESIS:

Para la contrastación de hipótesis se utilizará el diseño descriptivo causal


comparativo según Sánchez y Reyes (1987) en Tresierra (2000) en el que las
variables de estudio serán evaluadas y comparadas en diferentes lugares y
situaciones. El estudio se realizará en Puerto Malabrigo; distrito de Rázuri; provincia
de Ascope (Figuras 1 y 2)

4.1. Evaluación del Impacto sobre el Medio Físico y Biológico

4.1.1. Áreas de estudio y zonas de muestreo.

El estudio se realizará en la zona intermareal y submareal de la bahía de puerto


Malabrigo en la que se establecerán cuatro áreas de muestreo; la primera (a), que
120

servirá de control, se ubicará a 500 metros al sur del muelle; la segunda (b), frente
al área de vertido de la empresa SIPESA; la tercera (c) a la altura del emisor
submarino de la empresa Hayduck y la cuarta (d) a un Km al norte de ésta (Figura
3).

Se trazarán transectos perpendiculares a la zona de rompiente de las olas y se


obtendrá, muestras de agua y de sedimentos.
FIGURA 1. UBICACIÓN DE PUERTO MALABRIGO EN LA REGIÓN LA LIBERTAD
122

MALABRIGO

FIGURA 2. UBICACIÓN GEOGRAFICA DE PUERTO MALABRIGO


123

PESQUERA HAYDUCK

C PESQUERA EXALMAR

PESQUERA ALEXANDRA

PESQUERA CATAMARÁN

fi co B SINDICATO PESQUERO

Pa ci
é ano MUE
LLE PIANGESA
Oc
A

Zona de
Centro poblado almacenamiento

Figura 1. UBICACIÓN DE LA ZONAS DE MUESTREO EN PTO.MALABRIGO


124

4.1.2. Obtención de muestras de aguas y sedimentos:

Las muestras serán obtenidas mensualmente, con instrumentos y equipos


adecuados.

4.1.2.1. Muestras de Aguas

Las muestras de agua se colectarán tanto en superficie, media agua y fondo de


las zonas de posible impacto de los vertederos y emisores submarinos de las
industrias pesqueras de Puerto Malabrigo y señalados en el item 4.1.1.

4.1.2.2 Muestras de sedimentos


Estas serán obtenidas del fondo de las áreas indicadas en el item 4.1.1.

4.1.3. Toma de muestras:


Para la obtención de parámetros hidrográficos y químicos, las muestras de
agua de superficie se tomarán con un balde y las de fondo con botellas Niskin. Las
muestras de sedimentos se obtendrán con una draga Van Veen con 0,05 m 2 de área
de mordida; ambas serán manipuladas desde una embarcación, especialmente
adaptada para estos requerimientos.

4.1.4. Análisis de las muestras

4.1.4.1. De Aguas
Las características físico químicas de las muestras de agua serán analizadas
de acuerdo a los métodos descritos por la APHA; AWWA WPCF (1992) descritos en
los anexos 1, 2 y 3 de la Resolución Ministerial No. 003-2002-PE (Protocolo para el
Monitoreo de efluentes y cuerpo marino receptor).

En principio algunos análisis serán realizados in situ y en otros casos, en el


laboratorio de Química Analítica Cuantitativa de la Facultad de Ingeniería Química de
la Universidad Nacional de Trujillo; en el laboratorio de Biología Pesquera de la
Universidad Nacional de Trujillo y de la Universidad Nacional Pedro Ruiz Gallo;
considerando los parámetros que se indican en el cuadro 2.
125

Cuadro 2. Parámetros del agua a ser evaluados y códigos APHA para su procesamiento en
laboratorio
PARÁMETRO CODIGO LUGAR
METODO APHA
1. Temperatura superficial del Mar In situ
2. Oxígeno Disuelto(OD) 4500 In situ
3. Salinidad 2520 En LQAC
4. pH Método potenciométrico En LQAC
5. Sólidos suspendidos Totales 2540 En LQAC
6. DBO5 5210 En LQAC
7. DQO 5220 En LQAC
8. Aceites y Grasas 5520 En LQAC
10. Sulfuro de Hidrógeno 4500-S2- En LQAC
11. Nitratos 4500 - NO3- En LQAC
12. Nitritos 4500 NO2- En LQAC
13. Fosfatos 4500-P En LQAC

Se determinará adicionalmente el Número Mas Probable (NMP) de bacterias


coliformes totales y fecales x 100ml; según la metodología de tubos múltiples
siguiendo lo recomendada por la OMS (1972); y de acuerdo al método 9221, APHA
(1992).

4.1.4.2. De Sedimentos
Se evaluará en principio el potencial redox utilizando un Eh – metro, empleando
un estereoscopio se evaluará la presencia de organismos vivos en este caso
invertebrados bentónicos hasta el mínimo nivel taxonómico y luego de contados y
pesados según especie y replica se determinará el número de especies (S = número de
especies por 0,1 m2), abundancia (número de individuos por especie en 0,1 m 2), biomasa
(B = g, peso húmedo / especie por 0,1 m2) . Todos estos valores serán calculados para
cada réplica, luego agrupados por estación y por transecto para cada fecha de muestreo.

4.1.4.3. De la macroinfauna bentónica


El análisis de las comunidades de macroinfauna bentónica se evaluará de
acuerdo a los criterios de Carrasco y Gallardo (1989); Carbajal, et al (1995)

4.1.4.4. De Hidrocarburos en Agua y Sedimentos


Para la determinación de hidrocarburos en agua de mar y sedimentos, se
utilizará el método referencial manual y guía No 13 y 11 de la COI – UNESCO.

4.2. Valoración del impacto ambiental


126

Para determinar la perturbación o stress, como un reflejo del impacto


ambiental; se utilizará el método gráfico de las curvas SAB (especie, abundancia y
Biomasa) de acuerdo a Pearson y Rosemberg (1978) y se elaboraran las curvas ABC
de K dominancia (curva Abundancia – Biomasa) recomendado por Warwick (1986),
citados por Carrasco y Gallardo (1989).
Para la valoración cuantitativa en el sistema marino litoral se empleará el método de
De Torres (1999) en los términos en los que se explicita en el anexo 1

4.3. Análisis estadístico de los datos

Para evaluar la estructura comunitaria del macrobentos en términos de composición


taxonómica, se utilizarán métodos estadísticos univariados, gráficos y
multivariados para analizar los patrones de distribución y abundancia/biomasa de la
macroinfauna bentónica de acuerdo a lo pautado por Carbajal (1999). Se aplicará el
programa computacional PRIMER 5 for windows versión 5.2.4 siguiendo a Carrasco
y Gallardo (1989); y Carbajal, et al (1995).

Entre los MÉTODOS UNIVARIADOS se utilizarán:


1. Medidas descriptivas:
Curvas SAB (especies- abundancia- Biomasa), resume los cambios de los parámetros
faunísticos básicos que ocurren a lo largo de un gradiente o transecto, aplicable a las
áreas sujetas a enriquecimiento orgánico.
Proporción B/A (Tamaño promedio de los individuos)
Tind = Bt / At).
Donde Bt = Biomasa Total
At.= Número total de individuos en la muestra

Proporción A/S

1. Medidas de diversidad
2.1 Indice de Shannon-Wiener (H’)
Este Índice basado en la abundancia proporcional de especies (Magurran 1989)
se formula en los términos siguientes:
H' = -  pi Ln pi

Donde: pi = ni/N;
N es el número total de individuos colectados
127

ni es el número de individuos de la especie i;

2.2. Riqueza de especies (d);


Indice de Margalef: d= (S-1) log N
S es dependiente del tamaño de la muestra
Incorpora el número total de individuos

2.3.Equitatividad (J’)
Indice de uniformidad de Pielou
J’ = H’ (observado) / H’ max
Donde: H’ max es la maxima diversidad posible (log S)

3. Acuchillamiento de Datos (“jackknife”)

Se aplicará la técnica del "acuchillamiento" de datos al índice de Shannon-Wiener


(H'), tal como ha sido descrito por Miller (1974), Este método paramétrico consiste en ir
eliminando sucesivamente una fila de los datos de abundancia por especie en cada
estación y recalculando H' para cada columna (estación), lo cual genera un seudovalor.
Después de haber eliminado secuencialmente, pero con reemplazo, todas y cada una de
las filas, se obtienen n seudovalores que promediados aritméticamente permiten calcular
la varianza. Con este valor y mediante un test t-Student (Sokal and Rohlf, 1981) se
realizará la docimación de la hipótesis "no hay diferencias de H' entre estaciones".

En lo concerniente a Métodos Graficos/Distribucionales, se utlizarán:

a. Curvas de rarefaction (Sanders 1968)


Este método que se utilizará para medir la diversidad de especies, el cual
interpola el número de especies distribuidas entre un número reducido de individuos
derivados a partir de la muestra original. Sin embargo, Hurlbert (1971) considerando que
esta técnica sobreestima algunas fracciones, la ha mejorado como el Número Esperado
de Especies (E (s))

(N-ni)
m
E (S) = (1- ) ,N>m
(N)
128

m
Donde:
N = número total de individuos en la muestra completa;
ni = número de individuos de la especie i th;
m = tamaño de una muestra determinada al azar
.
b. Curvas de k-dominancia

Las curvas de K-dominancia (Lambshead et al. 1983; Clarke, 1990), las cuales
ordenan a las especies de acuerdo a su importancia sobre el eje X (escala logarítmica)
versus el porcentaje de dominancia sobre el eje Y (escala acumulativa). En este sentido,
cuando la curva de biomasa permanece totalmente por encima de la curva de
abundancia indica ausencia de contaminación; la situación inversa indica fuerte
contaminación, y curvas sobrepuestas mas o menos coincidentes indican contaminación
moderada.

c. Curvas ABC (Abundance/Biomass comparison) (Warwick et al 1987)


Otros indicadores gráficos que se utilizarán para observar cambios en la
estructura comunitaria, serán las curvas ABC (Abundance - Biomass Comparison)
(Warwick, 1986; Warwick et al. 1987). Con estas curvas se plotearán datos de
abundancia y biomasa por estación y para cada fecha de muestreo. En general, las
curvas ABC utilizan las curvas de K-dominancia.

Se evaluará la homogeneidad de varianzas para el número de especies y


abundancias de éstas por estación usando la prueba de Bartlett (Sokal & Rohlf, 1981). Si
las varianzas fueran heterogéneas, los datos serán transformados a la raíz cuarta y
nuevamente probados para la homogeneidad. Consecuentemente, si dicha condición no
fuera establecida las diferencias en el número de especies entre estaciones serán
probadas a través de un análisis de varianza no paramétrica, i.e. la prueba de Kruskal-
Wallis (Siegel, 1991).
En lo relacionado a métodos de ANÁLISIS MULTIVARIADO, se utilizarán:
a. Asociaciones de datos
a.1 Medidas de similaridad con datos cuantitativos (Bray curtis)
Se realizará un análisis de clasificación y ordenación para explorar eventuales patrones
espacio-temporales en la distribución y estructura comunitaria de la macrofauna (Field et
al. 1982; Clarke & Green, 1988; Warwick & Clarke, 1991). Para ello, las matrices
triangulares de similitudes de Bray-Curtis en cada par de muestras o estaciones (análisis
129

normal) (Bray & Curtis, 1957) serán determinadas en base a las abundancias “pooled”
(agrupadas) a partir de las réplicas de cada estación y transformadas a la raíz cuarta
utilizando el Coeficiente de Similaridad de Bray-Curtis (Bray and Curtis, 1957):

jk = X1j - X2j
X1j + X2j

Donde X1j y X2j son los números de individuos de la j th especie en los sitios 1 y 2.

b. Clasificación (“clusterring”), para encontrar agrupamientos naturales de


muestras ., de tal manera que las muestras dentro de un grupo son mas similares que las
muestras en grupos diferentes, se usa para distinguir sitios o (tiempos); dividir sitios o
tiempos en grupos, definir asociaciones de especies.
c. Medidas de ordenación
Técnica para mapear las muestras en un bajo número de
dimensiones(usualmente 2), tal que la distancia entre muestras intentan reflejar
(dis)similaridad en la estructura de la comunidad

Las pruebas de discriminación que se utilizarán serán las de:

a. Análisis de similaridades (ANOSIM)


Las diferencias en la abundancia de individuos / especie entre todas las
estaciones o sitios (o entre grupos de sitios seleccionados), serán examinadas por una
prueba de aleatoriedad denominada ANOSIM (Analysis of Similarities) de una vía
(Clarke & Green, 1988). Esta prueba no paramétrica es la analogía multidimensional del
ANOVA - una o dos vías para datos sin distribución normal. La característica más
importante de esta prueba es que puede ser aplicada a matrices triangulares de
similitudes; no asume igualdad de varianzas, y no está restringida a un número de
réplicas iguales de cada estación.

b. Análisis de porcentajes de similaridades (SIMPER).


Se aplicará la rutina y procedimiento SIMPER (Similarity Percentages) (Smale et
al. 1993, citado por Carbajal; 1999), para establecer el orden de las especies que más
contribuyeron a la separación de un grupo de estaciones con respecto a otro. Para este
análisis se formarán grupos de estaciones (i.e. sitios 1 y 2; 3 y 4; 5 y 6 ), considerados a
presentar diferencias entre si.
130

c. Combinación de variables Ambientales Vs. Datos Bióticos (BIOENV)


El programa BIO-ENV (Biotic-Environment) será utilizado para examinar que
combinación de variables ambientales (e.g. profundidad, temperatura, salinidad, oxígeno,
porcentaje de materia orgánica total, tamaño de partículas) se relaciona mejor con los
datos bióticos (i.e. abundancia y/o biomasa) (Clarke & Ainsworth, 1993; Agard et al.
1993). Previamente, los datos de profundidad y de tamaño de partícula (  ) promedio
por estación serán transformados a la forma Y = Ln (X+1), mientras que los valores
porcentuales de materia orgánica serán sometidos a transformación arco seno (Sokal &
Rohlf, 1981). Se utilizarán las matrices de similitud de Bray-Curtis de las abundancias
versus las matrices de distancias euclideanas de las variables ambientales.

Los datos de las características de los sedimentos (materia orgánica y otros)


para cada estación serán sometidos a un análisis de varianza (ANOVA) de una vía
(Sokal & Rohlf, 1981) para probar si hubiera diferencias entre estaciones.

5. REFERENCIAS BIBLIOGRÁFICAS

AGARD, J.B.R., J. GOBIN and R. M. WARWICK. 1993. Analysis of marine macrobenthic


community structure in relation to pollution, natural oil seepage and seasonal
disturbance in a tropical environment (Trinidad, West Indies). Marine Ecology
Progress Series, 92 : 233 - 243.

APHA; AWWA WPCF. 1992. Métodos Normalizados de análisis de agua. USA.

BRACK, A. Y E. MENDIOLA. 2000. Ecología del Perú, Lima Bruño. p: 102

CANTER, L. 1999. Manual de evaluación de Impacto ambiental. Santa Fe de Bogota,


Mc Graw Hill.

CARRASCO, F. y W.CARBAJAL. 1998. The Distribution of Polychaete Feeding Guilds


in Organic Enrieched sediments of San Vicente Bay, Central Chile.
Internat.rRev. Hidrobiol. 83(3):233-249.

CARRASCO, F. y V. GALLARDO. 1989. La contaminación marina y el valor de la


macroinfauna en su evaluación y vigilancia: caso de estudio en el litoral de
Concepción, Chile. Biología Pesquera 18: 15-27.

CARBAJAL, W. F. CARRASCO., P. CURO Y J. ZAMORA. 1995. Cambios en la


infraestructura comunitaria de la macroinfauna de playas arenosa. Después del
fenómeno El Niño 1986-1987. En Lambayeque. Perú. Gayana Oceanol. 3(1):
29-40

CARBAJAL, W. 1999. Detección de los efectos ambientales sobre las comunidades


marinas. Resúmenes e instructivo de prácticas, Callao. IMARPE.

CLARKE, K.R. and R.H. GREEN. 1988. Statistical design and analysis for "biological
effects" study. mar. Ecol. Prog. Ser. 46: 213 - 226.
131

CLARKE, K. 1990. Comparisons of dominance curves. J. exp. mar. Biol. Ecol. 138: 143 -
157.

CLARKE, K.R. and M. AINSWORTH. 1993. A method of linking multivariate community


structure to environmental variables. Mar. Ecol. Prog. Ser. 92: 205 - 219.

CONEZA, V. 1997a.Instrumentos de la Gestión Ambiental de la empresa, Auditorias


medioambientales, Guía metodológica, Madrid. Mundi-Prensa. p: 43- 61.

CONEZA, V. 1997b. Guía metodológica para la evaluación del impacto ambiental, 3ª.
ed., Madrid. Mundi-Prensa.

COMISION PERMANENTE DEL PACIFICO SUR. 1984. Contaminación marina en el


Pacífico Sur. PACIFICO SUR No 14. p: 8 - 160.

DE TORRES, D. 1999. Nuevo método para la evaluación de impactos puntuales,


Medio Ambiente CANARIAS. Revista 12.

ESPINO, M. 1993. Situación de los recursos pesqueros Nacionales, Mimeo. Callao. vs


pgs

FIELD, J.G., K.R. CLARKE and R.M. WARWICK. (1982). A practical strategy for
analysing multispecies distribution patterns. Mar. Ecol. Prog. Ser. 8 : 37 - 52.

GLYNN, H. y G. HEINKE 1999. Ingeniería ambiental; 2ª. Ed., México. Prentice Hall

INSTITUTO NACIONAL DE PROTECCIÓN DEL MEDIO AMBIENTE PARA LA SALUD


1995. Compendio de legislación ambiental peruana Vols I y II, Lima. MINSA.

INSTITUTO NACIONAL DE ESTADÍSTICA E INFORMÁTICA 2000. Compendio


económico financiero 1998 1999; Lima. Síntesis.

JACINTO, M, R. CABALLERO M. GUZMAN. 1996. Evaluación de la contaminación


marina en la bahía Ferrol, Chimbote. 14-18 de julio 1994. Inf. Prog. Inst. Mar
Perú- Callao Mimeo No 48. Diciembre 1996.

LAMBSHEAD, P, H, PLATT and K. SHAW. 1983. The detection of differences among


assemblages of marine benthic species based on an assessment of dominance
and diversity. Journal of Natural History 17 : 859 - 874.

MAGURRAN, A. 1989. Diversidad Ecológica y su medición, Barcelona. Vedra. p: 39-45.

MILLER, T. 1994.. Ecología y Medio Ambiente, México. Grupo Editorial iberoamericana


S.A. de C.V.

MILLER, R. 1974. The jackknife - a review. Biometrika 61 : 1 - 15.

MINISTERIO DE PESQUERÍA. 1992. D. L. No. 25977; del 22- 12- 92; Ley general de
pesca. El Peruano, Lima. Editora Perú

MINISTERIO DE PESQUERÍA. 1999. Información Estadística Pesquera, Resumen


Ejecutivo, Diciembre 1999, Lima. Oficina central de estadística. vs pgs.
132

MINISTERIO DE PESQUERÍA. 2001. Información Estadística Pesquera.


www.minpes.gob.pe

MINISTERIO DE PESQUERÍA. 2001. DS Nº 012-2001-PE. Reglamento de la ley


general de pesca.

MINISTERIO DE PESQUERÍA. 2002. Resolución Ministerial No. 003-2002-PE


Protocolo para el Monitoreo de efluentes y cuerpo marino receptor

OROZCO, S. CASTILLO, E. ENRIQUEZ, E. FERNANDEZ, O. MORON Y J.


CORDOVA. 1997. Evaluación de la contaminación y calidad microbiológica del
agua de mar en las bahías de Ferrol y Samanco- 12-15 febrero 1996. Inf. Prog.
Inst. Mar Perú-No 56 . Abril 1997 Callao Mimeo

SANDERS, H.L. 1968. Marine benthic diversity : a comparative study. Am. Nat. 102: 243
- 282.

SEOANEZ, M. 1996. El gran diccionario del medio ambiente y de la contaminación,


Madrid. Coediciones Mundi-Prensa.

SIEGEL, S. 1991. Estadística no paramétrica. 3ª. ed., México. Trillas. p: 215


SOKAL, R. and F, ROHLF. 1981. Biometry. 2nd. ed. W.H. Freeman, San Francisco

TRESIERRA, A. 2000. Metodología de la investigación científica, Trujillo. Biociencia.

TRESIERRA, A. y Z. CULQUICHICÓN. 1993. Biología Pesquera, Trujillo. Libertad.

WARWICK, R. 1986. A new method for detecting pollution effects on marine macrobenthic
communities. Mar. Biol. 92: 557 - 562.

WARWICK, R, T, Pearson and Ruswahyuni. 1987. Detection of pollution effects on marine


macrobenthos: further evaluation of the species abundance/biomass method. Mar.
Biol. 95: 193 - 200.

WARWICK, R.M. and K.R. CLARKE. 1991. A comparison of some methods for analysing
changes in benthic community structure. J. mar. Biol. Ass. U.K. 71: 225 - 244.

ANEXO 1

MÉTODO DE VALORACIÓN DE IMPACTOS (De TORRES, 1999)

(VALORACIÓN CUANTITATIVA MAGNITUD DEL IMPACTO)

c1. Capacidad de acogida –fragilidad: 0 - 10


133

c2. Reversibilidad: 0 - 10

C3. Sinergia -potenciación de efectos: 0 - 10

c4. Cualidad ambiental del bien afectado: 0 - 5


C = (5c1 + 3c2 + 2c3)/20 * c4 < 25

A. Cantidad de bien afectado : 0 – 10

B. Cantidad de efecto: 0 - 10

(Pérdida de calidad ambiental)

MAGNITUD DEL IMPACTO = (A + B) * C < 500

(10 + 10) * 25

Medidas correctoras -compensatorias:

A. -Muy Buena capacidad correctora

B: -Buena capacidad correctora -compensatoria

C. -Media a baja capacidad

D.-De escasa o nula capacidad correctora –compensatoria

E. -Inviables

Ejemplo de valoración: Impacto negativo: -

Magnitud del impacto: 48

Medidas correctoras: Nivel B

En cuanto a la interpretación de estos resultados sería:

Rango Calificación

000 - 015: Nada significativo

015 – 060: Poco significativo


134

060 - 200: Significativo

200 - 400: Muy significativo

400 – 500: Crítico.

UNIVERSIDAD NACIONAL DE TRUJILLO


ESCUELA DE POSTGRADO
PROYECTO DE TESIS DE DOCTORADO
I. GENERALIDADES
1. TITULO: RELACIÓN ENTRE LAS CAPACIDADES DE AUTOCUIDADO Y DE
CUIDADO DE DEPENDIENTES EN MUJERES MALTRATADAS. ABRIL 2004
- MARZO 2005.
135

2. AUTORA:
2.1. NOMBRE: NOEMÍ LUCILA DÍAZ VILLENA
2.2. GRADO ACADÉMICO: MAESTRA EN ENFERMERÍA;
MENCIÓN SALUD DE LA MUJER Y EL NIÑO

2.3. TITULO PROFESIONAL: ENFERMERA GENERAL Y DE SALUD PÚBLICA


2.4. DIRECCIÓN: ANTÚNEZ DE MAYOLO 319. URB LOS GRANADOS;
TELEFONO 425671;
2.5 CENTRO DE TRABAJO:
- UNIVERSIDAD NACIONAL DE TRUJILLO;
- FACULTAD DE ENFERMERÍA;
2.6. PROGRAMA DE DOCTORADO EN ENFERMERÍA
3. TIPO DE INVESTIGACIÓN
5.1 De acuerdo al fin que se persigue: aplicada
5.2 De acuerdo a la técnica de contrastación: descriptiva

4. LOCALIDAD E INSTITUCIÓN EN DONDE SE DESARROLLARÁ EL PROYECTO:


Centro de Salud Santa Lucía de Moche, Puesto de Salud Miramar, Puesto de
Salud Campiña del Distrito de Moche Provincia de Trujillo. La Libertad.
5. DURACIÓN DEL PROYECTO: 12 meses
6. CRONOGRAMA DE TRABAJO
Etapas Fecha de inicio Fecha de término Dedicación semanal
6.1 Recolección de 01-04-2004 30-06-2004 30
Datos
6.2. Análisis de los 01-07-2004 31-12-2004 30
datos
6.3 Elaboración del 02-01-2005 20-31-2005 30
informe
7. Recursos:

7.1. Personal
1. 1 Investigadora; 1 chofer
7.2. Bienes:

7.2.1. De consumo:
Materiales de escritorio, software, impresos y suscripciones, soporte
informático; materiales gráficos (rollos de película fotográfica; cintas de
filmadora y vídeo)

7.2.2. De inversión:
1 computadora y hardware informático
1 impresora
136

1 maquina fotográfica Canon AE1;


1 filmadora de 8 mm marca Sony;..

7.3. Servicios
Fotocopiado; Viáticos y asignaciones; remuneración de chofer

8. Presupuesto

5.3.0.2 Bienes y Servicios s/. 1 800,00

5.3.11.31 Bienes de consumo


Materiales de oficina y escritorio s/. 200,00
Software paquete estadístico SPSS-PC 100,00
Materiales de impresión 500,00
Materiales fotográficos y fonotécnicos 500,00
Impresiones y suscripciones 500,00

5.3.00.00 Servicios S/. 3 200,00


5.3.11.21 Viáticos y asignaciones
Viáticos S/. 1 000,00
Movilidad Local 500,00
Otros; pago chofer 1 000,00

5.3.11.39 Otros servicios de terceros


Publicaciones S/. 200,00
Impresiones 300,00
Encuadernaciones 200,00

6.0.1.0 GASTOS DE CAPITAL S/. 8 500,00


6.5.23.0. Inversiones
6.7.11.51. Equipamiento de materiales duraderos S/. 5 000,00
Mobiliario y equipo de oficina
2 000,00
Equipo de procesamiento automático de Datos 1 500,00
Total S/. 13 500,00

9. Financiamiento
9,1 Con recursos propios S/. 3 500,00
9.2 Con recursos externos S/. 10 000,00

Trujillo, Febrero del 2003


II. ASPECTOS DE LA INVESTIGACION

2.1. ANTECEDENTES Y JUSTIFICACIÓN DEL PROBLEMA


El autocuidado asume que la persona posee ciertas capacidades para llevarlo a cabo.
Según Orem (1991), el contexto para una persona que se brinda autocuidado se
deriva de los requisitos de autocuidado que representan las acciones deliberadas
necesarias para satisfacer las demandas universales y de desarrollo. La demanda de
autocuidado terapéutico se refiere a las acciones que necesitan ser ejecutadas para
satisfacer requisitos particulares de autocuidado. Cuando las capacidades son
insuficientes para satisfacer las demandas debido a limitaciones existentes, se da un
déficit de autocuidado. Factores personales y ambientales representan factores
137

condicionantes que influyen en las capacidades de autocuidado y la demanda de


autocuidado de una persona.

El cuidado de los niños continúa llamando la atención en los países latinoamericanos


con un enfoque en el desarrollo de prácticas sectoriales orientadas a mejorar las
condiciones de vida. Aun cuando se observa cambios en la estructura etárea de los
países latinoamericanos, donde el grupo de menores de 15 años va perdiendo
importancia frente al crecimiento de las edades adultas y avanzadas, se reconoce
plenamente el valor potencial de la niñez. Las Naciones Unidas (1990), en el trigésimo
aniversario de la Declaración de los Derechos del Niño reafirmó la necesidad de
proporcionar a los niños cuidado y asistencia especiales en razón de su vulnerabilidad.

Para el año 2020 los niños menores de cinco años serán alrededor de 3 000 000 en el
Perú, que representa aproximadamente el 13 por ciento de la población nacional, y, si
continúan igual las condiciones sociales, la mayoría de ellos vivirán en hogares en
condiciones de pobreza (Ministerio de Salud, 1998). Actualmente sólo el 25,3 por
ciento de los hogares peruanos se beneficia con los programas de control y
crecimiento del niño, vacunas y planificación familiar (Instituto Nacional de Estadística
e Informática, 2000).

El cuidado de los niños ha sido descrito como una experiencia de gran responsabilidad
inherente a la familia en un ambiente de felicidad, amor y comprensión (Fondo de la
Naciones Unidad, 2001): Las tareas a cumplir en el cuidado de niños menores de
cinco años tienden a volverse más progresivas durante el curso del crecimiento y
desarrollo a través de las etapas neonatal, lactante y preescolar, acorde al nivel de
independencia en las áreas psicomotora, afectiva, cognoscitiva y social

El cuidar a los niños es función de la familia, y es la mujer, quien siempre ha asumido


ser cuidadora de la misma vida, no sólo de la calidad de la vida personal, sino familiar
y aun de la colectividad (Salazar, 2000). Sin embargo, las estudios divulgan que
mundialmente del 20 al 50 por ciento de las mujeres son maltratadas alguna vez en
sus vidas por su pareja (Ross, 1998). En el Perú, Barrig y otros (en Salazar, 2000)
afirman que la violencia intra familiar cruza todas las fronteras y las clases sociales, es
un fenómeno bastante extendido y poco conocido por que ocurre en la clandestinidad.
En este sentido, tanto las mujeres que brindan el cuidado, como los niños que lo
reciben necesitan frecuentemente de atención sanitaria.

La perspectiva teórica descrita por Dorothea Orem (1985, 1987, 1991; 1995) es útil
para conceptualizar y examinar sistemáticamente la experiencia del cuidado de los
niños menores de cinco años desde una visión de enfermería.

El proceso de desarrollo humano y las condiciones y acontecimientos que ocurren


durante varias etapas de la vida es un factor condicionante que puede determinar el
nivel de dependencia (Orem, 1991). El cuidado físico y afectivo repercute de forma
decisiva y duradera en la evolución del niño hasta la edad adulta y en el desarrollo de
su capacidad de aprender y de regular sus emociones. Cuando no se atienden las
necesidades básicas del niño en los primeros meses de vida y la primera infancia, éste
suele mostrarse desconfiado y encuentra dificultades para creer en sí mismo y en los
demás. Cuando no se orienta al niño en los primeros años de vida para que vigile o
regule su comportamiento, aumentan las posibilidades de que cuando vaya al colegio
padezca ansiedades, miedos y un estado de desorganización por lo que respecta a los
impulsos y el comportamiento. De esta manera, es necesario que otra persona, en
este caso, la madre, identifique y satisfaga las demandas que emergen de los
requisitos de autocuidado de la persona en crecimiento. Quien proporciona cuidados a
un niño o niña es un agente de autocuidado que asume el rol de cuidado de
138

dependientes. La autoridad de quien brinda cuidados está relacionada tanto con las
capacidades de autocuidado como con las capacidades de cuidado dependiente. Un
comienzo necesario para la comprensión de la naturaleza del cuidado de niños
menores de cinco años por mujeres adultas maltratadas es desarrollar una
comprensión teórica y empírica de las capacidades de autocuidado y del cuidado a
personas dependientes.

El propósito de esta investigación es examinar las relaciones teóricas propuestas por


Orem (1991) en relación con las mujeres adultas maltratadas que brindan cuidados a
niños menores de cinco años. Específicamente, este estudio examinará: i) la
naturaleza de las capacidades de autocuidado (CA) en mujeres maltratadas que
cuidan a niños de uno a cinco años, ii) la relación entre las capacidades de
autocuidado (CA) y las capacidades de cuidado dependiente (CCD) en mujeres
maltratadas que cuidan a niños de uno a cinco años, y iii) la influencia de una
selección de factores condicionantes básicos en la CCD y la CA de mujeres
maltratadas que atienden a niños de uno a cinco años.

A la enfermería le concierne tanto la teoría como la práctica y el estudio que aquí se


propone tiene significancia para ambas. En relación con la práctica en el ejercicio
profesional las enfermeras tienen contacto frecuente con mujeres maltratadas y sus
familias. La mayoría de los niños menores de cinco años permanecen en sus hogares
y son cuidados por sus madres.

El maltrato a las mujeres, generalmente, es un problema de relaciones intra familiares


que incluye violencia física, psicológica o sexual por parte de sus compañeros (Ruiz,
1996). En distintas partes del mundo, entre el 16 y 52 por ciento de las mujeres
experimentan algún tipo de violencia por parte de sus compañeros. La violencia anula
la autonomía de la mujer y disminuye su potencial como persona y miembro de la
sociedad (OPS, 1997: OMS, 1998). En América Latina es considerada como un
problema de salud pública porque constituye una violación a los derechos humanos y
resulta de las relaciones estructurales de poder, dominación y privilegio entre los
hombres y las mujeres en la sociedad; en el Perú se da en el marco de una sociedad
predominantemente adultista y violenta (Estremadoyro, 1992; Loli,1992). Las mujeres
maltratadas tienen mayor tendencia a maltratar a sus hijos que las que no lo son
(Swift, 1996: Fondo de las Naciones Unidas para la Infancia (UNICEF),2000)

La comprensión de la experiencia única que constituye el cuidado de los niños


menores de cinco años y su relación con las capacidades de autocuidado y de cuidado
dependiente de la mujer adulta maltratada (quien le brinda cuidados y generalmente
es su madre) promoverá el desarrollo del conocimiento que servirá para diseñar
sistemas de enfermería y estrategias de intervención que maximicen esas
capacidades.

Orem (1988) describe la enfermería como una actividad prácticamente de búsqueda


que ocurre dentro de un entorno social mayor, por lo que debe explicitarse las
naturaleza substantiva de su campo del conocimiento. La teórica señala que han
identificado dos tipos de ciencias prácticas, el primero es especulativa, la cual es
teórica, explicativa y forma la estructura substantiva, y la segunda es práctica
“práctica” y está en relación con las acciones concretas de la práctica y depende de la
anterior. La investigación propuesta en este estudio corresponde al segundo tipo y se
enfoca a la “investigación de la naturaleza y los efectos de relaciones entre las
variables cuando prevalecen valores específicos y el significado de estos valores se
establece por la acción de la enfermera o el paciente”.
139

Esta investigación plantea comprobar las siguientes proposiciones de la teoría del


déficit de autocuidado: i) Las personas que ejecutan acciones para proveer su propio
cuidado o el cuidado de dependientes tienen capacidades especialidades para la
acción; y ii) Las habilidades de las personas comprometidas en el autocuidado o el
cuidado de dependientes están condicionadas por la edad, el desarrollo, la
experiencia, la orientación sociocultural, la salud y los recursos disponibles (Orem,
1991).

MARCO TEÓRICO

Orem (1981, 1995) desarrolló la teoría general de enfermería del déficit del
autocuidado, que es explicativa descriptiva y está constituida por tres teorías
relacionadas: i) La teoría de sistemas de enfermería; ii) La Teoría del déficit del
autocuidado, y iii) La teoría del Autocuidado. Estas tres teorías están
relacionadas. La teoría de sistemas de enfermería fundamenta la teoría del
déficit del autocuidado, la cual a la vez fundamenta la teoría del autocuidado, y
juntas estas tres teorías constituyen la teoría de enfermería del déficit del
autocuidado (Fig. 1).

La teoría del autocuidado es básica para la comprensión de la teoría del déficit del
autocuidado y la teoría de sistemas de enfermería. La teoría de autocuidado se refiere
a personas ejecutando acciones que satisfagan sus requisitos de autocuidado o los
requisitos de los miembros dependientes de su familia, acciones que conduzcan a la
conservación de la vida, la salud y el bienestar (Orem, 1991).

Aunque no ha sido explicada una teoría de cuidado de personas dependientes, parece


implícito que la idea central de la teoría del autocuidado se relaciona con las instancias
del cuidado de dependientes. Los miembros de la familia incapaces de satisfacer sus
necesidades personales de autocuidado, a causa de condiciones propias de cada
etapa del ciclo vital, son quienes necesitan de servicios de cuidado de dependientes.
La idea central de la teoría del déficit del autocuidado es descrita por Orem (1991)
como las limitaciones relacionadas con la salud o acciones derivadas de la salud que
vuelven a las personas incapaces de reconocer sus requisitos emergentes o
incapaces de ejecutar las medidas de cuidado necesarias para un funcionamiento
integral. Es ésta teoría la que explica el porqué de la necesidad y el beneficio de que la
persona sea atendida por una enfermera, y esta relacionada pertinentemente con esta
investigación. Específicamente, los conceptos de capacidades de autocuidado (CA),
capacidades de cuidado a dependientes (CCD) y el constructo periférico de los
factores condicionantes son el foco de esta investigación.

La capacidad de autocuidado (CA) es un prerrequisito necesario para el autocuidado y


se refiere al conjunto de habilidades adquiridas por la persona para cuidarse a sí
misma; es el poder para actuar deliberadamente en la regulación de los factores que
afectan su propio funcionamiento y desarrollo (1991, 1995). Esta capacidad es
desarrollada a lo largo de la existencia a través de aprendizajes espontáneos. Las
habilidades humanas constituyen la forma de la CA, mientras que su contenido se
deriva de los requisitos particulares de autocuidado. La estructura substantiva de la CA
es parte de una estructura tripartita de capacidades, que se conceptualizan como
operaciones estimativas, transicionales y productivas las cuales son fundamentos
unas de otras (Orem, 1991).

Las capacidades fundamentales y las disposiciones se refieren a aquellas habilidades


comunes básicas que posibilitan las acciones deliberadas, y su contenido se deriva de
múltiples disciplinas; producen el poder de agencia en tanto que son necesarias para
todas las formas de agencia (albedrío) humana. Éstas favorecen las acciones que
140

habilitan el autocuidado (Orem, 1991). Entre las capacidades y las acciones, y entre
las capacidades y la agencia del autocuidado están los componentes del poder dados
por el conocimiento, la motivación y el repertorio de destrezas necesarias para el
compromiso del autocuidado o del cuidado de personas dependientes

Las acciones de autocuidado son el tercer componente de la estructura substantiva de


las CA e incluye las suboperaciones: estimativas, transicionales y productivas. Las
primeras se refieren a la búsqueda en relación a los requisitos de autocuidado
(demandas); las segundas se refieren a los aspectos de juicio y tomas de decisiones
de las acciones de autocuidado, y, las últimas a la habilidad de comprometerse (Orem,
1995), (Fig. 2).

El concepto de cuidado a personas dependientes es definido por Orem (1995) como la


“habilidad compleja para reconocer y satisfacer algunos o todos los requisitos de
autocuidado de adolescentes o personas adultas que tienen limitaciones en su
capacidad de autocuidado asociadas o derivadas de problemas de salud, que los
colocan en situaciones de dependencia social en cuanto a su cuidado”. Ésta puede
ser afectada por factores tales como la cultura, experiencias vividas, y la salud de
ambos, el agente que presta cuidado a la persona dependiente y la persona que
recibe el cuidado. La capacidad de autocuidado es un proceso de aprendizaje a lo
largo de la existencia humana y su desarrollo tiene relación con la satisfacción de las
demandas (requisitos de autocuidado universal, de desarrollo y por desviación de la
salud.

Las capacidades de autocuidado en los niños de uno a cinco años se encuentran en


evolución y se desarrollan en respuesta a condiciones externas e internas. En relación
con la primera infancia se señala que los niños tienen derecho a desarrollar
cabalmente su potencial cognoscitivo, emocional, social y físico (UNICEF, 2000), y su
cuidado debe incluir nutrición, educación, atención de la salud, integración familiar y
social. El cuidado del niño repercute en forma decisiva y duradera en la evolución del
niño hasta la edad adulta y el desarrollo de sus capacidades de autocuidado.

El cuidado de los niños, aun cuando es un proceso esperado en la vida familiar,


implica toma de decisiones y acciones relacionadas con el fomento de capacidades
para el cuidado de dependientes (CCD) y tiene su raíz en el sistema de valores del
agente que brinda cuidado a personas dependientes, su cultura y sus experiencias
vividas. Motivación, fuerza de voluntad y capacidad de sostener la energía durante
largos períodos de tiempo son necesarias para el desarrollo y operatividad del CCD.

La estructura conceptual amplia de la CCD es análoga a la CA (Orem 1991; 1995), con


una estructura substantiva tripartita: capacidades y disposiciones fundamentales,
componentes de poder y acciones de autocuidado. De acuerdo con Orem (1991) los
aspectos de la estructura conceptual de la CCD que requieren énfasis incluyen la
necesidad de identificar la demanda de autocuidado de las personas socialmente
dependientes, la habilidad de trabajar con partes de otra persona, y un repertorio de
destrezas y habilidades para satisfacer las necesidades del dependiente.

Las capacidades relacionadas con el conocimiento para emitir juicios, la voluntad para
aceptar el rol de proveedor y comprometerse en acciones de cuidado a dependientes
están directamente relacionadas con las creencias y prácticas culturales que han
ocurrido dentro del contexto familiar e influencian el desarrollo de la CCD. Los
componentes de poder de la CCD, capacidades que lo facultan y habilitan, están
relacionados con la motivación y energía que permiten al agente acciones como la
toma de decisiones, adquirir destrezas técnicas e integrar acciones de cuidado a
141

dependientes, las que finalmente son expresadas a través de acciones productivas


(Orem, 1995).

Las acciones productivas comienzan con una decisión y elección de acción, y de


acuerdo con Orem (1991), requieren de conocimientos y destrezas específicas,
motivación, energía, compromiso, habilidad para ejecutar movimientos, y sentido de
bienestar. La operatividad de la CCD es expresado a través de acciones productivas
del cuidado a dependientes por medio de una serie de actividades para satisfacer la
demanda de autocuidado del dependiente.. En esta conceptualización, la CCD es
definida como el poder para ejecutar acciones de cuidado a dependientes.

Los Factores Condicionantes Básicos (FCB) son descritos como un concepto


periférico, y están constituidos por elementos o características tanto internas como
externas de las personas que afectan sus capacidades para realizar su autocuidado, el
cuidado a dependientes y la demanda de autocuidado en momentos particulares. Se
clasifican en tres categorías: i) Factores descriptivos de las personas (edad, estado de
desarrollo, género ); ii) Factores de la estructura familiar, y, iii) Factores que relacionan
a las personas con las condiciones y circunstancias de la vida como el estado de
salud, sistema de salud, factores del medio ambiente, disponibilidad y adecuación de
recursos (Orem 1987, 1995).

Los agentes de cuidado a dependientes son agentes duales que necesitan equilibrar el
gasto de sus recursos en el esfuerzo por satisfacer tanto sus demandas como las de
los dependientes. Factores internos y externos ejercen influencias directas o indirectas
en las capacidades para el autocuidado y el cuidado a dependientes y pueden
incrementarlas o restringirlas.

El estado de salud de quienes prestan cuidados a dependientes incluye varios


aspectos, tanto los cambios en el estatus subjetivo de salud del propio individuo así
como la tensión emocional percibida asociada con la prestación de cuidados. En esta
conceptualización el estado de salud del agente que brinda cuidados incluye su
estatus subjetivo de salud y la tensión, reflejando una variable multidimensional
directamente relacionada con el rol dual del agente de cuidado a dependientes. Los
efectos de la violencia de género pueden ser devastadores y duraderos en la mujer
que brinda cuidados a niños de uno a cinco años, y puede dejarle huellas de tipo
psicológico y cognoscitivo, así como afectar su capacidad para relacionarse
(Population Reference Bureau (PRB), 1998).

El estado de salud del receptor de los cuidados también influencia la experiencia de la


prestación de cuidados. En cuanto al cuidado de niños de uno a cinco años de edad,
Barnard (en Marriner-Tomey, 1995) señala que en la interacción adaptativa padre-
hijos se produce un proceso de modificación mutua en el cual las conductas de los
padres influyen sobre el niño y viceversa, Klauss y Kennell (1982) afirman que el
comportamiento de la madre y del padre frente al hijo deriva de una combinación
compleja de su potencial genético, la respuesta del infante frente a ellos, una larga
historia de relaciones interpersonales con sus propias familias y entre ellos, las
experiencias vividas y que se viven en la vida diaria. Sherman (en PRB,1998) afirma
que la violencia afecta a niñas y niños, aunque no digan nada; un niña o niño que ha
sido objeto de violencia o que la ha presenciado, puede volverse introvertido, sentir
ansiedad o deprimirse o bien puede volverse agresivo y tratar de controlar a sus
hermanas o hermanos menores.

MARCO EMPÍRICO
142

Existen investigaciones que utilizan la Teoría de Enfermería del Déficit del Autocuidado
en diferentes grupos etáreos, sin embargo, pocas se relacionan con las capacidades
de autocuidado y de cuidado a dependientes en mujeres adultas maltratadas con hijos
de uno a cinco años.

Limandri (1986), en base a un estudio realizado con mujeres maltratadas en Estados


Unidos de Norte América propuso que las investigaciones de enfermería dirigidas a
complementar los mecanismos cognitivos pueden influir positivamente en la
restauración del equilibrio y por lo tanto en su respuesta de adaptación. Entonces el
estado funcional de las mujeres maltratadas puede ser fortalecido con intervenciones
adecuadas que permitan la salud integral no sólo de la mujer sino también de todos los
miembros de la familia.

La Organización Mundial de la Salud (1998) calcula que como mínimo una de cada
cinco mujeres en todo el mundo ha sido objeto de abuso sexual o físico en algún
momento de su vida. Las encuestas realizadas en el África Subsahariana muestran
que el 46 por ciento de las mujeres de Uganda, el 60 por ciento de las de Tanzania, el
42 por ciento de las de Kenia y el 40 por ciento de las de Zambia son maltratadas
físicamente en forma habitual, y en Nigeria el 81 por ciento de las mujeres casadas
son maltratadas física y verbalmente por sus esposos y en el 46 por ciento de los
casos ello tiene lugar en presencia de sus hijos (PRB, 1998).

En Chile, un estudio realizado en 1993 muestra que la violencia intrafamiliar contra la


mujer se da en el 75 por ciento de los casos, la violencia cruzada entre los dos
miembros de la pareja en el 23 por ciento y el maltrato hacia el hombre llega solo a un
dos por ciento. En Nicaragua (1995), de los casos recepcionados durante el año por la
Comisaría de la mujer en el distrito 5 de la Policía Nacional, el 82 por ciento fueron
casos de violencia intrafamiliar física y emocional, el 18 por ciento fueron agresiones
sexuales (Ruiz, 1996).

En el Perú (INEI, 2002), se señala que la violencia contra la mujer equivale a menudo
violencia contra los niños y niñas. Diversos estudios muestran que el tipo de violencia
que sufrieron con mayor frecuencia las mujeres fue el tipo combinado de violencia
física-psicológica (Sánchez, 1993; Ávalos y Loyola, 1994; Huertas, 1994; Ipanaqué y
Paredes, 1996).

Rivera (2000), en un estudio realizado en Trujillo-Perú sobre maltrato intrafamiliar y


autocuidado en la adolescente embarazada, reporta relación inversa entre el maltrato,
capacidades y acciones de autocuidado, por lo tanto a mayor maltrato menores
capacidades y acciones de autocuidado de las adolescentes embarazadas estudiadas.

En resumen: La Teoría del Déficit del Autocuidado de Orem (1991, 1995) provee un
marco útil para examinar las capacidades de autocuidado relacionadas con el cuidado
de niños de uno a cinco años. Las personas que prestan cuidado a dependientes son
agentes duales. La capacidad de cuidado a dependientes es análoga a la capacidad
de autocuidado y representa capacidades complejas adquiridas para satisfacer las
necesidades de otras personas.

El cuidado a los niños de uno a cinco años es un proceso continuo en el que las
capacidades para el cuidado a dependientes son promovidas y están relacionadas con
la motivación, la voluntad, la capacidad de sostener la energía por largos períodos, la
habilidad para adquirir un repertorio de destrezas especializadas, y, la habilidad para
integrar acciones del cuidado a dependientes.
143

La relación entre las capacidades de autocuidado y de cuidado a dependientes es aún


desconocida. Factores pertinentes tales como el estado de salud y el sistema familiar
condicionan ambas.

La intención de esta investigación es comenzar a desarrollar conocimiento substantivo


acerca de las relaciones teóricas y empíricas entre los Factores condicionantes
básicos y las capacidades de autocuidado y de cuidado a dependientes de las mujeres
maltratadas que brindan cuidado a niños de uno a cinco años. La Figura 3 describe el
modelo del cual son generadas las preguntas e hipótesis de esta investigación; las
flechas sencillas representan relaciones entre variables, mientras que la flecha doble
representa la relación entre los componentes del modelo.

Definiciones conceptuales y operacionales.

Agencia de cuidados: Se refiere a la percepción de capacidades de acción que una


persona posee en relación con el autocuidado y el cuidado a dependientes. La CCD es
el dominio del conjunto de capacidades humanas percibidas de la persona que brinda
cuidados y posibilita la ejecución de acciones en relación con el cuidado a niños de
uno a cinco años. La CA es el conjunto de capacidades humanas percibidas que
posibilitan al agente el autocuidado.

Los Factores Condicionantes Básicos son características personales e influencias


medioambientales que son internas y externas a la persona y condicionan los
conceptos esenciales en diversos momentos.

El estado de salud no puede ser separado del crecimiento y desarrollo de la persona o


de las características biológicas inherentes a las diferentes etapas del ciclo vital. El
estado de salud en esta investigación se refiere a aspectos de salud de quien brinda el
cuidado y la salud de quien lo recibe. El estado de salud incluye el funcionamiento
físico, la salud mental y la percepción de la salud. El estado de salud de la persona
que recibe el cuidado es su condición de crecimiento y desarrollo de acuerdo a su
edad.

El sistema familiar se refiere a algunas formas de maltrato que van a afectar las
capacidades de autocuidado y de cuidado a dependientes.

2. PROBLEMA CIENTÍFICO

El problema científico se plantea en los términos siguientes:

¿EXISTE RELACIÓN ENTRE LAS CAPACIDADES DE AUTOCUIDADO Y DE


CUIDADO A DEPENDIENTES EN MUJERES MALTRATADAS QUE PRESTAN
CUIDADOS A NIÑOS DE UNO A CINCO AÑOS EN EL DISTRITO DE MOCHE,
ABRIL 2004 - MARZO 2005?

¿Existe relación entre el estado de salud y las capacidades de autocuidado y


de cuidado a dependientes de mujeres maltratadas que prestan cuidados a niños de
uno a cinco años?

¿Existe relación entre el estado de salud del niño y las capacidades de


autocuidado y de cuidado a dependientes de las mujeres maltratadas que prestan
cuidados a niños de uno a cinco años?
¿Cuál es la relación entre el sistema familiar, dado por el maltrato intrafamiliar
percibido, y las capacidades de autocuidado y de cuidado a dependientes de las
mujeres maltratadas que prestan cuidados a niños de uno a cinco años?
144

3. HIPOTESIS:
3.1 La capacidad de autocuidado es predictora de la capacidad de
cuidado a niños de uno a cinco años en mujeres maltratadas.
3.2 El estado de salud es predictor de las capacidades de autocuidado
y de cuidado a dependientes de mujeres maltratadas que prestan
cuidado a niños de uno a cinco años.
3.3 El estado de salud del niño es predictor de las capacidades de
autocuidado y de cuidado a dependientes de las mujeres
maltratadas que prestan cuidados a niños de uno a cinco años.
3.4 El sistema familiar, dado por el maltrato intrafamiliar percibido es
poredictor de las capacidades de autocuidado y de cuidado a
dependientes de las mujeres maltratadas que prestan cuidados a
niños de uno a cinco años

6. DISEÑO DE CONTRASTACIÓN DE HIPÓTESIS:

Para la contrastación de hipótesis se utilizará el diseño descriptivo


correlacional según Polit y Hungler (1997). El estudio se realizará en el
Distrito de Moche; Provincia de Trujillo, Departamento de La Libertad.

4.1 Universo muestral

Estará conformado por un total estimado de 384 casos anuales de mujeres


adultas maltratadas que llegaron a los servicios de consulta externa de los
centros y puestos de salud del Distrito de Moche, según información obtenida
de la Unidad Operativa a la mujer.

4.2 Muestra
Estará por 192 mujeres, obtenida con un nivel de confianza del 95 por ciento (α
= 0,05) y con un límite de error de estimación de 0,05 y se adoptó el valor de p
en 0,5. La selección se hará por muestreo probabilístico sistemático, siguiendo
a Rojas (1998) y se considerá la sectorización utilizada por los Centros y
Puestos de Salud del Distrito de Moche.

4.3 Unidad de análisis


La unidad de análisis será la mujer adulta maltratada que presta cuidado a
niños de uno a cinco años, que cumpla con los siguientes criterios de inclusión:
i) Que desee participar voluntariamente en el estudio.
ii) Sin evidencia de trastorno mental.
iii) Con Residencia habitual en el Distrito de Moche.
4.4 Instrumentos
Los instrumentos a utilizarse en la presente investigación serán tres: Dos para
estimas las Capacidades de autocuidado y de cuidado a dependientes y uno sobre
el maltrato familiar percibido por la mujer adulta.
4.4.1 Escala de medición de capacidades de autocuidado en mujeres
maltratadas (ECA): (Anexo 1): Diseñado por Isenberg y Evans (1993)
validada por Gallegos (1995) con un Alfa Cronbach de 0,8198. Este
instrumento incluye 32 reactivos, cada uno de los cuales se califica con una
escala tipo Likert que toma valores de uno (total desacuerdo) al cinco (total
acuerdo). Las mismas que determinan un puntaje mínimo de 32 puntos y
un máximo de 160.
145

4.4.2 Escala de medición de capacidades de cuidado a niños de uno a cinco


años (ECCD): (Anexo2): Ajustada por Deets (1998). Este instrumento
incluye 39 reactivos, cada uno de los cuales se califica con una escala tipo
Líkert que toma valores de uno (nunca) al cinco (siempre), las mismas que
determinan un puntaje mínimo de 39 puntos y un máximo de 195.
4.4.3 Escala de medición de maltrato intrafamiliar en mujeres adultas (EMIM):
(Anexo 3): Diseñado por Reátegui (1996); consta de 23 reactivos, tiene un
rango de puntaje de 69 puntos como máximo y 23 puntos como mínimo
obtenidos de la sumatoria de los puntajes parciales. Cada ítems asume los
valores de: Nunca :1; A veces: 2, y, Siempre: 3.

4.5 Control de calidad de los instrumentos


Prueba Piloto: Los instrumentos que emplearán en la presente investigación
serán depurados, para lo cual se usará una muestra de 30 mujeres adultas
maltratadas que presten cuidado a niños de uno a cinco años con
características similares a la población que se estudiará, quienes no formaran
parte de la muestra. El propósito es conocer la comprensión, practicidad y
tiempo para la aplicación de los instrumentos, asó como para proporcionar las
bases necesarias para las pruebas de validación y confiabilidad.

Validez: Para determinar la validez de los instrumentos se utilizará los


coeficientes de validez mediante el uso del análisis de varianza (ANOVA), y la
correlación Inter.-ítem y las estadísticas ítem total.

Confiabilidad: La confiabilidad de los instrumentos se determinará mediante el


coeficiente Alfa de Cronbach.

4.6 Procedimiento

Se solicitará la autorización de la Dirección del Hospital de Belén de Trujillo


para efectuar el presente estudio en la población de mujeres adultas
maltratadas que acuden a los centros y Puestos de Salud del Distrito de
Moche.

Se coordinará con la Enfermera Jefe del Departamento de Enfermería y la


Enfermera Coordinadora de los Programas para informarles sobre el estudio de
investigación.

Los instrumentos serán aplicados por la autora a las mujeres maltratadas que
reúnan los criterios de inclusión, y, al término se finalizará con educación
sanitaria y la entrega de un folleto sobre cuidado al niño de uno a cinco años y
otro sobre los Derechos Humanos.

Al término de cada aplicación del instrumento de investigación se revisará el


completo llenado y codificación para ser procesados.

Los resultados finales serán comunicados a las autoridades del Hospital Belén
de Trujillo.

4.7 Procesamiento de datos


Se organizará una base de datos con el paquete estadístico para Ciencias
Sociales ver. 9.0 entorno windows, y, los resultados se presentaran en cuadros
estadísticos en Microsoft Excel 8.0 y el texto en Microsoft Word, donde se
detallará la media aritmética, valores mínimos y máximos, desviación estándar
y para los análisis estadísticos se incluirán estadísticas descriptivas, y así
146

mismo, se determinará la correlación que existe entre el estado de salud, el


sistema familiar dado por el maltrata intrafamiliar y las capacidades de
autocuidado y de cuidado a dependientes mediante el coeficiente de
correlación de Spearman y el modelo de Regresión Lineal Simple.

7. Referencias Bibliográficas

AVALOS, G. y M. LOYOLA. 1994. Relación entre los patrones de poder familiar y la


violencia familiar intrafamiliar hacia la mujer, Comisaría de la mujer. Tesis para
optar el título de Licenciada en Enfermería. Facultad de Enfermería de la
Universidad Nacional de Trujillo.

ESTREMADOYRO, J. Violencia contra la mujer: El caso de violencia familiar. Lima:


Editorial Flora Tristán.

FONDO DE LA NACIONES UNIDAS PARA LA INFANCIA. 1990. La Convención de la


Naciones Unidas sobre los Derechos del Niño. Lima-Perú, UNICEF.

FONDO DE LA NACIONES UNIDAS PARA LA INFANCIA. 2000. Domestic Violence


Agaiinst Women and girls, Inocenti Digest Nº. 6.Research Centre, Florencia,
UNICEF.

FONDO DE LA NACIONES UNIDAS PARA LA INFANCIA. 2001. Estado Mundial de la


Infancia. Nueva York, USA. UNICEF.

INSTITUTO NACIONAL DE ESTADÍSTICA E INFORMÁTICA. 2002. Condiciones de


vida en los Departamentos del Perú, 200. Encuesta Nacional de Hogares –
ENAHO. Estadísticas Sociales. Lima, PROGRAMA MECOVI.

HUERTAS, F. 1994. Algunas Características socioculturales del agresor que influyen


en el tipo de violencia intrafamiliar a la Mujer. Las Delicias: Trujillo. Trabajo de
Habilitación Docente. Facultad de Enfermería de la Universidad Nacional de
Trujillo.

IPANAQUÉ, J. y PAREDES, P. 1996. Tipos DE violencia a la mujer y factores que


motivan la denuncia del cónyuge perpetrador. Tesis para optar el título de
Licenciada en Enfermería. Facultad de Enfermería de la UNT

LIMANDRI, B. 1986. Research and practice with abused womwn: use of the Roy adaptation model
as an explanatory framework. ADVANCES IN NURSING SCIENCIE. July. 8(4), 52-61.
LOLI, S. 1982. Poder y violencia. Lima: Centro de la Mujer Peruana Flora Tristán
(Mimeo).

KLAUSS, M. y J. KENNELL. 1982. Parents- infant bonding. 2ª. ed. St. Louis, The C:V:
Mosby Co.

MARRINER – TOMEY, A. 1995. Modelos y teorías en enfermería. 3a. ed. Madrid,


Mosby/Doyma Libros.

MINISTERIO DE SALUD / ORGANIZACIÓN PANAMERICANA DE LA SALUD. 1998.


Situación de salud en el Perú. Indicadores Básicos. Oficina de Estadística e
Informática.
ORGANIZACIÓN PANAMERICANA DE LA Salud. 1997. Violence in the Americas: The
social pandemic oh the 20th century. Washington DC.
147

OREM, D. 1985. Nursing: concepts of practice. 3ª. ed. New York: McGraw-Hill Co.

OREM, D. 1987. Orem’s general theory of nursing. In: R. Parse, Nursing, ciencie. Major
pardigms, theories and critiques. Philadelphia, W.B. Saunders Company.

OREM, D. 1988. The form of nursing science. Nursing Science Quqrterly, 1.

OREM, D. 1991. Nursing: concepts of practice. 4ª. ed. St. Louis, Mosby Co.

ORGANIZACIÓN MUNDIAL DE LA SALUD. 1998. Violencia Contra la mujer. Un tema


de salud prioritario. Washington DC.

POLIT, D. Y B. HUNGLER. 1997. Investigación Científica en las Vciencias de la Salud.


5ª. ed. Edit Interamericana, México.

POPULATION REFERENCE BUREAU. 1998. Inquietudes Femeninas: Informe de


mujeres sobre la violencia contra su sexo. MEASURE Communication. 1875
Connecticut Ave., NW, Suite 520. Washington, DC EE.UU.

RIVERA, M. 2000. Maltrato Intrafamiliar y autocuidado en la adolescente embarazada.


Hospital Belén de Trujillo. Tesis para optar el Grado Académico de Maestra en
Enfermería. Escuela de Postgrado. Universidad Nacional de Trujillo .

ROJAS, R. 1998. Guía para realizar investigaciones sociales. 22ª. ed.Plaza y Valdés,
México.

ROSS, S. 1998. Promoviendo la Calidad del Cuidado Materno: Un manual de referencia para
gerentes de programas. USA. Agencia Estadounidense de Desarrollo Internacional (USAID).

RUIZ, B. 1996. Violencia contra la mujer y la niñez: Una perspectiva en Enfemería.


Universidad Politécnica de Nicaragua. Ed. AEDAF.

SALAZAR, E. 2000. Condiciones básicas en el cuidado de la mujer. Santa Fe de


Bogotá, Colombia. Centro Editorial Javeriana.

SÁNCHEZ, H. 1993. Características Sociales de la mujer maltrsatada del pueblo joven


“San Antonio”. 1er. Sector Chiclayo, Perú.

ANEXO 1

UNIVERSIDAD NACIONAL DE TRUJILLO


ESCUELA DE POSTGRADO

Escala para Estimar Capacidades de autocuidado (EECA)


Autoras: Isenberg y Evans

INSTRUCCIONES: Las afirmaciones listadas a continuación son usadas por algunas


personas para describirse a sí mismas. Por favor LEA CADA AFIRMACIÓN y circule el
número que corresponda al grado que mejor lo describe a usted. No hay respuestas
correctas o incorrectas, solo asegúrese de seleccionar el número que mejor
corresponda a su forma de ser.

Total Desacuerdo Ni acuerdo Acuerdo Total


148

desacuerdo ni Acuerdo
desacuerdo
1. Conforme cambian 1 2 3 4 5
las circunstancias de mi
vida, puedo hacer
cambios para
mantenerme sana.
2. Usualmente 1 2 3 4 5
compruebo si las
formas de mantenerme
sana son las mejores.
3. Si mis movimientos 1 2 3 4 5
están disminuidos hago
los cambios o ajustes
necesarios.
4. Tomo las medidas 1 2 3 4 5
necesarias para
mantener higiénico el
medio que me rodea.
5. Cuando es necesario 1 2 3 4 5
hago cambios en mi
forma de vida para
mantenerme sana.
6. Raras veces 1 2 3 4 5
desperdicio la energía
que necesito para
cuidarme a mí misma.
7. Soy capaz de buscar 1 2 3 4 5
formas mejores de
cuidarme a mí misma.
8. Puedo adecuar la 1 2 3 4 5
frecuencia con que me
baño a fin de
mantenerme limpia.
9. Me alimento de 1 2 3 4 5
manera que mantengo
mi peso en un buen
nivel.
10. Cuando es 1 2 3 4 5
necesario me las puedo
arreglar para estar a
solas.
11. Con frecuencia 1 2 3 4 5
pienso en tomar tiempo
para hacer ejercicio y
descansar durante el
día, pero nunca lo hago.
12. A través de los años 1 2 3 4 5
he hecho amigas a las
que puedo llamar
cuando necesito ayuda.
13. Usualmente duermo 1 2 3 4 5
lo suficiente para
sentirme descansada.
14. Cuando recibo 1 2 3 4 5
149

información sobre mi
salud generalmente
pido que me expliquen
las palabras que no
entiendo.
15. Regularmente 1 2 3 4 5
examino mi cuerpo para
ver si hay cambios.
16. Si debo tomar una 1 2 3 4 5
medicina que nunca
había tomado busco
información sobre los
efectos no deseados
que puede tener.
17. En el pasado he 1 2 3 4 5
sido capaz de cambiar
algunos de mis viejos
hábitos para mejorar mi
salud.
18. Habitualmente me 1 2 3 4 5
aseguro de que mi
familia y yo estemos
seguros.
19. Regularmente 1 2 3 4 5
compruebo la utilidad
de lo que hago para
mantenerme sana.
20. En las actividades 1 2 3 4 5
de mi vida diaria raras
veces me doy el tiempo
para cuidarme a mí
misma.
21. Cuando mi salud se 1 2 3 4 5
ve en peligro soy capaz
de buscar la
información que
necesito.
22. Busco ayuda 1 2 3 4 5
cuando no puedo
cuidarme sola.
23. De vez en cuando 1 2 3 4 5
tengo tiempo para mí.
24. Cuando he tenido 1 2 3 4 5
limitaciones para
moverme, he sido
capaz de cuidarme
como a mí me gusta.
25. Con frecuencia me 1 2 3 4 5
siento bien conmigo
misma.
27. Con frecuencia me 1 2 3 4 5
siento bien respecto
hacer cosas buenas.
28 Frecuentemente me 1 2 3 4 5
siento orgullosa de
150

hacer las cosas buenas


29. Con frecuencia me 1 2 3 4 5
siento bien respecto a
mi cuerpo.
30. Soy una buena 1 2 3 4 5
amiga mía.
31. Conozco mis puntos 1 2 3 4 5
fuertes y los débiles.
32. Llevo a cabo mis 1 2 3 4 5
decisiones.
151

UNIVERSIDAD NACIONAL DE TRUJILLO


ESCUELA DE POSTGRADO
ESCALA DE MALTRATO INTRAFAMILIAR PERCIBIDO POR LA MUJER
Autora: Reátegui.

INSTRUCCIONES: Las frases siguientes expresan sentimientos, pensamientos o


conductas para que Usted pueda experimenta.
Responda con cuidado y veracidad, no hay respuesta correctas o incorrectas.
Marca con un aspa (X) dentro del paréntesis la respuesta que estime
convenientemente.
- Nunca : Si no piensa, siente lo que indica en la frase.
- A veces : Si de vez en cuando piensa, siente lo que se indica en la frase.
- Siempre : Si continuamente, siente, piensa o le sucede lo que indica en la frase.

Nunca A veces Siempre


1. Me duele algo o tengo algún malestar. ( ) ( ) ( )
2. Los golpes son parte de mi vida casi lo espero ( ) ( ) ( )
siempre por cualquier cosa que haga mal.
3. Me recargo con el trabajo del hogar. ( ) ( ) ( )
4. Ingiero mis alimentos fuera del horario. ( ) ( ) ( )
5. Mi compañero se pone abusivo cuando toma o ( ) ( ) ( )
pierde el juego.
6. Me golpea tan fuerte que necesito ir al médico ( ) ( ) ( )
7. Me golpea sólo con puños y pies. ( ) ( ) ( )
8. Me pongo violenta con mis hijos. ( ) ( ) ( )
9. No deseo levantarme me siento agotada y sin ( ) ( ) ( )
fuerzas.
10. Soy yo la que cuida a los niños sin contar con ( ) ( ) ( )
el apoyo de otras personas.
11. Me es difícil expresar mis sentimientos por ( ) ( ) ( )
temor a ser rechazada.
12. Ando tensa, asustada y preocupada. ( ) ( ) ( )
13. Me hace quedar mal ante mis amigos y ( ) ( ) ( )
familiares.
14. Solo cuando quiere me da para el diario. ( ) ( ) ( )
15. Su pareja le insulta con palabras soeces. ( ) ( ) ( )
16. Tengo ganas de llorar, me siento muy triste, ( ) ( ) ( )
17. Critica mi apariencia física. ( ) ( ) ( )
18. Me amenaza con dejarme, matarme o ( ) ( ) ( )
quitarme a mis hijos.
19. Mi compañero actúa como si fuera su ( ) ( ) ( )
sirvienta personal.
20. Me exige obediencia a su antojo. ( ) ( ) ( )
21. Tengo relaciones por imposición de mi pareja. ( ) ( ) ( )
22. No me gusta hablar de temas sexuales. ( ) ( ) ( )
23. Me siento avergonzada por mi embarazo. ( ) ( ) ( )
152

UNIVERSIDAD NACIONAL DE TRUJILLO


ESCUELA DE POSTGRADO
Escala para Estimar Capacidades de cuidado a niños de uno a cinco años
(EECA)

Revisado por: Deets

1. Nº de Cuestionario: Clave: __________________


1. Edad materna :
_______________________________________
2. Educación :
_______________________________________
3. Ingreso semanal familiar :
_______________________________________
4. Estado marital :
_______________________________________
5. Nº de miembros en la familia :
_______________________________________
6. Problemas de salud que ha tenido su niño :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
7. Estimación personal del estado de salud de su niño (a):
a) Buena b) Regular c) Deficiente
8. Qué importancia tiene para Usted el desarrollo de su hijo (a):
a) Mucha b) Regular c) Poquita d) Nada
9. Con qué frecuencia trae a su niño (a) para valoración del desarrollo:
a) Cada mes b) Cada dos meses c) Cuando se enferma

d) Otra: ______________________________
10. Cómo considera el desarrollo de su niño (a):
a) Bueno b) Regular c) Deficiente

Cuidado a niños de uno a cinco años


153

Este cuestionario está diseñado para identificar actividades que las


madres realizan con sus niños (as). Por favor circule el número que indica qué
tan frecuente realiza cada actividad con su niño.
Cuál es la edad del niño para el cual Usted está contestando este cuestionario? __ Sexo : ____
Claves: 5 = Siempre - Lo que Usted hace todo el tiempo de forma consistente.
4= frecuentemente – Lo que Usted normalmente hace.
3= Ocasionalmente – Lo que Usted hace algunas veces.
2= Raramente – Lo que Usted escasamente hace.
1= Nunca – Lo que Usted nunca hace.

SIEMPRE

FRECUENTEMENTE

RARAMENTE
OCASIONALMENTE

NUNCA
CODIFICACIÓN
1. Llevo a mi niño (a) a control usual 5 4 3 2 1 _________
de salud.
2. Tomo medidas para asegurar que el 5 4 3 2 1 _________
hogar de mi niño (a) sea seguro.
3. trato de ayudar a mi niño (a) para 5 4 3 2 1 _________
tener una buena autoimagen.
4. Estimulo a mi niño (a) para estar en 5 4 3 2 1 _________
actividades con otro niños (as) de su
misma edad.
5. Me aseguro de que mi niño (a) esté 5 4 3 2 1 _________
provisto con comidas de cada uno de
los cuatro grupos básicos.
6. Promuevo períodos de descanso 5 4 3 2 1 _________
para mi hijo (a) en el día.
7. Antes de criticar las actuaciones 5 4 3 2 1 _________
del niño (a), considero sus
limitaciones.
8. Veo que mi niño (a) reciba sus 5 4 3 2 1 _________
vacunas a tiempo.
9. Me aseguro que mi niño (a) tenga 5 4 3 2 1 _________
tiempo para jugar.
10. Estimulo a mi niño (a) a tomar 5 4 3 2 1 _________
parte en actividades familiares.
11. Me aseguro que mi niño (a) 5 4 3 2 1 _________
duerma bien por la noche.
12. Checo a mi niño (a) por signos de 5 4 3 2 1 _________
154

enfermedad.
13. Recuerdo a mi niño (a) que ingiera 5 4 3 2 1 _________
suficiente líquidos.
14. Ayudo a mi niño (a) para aprender 5 4 3 2 1 _________
a llevarse bien con otros.
15. Cuando alguien está fumando, 5 4 3 2 1 _________
trato de sacar a mi niño (a) fuera de la
habitación.
16. Me aseguro que mi niño (a) 5 4 3 2 1 _________
desarrolle un entendimiento del valor
nutricional de los alimentos que
come.
17. Cuando planeo las comidas, 5 4 3 2 1 _________
presto atención a las preferencias de
alimento de mi niño (a).
18. Enseño a mi niño (a) a estar alerta 5 4 3 2 1 _________
de seguridad a los peligros.
19. Ayudo a mi niño (a) a enfrentar 5 4 3 2 1 _________
eventos de estrés.
20. Cuando el doctor ordena una 5 4 3 2 1 _________
medicación para mi niño (a) sigo las
instrucciones cuidadosamente.
21. Pregunto al doctor o enfermera 5 4 3 2 1 _________
acerca de las complicaciones de los
tratamientos médicos que mi niño (a)
está recibiendo.
22. Me doy cuneta qué tan frecuente 5 4 3 2 1 _________
mi niño (a) orina.
23. Estimulo / fomento las actividades 5 4 3 2 1 _________
sociales para mi niño (a).
24. Hago juicios acerca de si mi hijo 5 4 3 2 1 _________
(a) está creciendo y desarrollándose
normalmente.
25. Apoyo a mi niño (a) para tomar 5 4 3 2 1 _________
parte en actividades de grupo.
26. Elogio / alabo a mi niño (a). 5 4 3 2 1 _________
27. Checo los lugares fuera de 5 4 3 2 1 _________
nuestra casa, por peligros potenciales
para mi niño (a).
28. Me aseguro que mi niño (a) 5 4 3 2 1 _________
utilice medidas de seguridad en el
automóvil.
29. Estimulo a mi niño (a) para estar 5 4 3 2 1 _________
incrementando su independencia.
30. ayudo a mi niño (a) a aprender 5 4 3 2 1 _________
nuevas palabras.
155

31. Evalúo la calidad del aire que mi 5 4 3 2 1 _________


niño (a) respira.
32. Ayudo a que mi niño (a) aprenda a 5 4 3 2 1 _________
comunicarse efectivamente.
33. Me doy cuenta que tan frecuente 5 4 3 2 1 _________
mi niño (a) tiene movimientos
intestinales.
34. enseño a mi niño (a) a tener 5 4 3 2 1 _________
cuidado con la propiedad de otra
persona.
35. Ayudo a mi niño (a) a adaptarse 5 4 3 2 1 _________
en los cambios en su desarrollo.
36. Fomento que mi niño (a) sea un 5 4 3 2 1 _________
miembro de la familia responsable.
37. Trato de saber que está haciendo 5 4 3 2 1 _________
mi niño (a) en la escuela.
38. Me aseguro que mi niño (a) 5 4 3 2 1 _________
participe en ejercicio físico.
39. Cuando el clima está caliente o 5 4 3 2 1 _________
cuando mi niño (a) ha estado más
activo, lo estimulo a que tome más
líquidos.
156

UNIVERSIDAD PRIVADA ANTENOR ORREGO


FACULTAD DE CIENCIAS AGRARIAS
ESCUELA PROFESIONAL DE INGENIERIA EN INDUSTRIAS ALIMENTARIAS

1. Título del Proyecto:


Efecto de tres proporciones trigo – tocino y tiempo de proceso en el
tratamiento térmico y calidad sensorial de shambar enlatado.
2. Responsable : Silvana Marivel Villanueva Catalán.

3 . Asesor : MSc Antero Vásquez García

4 . Lugar de Ejecución :

5 . Duración : 7 meses.

6 . Aprobado :

Asesor Decano

Presidente del Jurado Miembro del Jurado

Miembro del Jurado Responsable

7 . Fecha de Presentación: Trujillo del 2003.


157

I. ANTECEDENTES Y JUSTIFICACIÓN
1.1 ANTECEDENTES:

Giannoni (1977), realizó un estudio en atún enlatado en envases tipo tuna 1/2 lb
(307x113) donde evaluó simultáneamente el tiempo de procesamiento térmico por el
método de Stumbo (1973) y la consecuente degradación de nutrientes por el método
de Jean et al. (1971). Encontró que para obtener una Retención máxima de Tiamina
equivalente al 54.78%, correspondió un tiempo de proceso de 55.26 minutos a 250ºF.

Mendoza (1993), realizó un estudio en el proceso de optimización del tratamiento


térmico de una crema a base de olluco enlatada, en envases de hojalata de tipo tall
1lb (301x408). Con las pruebas de penetración de calor obtuvo valores: fh=45.56 min,
fc=50.69 min. , jh=1.1104, jc=1.244. Considerando To=76.1ºF, T1=240ºF. ,con Z=18ºF,
F0=2.52 min. ,el proceso de optimización fue de 230ºF por 107 min. % Retención
máximo de ácido ascórbico igual a 83,593%.

Bailón (1994), realizó un estudio para evaluar las condiciones de proceso para el
enlatado de olluco con charqui. Envasó en latas tall de 1lb barnizadas (301x408).
Agregó solución de cubierta (salmuera) a temperatura de 100ºC que fue vertida sobre
el envase que contenía el olluco con charqui y aderezo, dejando un espacio de cabeza
de 6 mm. El tratamiento térmico se hizo considerando F 0=6 min., con Z=18ºF para
productos cárnicos.

Huapaya (1995), realizó un estudio, en pulpa de camu-camu enlatada y pasteurizada


a 212°F x 23.85 min. Con Z=16ºF, F0 = 0.23 min. Los parámetros óptimos de
calentamiento y enfriamiento para la pulpa en envases tipo tall 1lb, fueron: un valor
de fh = 26.34min. ; fc =28.95min. ; jh=0.85, jc=1.18, T0=75.56ºF y % Retención
máxima de ácido ascórbico = 80.157.

Obregón (2001), estudio el. ”Efecto de la Temperatura sobre la textura de gajos de


mandarina satsuma (citrus unshiu) en almíbar”. Envasó en frascos de vidrio de 500ml
(11.4 x 7.5 cm). Con una relación 1.5:1.0 gajos, almíbar, respectivamente. Los
valores de penetración de calor que caracterizan el tratamiento térmico fueron:
fh=19.417 min ; fc=16.051min ; jh=1.10 ; jc=1.40 ; tpsih=66.272ºF y
tpsic=269.413ºF. , F0 = 3.5min , % Retención de textura = 44,10 a 105°C x 12.94min.
158

1. 2 JUSTIFICACION:
El plato típico de Trujillo y de la Sierra Liberteña es el shambar que es una que es una
sopa agradable y nutritiva de cereal, legumbre y carne de cerdo.
En relación a la nutrición humana, los cereales son excelentes fuentes de energía
(almidón) pero pobres en proteínas, por ello es muy importante la incorporación de
legumbres en la dieta por la cantidad de proteínas que poseen.
Los granos de cereales son relativamente pobres en proteínas totales y en lisina y
otros aminoácidos, estas deficientes pueden superarse mezclándose con productos
derivados de las semillas leguminosas. El resultado más evidente de esta mezcla es el
ser mas rico en proteínas que componente cereal solo.
Además de esto, las leguminosas mejoran la calidad de las proteínas del cereal
suplementándolos con los aminoácidos limitantes, como la lisina (Potter, N. 1999).
La carne de cerdo es excelente fuente de lípidos, los lípidos representan un papel
importante en la alimentación; su función nutricional básica se debe a su aporte
energético (8,5 cal/g), ácidos grasos esenciales y vitaminas liposolubles, unidas a
características organolépticos tales como su textura, sabor de los alimentos y
aplicaciones culinarias (Cheftel, 1976)
El presente proyecto de investigación permitirá aplicar el proceso tecnológico para
obtener un producto conservado. Siendo una de las combinaciones de ingredientes
mas favorables para un mayor aprovechamiento de las proteínas, además garantizada
la presencia de aminoácidos esenciales y vitaminas, liposolubles.

II. FUNDAMENTACION TEORICA


2.1. SHAMBAR:
Se define como una sopa espesa de legumbres, cereal y carne de cerdo. En Trujillo,
es costumbre comer este plato típico los días lunes.
Sopa elaborada a base de Trigo pelado, mezclado con haba, garbanzo, arvejas y otras
menestras. Cuando todo esta cocido se incorpora carne de chancho.
Todo es sancochado y lleva un aderezo en base a cebollas picadas con ají colorado
frito en aceite. Al servir se le agrega el culantro picado (INEI, 2002).

EL TRIGO:
El trigo es una especie vegetal perteneciente a la familia de las gramíneas; genera
frutos secos con una sola semilla. Este tipo de fruto es una cariópside que
comúnmente se denomina grano. Su nombre científico es Triticum aestivum, originario
de Asia Menor, Asia Central y África del Norte. Su periodo vegetativo es de 90 a 160
159

días (según variedades). Las zonas de producción son: Santiago de Chuco, Otuzco,
Julcán, Pataz, Gran Chimú, Sánchez Carrión.

Entre las principales variedades se citan el Florencio, Nariño, Amapola, Imperial,


Elmiro, Atahualpa, Verti, Montano, Estaquilla, Ollantay, Zapata, Bayo, Cajabamba,
Niño , Pelón, Centeno, Azul. El de variedad Estaquilla se caracteriza por tener grano
largo y procede mayormente de la Provincia de Santiago de Chuco. (Ministerio
Agricultura, 2002).

Según Calvel (1975), mencionado por Chang, (1995), las características del grano de
trigo son: 1) El grano de trigo o Cariópside tiene una estructura compleja, de forma de
nuez alargada, que contiene en su interior una semilla de 6 a 8 mm de largo y 3 a 4
mm de ancho. Su examen revela; una cara dorsal mas o menos convexa; con una
cara ventral con un surco profundo; en su parte superior, cortos pelos que forman el
cepillo, en su parte inferior, visible sobre la cara dorsal el germen. 2) El color del trigo
varía del rubio al blanco. 3) El peso de 1000 granos varía de 35 a 55 g.

Bennión (1967), citado por Chang, (1995) menciona que algunos trigos son de color
rojo (aunque también pueden ser púrpura), depende mucho del pigmento en la
cubierta de la semilla. La cubierta del grano de trigo está compuesta por 5 capas; las 3
primeras constituyen el salvado que se separa del resto durante la molturación.

Según Hlynka (1967), citado por Chang (1995), la cubierta o pericarpio rodea toda la
semilla, está constituida por varias capas de células que reciben el nombre de:
intermedia, cruzada y tubular, situadas debajo del epicarpio, es decir, que mientras
éste último es el más externo, la capa de células tubulares es la más interna del
pericarpio.

Con frecuencia la composición química del grano, varía en el trigo como cualquier otro
grano de cereal. Aunque la cantidad usual de proteínas es del 8 al 15%, se presentan
valores tan bajos como del 7% y tan altos como del 24% (Desrosier, 1999).

TOCINO:
Según el Artículo 225º del reglamento sanitario de alimentos, define al tocino como la
carne de cerdo que conserva su piel y grasa, sometida a curado, secado y ahumado.
(Ministerio de Salud 1986).
160

LEGUMBRES:
Especie de vegetales pertenecientes a la familia de las leguminosae.
Las leguminosas, son plantas con flores que al fructificar producen vainas que
contienen semillas, tienen un contenido de proteínas considerablemente mayor que los
gramos de cereales (Potter, N. 1999).
Collazos, et.al. (1993) reporta la composición química de los ingredientes del shambar,
como se muestra en el cuadro1.
161

CUADRO 1: COMPARATIVO DE LA COMPOSICION QUIMICA DE LOS INGREDIENTES PRINCIPALES

COMPOSICIÓN POR 100 GRAMOS DE PORCION COMESTIBLE


ALIMENTO Carbohi- Ribofla- Ácido
Energía Agua Proteínas Grasa Ceniza Fibra Calcio Fósforo Hierro Tiamina Niacina
NOMBRE dratos vina Ascórbico
(Cal) (g) (g) (g) (g) (g) (mg) (mg) (mg) (mg) (mg)
(g) (mg) (mg)

Trigo 336.00 14.50 8.60 1.50 73.70 1.70 3.00 36.00 224.00 4.60 0.30 0.08 2.85 4.80

Tocino 490.00 32.80 13.50 47.90 --- 5.00 --- 26.00 70.00 1.20 0.24 0.12 2.00 1.90

Arvejas Secas 351.00 11.50 21.70 3.20 61.10 2.50 4.50 65.00 289.00 2.60 0.25 0.15 3.43 3.5

Habas secas con


340.00 11.50 23.80 1.50 60.20 3.10 6.40 197.00 413.00 12.8 0.39 0.30 4.00 8.6
cáscara cruda

Garbanzo crudo 362.00 11.40 19.20 6.10 60.10 3.20 2.60 120.00 370.00 8.30 0.38 0.38 2.80 5.4

Fuente: Collazos, et.al (1993)


2.2. TRATAMIENTO TERMICO:
Los alimentos sometidos a tratamiento térmico deben ser protegidos mediante un
recipiente adecuado cuya finalidad principal es la de impedir la entrada de
microorganismos y de oxigeno. Los dos recipientes mas utilizados para los
vegetales tratados son las latas de hojalata y los recipientes de vidrio.

El vacío en el interior del recipiente puede lograrse mediante agotamiento por calor,
por medios mecánicos o inyectando vapor en el espacio libre de la parte superior
del recipiente inmediatamente antes de proceder a su cierre. El método de
agotamiento por calor depende del producto. Si el producto puede ser introducido
caliente esto es suficiente, en caso contrario puede ser preciso que los recipientes
llenos atraviesen en el túnel de vapor antes de cerrarlos.

Los recipientes cerrados tienen que ser tratados para esterilizar su contenido. Esto
suele realizarse mediante calentamiento durante un tiempo y con una temperatura
predeterminada con exactitud en una atmósfera de vapor saturado, en agua
caliente o, de forma ocasional, en una mezcla de vapor y aire (Arthey y Dennos,
1992).

Se define esterilización como la destrucción de la totalidad de los microorganismos


de un producto (Mafart ,1994). La esterilización comercial es el proceso que
permite guardar a temperatura ambiente los productos envasados en latas y
similares (Singh y Heldman ;1998).

Esterilización Comercial (HTST). Es aplicable para productos que se calientan por


convención y procesamiento aséptico. Procesamiento HTST, hasta que la
resistencia de las enzimas se vuelva importante. Para los productos que se
calientan por conducción. Generalmente no se aplica HTST, procesar el alimento a
temperatura de 250 a 265 ºF. ( Lund,
1977).

El valor F es una medida del efecto total letal sobre los microorganismos que
tienen un tratamiento térmico. En término FO indica el valor F en el centro de un
envase, FO indica el valor de F equivalente en minutos a 121ºC y FS la letalidad
integrada del calor recibido por todos los puntos en un recipiente. El valor F O de
163

un tratamiento térmico puede obtenerse en la práctica mediante la suma de las


eficacias letales de las temperaturas alcanzadas a intervalos de 1 minuto, a partir
de la curva de calentamiento y enfriamiento de un producto durante su tratamiento
térmico (Rees ,1994).

La difusividad térmica puede calcularse conociendo las propiedades Termofísicas


del producto (Casp y Abril,1999):

k
 
 .Cp
Donde:

K = Conductividad térmica
ρ = Densidad
Cp. = Calor especifico
Cp = f (carbohidratos, proteínas, grasa, cenizas, humedad)
K = f (carbohidratos, proteínas, grasa, cenizas, humedad
(Singh y Heldman ; 1998).
Conocer las propiedades termofísicas de un alimento no es demasiado frecuente
por lo que es más habitual calcular la difusivida térmica ( α ); cuando el producto se
encuentra en un envase cilíndrico:

0.398

 1 0.427 
 2  fh
R H2 

Donde:
R = Radio del cilindro
H = Semialtura del cilindro
fh = Factor de pendiente de la curva de penetración de calor.

El factor de pendiente fh se puede calcular para cada producto conociendo su curva


de penetración de calor. Para ello se representa el logaritmo de la diferencia entre
la temperatura del autoclave y la del producto contra el tiempo de proceso. A la
rama descendente de esta curva se le ajusta una recta, cuyo inverso de la
pendiente será el factor fh.
164

Al calcular de esta forma la difusividad térmica, se tiene en cuenta también las


características termofísicas del envase en el que se encuentra el producto y la
efectividad del sistema de calentamiento empleado. Casp, A y Abril, J. (1999)

III. PROBLEMA

¿Cual es el efecto de tres proporciones trigo – tocino y tiempo de proceso en


el tratamiento térmico y calidad sensorial de shambar enlatado?

IV. OBJETIVOS

 Evaluar el efecto de tres proporciones trigo – tocino en la calidad


sensorial de shambar enlatado.

 Evaluar el efecto del tiempo de proceso en la calidad sensorial de


shambar enlatado.

 Determinar los valores de Fo y Co utilizando los métodos generales


y matemáticos.

V. TIPO DE INVESTIGACIÓN

5. 1 De acuerdo a la orientación: Aplicada

5. 2 De acuerdo al método de contrastación: Experimental

VI. HIPÓTESIS:

La proporción trigo 2: Tocino1 y el tiempo de proceso de 90 minutos


permiten obtener shambar enlatado de calidad sensorial aceptable.

VII. MATERIALES Y METODOS

7. 1 MATERIALES Y EQUIPOS

7.1.1 MATERIA PRIMA

Trigo variedad Estaquilla, procedente de Santiago de Chuco,


Provincia de Trujillo, Departamento de La Libertad.
Tocino de cerdo.
Frejol.
165

Habas.
Garbanzo.

CANTIDAD DE MATERIA PRIMA

Ingredientes Líquido de
Relación Trigo Tocino Haba Garbanzo Arveja y Gobierno
Trigo – saborizantes
(g) (g) (g) (g) (g) H2O + sal
Tocino
(g) (g)

T 1:1 112.5 112.5 15 15 15 10 120

R1 2:1 150 75 15 15 15 10 120

R2 3:1 169 56 15 15 15 10 120

R3 4:1 180 45 15 15 15 10 120

7.1.2. EQUIPOS

- Autoclave Horizontal a vapor

- Pie de rey

- Balanza de reloj

- Balanza analítica Soehnle 0.1g

- Bandejas de acero inoxidable

- Vacuometro

- Termómetro

- Selladoras de latas Angelus 75p.

- Dispositivo de registro de temperatura

- Termocuplas
166

7.1.3. MATERIALES

- Envases de hojalata tipo “Tall” 1Lb, (301 x 408).

- Cuchillos, maderas de cortar, mesas, etc.

- Vasos de precipitación.

- Refrigeradora.

7.1.4 INSUMOS

Sal común 8g
Aceite 2g
Cebolla 2g
Ajos 1g
Ají panca 3.5g
Pimienta 0.5g
Comino 0.5g
Culantro picado 0.5g

7.2 METODOS FISICOQUIMICOS

DETERMINACION DE PROTEINA TOTAL (Método micro Kjeldahl)


METODO
Muestra:
Pesar 0,3 (en papel seda) gramos de muestra, luego agregar 1 g de
catalizador de oxidación, para acelerar la reacción, agregar 10ml de H 2SO4
concentrado y colocar el balón en la cocina de digestión, ésta termina
cuando el contenido del balón es completamente cristalino o complementa
mente claro.
Colocar la muestra digerida en el aparato de destilación, agregar 7 a 10 ml
de NaOH con fenolftaleina hasta que vire (rojo carmín) para que se
produzca la destilación. Conectar el refrigerante y recibir el destilación
termina cuando ya no se destila mas amoniaco y el papel tornasol no vira a
color azul, luego se procede a la titulación con NaOH valorado (0.1 N) hasta
que vire a turquesa, anotar el gasto.
167

Blanco:
Destilar 40 ml de NaOH mas 20ml de agua destilada y recibir en un matraz
40 ml de HCl 0.1N más indicador de proteína hasta que el papel tornasol no
vire a color azul. Luego titular con hidróxido de socio 0.1N, anotar el gasto.

DETERMINACION DE HUMEDAD (método de estufa)


- Preparar la muestra a analizar, homogenizándola previamente.
- Pesar la placa petri o cápsula de porcelana en una balanza
analítica y anotar el peso.
- Adicionar 5g (alimento seco) o 10g (alimento fresco) del alimento
homogenizado. Anotar el peso.
- Colocarla en la estufa a 105°C por un tiempo mínimo de 3 horas.
- Utilizando pinzas metálicas retirar la cápsula de la estufa.
- Enfriar en un desecador y pesar en balanza analítica. Anotar el
peso.
- Establecer la diferencia del peso respecto al peso inicial.
- Realizar por duplicado.
- Calcular el contenido de humedad en b.h. y b.s. y expresarlo en
porcentaje.
diferencia depeso
% Humedad (b.h.)  x100
peso( g )muestra
diferencia depeso
% Humedad (b.s.)  x100
Peso( g )materia sec a
- Calcular el porcentaje materia seca.
% HS  100  % Humedad

DETERMINACION DE GRASA TOTAL (Método de Soxhlet)


- En este método es necesario usar muestras deshidratadas.
- Poner a secar en estufa a 110°C el matraz a usar por espacio de
una hora, sacarlo y enfriarlo en un desecador donde se deja
enfriar (20minutos)
- Pesar el matraz.
- Pesar 5g de muestra y empaquetarla en papel filtro whatman N°2.
el paquete se coloca en el cuerpo del soxhlet y se agrega hexano
168

destilado hasta que una parte del mismo sea sifoneado hacia el
matraz.
- Conectar la cocina a temperatura baja. El hexano al calentarse se
evapora y asciende hacia la parte superior del cuerpo donde se
condensa por refrigeración con agua y cae sobre la muestra,
regresando posteriormente al matraz por el sifón, arrastrando
consigo la grasa. El ciclo es cerrado y la velocidad de goteo del
hexano debe ser de 30 a 40 gotas por minuto.
- El proceso dura en promedio, 3 horas. El matraz debe sacarse
del aparato cuando contiene poco hexano (momentos antes que
este sea sifoneado desde el cuerpo). Luego evaporar en un
desecador.
- Pesar y determinar la cantidad de grasa total en 5 g de muestra y
expresarlo en porcentaje.

7.3 METODO EXPERIMENTAL

7.2.1 Descripción del Proceso de Enlatado.

Materia prima, se utilizara trigo, variedad estaquilla


Selección y clasificación, se eliminará la materia prima que se
encontrará en malas condiciones, así como algunos elementos
extraños.
Lavado, Se efectuará con agua corriente para eliminar el polvo
y las partículas presentes en la superficie del cereal.
Remojo, se colocará la materia prima en agua potable por un
tiempo de 10 horas, antes del envasado.
Envasado, el producto ya escaldado es llenado con el aderezo y
Tocino a los envases de hojalata de una libra de capacidad tipo
“Tall” (301 x 408), tomándose el peso neto.
Adición de líquido de gobierno, llamado también, líquido de
relleno, solución de cubierta, es la mezcla (salmuera) con la que
se llena el envase una vez completada su carga de producto. Esta
constituida por agua y sal en un porcentaje del 2%, se somete a
un calentamiento a 100°C y se vierte sobre el envase que
contiene el trigo con tocino y aderezo, tratando de dejar un
espacio de cabeza de 6mm. Tiene por finalidad: Llenar los
169

espacios que deja el producto y desalojar el aire, que puede


producir alteraciones en el alimento y corrosión en la lata.
Exhausting, pre esterilización o eliminación del aire. Esta
operación consiste en la eliminación del aire del espacio
superior del envase así como el disuelto en el producto, creando
un vació parcial dentro del envase.
Sellado, para este proceso se empleará una maquina selladora
semiautomática para latas tipo “Tall”.
Tratamiento Térmico, para esta operación se utilizará un
autoclave Horizontal. En las pruebas de penetración de calor se
trabajará a una Temperatura de retorta de 240°F por un tiempo
establecido de acuerdo al diseño experimental.
Enfriado, el producto esterilizado es enfriado con agua corriente
hasta una temperatura interna de 50°C.
Almacenaje, se almacenará en cajas de cartón a temperatura
ambiente.
.

Tocino Materia Prima Trigo, Habas,


Arveja, garbanzo
170

Selección y Clasificación
Cortado

Lavado

Infusión en
salmuera Remojo 10 hr

Tocino Envasado
Trigo + Ingredientes +
Tocino

Exhausting

Sellado 90°Cx 3 min.

Tratamiento Térmico 240°Fx90 min.

Enfriado

Almacenaje

Figura : Diagrama de Flujo para el enlatado de shambar en


envases tipo “Tall” (301 x 408).

7.2.2.- Esquema Experimental


171

R1 R2 R3

tp1 tp2 tp3 tp1 tp2 tp3 tp1 tp2 tp3


tp1 tp1 tp1 tp1 tp1 tp1 tp1 tp1 tp1

Tratamiento térmico
Fo = métodos (ball y patashnik)
Co = métodos (ball y patashnik)
Determinación Fisicoquímico
Humedad, proteínas, lípidos,
Evaluación Sensorial
Escala de apreciación hedónica

T: Trigo (estaquilla), con tocino.


R1: Relación, trigo: tocino 2:1
R2: Relación, trigo: tocino 3:1
R3: Relación, trigo: tocino 4:1
tp1: Tiempo de proceso a 70 min
tp2: Tiempo de proceso a 80 min
tp3: Tiempo de proceso a 90 min
172

RESUMEN DE VARIABLES DEL DISEÑO EXPERIMENTAL

Variable Independiente Variable Dependiente


Tiempo de Análisis
Relación proceso Fo sensorial

tp1 = 70
R1 tp2 = 80
2:1 tp3 = 90

tp1 = 70
R2 tp2 = 80
3:1 tp3 = 90

tp1 = 70
R3 tp2 = 80
4:1 tp3 = 90
173

7.3. METODO ESTADÍSTICO.

Diseño: Bloques Completamente al Azar, con arreglo bifactorial 3R*tp, con


3 repeticiones.

Número de Número de Interacciones


Tratamiento
1 T,R1,tp1.

2 T,R1,tp2.
3 T,R1,tp3.
4 T,R2,tp1.
5 T,R2,tp2.
6 T,R2,tp3.
7 T,R3,tp1.
8 T,R3,tp2.
9 T,R3,tp3.

VIII. PLAN DE EJECUCIÓN:

ETAPAS MESES

a. Implementación 1.0

b. Prueba Experimental 2.0

c. Análisis de Resultados 2.0

d. Preparación de Informe 2.0

TOTAL 7.0
174

IX. – PRESUPUESTO

9.1 Bienes
Información Bibliografía S/. 300
Materiales 200
Material de Oficina 100
9.2 Servicios
Movilidad S/. 300
Refrigerio 200
Fotocopias 300
Servicio de computo 400
Comunicación 200
Impresión de tesis 1 200
TOTAL S/.3200

X. BIBLIOGRAFÍA :
Association of analytical Chemists, 1997. Official methods of analysis. Adfs
Editorial Board. U.S.A.
Arthey D, Dennis C. 1992. Procesado de Hortalizas. Editorial Acribia. Zaragoza.
España.
Bailón R. 1994. Evaluación de las Condiciones de proceso para el Enlatado de
Olluco (ullucus tuberosus loz) con Charqui. Tesis Ingeniero en Industrias
Alimentarias. UNALM. Lima-Perú.
Codex Stan 97. 1981. Norma del Codex para la Espaldilla de Cerdo Curada
Cocida.

Casp A, Abril J. 1999. Procesos de Alimentos. Ediciones Mundi-Prensa. España.

Chang, L. 1995. Efectos de la temperatura y el tiempo de exposición sobre las


características farinográficas de harina especial de trigo (Triticum Vulgare).
Tesis. Ingeniería en Industrias Alimentarías. UNALM Lima-Perú

Collazos, E. et al 1993. La composición de alimentos de mayor consumo en el


asdPerú. Sexta edición.

Desrosier N.1999 Elementos de Tecnología de Alimentos Editorial Continental.


México.

Giannoni E. 1977. Evaluación y optimización del Tratamiento Térmico de Alimentos


Enlatados. Tesis. Ingeniería en Industrias Alimentarias. UNALM. Lima-Perú

Huapaya E. 1995. Evaluación de la perdida de vitamina c durante el procesamiento


y almacenamiento de Pula de Camu-Camu (Myrciaria Paraensis), Tesis.
Ingeniería en Industrias Alimentarias. UNALM. Lima-Perú
175

INSTITUTO NACIONAL DE ESTADISTICA E INFORMATICA. 2002. Almanaque de


la Libertad 2001 – 2002. Editorial “El comercio”
dasTrujillo – Perú.

Lund D. 1977. Maximizing Nutrient Retention. Food Technology. Vol.31, N°2.

Mafart P. 1994. Ingeniería Alimentaría Vol.I. Procesos Físicos de Conservación.


Editorial Acribia Zaragoza España.

Mendoza F. 1993. “Evaluación y Optimización del Tratamiento Térmico en una


Crema Base de Olluco (Ullucus tuberossus loz) Enlatada”. Tesis. Ingeniería
en Industrias Alimentarías. UNALM. Lima-Perú.

Ministerio de Agricultura 2002. “Expositor: Agencias Agrarias, Provincias de la


Libertad. Trujillo-Perú.

Ministerio de Salud. 1986. Reglamento Sanitario de Alimentos.

Singh R, Heldrman D. 1998. Introducción a la Ingeniería de los Alimentos. Editorial


Acribia Zaragoza. España.

Obregón A. 2001. “Efecto de la Temperatura sobre la textura de Gajos de


Mandarina Satsuma (citrus unshiu) en Almíbar”. Tesis de Post Grado.
UNALM. Lima-Perú.

Potter, N. 1999 “Ciencia de los alimentos” Editorial Acribia S.A. Zaragoza


afdasEspaña.

Rees J. 1994. Procesado Térmico y Envasado de los Alimentos. Editorial


Acribia Zaragoza España.

ANEXOS
176

ANEXO 1: ESCALAS DE CLASIFICACION DE APRECIACION HEDONICA PARA


MEDIR ACTITUDES FRENTE A ALIMENTOS

PRUEBA DE EVALUACION SENSORIAL

Producto: …………………………………………………………………………
Nombre del panelista: ………………………………………………………….
Fecha: ……………………………………………………………………………

Por favor pruebe las muestras y evalué, usando la siguiente escala:


Me agrada mucho 4
Me agrada poco 3
Me desagrada poco
2
Me desagrada mucho 1

Escriba el número de la clave de las muestras según corresponda.

Muestra Calificación

Comentario:

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


FACULTAD DE CIENCIAS BIOLOGICAS
CENTRO DE INVESTIGACION
177

U.I. BIOTECNOLOGIA

CODIGO DEL PROYECTO:


PALABRAS CLAVES: anchoveta, anchoveta con Fríjol

I. GENERALIDADES

1.0. Titulo: Efecto de la adición de tres proporciones de filete de


anchoveta (Engraulis ringens) y tres tiempos de esterilización en la
composición química proximal y aceptabilidad general de conservas
tipo Tall 1 lb de frijol bayo (Phaseolus vulgaris).

2.0. Personal investigador:


2.1. ANTERO CELSO VÁSQUEZ GARCÍA Dr.
PROFESOR PRINCIPAL DE
DEPARTAMENTO ACADEMICO DE BIOLOGIA-FCCBB-UNPRG

2.2. JOSE TEODORO REUPO PERICHE MSc.


PROFESOR ASOCIADO DE
DEPARTAMENTO ACADEMICO DE BIOLOGIA-FCCBB-UNPRG

3.0. Resolución de aprobación.

4.0. Tipo de investigación


4.1 De acuerdo al fin que se persigue: APLICADA
4.2 De acuerdo al diseño de investigación: EXPERIMENTAL

5.0. Área de investigación: Alimentación


6.0. Línea de investigación: Control de calidad Total de alimentos

7.0. Lugar de ejecución:


Para los trabajos de campo: Jesús del Mar SRL. Chimbote
Para Trabajos de Laboratorio:
1. Laboratorio de BROMATOLOGIA DE LA FCCBB- UNPRG
2. Facultad de Ingeniería Química de la Universidad Nacional de Trujillo
178

3. Planta Piloto de la Facultad de Ingeniería Agrícola de UNPRG

8.0: Duración del proyecto: 15 meses (Octubre 2005 a Diciembre del 2006)

9.0. Fecha de inicio: 01 de Octubre del 2005

9.0. Fecha de término: 31 de diciembre del 2006

Dr. ANTERO CELSO VASQUEZ GARCIA

MSc JOSE TEODORO REUPO PERICHE..

Lambayeque, Diciembre del 2006

II. ASPECTO DE LA INVESTIGACION


179

1. O. REALIDAD PROBLEMATICA

1.1. Planteamiento del problema:

En términos generales, el pescado es un alimento de elevado valor nutritivo por su


i) fácil digestibilidad, ii) elevado contenido de aminoácidos esenciales, iii) elevada
concentración de ácidos grasos poliinsaturados sobretodo Eicosapentaenoico (EPA:
C20:5) y Docosagexaenoico (DHA: C22:6), iv) cantidad significativa de vitaminas y
sales minerales, particularmente indicado para proporcionar a nuestro cuerpo,
todos los nutrientes necesarios para mantener su adecuado metabolismo.

En los últimos años se ha hecho patente la tendencia al incremento del consumo de


pescado a escala planetaria en función a dos perspectivas: i) la tendencia
cuantitativa, manifiesta por el incremento del consumo de pescado al estado fresco,
que creció en 36,6% en 1998 seguida del congelado; el curado y el enlatado
tradicional; el desarrollo de nuevas tecnologías que implican un incremento y
diversificación de conservas enlatadas; y ii) la tendencia cualitativa, explicada en
función de las preferencias de los consumidores que incluye: cambios en la dieta
por motivos de salud (beneficios en el tratamiento de enfermedades como el
Parkinson y Alzheimer, reduce los niveles de colesterol en sangre y a aspectos
nutricionales); mejoramiento en los procesos de empaque y canales de distribución;
incremento en los niveles de vida por el crecimiento económico en los países
desarrollados y cambios en los factores sociales, En años recientes, se ha
desarrollado significativamente la tecnología de los platos preparados listos que
responden a cambios en estilos de vida y hábitos de consumo en los seres
humanos, así como la necesidad de contar con alimentos listos para su consumo
(BBVA Banco Continental, 2000).

La pesca industrial en el Perú es abundante y diversa, por que se capturan


diferentes especies de peces que son utilizadas a nivel industrial: anchoveta,
básicamente en producción de harina y aceite de pescado; sardina, jurel, caballa,
bonito, atún en conservas de pescado; merluza y otras especies en congelados.
Existen muchas otras especies que se capturan artesanalmente para el mercado
180

local, como cachema, cabrilla, cherlo, coco, cojinova, congrio, doncella, liza, lorna,
machete, mero, pampanito, pejerrey, pejesapo, pez diablo, picuda, pintadilla,
tiburón, tollo, etc.

Una de las especies más importantes para la industria pesquera en nuestro


país es la anchoveta (Engraulis ringens) que habita desde la costa hasta a 50
millas mar afuera en verano y hasta las 100 millas en invierno. Perú es el principal
productor de harina de pescado en el planeta basado en una sola especie (la
anchoveta), pequeño pelágico que en un año alcanza su desarrollo. La historia de
la pesquería peruana se liga a la disponibilidad de anchoveta y datos significativos
son los que reportan que en 1970 se capturó y desembarcó oficialmente 12
millones de toneladas, posteriormente esta cifra disminuyó ostensiblemente y en los
años recientes con la implementación de adecuadas políticas pesqueras, se ha
llegado a capturar cifras cercanas a los ocho millones de toneladas anuales. Otros
países que capturan especies similares a la anchoveta peruana orientan su
aprovechamiento para el consumo humano directo, enlatándola tipo sardina, en
congelado, salado, ahumado, surimi y secándola para así evitar pérdidas de
materia prima y de proteínas (Instituto Tecnológico Pesquero del Perú, 2004). 2La
anchoveta es de mucha utilidad, tanto comercial como industrial, así como de gran
importancia desde el punto de vista alimenticio, por la cantidad de proteínas y
aminoácidos esenciales; así como ácidos grasos de la serie omega 3;
Eicosapentaenoico, (EPA) y Docosahexaenoico, (DHA); contienen, además,
proporciones importantes de fósforo y de vitamina B12.

Por otro lado, el frijol bayo (Phaseolus vulgaris), es una planta herbácea
anual, que muestra una gran variación en costumbres, caracteres vegetativos, color
de las flores y en el tamaño, forma y color de las vainas y semillas. Todas las
formas tienen una raíz central bien desarrollada, que crece rápidamente alcanzando
a veces una profundidad de 90 cm o mas, pero con las raíces laterales limitadas
principalmente a la zona superior del suelo y que aporta nódulos esféricos o
irregulares. Las vainas de las semillas son finas, rectas o ligeramente curvadas, de
bordes redondeados o convexos y extremo prominente. El color puede variar desde
amarillo hasta verde oscuro, teniendo, a veces, manchas rosa o púrpura. El número
de semillas puede oscilar entre 1 y 12; muestran variación importante en su color,
tamaño y medida Su elevado contenido proteico (22,00%) y bajo contenido de
grasa (1,60 %) así como su contenido en aminoácidos esenciales y su común uso
181

en la dieta del poblador costeño lo constituye en una alimento indispensable


(Instituto Nacional de Nutrición, 1993).

La alimentación humana tiende a la diversificación de alimentos, sobre todo


en el mundo occidental, por lo que es necesaria la complementación en la dieta
diaria. Además es necesario considerar que la proteína de origen animal no podrá
sustituir a la de origen vegetal ni en corto ni mediano plazo, por lo que será
necesario complementar estos tipos de alimentos (Cabero y Moreno, 1985).

1.2. Formulación del problema científico


El problema científico se plantea en los términos siguientes:
¿Cuál es el efecto de la adición de tres proporciones de filete de anchoveta
(Engraulis ringens) y tres tiempos de esterilización en la composición química
proximal y aceptabilidad general de conservas tipo Tall 1 lb de fríjol bayo
(Phaseolus vulgaris)?

1.3. Justificación e Importancia del estudio


La investigación tecnológica del procesamiento de nuevos productos, ha permitido
desarrollar en los últimos años, una gran variedad de ellos a partir de las especies
tradicionales, sin embargo en los últimos años se ha orientado a la producción de
anchoveta en conservas por cuanto puede llegar hasta pobladores de las zonas
más alejadas y de extrema pobreza en el país. Los nuevos productos están
alcanzando su máximo desarrollo, por cuanto se adaptan con relativa facilidad para
producir alimentos de fácil preparación, precio razonable y con elevado valor
proteico.

En función a los conocimientos existentes sobre la problemática nutricional, calidad,


procesamiento, complementación y diversificación alimentaría se plantea el
presente estudio para obtener una alternativa de alimento procesado para el
consumo humano con la utilización de dos especies conocidas, abundantes,
aceptadas en la dieta de nuestra población .Una de origen vegetal, el frijol bayo
(Phaseolus vulgaris) y otra de origen hidrobiológico, filetes de anchoveta
(Engralis ringens) que complementarían y mejorarían la calidad nutritiva del
alimento sobretodo en el valor proteico. El fin es que ambos alimentos en
182

condiciones de procesamiento adecuados, puedan llegar a nuestra población en


conservas en envase de hojalata tipo Tall 1 lb; que son las que mejor se adaptan
para su procesamiento en fábricas de conservas disponibles en casi todo la costa
peruana.
.
Además en la tecnología alimentaria moderna; el producto final es conveniente
evaluarlo tanto; composición química proximal; su aceptabilidad general y su
calidad microbiológica, considerando estos tres indicadores, características de un
alimento nutritivo, agradable e inocuo,

1.4. OBJETIVOS

1.4.1 Determinar el efecto de la adición de tres proporciones de filete de anchoveta


(Engraulis ringens J) en la composición química proximal de conservas de tipo Tall
1 Lb fríjol bayo (Phaseolus vulgaris).

1.4.2. Determinar el efecto de la adición de tres proporciones de filete de anchoveta


(Engraulis ringens J.) en la aceptabilidad general de conservas tipo Tall 1 Lb de
fríjol bayo (Phaseolus vulgaris).

1.4.3. Evaluar los Valores F0, C0 y E0 como indicares de tratamiento térmico en


conservas de fríjol bayo con adición de tres proporciones de filete de anchoveta.

2.0 MARCO TEORICO

2.1 Antecedentes del Problema

El Instituto del Mar del Perú- Instituto Tecnológico Pesquero del Perú (IMARPE-ITP,
1996) reportan que la composición química proximal de la anchoveta es: 70,80% de
humedad; 8,20% de grasas; 19,10% de proteínas y 1,2 % de sales minerales. En lo
relacionado con ácidos grasos poliinsaturados reportan 18,2% de EPA y 9,2% de
DHA.

El Instituto Nacional de Nutrición (1993), reporta que la composición química


proximal el fríjol bayo es 11,00% de humedad; 22,00 % de proteínas; 1,60% de
183

grasas 57,80 % de glúcidos, 4,00 % de fibra y en relación con aminoácidos


esenciales los mas abundantes son: leucina (476 mg/gN); Lisina (450 mg/gN);
Fenilalanina (326 mg/gN); Valina (287 mg/gN) y Treonina (248 mg/gN). Además
cantidades significativas de acido glutámico y acido aspártico.

La ciencia de los alimentos está interesada, no solo en los fundamentos químicos


de su estructura y en los mecanismos de las reacciones en que participan, sino
también en explicar las alteraciones que sufren estos durante su almacenamiento o
procesado, solos o combinados; áreas que son de marcada importancia para que
los alimentos se transporten y lleguen a la población en condiciones que no pierdan
su valor biológico, tengan bajo costo y características físicos, químicas y
organolépticas adecuadas, éstas últimas son importantes cuando se trata de
alimentos envasados (Wong, 1995).

El Instituto Tecnológico Pesquero (ITP, 1999), menciona que desde 1996 viene
priorizando la investigación aplicada y desarrollo tecnológicos de los recursos
pesqueros, lo que ha permitido poner en el mercado una gran variedad de
productos a base de pescado, que se adaptan con relativa facilidad a los procesos
de elaboración, a precios razonables resaltando el elevado valor nutritivo.

El Instituto Tecnológico Pesquero del Perú (ITP, 2003) reporta que ha ensayado en
la producción piloto de conservas de anchoveta en diversas salsas y tipos de
envase tales como en envase de aluminio ¼ club con 125 g de capacidad, en
envase tinapa (202x308) y envase de hojalata 1 lbTall (3003x407) con 425 g de
peso neto. Además refiere que se ha producido a nivel piloto, otras, cuyos paquetes
tecnológicos se ofrecen a los industriales.

En la actualidad la evaluación sensorial de los alimentos constituye en una de las


herramientas más importantes para las actividades de la industria alimentaria. Se
aplica en control de calidad y proceso, diseño y desarrollo de nuevos productos,
etc. Existen diferentes pruebas para el análisis sensorial según lo que se pretenda
demostrar. Se distinguen tres tipos pruebas: pruebas afectivas, discriminativas y
descriptivas. Las pruebas afectivas están orientadas al consumidor y sirven para
medir la aceptabilidad del producto y al mismo tiempo la satisfacción del
184

consumidor. Dentro de estas se encuentra la prueba hedónica que miden el agrado


o desagrado del producto (Anzaldua, 1994).

2.2 Base teórica


El Proyecto propuesto se basa en la teoría de la termodestrucción de los
microorganismos y el efecto del calor sobre los nutrientes y componentes
responsables de sus características organolépticas (Fellows, 1994).
Además, todos los procesos de conservación de alimentos, están orientados
a mantener las características fisicoquímicas y nutritivas del alimento, sin
embargo es deseable que la disminución de ellas originadas por el proceso,
sean mínimas (Frazier y Westhoff, 1994).

La esterilización por calor es la operación unitaria en la que los alimentos


son calentados a una temperatura suficientemente elevada y durante un
tiempo suficientemente largo, como para destruir en los mismos la actividad
microbiana y enzimática. Los alimentos, estabilizados por este sistema
poseen una vida útil superior a seis meses (igual o mayor a 4 años).

La esterilización de alimentos envasados origina cambios sustanciales en su


valor nutritivo y características organolépticas. Las mejoras en los procesos
tecnológicos de esterilización van encaminadas, por tanto, a reducir efectos
no deseados sobre los componentes nutritivos y las características
organolépticas de los alimentos, reduciendo el tiempo de tratamiento de los
productos envasados o esterilizándolos a aquel en el que se considere que
el producto llegue a ser estéril comercialmente (valor F 0); tenga un grado de
cocimiento adecuado (valor C0) y la destrucción de enzimas termo
resistentes sea efectiva (Valor E0).

En este contexto, el valor F 0, es el valor letal integrado del calor recibido por
todos los puntos del contenido de un envase durante el tratamiento;
representa una medida de la capacidad de un determinado tratamiento
térmico para reducir el número de esporas o de células vegetativas de un
determinado microorganismo por envase (Jay ,2002). En términos mas
concretos; Valor F0 es el tiempo en minutos necesario para que a una
185

temperatura de 121,1 ºC se logre la destrucción de las esporas y formas


viables del Clostridium botulinum.

El proceso de esterilización por el calor no sólo destruye los microorganismos


viables, sino que también afecta a las deseables propiedades nutritivas y
organolépticas de los componentes de los alimentos tales como proteínas,
azúcares, grasas y vitaminas, así como a la textura, buqué, color, etc. El objetivo de
la industria conservera es producir alimentos enlatados microbiológicamente
seguros y con un elevado valor nutritivo (Sikorski, 1994).

La proteína del pescado ocupa en lo referente a valor nutritivo el segundo lugar


después de la leche de mujer y por delante incluso de la leche de vaca y de la
carne de animales de sangre caliente (Tscheuschner, 2001).

El tratamiento térmico origina la desnaturalización de las proteínas, lo que da como


resultado la pérdida de su solubilidad y actividad enzimática. Las proteínas del
pescado comienzan a coagular a 30ºC; la coagulación de la última fracción
concluye a 80 ºC. La hidrólisis de las proteínas también puede producirse después
de 90 minutos de calentamiento a 110 ºC y al cabo de 60 minutos de calentamiento
a 130 ºC. En cambio, pueden apreciarse pérdidas de aminoácidos después de
períodos de calentamiento más cortos. La intensidad de la hidrólisis de las
proteínas aumenta al elevarse la temperatura y al prolongarse el tiempo de
calentamiento. La acción del calor también origina aumento del pH entre 0,3 y 0,6
unidades. La capacidad de las proteínas de fijar iones de calcio, magnesio y fósforo
se acentúa considerablemente. Como consecuencia de los cambios que se
registran en la configuración y desdoblamiento de las cadenas proteicas, se
produce mayor número de grupos sulfhidrilo, amino, hidroxilo y carboxilo. El
calentamiento prolongado de las proteínas a altas temperaturas puede motivar
pérdidas irreversibles de grupos sulfhidrilos, como resultado de la formación y
liberación de sulfuro de hidrógeno.

La esterilización por el calor origina igualmente, ligeros cambios en los lípidos,


como consecuencia de su hidrólisis, oxidación y polimerización. Los productos
resultantes de la oxidación de los lípidos pueden reaccionar con sustancias
nitrogenadas en reacciones del tipo Maillard, lo cual reduce el valor biológico de los
186

alimentos enlatados. Los azúcares se degradan cuando se exponen a


calentamientos prolongados a altas temperaturas. Aminoácidos, péptidos y grupos
amino de las proteínas pueden combinarse con azúcares en reacciones de
pardeado (Maillard). Los productos de estas reacciones son mezclas complejas de
compuestos de alto y bajo peso molecular que pueden provocar cambios de color y
textura en los alimentos enlatados (Sikorski, 1994).

Bender (1972), en Hall (2001), revisó los efectos negativos en el valor nutritivo en
relación con las proteínas y observó que no se afectan de forma significativa por la
exposición a las condiciones de temperatura y tiempo del proceso de enlatado; por
el contrario, algunos compuestos proteicos, como aquellos arrastrados por las
espinas de salmón y sardina, las cuales se reblandecen lo suficiente para ser
comestibles, no son desechados una vez en el plato. La desnaturalización de las
proteínas por calor, causa pérdidas de agua que oscilan entre 9 y 28%,
dependiendo de la severidad del proceso y tratamientos previos, la especie, el pH y
otros factores fisiológicos. Los tratamientos previos como la cocción minimizan este
defecto, pero aumentan las pérdidas de proteínas solubles.

Los cambios de aroma que ocurren en el pescado durante las largas exposiciones a
temperaturas elevadas, limitan la aceptabilidad del producto pero son difíciles de
definir; cuando resulta posible, se enmascaran con salsas y aderezos.

Los cambios de textura también son inevitables pero, como ya se ha mencionado,


pueden ser ventajosos en cierto modo. La desnaturalización proteica excesiva y la
correspondiente disminución de la capacidad de retención de agua de los
componentes estructurales dan lugar a un producto seco, con textura estropajosa.
En este sentido, el pescado graso se ve menos afectado debido al efecto restrictivo
que ejercen los lípidos en la pérdida de agua. Así pues, la elección de la materia
prima es importante, cuanto menos fresco es el pescado más agua se perderá y,
por lo tanto presentará mayor deterioro de la textura.

Cuando se utiliza materia prima de baja calidad pueden darse cambios de color
más pronunciados. La decoloración del atún enlatado, conocida como
enverdecimiento, se debe al óxido de trimetilamina, mioglobina, cisteína y al
proceso de cocción y, puede reducirse mediante la adición de combinaciones de
187

ciertas sustancias o antioxidantes han desarrollado un método en el que puede


usarse la evaluación combinada del contenido de oxido de trimetilamina (OTMA) y
trimetilamina (TMA) en pescado crudo, para estimar la probabilidad de que se
produzca el enverdecimiento durante el proceso térmico (Ah Khavat, 1978,
Nagaoka y col., 1971, citados por Hall, (2001).

El efecto que ejerce la conservación por el calor sobre el valor nutritivo de los
alimentos tiene, por consiguiente, una importancia considerable para procesadores
de alimentos. Uno de los cambios mas importantes que puede producirse en un
alimento conservado por el calor es el movimiento de agua y de sólidos en el seno
del alimento durante el tratamiento térmico, almacenamiento y recalentamiento. En
un producto que forma parte de una receta o en un producto en el que es
consumido la totalidad del contenido del envase pueden despreciarse estos
cambios, desde un punto de vista nutritivo, ya que no alteran la cantidad total de
nutrientes consumidos. Sin embargo, en aquellos productos que se envasan junto
con un líquido que se elimina antes del consumo, la porción comestible suele
experimentar dilución, deshidratación o pérdida de sólidos totales. En tales casos la
interpretación de cualquier cambio aparente en la composición debe realizarse
teniendo presentes estas consideraciones.

La conservación mediante el calor puede provocar cambios tanto deseables como


no deseables en la calidad nutritiva de las proteínas. Son susceptibles no
solamente al calor sino también a la oxidación, ambientes alcalinos y a la reacción
con otros componentes del alimento tales como azúcares reductores y productos
que oxidan los lípidos. La cantidad total de proteína bruta suele aparecer
relativamente sin modificar por efecto del tratamiento térmico, aunque puede
experimentar la lixiviación hacia el componente líquido de algunos productos. Los
niveles de proteína bruta parecen ser estables; sin embargo, durante el posterior
almacenamiento de las hortalizas y los cereales enlatados, los cambios que
experimentan se asocian a la estructura terciaria y funcionalidad y los cambios
químicos tienen relación con la digestibilidad y disponibilidad de los aminoácidos.
Los factores mas importantes para establecer las condiciones de esterilización
orientan a considerar la velocidad de penetración del calor hasta el punto más
tardío (punto critico o punto mas frío del contenido), teniendo en cuenta el tamaño,
el material de fabricación y forma del envase, la naturaleza físico– químico del
188

contenido y el tipo de carga bacteriana presente en el alimento (Rees y Bettison,


1994).

2.3. Variables:
2.3.1. Variables independientes:
1. Proporciones de filete de anchoveta (Engraulis ringens J.).
Proporción 1: 75 Filete: 175 g Frejol
Proporción 2: 125 g : 125 g Frejol
Proporción 3: 165 g : 85 g Frejol
2. Tiempo de esterilización (70, 80 y 90 minutos)
2.3.2. Variables dependientes:
1. Composición química proximal
2. Aceptabilidad general

2.3.4. HIPOTESIS:
La proporción de 75 g de filete de anchoveta (Engraulis ringens J.) y un tiempo de
esterilización de 70 minutos, permitirán obtener conservas tipo Tall 1lb de fríjol bayo
(Phaseolus vulgaris) con mejor composición química proximal y aceptabilidad general.

3.0. MARCO METODOLOGICO

2.2.1. Diseño de contrastación de Hipótesis

Lo previsto para la realización de este proyecto, corresponde a una investigación de


tipo experimental con estimulo creciente según el cual se tendrá un grupo control
conservas de fríjol bayo y 3 experimentales en los que se adicionarán 75; 115 y 165
g respectivamente según las consideraciones de Vásquez et al., (2004).

3.2 Población y Muestra


La población objeto de estudio estará constituido por conservas de frijol bayo tipo
tall 1 lb. La muestra estará constituida por 120 latas de conservas de frejol bayo a
las que en la fase del envasado se adicionarán por separado 3 proporciones de
filete de anchoveta. Se realizarán evaluaciones mensuales durante los meses de
mayo a diciembre del 2006, según disponibilidad.
189

3.3 Materiales, técnicas e instrumentos de recolección de datos


3.3.1. Materiales:
Insumos:
-Agua
-Glutamato monosódico
-Sal
-Envases: el material será de hojalata, de dos cuerpos en buen estado de
conservación con una capacidad de 425 g, tipo Tall 1 lb
7.1.3. Equipos e instrumentos:

- Autoclave
- Cocinadores
- Mesas de fileteo
- Cuchillos
- Marmita
- Selladora
- Pozas de remojo
- Balanza Ohaus (capacidad 2,0 Kg, Sensibilidad 0,1 g)
- Termómetro

De análisis Bromatológico
- Equipo Kjeldahl para análisis de proteínas
- Equipo Soxhlet para análisis de grasas
- Estufa
- Mufla
- Material de laboratorio convencional.

3.3.2. Técnicas

3.3.2.1. Procedimiento experimental

Procesamiento del frijol

El fríjol después de lavado y seleccionado, será remojado por un lapso de 3 horas y


posteriormente escaldado a una temperatura de 95ºC y por 20 segundos, luego de
lo cual quedará listo para ser incorporado al envase.
190

Procesamiento de la anchoveta
Recepción de materia prima, la anchoveta se recibirá entera, se deberá observar
que los especimenes sean de primera calidad, estar convenientemente refrigerados
y protegidos de la luz y el calor; puesto que la calidad del pescado comienza a
deteriorarse tan pronto como este muere. La valoración de calidad se hará en
función a la escala de Wittfogel citado por Vásquez y Reupo (1999).

Lavado
El lavado se hará con agua potable con el fin de eliminar el mucus de la piel del
pescado, bacterias, así como cualquier elemento contaminante presente en el
pescado.

Selección
Los peces deberán presentar ojos convexos, agallas de color rojo brillante o
rosadas, así mismo deberán estar exentos de deformaciones, cortes, heridas y
lesiones.

Precocinado, la anchoveta entera se precocinará en cocinadores estáticos, a 90


ºC durante 15 minutos para luego del enfriamiento, obtener los filetes

Envasado
Los filetes limpios de carne, vísceras y partes duras (huesos escamas; etc.), se
colocarán en envases de hojalata conteniendo frejol bayo en las proporciones
definidas en Variables

Adición de líquido de gobierno:


La adición de líquido de gobierno (agua y sal) se hará a una temperatura de 95 ºC.

Exhausting
La eliminación del contenido de aire en la lata se realizará con adición de vapor de
agua.

Sellado
Se realizará en una selladora para latas tipo tall 1 lLb.
191

Esterilizado
Se realizará en autoclaves estáticos de vapor, en esta etapa se evaluará la
intensidad del tratamiento

Secado de latas
Se realiza en una cámara continua, mediante un flujo de aire caliente.

Almacenamiento
Los envases serán almacenados en un lugar seco a temperatura ambiente.
El diagrama de flujo se muestra en la figura 1

3.3.2.2. Determinación de la composición química proximal


La composición química proximal se determinará de acuerdo a las técnicas y
métodos de la AOAC expuestos en Hart y Fisher (1991) y siguiendo a Vásquez y
Reupo (1999), considerando:
1. Determinación de humedad por el método gravimétrico de la estufa
2. Extracto seco, relacionando la humedad con el peso
3. Determinación de proteínas, por el método de Kjeldahl
4. Determinación de grasas, por el método de Soxhlet
5. Determinación de sales minerales por el método de incineración directa.
6. Determinación de carbohidratos: por diferencia.
7. Determinación de Fibra: método de
8. Determinación del Valor Nutritivo

Recepción de materia
prima (anchoveta) Recepción de materia
prima (frijol bayo)
Lavado
Lavado
Selección y
Clasificación Selección y
Clasificación

Encanastillado
Remojo

Cocinado
Escaldado

Enfriado
192

Adición de tres
proporciones de
Fileteado Filete de anchoveta Envasado

Adición de Líquido
de gobierno

Exhauster

Codificado y cerrado

Lavado

Esterilización
Pruebas de aceptabilidad
general

Análisis fisicoquímicos

Figura 1. Diagrama de flujo cualitativo de la producción de conservas de frijol bayo


con tres proporciones de filete de anchoveta

En la evaluación de la aceptabilidad general participarán 10 panelistas


semientrenados a quienes se aplicará una prueba de apreciación hedónica,
empleando una cartilla de calificación con escalas de intervalo de cuatro puntos,
siguiendo los criterios de Ureña y D’Arrigo (1999), adaptada por los autores.

La determinación de los valores F 0; C0 y E0 se realizarán de acuerdo a los criterios


propuestos por Sielaff (2000), siguiendo a Hahn y Eisner (1981) y Reichert (1981).

3.3.3. Instrumentos de recolección de datos


Para la recolección de datos del proceso se utilizarán hojas de registro
especialmente diseñadas y para la evaluación de aceptabilidad general se utilizará
una hoja de tal como se muestra en el cuadro 1.

2.2.5 ANALISIS ESTDISTICO DE LOS DATOS


193

Para el tratamiento estadístico de los datos de la composición química proximal se


utilizaran las pruebas de Análisis de varianza (ANOVA) y de Duncan. Para el
análisis estadístico de la evaluación de la aceptabilidad general, se utilizará las
pruebas de Kruskall Wallis y U mann Whitney incorporadas en el paquete
computacional SPSS (The Statistical Package for the Social Sciences), versión 11.0
para Windows.

2.2.5 ESQUEMA DE CONTENIDOS

El Informe final contendrá los correspondientes a un Informe científico de acuerdo a


las consideraciones de Day (1994): Introducción; Material y procedimientos;
Resultados; Discusión; Conclusiones; Referencias.

CUADRO 1. Cartilla de aceptabilidad general para conserva de frijol bayo

con filete de anchoveta

PRUEBA ORIENTADA AL CONSUMIDOR


194

ESCALA HEDONICA DE NUEVE PUNTOS


Código de la muestra: ...............................................
Nombre del panelista: ....................................
Fecha: ...................................................
Por favor pruebe las muestras y evalúe, usando la siguiente escala encerrando con un círculo
el número correspondiente:
Descripción Valor

ME GUSTA MUCHISIMO +4

ME GUSTA MUCHO +3

ME GUSTA BASTANTE +2

ME GUSTA LIGERAMENTE +1

NI ME GUSTA NI ME DISGUSTA 0

ME DISGUSTA LIGERAMENTE -1

ME DISGUSTA BASTANTE -2

ME DISGUSTA MUCHO -3

ME DISGUSTA MUCHISIMO -4

Comentario: ......................................................................................................

.........................................................................................................................

Lambayeque, de del 2005

III. ASPECTO ADMINISTRATIVO

3.1 CRONOGRAMA DE ACTIVIDADES

Las actividades a realizar se resumen en el siguiente diagrama de Gant


195

Años 2 0 0 5 2 0 0 6

Meses O N D E F M A M J J A S O N D

Actividades
1.Preliminares
--
-Elaboración del proyecto
---- --
-Contacto con la realidad
-- - -- -- --
-Implementación
2. Ejecución
-Recolección de datos -- -- --- --
-Tabulación y Análisis
--- --
3. Comunicación
-Preparación del informe -- --
Presentación del informe --
Final
-

3.2. PRESUPUESTO

02.00 BIENES S/ 14 500, 00


02.02 Material de Escritorio................................................S/ 200, 00.
02.03 Material para procesamiento de datos S/ 5 000, 00
02.05 Reactivos de Laboratorio S/ 5 000, 00
02.06 Material de impresión, fotográfico y de
fotocopiado........................................................................S/ 400, 00
02.12 Otras
Materias primas.......................................................S/ 3 000, 00
Material fungible......................................................S/ 900, 00
03.00 SERVICIOS . S/ 2 000, 00
03.05 Servicio de procesamiento de datos.........................S/ 500, 00
4.0 0 Pasajes y viáticos...................................................S/ 1 500, 00

09.00 BIENES DE CAPITAL S/ 9 220, 00


Equipos de laboratorio.......................................................S/ 5 000,00
01 computador personal.....................................................S/ 4 220,00
196

TOTAL S/ 25 720, 00

3.3 FINANCIACION
El financiamiento para la ejecución del presente proyecto será financiado en
parte por el FEDU y se formulará solicitud al CONCYTEC.

IV REFERENCIAS BIBLIOGRAFICAS
ANZALDUA A. 1994. La evaluación sensorial de los alimentos en la teoría y la
práctica, Zaragoza. Acribia.

BBVA BANCO CONTINENTAL. 2000. Perspectiva Mundial del Consumo Humano


Directo de Pescado. En: Perú: País en Marcha, Analysts View on Peruvian
Fisheries. PROMPERU-Ministerio de Pesquería, Lima.

BRENNAN, J. 1998. Las operaciones de la ingeniería de los alimentos. 3ª. ed.,


Zaragoza. Acribia.

CABERO, T. y J, MORENO. 1995. Leguminosas de grano., Madrid. Mundi Prensa.

FELLOWS, P. 1994. Tecnología de Procesado de Alimentos, Zaragoza. Acribia.,


DAY, R. 1994. Como escribir y publicar trabajos científicos. 4a. ed., Washington.
OPS/OMS,

FRAZIER W. y D. WESTHOFF. 1993. Microbiología de los alimentos. 4ª. ed.,


Zaragoza. Acribia.

HALL, G. 2001. Tecnología del procesado del pescado. Zaragoza. Acribia.

HAHN, G. y M. EISNER, 1981. Koordinierte tecnologie zur erhaltung der qualitat,


Stock. Alemania.
HART, L. y H. FISHER. 1991. Análisis moderno de los alimentos. 2ª. Reimpresión,
Zaragoza. Acribia

INSTITUTO TECNOLÓGICO PESQUERO DEL PERU. 1999. Tecnología de


pescado en conserva en base a Anchoveta, Callao. Mimeo vs.pgs..

INSTITUTO TECNOLOGICO PESQUERO. 2003. Investigación y desarrollo de


productos pesqueros; Fichas técnicas. Pdf. www.itp.org.pe.

INSTITUTO TECNOLOGICO PESQUERO -INSTITUTO DEL MAR DEL PERU.


1996. Compendio biológico tecnológico de las principales especies
hidrobiológicas del Perú., Lima. Stella. p: 39-42;67-70.

JAY. J. 2002. Microbiología Moderna de los alimentos. 6a. ed., Zaragoza. Acribia.

REICHERT, J. 1981. Optimale sterilizations temperaturen fur fertiggerichte.


KINMITTEILUNGEN Nr. 81+82 KIN-NEUMUENSTER. Alemania.
197

REES J. y J. BELTTSON. 1994. Procesado Térmico y Envasado de Alimentos.


Editorial Acribia S.A. Zaragoza – España.

SANCHEZ, H. y C. REYES. 2002. Metodología y diseños en la investigación


científica. 2a ed. Lima.

SIELAFF, H. 2001. Tecnología de la fabricación de conservas. Zaragoza.. Acribia.

SIKORSKI, Z. 1994. Tecnología de los productos del mar. Recursos Composición y


Conservación. Acribia. Zaragoza, España.

TSCHEUSCHNER, H. 2001. Fundamentos de la tecnología de los alimentos,


Zaragoza. Acribia.

UREÑA M. y M. D’ ARRIGO. 1999. Evaluación sensorial de los alimentos; Lima.


Editorial. Agraria

VASQUEZ, A. y J. REUPO 1999. Bromatología Analítica, Lambayeque. UPSA-


UNPRG. mimeo, vs.pgs.

VASQUEZ, A. N. DIAZ y O. VÁSQUEZ. 2004. Metodología de la investigación


científica, Lambayeque. UPSA-UNPRG. mimeo, vs.pgs.

WONG, D. 1995. Química de los alimentos. Mecanismos y teoría. Ed. Acribia.


Zaragoza, España.

REVISIÓN Y TRANSCRIPCIÓN BIBLIOGRAFICA

REVISIÓN BIBLIOGRÁFICA

INTRODUCCIÓN

Cuando se analiza la realidad, surgen ideas y la necesidad impulsora de investigar.


Las ideas requieren ser clarificadas, sustentadas y transformadas en interrogantes.
En este proceso el examen de la bibliografía cumple un rol importante porque
permite definir el problema a investigar, determina la naturaleza y los alcances de la
investigación, brinda las bases para la naturaleza y los alcances de la investigación,
igualmente da las bases para la formulación de la hipótesis, indicaciones para los
198

materiales y métodos así como las técnicas para una adecuada obtención y análisis
de los datos.

En la investigación Descriptiva y Experimental, el examen de la bibliografía cumple


una serie de funciones generales preparatoria para la recogida real de datos. En
esta clase de investigación se examinó la bibliografía para crear, a partir del
pasado, el contexto del nuevo estudio que se va a realizar con nuevos sujetos y con
nuevos datos.

Mediante la integración de la investigación y el pensamiento del pasado con la


investigación y pensamiento del presente, podemos hacer avanzar el conocimiento.
Para que este proceso funcione con éxito, el investigador tiene que conocer el
pasado, de modo que pueda diseñar la investigación de lo que ya conoce para
estudiar lo que no sabe. Muchas veces se observa como se investiga sobre los
temas que ya están lo suficientemente demostrados y que no necesitan más
repeticiones.

Cuando la nueva investigación no está basada en un examen a fondo de la


bibliografía, se transforma en una entidad aislada, que en el mejor de los casos,
puede tener una significación accidental con respecto a lo que ya se había hecho
antes.

Cuando nos basamos en un examen a fondo de la bibliografía, podemos esperar


tener enfoques coherentes e integrados de nuestros problemas, y que estas se
puedan resolver mediante la investigación.

TIPOS DE BIBLIOGRAFÍA

Existen dos tipos distintos de bibliografía:

a. La Bibliografía de Investigación: Se refiere a los informes publicados


sobre estudios que presentan datos. Ejemplo: Artículos científicos, Tesis.

b. La Bibliografía Conceptual: Se refiere a todos los demás trabajos;


abarcando las enciclopedias, diccionarios, libros o artículos que den
opiniones, informes de experiencias, exposición de teorías, es decir, todo
trabajo publicado cuya función esencial no sea la de presentar datos de
investigación.

FUENTES PRIMARIAS Y SECUNDARIAS

Desde el punto de vista de investigación la bibliografía se clasifica en fuentes


primarias y secundarias. Una fuente es primaria cuando el investigador difunde su
trabajo de investigación original a través de cualquier medio, en cambio una fuente
secundaria, cuando un estudio o conjunto de estudios elaborados por un autor es
publicado por otro que no es el autor de la investigación original. Por ejemplo: Los
artículos que se publican en revistas científicas son fuentes primarias, en cambio
los artículos que resumen la literatura existente acerca de un tema son fuentes
secundarias. Las fuentes secundarias son importantes porque proporcionan
información bibliográfica sobre fuentes primarias que pueden resultar importantes,
sin embargo no proporcionan detalles suficientes o bien es casi imposible que
199

mantengan una completa objetividad al resumir y revisar los materiales escritos por
otros (Polit y Hungler, 1995).

2.1.4. COMO HACER EL EXAMEN DE LA BIBLIOGRAFÍA.

El momento en que el investigador haga el examen bibliográfico, depende del


conocimiento que tenga del área problemática. Si el investigador conoce bien el
campo y ha leído mucho, hará una breve revisión. Si su conocimiento es pobre,
tendrá que revisar la bibliografía conceptual. Es conveniente concentrarse en la
bibliografía conceptual hasta que el área problemática se haya reducido, hasta
llegar al problema de investigación relativamente concreto.

Cuando se ha concretizado el problema se debe pasar a la bibliografía de


investigación y empezar a ver el qué, cuándo, dónde, quién y cómo, de la
investigación anterior realizada.

FASES DEL EXAMEN BIBLIOGRÁFICO

El examen de la bibliografía tiene dos fases:

a. Primera fase: consiste en localizar todos los trabajos importantes publicados en


el área problemática. Existen varias formas de localizar las fuentes adecuadas de
referencia, una de ellas es a través de los índices (índex) (por temas o autores en
orden alfabético), libros de resúmenes (Abstraes), ficheros manuales y
computarizados, consulta a bibliotecarios, etc. La búsqueda de bibliografía por
computadora adquiere cada día mayor importancia, como alternativa a la consulta
manual de los índices. A través de la búsqueda por computadora el investigador
puede obtener una lista de referencias con información completa y en muchos
casos también los resúmenes correspondientes. También es útil cuando se quiere
establecer conexión entre múltiples conceptos. Por ejemplo en un índice se puede
encontrar la palabra “alimentos”, pero si su interés se centra en los niños, puede
valerse de la computadora para identificar únicamente aquellas que coinciden con
las palabras claves “alimentos” y “niños”. Otra ventaja de la búsqueda por
computadora es que permite conseguir las referencias de la literatura más reciente,
hasta con un mes de anticipación a su publicación en los indexes o libros de
resúmenes. En resumen el uso de sistemas computarizados ahorra tiempo, que
puede utilizar el investigador en la lectura de las publicaciones. Existen varias
bases de datos como: MEDLINE, CANCERLINE, AIDSLINE, etc. Ahora existen
además bases de datos en formato CD-ROM (disco compacto con memoria sólo
para lectura). Algunas sugerencias para localizar referencias bibliográficas son:

- Familiarícese con las palabras claves (o encabezado temático) a


través de una exploración manual.

- Haga uso de sinonimias de las palabras claves.

- Revise las referencias de las últimas publicaciones.

Una vez que ha revisado el material bibliográfico, leer aquellas partes con lo que no
está familiarizado. Al ir leyendo lo que otros han hecho o pensado sobre el área
problemática vamos elaborando gradualmente los cimientos de ideas, sobre los que
200

reconstruirá nuestro propio estudio. Es recomendable leer varias veces un artículo


para habituarnos al estilo, trate de hallar puntos principales, no haciendo mucho
caso a las formulaciones estadísticas, sino al asunto importante. Algunas
interrogantes claves son:

- Tiene sentido la forma como el investigador conceptualiza el problema?.

- Parece univoca la hipótesis?

- El diseño de investigación permite ver la relación entre variables?

- Se midieron de manera razonable las principales variables o habría sido


necesario mejor usar otro método?

Hay que hacer una distinción entre la bibliografía que examina el investigador y la
que se incluye en el estudio, es decir, la que se cita como “Antecedentes
Bibliográficos”.

La cantidad de trabajos que el investigador tiene que leer está relacionado con la
familiaridad que tiene con el problema a investigar, algunos investigadores pueden
tener poca o mucha familiaridad con todos los conocimientos necesarios.

Los “Antecedentes Bibliográficos” benefician tanto al investigador como al lector del


proyecto. Para el investigador constituye el trasfondo del problema y proporciona, el
marco en que se va a describir su estudio. Al lector; le da un resumen de ideas y las
investigaciones que necesita para comprender el estudio y también una buena
estimación de la erudición del investigador.

El examen de la bibliografía en un proyecto está determinado, por estudio que va a


hacer. Esto significa que la selección de lo que hay que citar en el proyecto se hace
en función de lo que sea significativo y necesario para comprender el estudio
actual. La parte que le sirve al investigador para su formación, pero que no sea
necesario para comprender el estudio debe eliminarse del informe del proyecto.

La importancia que el EXAMEN DE LA BIBLIOGRAFÍA, tenga en la elaboración de


las ideas del investigador, depende, como es lógico de la riqueza de esa bibliografía
y es obligación del investigador encontrar la que existe y examinarla. El no es
responsable del desinterés o del desprecio que otras generaciones hayan podido
sentir hacia un área problemática, y por ello, si su búsqueda pocos resultados, tiene
derecho a decirlo; en el capítulo correspondiente del proyecto se citará, las fuentes
consultadas indicando lo poco encontrado.

Si existe bibliografía en el área problemática, el tiempo que dedicará el investigador


depende de lo que conozca el área problemática y la bibliografía. Si conoce bien la
primera y ha mantenido al día sus conocimientos sólo necesitará darle un ligero
repaso para asegurarse que está informando de los últimos avances en
investigación, y en el terreno de las ideas. En caso que los conocimientos sean
incompletos y desactualizados es necesario examinar a fondo la bibliografía.

b. Segunda fase: Consiste en redactar esos fundamentos de ideas, como una de


las partes del proyecto de investigación, para ello es necesario elaborar resúmenes
201

de los puntos de vista más destacados en el campo que está trabajando.


Resultados fundamentales de las investigaciones relacionadas con nuestro estudio
y análisis crítico del pensamiento y de la investigación procedente.

FUNCIONES DEL EXAMEN DE LA BIBLIOGRAFÍA.

El examen bibliográfico cumple cinco funciones fundamentales que consiste en


suministrar:

a. El marco de referencia conceptual de la investigación prevista.

b. La comprensión del estado de la investigación en el área problemática.

c. Indicaciones para el enfoque, el método, la instrumentación de la


investigación y el análisis de datos.

d. Una estimación de las probabilidades de éxito de la investigación


planteada y de la significación o utilidad de los resultados.

e. La información específica necesaria para formular las definiciones, los


supuestos, las limitaciones y las hipótesis de la investigación.

MARCO CONCEPTUAL DE REFERENCIA

La revisión bibliográfica permite desarrollar el contexto conceptual amplio dentro del


cual se inserta el problema, solamente teniendo en cuenta esto, los resultados que
obtenga van a contribuir al campo de conocimientos existentes y que mientras
mayor sea la relación entre un estudio y otras investigaciones en un mismo campo,
mayor será la contribución de aquel.

El investigador tiene que conocer y comprender la disciplina en la que está


investigando. La forma más directa de hacerlo es leer los trabajos básicos en ese
campo, así como los escritos más recientes de los pensadores más importantes. El
investigador debe sentirse plenamente convencido, cuando haya terminado esta
fase, de que está al corriente de todos los puntos de vista que existen en ese
campo y en especial que ha comprendido todos los puntos de vista que defieren del
suyo o son opuestos a él. Esto no quiere decir que el investigador no puede
expresar su punto de vista, sino que tiene que hacer una distinción cuidadosa entre
los resúmenes del pensamiento de los demás y de su análisis crítico de ese
pensamiento.

ESTADO DE LA INVESTIGACIÓN

Esta segunda función permite conocer cuál es el estado en que se encuentra la


investigación en el campo de interés y permite planificar de forma inteligente un
trabajo de investigación que utilizará y desarrollará las experiencias logradas por
otros investigadores, sacará provecho de las experiencias malogradas y evitará la
repetición innecesaria de errores.

En primer lugar el investigador al hacer el Examen Bibliográfico, sabrá


202

QUÉ investigaciones se ha hecho y se están realizando y cuáles son los resultados,


esto facilitará determinar la originalidad del trabajo por realizar y logrará que se
adquiera una visión panorámica de los resultados en el área problemática., lo que
permitirá con nuestros resultados, si es posible hacer generalizaciones o entrar en
contradicciones o tener resultados poco convincentes, que será motivo para
intensificar las investigaciones.

CUÁNDO, se hecho tal o cual investigación y en concreto cómo se encuentra la


investigación actualmente en el área problemática. El hecho de saber cuándo se
hizo una investigación, permitirá conocer hasta dónde debe llegar cronológicamente
el examen bibliográfico y a la vez determinar si los conocimientos que se obtuvo
hace mucho tiempo siguen siendo válidos; por el tiempo transcurrido o las
condiciones cambiantes que han imperado. Esto puede llevar a repetir la
experiencia, siendo ello lícito.

DONDE, se han realizado las investigaciones, a nivel local, regional, o nacional.

QUIENES, fueron los sujetos estudiados. Esto significa identificar los universos y
poblaciones anteriormente estudiados, saber cómo se hizo el muestreo y la
amplitud de éste.

ENFOQUE; METODOS O INSTRUMENTOS DE LA INVESTIGACIÓN Y ANALISIS


DE DATOS

Esta parte permitirá conocer COMO se hicieron las investigaciones y en base a ello
podemos dar las indicaciones sobre metodología e instrumentación.

En concreto el investigador querrá saber en que medida se ha utilizado en las


investigaciones anteriores los enfoques históricos, descriptivos o experimentales,
pues ello le ayudará a orientar su propio enfoque. Por ese mismo motivo querrá
identificar los métodos de investigación que se han utilizado y en qué medida ello
puede ayudarle a seleccionar el suyo. Por último le interesa familiarizarse con los
instrumentos de recogida de datos utilizados y de qué manera son útiles para
utilizarlo o adecuarlo para su propia investigación.

La exposición de las tres primeras funciones del EXAMEN DE LA BIBLIOGRAFÍA,


en la investigación descriptiva y en la experimental, también debe haber dado una
idea de lo que el investigador busca al consultar la bibliografía.

 Para la PRIMERA FUNCION, la de obtener una visión panorámica, el


investigador está interesado por identificar cada punto de vista y los
argumentos y pruebas que lo apoyen; es un examen de IDEAS y
CONCEPTO, sin tener en cuenta como surgieron unas y otras.

 Para la SEGUNDA FUNCION, ha de comprender el estado de la


investigación, se hará un examen mucho más estructurado y concreto en la
que interesa identificar lo que ya se ha estudiado; los resultados del estudio,
cómo se relacionan entre sí los resultados de los distintos estudios, qué
sujetos han sido estudiados y cuándo y dónde se hizo la investigación.
203

 Para la TERCERA FUNCION, las indicaciones de metodología e


instrumentación, le interesa cómo se hizo y por qué se hizo la investigación.

En cierto sentido, la combinación de estas tres primera funciones, es lo que


determina la cuarta y quinta función del EXAMEN DE LA BIBLIOGRAFIA es decir
la estimación del éxito y de la significación de la investigación proyectada y la
decisión de continuar adelante, así como las definiciones, supuestos, limitaciones e
hipótesis de nuevo proyecto.

PROBABILIDAD DE ÉXITO Y SIGNIFICACIÓN DE LOS RESULTADOS

A través de la revisión bibliográfica, el investigador está en condiciones de evaluar


el éxito que han tenido otros investigadores en el área problemática y la utilidad de
sus resultados. Si los trabajos que se realizaron lograron éxito y sus conclusiones
son útiles, entonces el pronóstico para el trabajo a realizarse es sencillo y claro,
pero si los trabajos realizados demuestran que no han logrado éxito y sus
conclusiones no han sido convincentes o han sido de poco valor, entonces uno
debe tomar una decisión o abandonar el proyecto o lo altera.

DEFINICIONES, SUPUESTOS, LIMITACIONES E HIPOTESIS

Si después del Examen de la Bibliografía, se tiene fundados elementos de terminar


con éxito la investigación prevista, llegando a resultados que suponen una
aportación positiva en ese campo, se utilizarán los trabajos que componen la
bibliografía para formular las definiciones, supuestos, limitaciones e hipótesis.

Es recomendable utilizar las definiciones, ya usadas, a fin de que nuestra


investigación y las anteriores sean comparables. Asimismo, al examinar la
bibliografía, uno encuentra aspectos del área problemática que están
universalmente aceptados como hechos ciertos; esos hechos los podrá utilizar
como supuestos de su propio estudio. Por último, aquellos aspectos del área
problemática que están en discusión o abiertos a nuevas aportaciones, entonces el
investigador podrá señalar cuáles de esos podrá tener en cuenta y cuáles no; estos
últimos formarán la base de la formulación de las limitaciones de la investigación.

Ahora puede combinar los resultados de los estudios anteriores con el conocimiento
de las Teorías actuales y su propio conocimiento para formular las hipótesis; es
decir los resultados que espera de la investigación.

INDICACIONES PARA EL EXAMEN BIBLIOGRAFICO

El examen bibliográfico se hace en la BIBLIOTECAS, por tanto es necesario


conocer como están organizadas y como funcionan.

a. Se debe consultar otras fuentes que se encuentran en las bibliotecas


como: Diccionarios, enciclopedias especializadas para comprender
conceptos que se encuentren la bibliografía. Otras fuentes, deber ser
tesis, memorias, que proporcionan el contacto más completo y
actualizado de las investigaciones que se hacen en las universidades y
que muchas veces nunca son publicadas, por lo tanto no aparecen en
los libros de índices o de resúmenes.
204

b. Se debe comprender que hay dos criterios par hacer una buena
búsqueda bibliográfica: EXACTITUD Y CONSTANCIA. Por eso se debe
anotar la información esencial con exactitud y siempre de la misma
manera. Una forma sencilla de asegurarse esto es utilizando las fichas
bibliográficas.

Las citas, deben copiarse literalmente sin paráfrasis, en las fichas bibliográficas. En
esta etapa no sabemos como vamos a utilizar una idea que resumamos de la
bibliografía. Si transcribimos literalmente lo podremos utilizar posteriormente en
forma de cita parafraseada. Pero sólo si registramos una paráfrasis y luego
queremos usar la cita exacta, tenemos que regresar a la biblioteca. Cuando se
anota una cita en la ficha debe asegurarse que se anota el número de página del
libro o revista, pues lo necesitamos al dar la referencia.

A medida que leemos buscamos siete tipos fundamentales de información:

1º Argumentos que apoyen la necesidad del estudio, su éxito potencial, y su


significación.

2º Delimitación de los puntos de vista teóricos fundamentales.

3º Resúmenes de los resultados de investigación.

4º Indicaciones para las hipótesis del estudio proyectado.

5º Fundamento de cada una de las hipótesis.

6º Definiciones, limitaciones y supuestos del estudio proyectado.

7º Indicaciones sobre metodología e instrumentación.

Es necesario redactar un esbozo de la investigación que proyectamos, en base al


examen de la bibliografía, sino correremos el riesgo de olvidarnos parte de él y es
necesario porque ello es el fundamento de la armazón de nuestro estudio y
debemos alcanzar precisión y exactitud, que sólo alcanzamos al poner por escrito
las ideas.

FICHAS BIBLIOGRÁFICA

IMPORTANCIA DE LA FICHAS.

La ficha es el principal medio del que se vale el investigador para guardar todas sus
experiencias logradas a través de la lectura o de la investigación. El fichaje es,
pues, una técnica que facilita la sistematización bibliográfica, la ordenación lógica
de las ideas y el acopio de información en síntesis. El erudito no es sino el
investigador que tiene un fichero muy bien anotado y organizado.

Las fichas constituyen la “memoria escrita” del investigador, primero para registrar
todo lo que lee en revistas, libros científicos, etc., y segundo para redactar las
205

“Referencias Bibliográficas”, ya sea de su proyecto de investigación ó de su informe


de investigación.

Las fichas permiten anotar aquellas obras, artículos de revistas científicas o


periódicos que se consulta para poder llevar un registro personal de las lecturas o
para reactualizarlas. El investigador a fin de que su trabajo tenga consistencia debe
anotar lo que lee, es decir lo que considere que tiene valor.

CONFECCIÓN DE LAS FICHAS.

Las fichas son tarjetas de cartulina o papel, de diferentes colores, dimensiones y


calidades, siendo las más comunes las de cartulina blanca y rayadas por un lado.
En cuanto a sus dimensiones, las más utilizadas son las siguientes:

 La Pequeña : 12,5 x 7,5 cm.

 La Mediana : 15,0 x 10,0 cm.

 La Grande : 20,5 x 12,5 cm.

Internacionalmente, el formato pequeño se usa para tomar datos bibliográficos; en


el resto de casos, el investigador es libre de escoger el tamaño y calidad de fichas
que mas se ajusten a las características de su trabajo.

Las fichas se pueden elaborar personalmente, dividiendo exactamente pliegos de


cartulina; pero resulta más barato y de fácil confección las de papel bond, inclusive
de papel periódico.

En cuanto a las medidas que se le puede dar, cono ya se ha dicho depende del
investigador, pero de acuerdo a criterios internacionales es de 12,5 cm. de largo por
7,5 cm. de alto para las fichas bibliográficas propiamente dichas y para las fichas de
trabajo o investigación pueden variar de 15,0 x 10,0 cm. O 20,0 x 12,5 cm., etc.

No existe una forma única para confeccionar las fichas, pero sí algunas
características indispensable; las cuales varían, según se trate de un libro, de una
revista, etc.

2.2.3. PARTES DE UNA FICHA BIBLIOGRÁFICA.

En términos generales, una ficha consta de las siguientes partes (Fig. 1):

a. Epígrafe o encabezamiento:

Expresa el contenido temático del documento fichado y está


representado por el de la materia específica.

b. La referencia bibliográfica de la fuente consultada:


206

Es la segunda parte de la ficha, para su asiento existen normas


internacionales.

c. El texto o cuerpo de la ficha:

Es la parte que contiene la información que usará el científico en su


trabajo.

d. El código que asigna el Centro Bibliográfico:

Esta parte de la ficha se refiere al registro del código de clasificación que


la biblioteca o centro de documentación le ha asignado a los libros,
folletos, tesis, etc. Este código puede escribirse en cualquiera de los
ángulos del lado derecho de la ficha (superior o inferior). Cuando se trata
de obtener fichas de un libro o revistas que sean personales, no es
necesario anotar este código, pudiéndose omitir.

EPIGRAFE ICTIOLOGÍA – CLAVE

REFERENCIA CHIRICHIGNO, N. 1998. Clave para identificar los peces


BIBLIOGRAFICA marinos del Perú. 2a. ed. Instituto del Mar del Perú. Pub.
Esp. Callao. Perú.

TEXTO Se presenta una clave par identificar 727 especies


incluidas en 388 géneros y 138 familias.
CODIGO
340

2.2.4. CLASES DE FICHAS

Los autores tanto extranjeros como nacionales, que tratan sobre la técnica de
fichas, presentan variaciones en la clasificación, en los nombres de algunos tipos y
en las estructura de las fichas. Entre los tipos de fichas de uso mas frecuentes, se
mencionan las siguientes:

 Fichas de registro

 La Ficha bibliográfica: aquella en que se consigna los datos generales


de una obra: autor. Año, título de la obra, edición, editorial, institución,
país, páginas. Organizadas alfabéticamente funcionan como un registro
de los diferentes trabajos que se ha leído o consultado.
207

 La Ficha Hemerográfica: Tiene la misma finalidad que la bibliográfica,


es decir, clasificar fuentes, con la diferencia que la Hemerográfica
registra datos de un artículo de revista, folletos, boletines, informes de
instituciones, etc.

 Fichas de trabajo o de investigación

Son instrumentos de investigación bibliográfica, documental o empírica, cuya


finalidad es de ordenar y clasificar los datos consultados, incluyendo observaciones
y crítica o puntos de vista personales. Hacer este tipo de fichas, significa hacer una
trabajo creador, de análisis, de crítica, o bien de síntesis. La tarjeta de trabajo refleja
ya nuestra capacidad de profundización y los propósitos que nos animan; es el fruto
de lectura y de reflexión.

Las partes de la ficha de trabajo o investigación son las siguientes:

 Cabeza o epígrafe: se coloca en el ángulo superior izquierdo de la


tarjeta. Refleja el contenido de la tarjeta. Podría decirse que es una
breve explicación del dato.

 Referencias bibliográficas de la fuente: Se cita de la misma manera


que la ficha bibliográfica.

 El dato: Es la información que extraemos del libro, revista ó


periódico. El dato puede ser: a. Una cita textual, b. Una síntesis, c. Una
crítica, d. Las tres cosas a la vez, e. Experiencias propias del
investigador, f. Observaciones directas en el campo; por lo que de
acuerdo a estos datos las fichas de trabajo o investigación se llamarán
Ficha Textual, Ficha de Síntesis o Resumen, Ficha de Paráfrasis, Ficha
Combinada, Ficha de experiencia y Ficha de Campo, respectivamente.

b.1 Ficha textual

En esta clase de ficha se transcribe entre comillas, fiel y literalmente, aun con
errores si los hubiera, las partes más significativas del contenido de las fuentes
escritas. Es el testimonio directo del autor y ahí reside su valor (Fig. 2). Esta ficha
presenta las siguientes características:

Tamaño: Para esta clase de fichas existen diversas medidas. Se sugiere el tamaño
intermedio 15 cm. de largo por 10 cm. de ancho, por ser de fácil manejo y
confección.

 Epígrafe: Debe ir en el extremo superior izquierdo de la ficha. En el extremo


superior derecho debe ir la palabra TEXTUAL u omitirlo.

 Referencias Bibliográficas de la fuente

 Contenido: La cita que aparece en la ficha debe ir entre comillas, se


transcribirá sin alteraciones.
208

Durante el fichaje, puede presentarse las siguientes situaciones:

Si al transcribir se desea omitir la parte inicial del párrafo, después de las comillas
se colocan tres puntos suspensivos y se empiezan a citar”. Si dentro de la cita
textual se suprimen algunas palabras o líneas se pondrá, entre paréntesis, tres
puntos suspensivos (...) y se continuará citando. Si se suprimen párrafos enteros
habrá que poner toda una línea de puntos suspensivos. Puede suceder también
que uno quiera cortar la cita antes de que concluya el párrafo original. En este caso
se colocan tres puntos suspensivos antes de las comillas finales...”

Puede darse el caso de que el autor haya subrayado una palabra o una frase. Tiene
que indicar al pie de la ficha, que el subrayado es del investigador o del autor.

Si la cita es extensa puede utilizarse más de una ficha, en este caso se las debe
enumerar correlativamente para evitar confusiones.

ALTERACION DE LOS ALIMENTOS. TEXTUAL


MICROBIANA

FEHLHABER, K. y P. JANETCHSKE. 1995. Higiene veterinaria de los alimentos.


Trad. por J. Esaín. Edit. Acribia, S.A. Zaragoza, España. p.130

“La variabilidad que se observa en los tiempos de conservación de alimentos


idénticos de diferentes partidas se explica por la existencia de diferencias en la
composición de las respectivas floras de contaminación. Requisitos previos para la
producción de alteraciones perceptibles en los alimentos son una concentración
suficientemente elevada de enzimas microbianos extracelulares, como resultado de la
multiplicación previa de los gérmenes, y la existencia de una condiciones óptimas para la
actuación de las enzimas en cuestión”.

Figura 2. Modelo de Ficha Textual.

b.2 Ficha resumen

Es aquella que resume o sintetiza en forma concisa con palabras propias,


cambiando el énfasis, variando la secuencia del material, eliminando lo que
considera no esencial, con estilo diferente, pero sin alterar el sentido de los hechos
(Fig. 3)

Esta ficha tiene las siguientes características:

 Epígrafe: Deberá ir en el extremo superior izquierdo. La palabra


RESUMEN aparecerá en el extremo superior derecho.

 Datos de la obra: Que va situado debajo del epígrafe.


209

 El resumen en sí: Recomendándose que éste tenga una presentación


esquemática y organizada.

ALIMENTOS: CARNE. Alteraciones. RESUMEN

FEHLHABER, K. y P. JANETCHKE. 1995. Higiene veterinaria de los


alimentos. Trad. por J. Esaín. Edit. Acribia, S.A. Zaragoza, España. p.235-242.

Alteraciones de la carne:
- Maduración incorrecta.
- Alteraciones de la calidad.
- Alteraciones causadas por microbios:
o Alteraciones superficiales de la carne.
o Enmohecimiento
o Luminiscencia.
o Putrefacción

Figura 3. Modelo de una Ficha Resumen.

b.3. Ficha de paráfrasis

Esta ficha presenta la llamada “cita ideológica”. Consiste en explicar, con palabras
propias un material que en la fuente original aparece con un lenguaje de difícil
comprensión. Permite aclarar conceptos complejos y hacer más operativo su
manejo. Sin embargo hay que anotar que se debe conservar exactamente las ideas
originales.

La Ficha de Paráfrasis presenta las siguientes características:

 Epígrafe: Se coloca en extremo superior izquierdo, se refiere al tema


principal parafraseado. En el extremo superior derecho se escribe la
palabra PARAFRASIS.

 Datos de la obra: va situado debajo del epígrafe. Se consigna datos del


autor, título, etc.

 Contenido o la Paráfrasis: como requisito básico, debe mantenerse la


propiedad del lenguaje. La paráfrasis no debe ser, en ningún caso, mas
confusa o difícil de entender que la fuente.

b.4. Ficha comentario

Llamada también Ficha de Ideas Personales, considerada quizás, la más valiosa,


porque al investigador le permite acumular ordenar y clasificar las ideas que
facilitarán y apuntalarán la redacción final de la investigación.

Presenta el aporte del lector y pone de manifiesto su propia creatividad; en ella se


nota todas las ideas personales, dudas, críticas, comentarios. Igualmente permite
210

indicar alguna contradicción o incoherencia que se encuentra en el texto y que ha


de ser de valiosa utilidad.

La Ficha de Comentario tiene como componentes:

 Epígrafe: Se coloca en el extremo superior izquierdo. En el extremo


superior derecho para señalar que se trata de una ficha de comentario, se
colocan corchetes  . Esta es una convención para indicar que dichos
contenidos pertenecen al autor, sucediéndose muchas veces, que por omitir
este detalle se piensa que es la anotación del autor.

 Referencias Bibliográficas.

 Cuerpo o contenido.

b.5 Ficha combinada

De acuerdo a las necesidades particulares del trabajo que se realiza, se


puede integrar o combinar en estas fichas algunos procedimientos que se ha visto
ya anteriormente. Esta ficha es muy útil pero pueden confundirse en posterior
análisis si no se toman las precauciones para separar cada tipo de anotaciones
(Fig. 4).

Las combinaciones más usuales son:

Ficha textual + Ficha resumen

Ficha textual + Ficha comentario

Estas fichas permiten comparar los contenidos extraídos de obras de otros autores
con anotaciones de diversa índole que han sido elaboradas por el lector –
investigador.

Presenta las siguientes características:

 Para su confección se tendrá en cuenta las convenciones ya señaladas


para cada ficha.

 Se utiliza comillas para encerrar aquello que corresponde la trascripción


textual.

 Cuando lo que sigue es un resumen, aparece la palabra RESUMEN.

 Si se trata de un comentario, este irá entre corchetes.


211

Figura 4. Modelo de Ficha Combinada


LECHE. Tratamiento y transformación. TEXTUAL

FEHLHABER, K. y P. JANETCHKE. 1995. Higiene veterinaria de los alimentos.


Trad. por J. Esaín. Edit. Acribia, S.A. Zaragoza, España. p.611-624.

“La leche cruda es un producto rápidamente perecedero, lo que hace necesario


su inmediato tratamiento. Mediante calentamiento y graduación del contenido de grasa
en una determinada cifra, se preparan las leches de bebida entera o parcialmente
descremada”.
RESUMEN
Entre los productos lácteos de larga duración se mencionan:
Leches condensadas que se ofrecen azucaradas y sin azucarar.
Leche en polvo que puede ser obtenida mediante desecación por contacto y por
pulverización.

b.6 Ficha de experiencia

Esta ficha sintetiza las experiencias u observaciones que el investigador o


docente va acumulando durante el desarrollo de su actividad. Estas fichas
pueden también guardar el resultado de una serie de vivencias personales,
constituyendo todo esto un material potencial valioso para realizar,
posteriormente, un trabajo de investigación o una tesis.

Presenta las siguientes características:

 Epígrafe: Que se coloca en el extremo superior izquierdo. En el extremo


superior derecho se escribe la palabra EXPERIENCIA.

 Consignar datos de la experiencia, tales como lugar, fecha, participantes y


cualquier anotación que fuera necesario.

 La experiencia misma, descrita en sus detalles esenciales, dejando de lado


cualquier información superficial y puramente anecdótica.

 Al final, opcionalmente, puede ir debidamente numeradas las conclusiones


respectivas.

b.7. Ficha de campo

Esta ficha registra las anotaciones hechas a base de la observación directa


de los hechos o entrevista; las dimensiones de la ficha y los datos que se registren
dependen del trabajo que se está realizando, quedando a criterio del investigador.

Presenta las siguientes anotaciones:

 Localidad.
212

 Información: Aquí se registra el nombre del informante o bien se indica si es


observación directa.

 Fecha.

 Clasificación: La guía más utilizada por el investigador de campo para la


clasificación es la guía de Murdock. También es muy común que cada
investigador elabore su propia guía.

 Título o encabezado: El título debe reflejar el contenido de la ficha.

 Texto: El contenido debe ser una unidad, haciendo referencia a un mismo


dato. Se debe distinguir entre información y comentario.

 El nombre o iniciales del investigador.

Ficha de Documentos inéditos

Cuando hablamos de documentos inéditos nos estamos refiriendo a los textos


mecanografiados que no hayan sido publicados por ningunas de las técnicas de
impresión. Estos documentos pueden ser o un libro de varias páginas o un artículo
mecanografiado que todavía, por algún motivo o conveniencia de su autor, no ha
sido publicado.

Ahora bien, todos los títulos de los documentos inéditos no se subrayan ni llevan
comillas porque hasta el momento no constituyen libros impresos ni artículos
publicados en alguna revista o periódico.

No existe ningún motivo para que estos textos mecanografiados no puedan ser
utilizados, al menos de alguna manera, como fuente bibliográfica. Si es
indispensable consultar dichos documentos es necesario que se pida el permiso
respectivo a su autor.

EL FICHERO BIBLIOGRÁFICO

En la medida que avanza el fichaje, tanto en la investigación como en el proceso de


estudio, es necesario que las fichas se organicen ordenadamente, de tal suerte,
que resulte fácil su ubicación en el momento preciso que se las necesite.

Para este efecto no tendrá sino que situar cada ficha en un fichero que podrá ser de
metal, de madera o hasta una sencilla caja de cartón, con tamaño adecuado para
que las fichas se puedan mantener en pie: puede tener un pasador central si son
perforadas.

Existen diversidad de formas de organizar las fichas en el fichero; se las clasifica


por autores, por orden alfabético, por temas, etc. Por último, las fichas que no
tengan clasificación exacta se deben agrupar bajo la sección “no clasificadas”. En
su oportunidad podrán tener un lugar.
213

Para compartir los espacios de los diferentes temas, se colocarán fichas de cartón
con pestañas (margen superior) en las cuales se escribirán los subtítulos, tras los
cuales se irán colocando las fichas respectivas.

2.3.1. TIPOS DE FICHERO

Alva (1984) menciona tres tipos de ficheros para el archivo personal del profesional
o estudiante universitario:

a. Fichero de investigación: Donde se archivarán los trabajos cuyos


documentos ya fueron redactados, sean o no publicados. Cada trabajo de
investigación estará representado en el fichero por las siguientes fichas:

Una de título del trabajo de investigación, preferentemente de un color diferente de


las otras.

Una ficha guía para cada una de las partes del esquema del trabajo de
investigación.

Detrás de cada ficha guía, correspondiente a cada parte del esquema, se ubicarán
aquellas que tienen la información usada de dicha parte, y siguiendo el
ordenamiento adoptado (numérico, alfabético-numérico, o alfabético).

Detrás de la última ficha guía que corresponderá a “referencia Bibliográficas” se


archivarán solamente las que registren dichas referencias: a) Fichero de
Referencias; contienen en orden numérico las fichas de autor de cada artículo,
puede tener o no pasador metálico y, en consecuencia las fichas pueden ser o no
perforadas. b) Fichero de Materias: Llamado también fichero de encabezamiento
de materia, de epígrafe o de palabras claves, reúne en orden alfabético las fichas
de materia.

PROBLEMA CIENTIFICO
1. ETIMOLOGÍA
Etimológicamente deriva del verbo griego proballo que significa lanzar o empujar
hacia adelante

2. DEFINICIONES
El término problema, en general, se puede definir diciendo con Bunge en Sierra
(1986) que es una dificultad que no puede resolverse automáticamente, sino
que requiere una investigación conceptual o empírica), igualmente (Pérez
1991) lo define como la duda o interrogante que tiene el investigador y que
desea resolver; además Zavaleta (1991) explica que el término problema sirve
para designar: dificultad e interrogación. En investigación científica se usa en la
acepción de interrogación, como pregunta. Pregunta sobre la realidad problemática
naturalmente; realidad que se explicita como todo aquello con características y
tendencias propias. Entonces éste podrá orientarse bien a las características, bien
a las tendencias propias.
214

Kerlinger (1975), al reflexionar sobre la expresión del problema científico señaló que
aunque los problemas de investigación difieren considerablemente, y aunque no
hay una forma “correcta” de expresar uno, pueden expresarse ciertas
características de problemas y expresiones de problemas y usarse con provecho.
Un problema es entonces una oración interrogativa que pregunta: ¿Qué relaciones
existen entre dos o más variables?, la respuesta es lo que se esta buscando en la
investigación; si el problema es científico, casi siempre contendrá dos o más
variables.

Moya 1994 lo definió con mayor criterio como es la reflexión científica que
expresa la contradicción entre el saber y la conciencia del no saber cuya
precisión y solución requiere de la utilización del método científico

3. SITUACION PROBLEMÁTICA

El proyecto debe comenzar por ubicar el asunto en estudio dentro de un contexto


amplio, de manera que posteriormente sea fácil comprender su importancia,
limitaciones y proyecciones. La investigación científica se inicia con la identificación
y formulación del problema materia de indagación. El problema tiene básicamente
tres dimensiones que deben tenerse en cuenta en su definición: a) su relación con
el área científica en la que se va a investigar; es decir, están sustentados en la
teoría y los resultados de investigaciones anteriores vinculados al problema objeto
de estudio (marco conceptual). b) La perspectiva temporal del problema para
determinar si éste se relaciona con una situación pasada, presente o futura.
Digamos, por ejemplo, Cómo fue el fenómeno “X’’ el año pasado? Cómo es el
fenómeno “X’’ actualmente? Cómo será el fenómeno “X’’ en el futuro?. c)
Determinación de la naturaleza de la investigación. Las cuestiones materia de
investigación pueden ser: descriptivas, las que ayudan a comprender las
características de un fenómeno; explicativas, ayudan a explicar la ocurrencia de un
fenómeno; predictivas, ayudan a predecir la ocurrencia de un fenómeno (Gil y Alva,
1993)

4. DELIMITACION
Kerlinger (1975), señalo que no siempre le es posible al investigador formular su
Problema en términos sencillos, claros y en su totalidad. Con frecuencia, solo posee
una noción general, difusa y aún confusa del problema; esto constituye la misma
naturaleza de la complejidad de la investigación científica. La expresión adecuada
del problema de la investigación es una de las partes más importantes de ésta. Si
se desea resolver un problema, generalmente debe conocerse qué problema es.
Puede decirse, que una gran parte de la solución reside en conocer qué es lo que
se trata de hace; otra parte consiste en conocer qué es un problema y
especialmente qué es un problema científico.

La inmensa realidad, conjunto de seres, cosas, cualidades, cantidades,


conocimientos, teorías, entes, ciencias, etc. y demás todavía por conocer;
representa para el ser humano dotado de curiosidad insaciable y deseo de
comprender cada vez más y con mayor profundidad, un constante desafío; Pero
será imposible lograr este objetivo de golpe, de una sola vez; entonces la necesidad
de avanzar poco a poco, determinando con precisión la parte a investigar, resultará
capital. El establecer que punto específico de la realidad va ser explorado, justifica
la necesidad primordial y prioritaria de definir el problema científico.

5. CLASES DE PROBLEMAS
215

Según acabamos de ver, hay la posibilidad de centrar el interés científico en las


características o en las tendencias; entonces, los problemas, reciben los nombres
de problemas de Descubrimiento y de Explicación, respectivamente.

El problema de explicación tiene dos alternativas: prospectivo y retrospectivo. Se


puede preguntar por los efectos desconocidos de una variable conocida, caso del
problema prospectivo; y se puede preguntar por una causa desconocida partiendo
de un efecto conocido (variable dependiente), caso del problema retrospectivo.

De otro lado, según el rol que el investigador jugara en la producción del fenómeno
a observar; activo o pasivo, el problema científico se catalogará como Experimental
o Descriptivo, respectivamente. El problema descriptivo es una interrogante sobre
estado o relación de variables, tal como ocurren, natural o artificialmente, sin
propósito primario de observación.

En el problema experimental, el investigador provoca y controla la relación, con la


finalidad de observar las relaciones entre las variables, variando y graduando las
magnitudes cuantas veces sea necesario. Nos parece necesario establecer las
diferencias entre el problema científico y el filosófico, entre otros ambos estudian la
relación causa - efecto, buscando las primeras causas el filosófico y las últimas el
científico.

6 COMO PRODUCIR PROBLEMAS

Zavaleta (1991) expresó que no existe ninguna fórmula para hacer genios. La
concepción del problema científico depende de la inteligencia, de la genialidad del
científico investigador, cualidad, al parecer escasa y fugaz; pues aun los grandes de
la ciencia no lo han sido por todas sus obras y por toda su vida, ni siquiera para
todos sus actos científicos

El caso de Newton es muy esclarecedor. ¿Por qué esa tarde se preguntó sobre la
caída de la manzana? Por qué esa y no otra?; sin embargo, se señalan y
recomiendan algunas técnicas para la producción o creación de problemas, útiles
para comenzar, que en todo caso no alcanzan a beneficiar como la incorporación a
un buen equipo de investigación.

Se podría hacer, primero, una lista numerada de los fenómenos o hechos de la


realidad, en una especie de lluvia de ideas. Luego esta será depurada y priorizada
frente a cada anotación se registrarán las posibles explicaciones, las que se nos
ocurran, para a continuación eliminar dejando sólo las pertinentes. Lo que queda
debe ser nuevamente tamizado con el criterio de la susceptibilidad a la verificación
empírica. Con los residuos formamos el problema

7. ELEMENTOS

De acuerdo con Sierra (1986) en la noción de problema se pueden distinguir cuatro


elementos: i) el sujeto; ii)b) la dificultad; iii) la solución y iv) la investigación
necesaria para la solución. El sujeto en el problema es el hombre; la dificultad
puede ser teórica o práctica, del orden del conocimiento o del orden de la acción,
como tal dificultad involucra una contradicción entre conocimientos una oposición
entre lo que se conoce y la realidad o un inconveniente que se interpone entre el
conocimiento y la acción. La solución involucra una posibilidad remota de
216

solucionarlo y el último elemento, la investigación es lo que distingue y tipifica los


problemas humanos. Así como se concibe que la investigación científica es la
fuente de la ciencia se afirma igualmente que los problemas son la fuente de la
investigación científica.

8. CONDICIONES Y REQUISITOS:

Desde el punto de vista subjetivo los requisitos de los problemas a investigar se


pueden agrupar alrededor de tres rasgos fundamentales: viabilidad, no excesiva
dificultad e interés.

Desde el punto de vista objetivo los requisitos pueden ser los siguientes: i) el
problema a investigar debe pertenecer a la ciencia o materia en la cual se forma el
investigador; ii) el problema no ha de ser vago o genérico sino que debe ser
concreto y estar formulado lo mas precisamente posible; iii) el problema elegido
debe representar alguna novedad; trascendencia y viabilidad en su ejecución.

9. PLANTEAMIENTO DEL PROBLEMA

Torres (1994) al referirse al significado expresa que plantear en forma correcta un


problema de investigación significa que se debe realizar sobre un trasfondo de
conocimiento teórico existente, y que un problema bien planteado prácticamente
tiene el 50 % de su solución ya que orienta hacia la correcta formulación de los
objetivos e hipótesis, diseñar los instrumentos para recolectar la información,
establecer las técnicas y los procesos metodológicos a utilizarse. Si el problema no
esta bien planteado, se formularán objetivos e hipótesis incorrectas e incoherentes,
se seleccionarán instrumentos (material de laboratorio, cuestionarios, cédulas de
entrevista, etc.) poco útiles para captar y procesar la información requerida, en
consecuencia, se obtendrán conclusiones inconsistentes e impregnadas de los
errores indicados anteriormente.

Un planteamiento incorrecto del problema, tendrá repercusiones en todas las


etapas de la investigación dificultando en muchos casos, continuar con el estudio
con la consiguiente pérdida de tiempo y economía. Debido a estas circunstancias,
los estudiantes que están realizando tesis cambian el trabajo inicial por otro; sin
embargo, seguirán cometiendo los mismos errores si es que no rectifican las
causas fundamentales de los mismos.

El planteamiento del problema, es uno de los procesos más importantes de la


investigación. Su estructura está constituida por limitantes e interrogantes que
cuestionan la naturaleza del fenómeno y por las implicancias sociales de su
solución El planteamiento del problema es un proceso mediante el cual se
fracciona la realidad en la mente a fin de dirigir la atención hacia una parte
específica de la misma. El fraccionamiento no es proceso inmediatista del
investigador, sino el resultado de la selección sistemática. La selección específica
es la fragmentación mental de la idea general; por eso, siempre es considerada
como de necesidad primordial, la conveniencia de conocer las teorías que se
relacionan con el, a fin de establecer posteriormente un marco teórico y conceptual
de referencia, argumentado y válido para la formulación de las hipótesis.

2.2. Limitaciones
217

La limitación del problema de investigación, se inicia con la observación natural a


través de ella, el investigador toma el primer contacto con la realidad como paso
previo para realizar la investigación.

Las limitantes se establecen en función de los objetivos del investigador y de la


institución que patrocina el proyecto. También se toman en consideración la
naturaleza del objeto de estudio, la disponibilidad de tiempo, los recursos humanos
y financieros.

Las limitaciones imprescindibles de toda investigación son:

2.2.1. Teórica, está determinada por la existencia de investigaciones (ejecutadas)


afines a la que pretendemos realizar. Dentro del ámbito científico, estas limitantes
circulan como teorías científicas en las distantes fuentes bibliográficas, permiten
tener una visión general del problema y comprender mejor las variables de
investigación La especificación y cuantificación de las teorías, es una característica
de esta limitante.

2.2.2. Temporal, las investigaciones empíricas y los análisis teóricos, tienen una
fecha de inicio y de término. No hay investigaciones eternas, aunque si pueden ser
interrumpidas por múltiples factores. Esta limitante, puede ser:

 Transversal, dentro de ella están comprendidos todos los estudios


que pueden ejecutarse con rapidez, siempre y cuando que el problema esté
correctamente planteado. Ejemplo: El investigador puede seleccionar niños de
distintas edades (5, 7, 9 años ) y someterlos a un test de inteligencia. La variable de
investigación es la inteligencia, por tanto, el efecto observado en cualquier nivel
puede hacerse con rapidez. En cambio, si el estudio fuera prolongado (longitudinal),
podríamos persistir en cualquier otra variable distinta a la indicada. Los resultados
pueden ser incorrectos si el problema es planteado con limitante temporal
incoherente y los grupos tienen un ambiente significativamente diferente unos de
otros.

 Longitudinal, Investigaciones longitudinales, son aquellas que


requieren un largo período de tiempo para su ejecución y el investigador conoce
sus variaciones desde el inicio hasta la culminación. Ejemplo: el investigador tiene
como objetivo determinar las habilidades motoras de niños de 5 años; para ello,
tiene que trabajar con dos grupos de niños. Un grupo debe estar conformado por
niños que han tenido mucha experiencia con juguetes educativos y otro grupo que
carece de tal experiencia. Para alcanzar el objetivo, el investigador debe iniciar un
estudio longitudinal de dos años para medir la habilidad motora de ambos grupos.

2.2.3. Espacial

Esta limitante se refiere al área geográfica (local, regional, nacional e internacional)


en la cual está comprendido el problema de investigación. La limitante espacial del
problema de investigación planteado, implica que las unidades de análisis
corresponderán a un espacio determinado y sólo se estudiará una parte de ellas.
Los resultados se generalizarán para el total de la población de la cual fue extraída
la muestra representativa.

2.3. Interrogantes
218

Las interrogantes y respuestas eidéticas, permiten al investigador tener ideas


generales acerca de lo que tiene que ejecutar, ellas dan claridad y solidez al
planteamiento del problema, en efecto, éste no va a sufrir modificaciones a medida
que avanza la investigación. Si es necesario realizar ajustes, deben llevarse acabo
dentro de los límites señalados por el marco teórico y conceptual de referencia, de
lo contrario, se obtendrán resultados lejos de la realidad que se pretende indagar.
Un problema bien planteado es la mitad de la solución (Ackoff).

Las interrogantes de investigación, son:

2.3.1. Generales
Son aquellas que orientan la investigación a la búsqueda de las causas y
consecuencias del problema general. en este caso, las preguntas deben
establecerse de acuerdo a la naturaleza del objeto de investigación y a la selección
general de éste.

2.3.2. Específicas
Son las que inducen respuestas concretas sobre las propiedades, relaciones y
conexiones internas del problema específico de investigación. Algunas de ellas son
derivados de las generales. Este tipo de interrogantes se formularán hasta el
agotamiento, es decir al máximo límite de su formulación. Las respuestas se
obtendrán en el proceso de investigación.

Pérez (1991) señala que cuando nos planteamos el problema lo hacemos en tres
órdenes: a) por ausencia de conocimientos; b) para rectificar los conocimientos y c)
para ratificar los conocimientos.

En todo el planteamiento del problema deben cumplirse los siguientes requisitos:


a) Que sea real.
b) Que sea factible de realizarse y comprobarse.
c) Que haya relación entre las variables a estudiar.
d) Que haya una delimitación del problema en tiempo, espacio y universo
(personas, animales, etc.); así como una delimitación teórica (marco
teórico).
e) Que esté ubicado en su contexto general, por ejemplo: el papel de los
residentes en los hospitales, papel de la sala de emergencia en los
hospitales, etcétera.
En resumen, el planteamiento del problema es el primer paso del método científico
y quizás el más importante; es el centro del diseño de la investigación, ya que si
hacemos un buen planteamiento, el resto de la investigación se da por si sola; lo
contrario ocurre si hacemos un mal planteamiento, lo que nos obligará a replantear
reiteradamente el problema hasta que hagamos un buen planteamiento

10. CRITERIOS SOBRE PROBLEMAS Y EXPRESIONES DE PROBLEMAS

La concepción original de Kerlinger en Oblitas (1991) es que hay tres criterios


acerca de buenos problemas y expresiones de problemas primero, el problema
debe expresar una relación entre dos o más variables. Formula, en efecto
preguntas como: ¿ se relaciona A con B?; Cómo se relaciona A y B ?, Cómo se
relaciona A con B en las condiciones C y D?. Las raras excepciones a esta
sentencia ocurren principalmente en la investigación taxonómica o metodológica.
219

Segundo, el problema debe formularse claramente y sin ambigüedad en forma


de pregunta. En lugar de decir, por ejemplo, “El problema es”, o “El objeto de este
estudio es”, formular una pregunta. Las preguntas tienen la virtud de plantear
directamente los problemas. El objeto de un estudio no es necesariamente igual
que el problema de un estudio.

El tercer criterio es a menudo difícil de satisfacer; requiere que el problema y la


expresión del problema deben ser tales que impliquen posibilidad de prueba
empírica. Un problema que no tiene inferencias para probar su relación o
relaciones expresadas no es un problema científico. Esto significa no sólo que se
expresa una relación real, sino también que las variables de la relación pueden
medirse de algún modo; muchas preguntas interesantes e importantes no son
preguntas científicas, simplemente porque no son susceptibles de comprobación.

Zavaleta (1993) refiere que Kerlinger ha planteado claramente los criterios para
formular eficazmente el problema de investigación, cuando recomienda los tres
aspectos siguientes:
1. Formularlo como pregunta o proposición interrogativa.
2. Señalar las variables, por lo menos dos, de manera clara e inequívoca, en
relación implícita.
3. Que exista posibilidad de verificación empírica.

Este autor trata de explicitarlo del modo siguiente:


El primer punto se refiere al continente a la esencia del problema científico. Que
también se puede presentar en redacción condicional. En el segundo se hace
alusión al contenido, señalar claramente las variables relacionadas entre sí. Es
muy importante considerar pues que el no hacerlo llevará necesariamente a
variaciones en los resultados.

También hay que ser muy cuidadoso con el asunto de la relación entre variables. Es
muy importante el hecho de la existencia de variables intermedias no percibidas,
desconocidas. Ocurre tal como se da con los números naturales.

En relación al número de variables, la ciencia cada vez profundiza más el


conocimiento de la realidad, estudiando variables intermedias y al parecer no hay
límite para ello. De otro lado, al plantear el problema, hay que incluir por lo menos
dos variables; puesto que ninguna explicación sería posible con solo una. La
relación causa - efecto requiere de por lo menos dos, una para independiente o
causa y la otra para dependiente o efecto. La primera que origina el cambio en otra,
necesariamente. Lo mejor sería plantear los problemas así. Cuando se incrementan
el número de variables las relaciones pueden resultar múltiples, intrincadas y
difíciles de percibir y esclarecer.

El tercer criterio señalado por Kerlinger, corresponde a la condición esencial para la


ciencia: ser empíricamente verificable; sino lo hay, el asunto no es de la ciencia
sencillamente.

El problema científico es componente fundamental para la elaboración del protocolo


de investigación. Determina los conocimientos antecedentes que debemos recordar
y recoger. Un modo práctico de proceder sería conseguir bibliografía en la mayor
cantidad posible, sobre cada una de las variables y naturalmente sobre la relación
entre ellas. Es necesario para una adecuada planificación y fundamentación. Se
220

requieren de los conocimientos más elementales a los más complejos, de los más
generales a los más particulares, de los más antiguos a los últimos, los que figuran
en publicaciones de la especialidad y de especialidades afines. La erudición facilita
grandemente la labor; da muchas ideas para hacer investigación científica y permite
el uso de modelos ya verificados.

De la influencia del problema científico debe derivar: desde el título hasta el


protocolo y el informe final; por lo que se sugiere que el título debe dar una idea
clara del problema a investigar.

Fundamentalmente en el problema va ha quedar materializada la inquietud del


investigador y va, necesariamente, a generar respuestas tentativas. Tales juicios
son el alma de la hipótesis científica, paso siguiente en el método de la
investigación científica.

Las dificultades en la elaboración del problema científico y de todo el protocolo y


por consiguiente de toda la investigación, pueden reducirse a base de reflexión y de
recordar que el error está siempre presente en la obra humana; que la revisión, una
y otra vez, de nuestros planteamientos para buscarlos, a la luz de las publicaciones
de los diversos especialistas, también perfeccionará cada vez nuestra obra

11. EVALUACIÓN DEL PROBLEMA.

El plan de investigación debe incluir las razones justificatorias de su ejecución .Los


criterios para evaluar un problema son: importancia (teórica o práctica), novedad
(en contenido, en enfoque o en condiciones), interés por parte de los ejecutores y
factibilidad o posibilidad real de verificación empírica.

12. FUNCIONES
Moya (1994) lo considera: Hilo conductor del trabajo de investigación que
conduce desde el saber hacia el No saber

13. RELACIONES CON EL MARCO TEÓRICO

Todo el marco teórico es la base de la correcta formulación del problema pues


enlaza directamente la teoría científica con el problema científico.

14. RELACIONES CON LA HIPÓTESIS


Kerlinger (2002), sostiene que hay poca duda de que las hipótesis son instrumentos
importantes e indispensables de investigación científica. Para esta creencia hay tres
razones principales: Una, son, por así decirlo, los instrumentos de trabajo de la
teoría. La segunda razón es que las hipótesis pueden ser demostradas y pueden
demostrarse que son probablemente ciertas o probablemente falsas; los hechos
aislados no son probados, como dijimos anteriormente; sólo se prueban las
relaciones. Puesto que las hipótesis son proposiciones de la relación, ésta es
probablemente la principal razón de que se usen en la investigación científica.
Tercera, las hipótesis son poderosos instrumentos para el progreso de los
conocimientos, porque permiten al hombre salir de sí mismo. Aunque construidas
por el hombre, las hipótesis existen, pueden ser sometidas a prueba y puede
demostrarse que son probablemente correctas o incorrectas aparte de los valores y
las opiniones del hombre.
221

Tan importantes como las hipótesis son los problemas ocultos tras ellas. Como
señaló Dewey, la investigación generalmente comienza con un problema, con una
situación problemática. Dice Dewey que hay primero una situación indeterminada
en las que las ideas son vagas, se suscitan dudas y el pensador se muestra
perplejo. Agrega que el problema no es enunciado, realmente no puede ser
enunciado, hasta que uno ha experimentado tal situación indeterminada.

15. UTILIDAD E IMPORTANCIA

Virtudes de los Problemas y las Hipótesis


a) Dirigen la investigación. Las relaciones expresadas en las hipótesis dicen al
investigador,en realidad que ha de hacer. b); los problemas y las hipótesis, como
ordinariamente son expresiones de relación generalizada, permiten al investigador
deducir manifestaciones empírica-específicas inferidas de los problemas y las
hipótesis.

Hay importantes diferencias entre problemas e hipótesis. Estas últimas si se


expresan apropiadamente, pueden ser sometidas a prueba. Aunque una hipótesis
buena, pueden deducirse de ellas otras hipótesis demostrables. Los problemas y
las hipótesis hacen avanzar los conocimientos científicos ayudando al investigador
a confirmar o negar una teoría.

En resumen, el investigador que no supone una relación por anticipado no da a los


hechos la oportunidad de demostrar o negar algo. Si se compilan datos primeros y
luego se escoge un dato y se llega a una conclusión basándose en él, se han
violado las reglas del juego científico. Las hipótesis encarnan la teoría o parte de
ella, en forma demostrable o casi demostrable. Las hipótesis son entonces
importantes fuente entre la teoría y la investigación empírica.

Problemas, Valores y Definiciones


Para aclarar más la naturaleza de los problemas y las hipótesis, se expondrán
ahora dos o tres errores comunes. Primera, los problemas científicos no son
cuestiones normales y éticas.

Generalidad y Especificidad de Problemas e Hipótesis


Si el problema es muy general, suele ser demasiado vago y no puede ser
demostrado. Así, es científicamente inútil, aunque puede ser interesante leerlo.

El otro extremo es demasiado especificado. Todo estudiante ha piensa que es


necesario reducir los problemas a un tamaño práctico. Esto es cierto; pero por
desgracia, podemos también reducir el problema hasta suprimirle la existencia. En
general, cuanto más específico es el problema en la hipótesis, tanto más claras son
sus inferencias de demostración; pero la trivialidad puede ser el precio que
paguemos. Demasiada especificidad es quizá un peligro peor que demasiada
generalidad.

Definido el problema de investigación se asume como tarea inmediata la


formulación de la hipótesis. Estas son proposiciones tentativas que pretenden
explicar o resolver el problema. En este caso la hipótesis es un instrumento valioso
en el campo de la investigación científica en razón de que permite relacionar la
teoría con la observación de los hechos y viceversa (Gil y Alva, 1993)

ASPECTOS DE LOS PROBLEMAS A INVESTIGAR:


222

a) Descriptivo. f) Conflictivo.
b) Estructural. g) Evolutivo.
c) Funcional. h) Histórico.
d) Demográfico j) Genético.
e) Ecológico. k) Proyectivo.

Reflexión Científica
*Terremotos En base a: Conocimientos teóricos
*Destrucción de Ecosistemas Conocimientos empíricos
*Extinción de especies
*Destrucción de recursos naturales
*Crisis económica
*Deserción estudiantil USO DEL METODO CIENTIFICO
*Desempleo PROBLEMA CIENTIFICO
*Desnutrición
*Explosión demográfica
Contradicción entre lo conocido
y lo desconocido (Núcleo central
del problema de Investigación)
HECHOS REALES
OBJETIVOS
NO CIENTIFICOS

Hilo conductor del trabajo de investigación que conduce desde el


saber hacia el No saber

ES LA REFLEXION CIENTIFICA QUE EXPRESA LA CONTRADICCION


ENTRE EL SABER Y LA CONCIENCIA DEL NO SABER CUYA PRECISION
Y SOLUCION REQUIERE DE LA UTILIZACION DEL METODO CIENTIFICO

Observaciones Concluyentes Poder Especial de las Hipótesis

A veces, se oye decir que las hipótesis son innecesarias en la investigación, que se
las restringe innecesariamente a la imaginación investigadora, que la tarea y la
ciencia y la investigación científica es hallar cosas y no insistir en lo obvio, que las
hipótesis son obsoletas, etc. Tales afirmaciones son muy engañosas. Conciben
erróneamente el objetivo de las hipótesis.

Casi puede decirse que las hipótesis es el instrumento más poderoso que ha
inventado el hombre para alcanzar conocimientos fidedignos. El hombre observa un
fenómeno. Especula sobre las causas posibles. Naturalmente, su cultura tiene una
multitud de respuestas para explicar la mayor parte de los fenómenos, muchas
correctas, muchas incorrectas. Sus dudas son sistemáticas. Insiste en someter las
explicaciones de los fenómenos a prueba empírica controlada. Para lograrlo, debe
223

formular explicaciones susceptibles de prueba empírica controlada. Formula las


explicaciones en forma de teorías e hipótesis. El científico simplemente disciplina la
cuestión escribiendo hipótesis sistemática y comprobable. Si una explicación no
puede ser formulada en forma de una hipótesis comprobable puede ser
considerada entonces como una explicación metafísica y no susceptible de
investigación científica. Como tal, es negada por el científico como carente de
interés.

Sin embargo, el poder de las hipótesis va más allá de esto. Una hipótesis es una
predicción. Dice que si ocurre X, ocurrirá también Y. Las hipótesis son parte de las
reglas del juego. Aunque las hipótesis no sean confirmadas tienen poder; pero el
científico no puede distinguir lo positivo de lo negativo, a menos que use hipótesis.
Es posible conducir una investigación sin hipótesis, particularmente en las
investigaciones de exploración; pero es difícil concebir la ciencia moderna en toda
su rigurosa y disciplinada fertilidad sin la guía poderosa de las hipótesis.

OBJETIVOS

Definición
Son puntos de referencia que guían el desarrollo de la investigación y a cuya
consecución se dirigen todas las acciones. Son los móviles o propósitos de la
investigación que permiten orientar las actividades del investigador hacia la
ejecución de los mismos, prefigurando el enfoque epistémico - metodológico, el
proceso de análisis y la formulación de las hipótesis.

Los objetivos se establecen en coherencia con la selección y las limitaciones del


problema, con la finalidad de precisar la relación que deben tener con el título de la
investigación y la hipótesis de trabajo. Deben ser claros y precisos, a fin de ser
comprendidos no sólo por el investigador que los formula sino también por otras
224

personas. Su contenido determina el carácter de la investigación (básica o


aplicada) y las variables de la hipótesis.

Clases
Los objetivos se clasifican en:
Generales
Son los que persiguen propósitos últimos. El logro de estos objetivos es paulatino,
en algunos casos, no son detectados con facilidad. Su formulación responde a la
selección general del problema, por eso, las metas son cuantificadas o descritas
con mayor detenimiento.

Específicos
Son los que logran propósitos concretos. Establecen metas cualitativas
(descriptivas) y cuantitativas (físicas) en un determinado período de tiempo. Para el
establecimiento de dichas metas, estos objetivos deben tener tres elementos
distintivos:
a. La especificación de índole cualitativa y/o cuantitativa.
b. La fijación del tiempo o plazo en que serán alcanzados.
c. La decisión o voluntad de ejecutarlos en el lapso fijado.
Secuenciales
Son objetivos que sirven para alcanzar otros. Se dividen en intermedios y finales.
Los primeros logran propósitos que fluctúan entre los específicos y los finales y los
segundos, cumplen el papel de los fines. De estos objetivos se derivan los
específicos que representan el desglose de la finalidad en distintos aspectos del
problema de investigación.

Para plantear cualquiera de estos objetivos, el investigador tiene que formular


muchos de ellos y escoger los que más se adecuan a la naturaleza del objeto de
estudio. Cada objetivo, evalúa los propósitos a lograrse, considerando factores de
tiempo, recursos humanos y financieros, acceso a laboratorios y a distintas fuentes
bibliográficas. Para el efecto, deben ser precisos para evitar confusiones o posibles
desviaciones de las intenciones reales de la investigación, coherente con los
métodos, las técnicas y las estrategias consideradas para la ejecución del proyecto
y estar orientadas a:

i). Identificar los factores que condicionan la realidad.


ii) Jerarquizar las causas que originan el problema de investigación.
iii) Establecer un punto de referencias para evaluaciones de los cambios de
actitudes de la población y las implicancias en la estructura social.
iv) Lograr la comprobación de las hipótesis formuladas.
v) Obtener una base para la programación posterior de investigaciones de
trascendencia social.
vi) Ofrecer información para contribuir a la investigación de otros problemas.

Además de estas características generales, cada objetivo tiene las propias. Los
generales, tienen que ver con el desarrollo social, con las finalidades de la ciencia,
la tecnología y la filosofía en los términos más amplios, en consecuencia, tienen la
misma orientación. Los específicos indican de una manera concreta lo que se va a
investigar en un período de tiempo, por eso, siempre son de número reducido.

Objetivos de la investigación (Hernández 1991)


225

Una vez planteada la situación existente es posible definir más específicamente lo


que se piensa indagar .Se tendrá presente que una investigación posee dos tipos
de objetivos: unos internos, o propios de la investigación, los cuales expresan la
duda o las dudas que se espera despejar; y otros externos que se derivan de las
razones que originaron el estudio. Es obvio que son los primeros los que más
interesa formular.

EL MARCO TEORICO

CRITERIOS PARA SU ELABORACIÓN

Función de precisar y organizar ideas y conceptos contenidos en la


presentación y justificación del problema y convertirlos en acciones concretas.

El marco teórico se formula sobre la base de teorías que sustentan el


problema o de otras como políticas, pedagógicas, sociológicas y filosóficas.

El marco conceptual implica la definición de términos básicos y también


conceptos con significados específicos que necesitan darles acepciones distintas a
las de uso común, cuando se toma un término de un texto determinado se debe
226

utilizar las formas de citas adecuadas que más adelante se explican: Sin embargo
en algunas ocasiones el investigador se ve obligado a crear conceptos y
definiciones para explicitar términos que faciliten la lectura y comprensión de los
fenómenos que se estudian. Estos deben definirse cuidadosamente y de ser
posible operacionalmente.

El marco empírico debe ser congruente con los conocimientos


comprobados previamente y relacionados con el problema en estudio, datos que
generalmente son reportados en revistas.

Estos tres aspectos constituyen los antecedentes pues no existe campo del
conocimiento completamente nuevo por lo que se sugiere para elaborar esta
sección la revisión de la literatura en forma sistemática y racional empezando por
las obras más generales, recientes y sencillas y seguir hacia las más específicas,
antiguas y complejas.

En este aspecto se deben tomar en cuenta las formas de cita bibliográfica


usada para mencionar las referencias considerando reglas, estilos y sistemas. Las
reglas fundamentales son: i) enumerarse sólo obras y reportes importantes y
publicados, ii) cotejar todas las partes de cada referencia con las publicaciones
originales inclusive antes de presentar el manuscrito. En los estilos se debe
reconocer que hay gran variedad. Un ejemplo de ellos es el mencionado por
O’Connor que en 1978 en Estados Unidos revisó 53 revistas y encontró 33 estilos
diferentes.

Se consideran en este aspecto tres sistemas principales de citas


bibliográficas:

a. Sistema de nombre y año (Sistema Harvard): en él se escribe el


apellido del autor seguido del año de publicación entre paréntesis según los
ejemplos siguientes

Si se trata de un autor: Vásquez (1995); si el mismo autor en el mismo año


tiene mas de una publicación la cita seria del modo siguiente: Vásquez (1995a) y
Vásquez (1995b).
Si se refiere a dos autores; la cita sería del modo siguiente:

Vásquez y Romero (l995) agregándose las letras a, b ó c si se refiere a los


mismos autores que hayan reportado mas e una publicación en el mismo año.

Si se cita a tres autores en la primera vez se mencionan los apellidos


paternos de los dos primeros separados por coma y se cita el apellido del tercer
autor seguido del año de publicación entre paréntesis. Por ejemplo: Vásquez,
Romero y Díaz (l996) y si se les vuelve a citar se refiere el primer autor seguido de
el vocablo latino “et al”; por ejemplo:

Vásquez et al., (l996).


Si se cita a cuatro autores sólo se indica el apellido del primer autor seguido
de et al desde la primera vez, por ejemplo: Vásquez et al., (1997) considerando los
mismos criterios si se trata de mas de una publicación hecha en el mismo año.

b. SISTEMA NUMERICO ALFABETICO:


227

Los que usan este estilo deben citar el texto y al final del mismo indicar el
número entre paréntesis el mismo que debe coincidir con el orden que los autores
se reportan en referencias. Por ejemplo:

Ante la comprobada sobre mortalidad de las niñas en algunos países en


desarrollo, se han postulado dos grandes tipos de hipótesis para explicar el
fenómeno (20).

Si se quiere puntualizar o resaltar al autor o autores deben indicarse éstos


seguido del número entre paréntesis que le corresponde en referencias, por
ejemplo:

Con datos de la Encuesta Mundial de Fecundidad para ocho países, Maine


(25) estimó que en América Latina y el Caribe se puede prevenir un 33% de las
defunciones maternas evitando los embarazos no deseados.

Si se quiere resaltar el año de publicación se debe redactar el texto con las


consideraciones pertinentes seguidas del año de publicación y el número entre
paréntesis escrito al final del texto y que le corresponde en referencias, por ejemplo:

Con datos de la Encuesta Mundial de Fecundidad para ocho países, Maine


en 1991(25) estimó que en América Latina y el Caribe se puede prevenir un 33% de
las defunciones maternas evitando los embarazos no deseados.

c. SISTEMA DE ORDEN DE MENCION:

En este caso se deben citar las referencias por número según el orden en el
que se mencionan en el texto, es un sistema adecuado en publicaciones que tienen
pocas referencias o citas y la presentación no es alfabética al respecto es necesario
destacar que se han establecido requisitos uniformes para la preparación de
manuscritos que se proponen para escritos biomédicos. Este es conocido también
como el Sistema Vancouver. Y está de acuerdo con las normas ANSI (American
National Standars Institute)

En el campo de las ciencias Biomédicas existen muchas discrepancias, sin


embargo en el campo específico de las Ciencias Biológicas las reglas y estilos del
Council of Biology Editors Style Manual(1983) sugiere el sistema numérico
alfabético y se ratifica incluso en las ediciones de l983 y l987 hechas por Salvat
Editores(l987) en idioma Español.

Bibliografía
The Chicago Manual of Style(1982) que es la Biblia de la mayor parte de la
comunidad editoras de obras académicas sigue respaldando con claridad las citas
ordenadas alfabéticamente. La forma mas práctica y útil de ordenar las entradas de
una lista de referencias o de una bibliografía es seguir el orden alfabético por
autores ya sea en toda la lista o en cada una de sus secciones
.
Hutt (1986) en su obra Medical Style and Format se nuestra a favor del estilo
Filadelfia.

Practica 08: MARCO TEORICO


228

INTRODUCCION

El marco teórico proporciona el contexto para examinar un problema, es la


fundamentación científica. La formulación del marco teórico es un proceso que se
inicia simultáneamente al planteamiento del problema y de los objetivos, lo cual
significa sustentar debidamente el problema en un cuerpo de conocimientos. Esto
implica analizar y exponer aquellos elementos teóricos que se consideren
pertinentes para guiar la investigación, así como las ideas conceptos y experiencias
que tengan sobre el problema los investigadores.

Las enfermeras, como profesionales que utilizan la investigación, necesitan


aprender a apreciar de manera crítica las bases teóricas de la investigación. El
siguiente laboratorio tiene el propósito de ayudar en este proceso.

COMPETENCIA
Analiza de manera crítica el marco teórico que sustenta el problema científico
propuesto en el proyecto de investigación demostrando actitud de apertura al juicio
crítico.

CAPACIDADES
– Emite juicio crítico sobre el marco teórico que sustenta la investigación
propuesta.
– Emite juicio crítico sobre el marco conceptual del investigador expuesto en el
proyecto de investigación.
– Analiza el marco empírico que respalda la investigación propuesta.

ACTITUDES
– Respeta el punto de vista de los demás
– Trabaja en equipo demostrando responsabilidad

PROCEDIMIENTOS
1- Lectura silenciosa de material alcanzado.
2- Formar tres grupos de cuatro a cinco participantes y revisar según la asignación
del profesor la parte correspondiente en cada uno de los proyectos del grupo al
que pertenece.
- Sub grupo 1: Marco teórico.
- Sub grupo 2: Marco conceptual.
- Sub grupo 3: Marco empírico.--
3- En reunión a nivel de grupo compartir con los demás compañeros sus
conclusiones y sugerencias
229

HIPÓTESIS

Desde la perspectiva de Kerlinger (1975), la hipótesis es una expresión


conjetural de la relación entre dos o más variables. Las hipótesis aparecen siempre
en forma de oración afirmativa y relacionan, generalmente o específicamente,
variables con variables. Hay dos criterios para hipótesis “buenas” y expresiones
hipotéticas. Son idénticas a las de problemas; i) las hipótesis son expresiones de
las relaciones entre variables; ii) las hipótesis tienen claras inferencias para probar
las relaciones expresadas. Estos criterios significan entonces que las expresiones
hipotéticas contienen dos o más variables que son mensurables o potencialmente
mensurables o que especifican como se relacionan las variables. Una expresión
que carece de una u otra de estas características, o de ambas, no es hipótesis en el
sentido científico de la palabra.

Planteado el problema científico, la tarea siguiente es esbozar una


respuesta tentativa que permita obtener una solución adecuada y dentro de
contextos lógico-epistemológicos.

Desde los siglos XVII y XVIII, se ha debatido intensamente acerca del valor
de las hipótesis en el conocimiento científico y en esa época sólo se las evaluaba
230

desde un punto de vista estrictamente lógico como silogismo hipotético, En los


siglos XIX y XX su importancia aumentó pues se les atribuye la función de
facilitación; utilidad y practicabilidad en el conocimiento científico.

Desde el punto de vista epistemológico la palabra hipótesis, deriva de dos


voces griegas: hipo que significa bajo y tesis que significa posición y su
interpretación es que es una explicación supuesta que está bajo ciertos hechos a
los que sirve de soporte (Escalante, 1988). Desde el punto de vista genérico se
define hipótesis científica como una proposición general enunciada para responder
tentativamente a un problema (Pardinas 1973); es decir un a solución anticipada del
problema por lo tanto es solamente una conjetura que necesita ser comprobada por
medio de la experimentación. Desde otro punto de vista se define hipótesis como la
respuesta que da el investigador a la interrogante enunciada en su problema o para
explicar un fenómeno. La hipótesis es un enunciado conjetural, una proposición
provisional sobre la relación que hay entre dos o más variables o fenómenos.

Respuesta
¿  anticipada

PROBLEMA Hipótesis
CIENTIFICO Científica
FUENTES DE UNA HIPOTESIS CIENTIFICA:

1. Del conocimiento científico previo; es decir la teoría; toda hipótesis no


puede partir de suposiciones desligadas al conocimiento científico y debe fundar
sus respuestas tentativas con argumentos que articulen el conocimiento científico
existente. Por un proceso deductivo se llega a la predicción de que si estas
premisas son ciertas se darán determinados resultados.

2. De la observación de los hechos y sus relaciones; la ciencia es el


estudio de las realidades contrastables por la experiencia y si se toma en cuenta la
observación de hechos y se trata de establecer relaciones causa efecto, la
posibilidad de esbozar hipótesis a partir de estas relaciones es fundada si se abarca
científicamente.

3. De la observación empírica disponible, considerada la información


empírica como investigación experimental, ésta es una fuente confiable que
permitiría formular hipótesis sobre bases científicas y comprobadas de modo tal que
las proposiciones enunciadas sean confiables.

4. De los resultados de otros estudios donde se desee volver a


verificar; el conocimiento científico nunca se agota y el método científico es un
continuo planteamiento de problemas e hipótesis, los que basados en resultados ya
obtenidos someten su pretensión de verdad a verificación empírica.

FUNCIONES DE LAS HIPÓTESIS


231

1. ORIENTA LA INVESTIGACIÓN ; La hipótesis da una dirección determinada a


la investigación, concentra las actividades del investigador a la solución del
problema; es decir define una dirección en la investigación eliminando distorsiones
y el azar en el proceso de investigación científica.

2. DELIMITA LA INVESTIGACION; formulada correctamente la hipótesis el


investigador se concentra en fundamentarla y comprobarla dejando de lado
cualquier otra; señala los alcances y límites de la investigación científica.

3. PROPONE EL DISEÑO DE CONTRASTACION ; adecuadamente formulada la


hipótesis, el investigador orienta sus acciones a desarrollar métodos, técnicas y
procedimientos que permitan comprobarla con eficacia y validez.

4. ESTIMULA LA INVESTIGACIÓN; si la hipótesis planteada para resolver un


problema es aceptada y comprobada se transforma en una ley científica y orienta a
la obtención de nuevo conocimiento científico que servirá de fuente para la
formulación de nuevos problemas y si es rechazada dará lugar al planteamiento de
nuevas hipótesis; en ambos casos tanto para lo positivo como para lo negativo, el
investigador sería motivado para realizar nuevas y mejores investigaciones.

ELEMENTOS DE UNA HIPOTESIS


Los elementos estructurales de una hipótesis científica son:
1. UNIDADESDE ANALISIS; que pueden ser individuos, grupos, objetos,
instalaciones, etc.

2. VARIABLES, definidas como las características o propiedades cualitativas


o cuantitativas que presentan las unidades de análisis.

3. LOS ELEMENTOS LOGICOS; que relacionan las unidades de análisis con


las variables y éstas entre sí.

Dada la hipótesis:

Cuanto mayor es el uso de agroquímicos en los terrenos de cultivo de la


zona de Lambayeque; tanto mayor será la contaminación originada por los restos
de su degradación en los organismos vivos y en el ecosistema.
Las unidades de análisis son:
*Terrenos de cultivo de la zona de Lambayeque.
*Organismos vivos y el ecosistema

Las variables son:


*Factor causal (variable dependiente) : uso de agroquímicos
*Variable dependiente (Efecto) : contaminación por restos de agroquímicos.

Los términos lógicos son:


*Cuanto mayor es
*Tanto mayor será

CLASES DE HIPOTESIS:
1. SEGÚN SUS RELACIONES:

1.1.Hipótesis inductivas:; cuando se formulan a partir de relaciones


observadas entre las características de una realidad.
232

Ejemplo: Los niños que han recibido instrucción preescolar alcanzarán un


nivel más alto en el primer grado que aquellos que no han recibido instrucción
preescolar.

1.2. Hipótesis deductivas; cuando una hipótesis se formula a partir de una


teoría científica:
Ejemplo

2. SEGÚN SU FUNCION

2.1. HIPOTESIS DESCRIPTIVAS; aquellas referidas a la existencia, la


estructura, el funcionamiento, las relaciones y los cambios de ciertos fenómenos.

Ejemplo:

2.2. HIPOTESIS EXPLICATIVAS; son suposiciones tentativas acerca de los


factores que serían tentativas acerca de los factores que serían la causa de los
fenómenos estudiados.

Ejemplo:

HIPOTESIS

PROBLEMA HIPOTESIS
(La pregunta) (Suposición
Probable)

MARCO TEORICO
Informacion empirica

1. Forma de desarrollo de las ciencias


(Provisional pero probable)
233

2. Respuesta probable frente al problema científico

*0 Sistema de conocimientos de carácter complejo y sintético

 Tiene como fundamento el conocimiento científico

 Tiene como núcleo central a la suposición

Origen:

1. En el mismo planteamiento del problema

2. Antes es una conjetura (suposición inicial todavía no investigada)


(Eslabón importante en el proceso de Investigación)

3. Se perfila y desprende del marco teórico.

Componentes:

1. Conocimientos verdaderos (Conocimientos científicos verificados o


fidedignos), bases para la hipótesis ; pero no su esencia)

2. Conocimientos probables (fundamentada en el conocimiento científico


pero NUEVO)

3. La suposición, articula los conocimientos científicos con los


conocimientos probables considerada el Alma de la Hipótesis

CONOCIMIENTOS
PROBABLES
(NUEVOS)

SUPOSICION HIPOTESIS
234

CONOCIMIENTOS VERDADEROS
(CIENTIFICOS, PROBADOS Y
FIDEDIGNOS)

EVALUACION DE LAS HIPOTESIS

En este aspecto se debe evaluar si realmente la sistematización de las


hipótesis obedece a criterios esbozados por autores de reputación tales como
Kopnín (1966) que señala que las hipótesis constituyen el camino indispensable
para el descubrimiento de las leyes, para la creación de teorías fidedignas.

La mayoría de concepciones sobre la hipótesis es que es una respuesta


probable frente al problema o una solución adelantada que se hace sobre la base
de conocimientos teóricos y empíricos de carácter complejo y sistemático que se
organiza especialmente para explicar el problema que se investiga y que es núcleo
central de la suposición.

Se debe considerar además que las hipótesis tienen su nacimiento con el


mismo planteamiento del problema. Moya (1994) afirma que: el comienzo de lo
nuevo aún desconocido en el problema significa que él señala la dirección hacia la
cual apuntará la investigación para encontrar el nuevo conocimiento que se busca
y su entorno. Igualmente se resalta de la literatura que el conocimiento probable
antes de ser hipótesis es una conjetura; es decir cuando el investigador lanza su
primera respuesta frente al problema planteado aún sin argumentaciones
teóricas ni empíricas, es decir una suposición inicial, cuyos fundamentos teóricos y
empíricos aún no se conocen, sin embargo se debe considerar que este es un
eslabón importante en el proceso de la investigación mas adelante a medida de que
se nutre de l conocimiento científico teórico y empírico se llega a la formulación de
la hipótesis de investigación.
235

De lo expuesto anteriormente se afirma que la hipótesis se perfila y


desprende del marco teórico ya que éste le da el soporte necesario y el encuadre a
la suposición y por otro enunciar una explicación probable a la exigencia de la
interrogante algunos autores consideran que los conocimientos de las hipótesis: los
conocimientos verdaderos; los conocimientos probables y la suposición
conllevan a definir que la suposición es considerada como el alma de las
hipótesis.

Es indudable que existe una estrecha correlación entre hipótesis y problema


generalizándose que se integran en un sistema, una totalidad y que en el proceso
de investigación se establece una lógica de hipótesis a problema.

En esta fase se debe evaluar si el planteamiento de la hipótesis se hace


sobre la base de su fundamentación teórica y empírica como una respuesta
probable al problema y considerar los criterios siguientes:

1. Que la respuesta probable al problema sea precisa; es decir relevar,


poner en primer plano, a la suposición que originará la hipótesis.

2. Que sea científicamente fundada, es decir, garantizada por suficientes


conocimientos teóricos y empíricos

3. Que sea factible de comprobación o verificación

4. Que establezca relaciones entre variables.

5 Que sea lógicamente coherente con el conjunto del proyecto,


particularmente, con el problema y el marco teórico, lo que se obtiene en la práctica
verificando que la hipótesis responda al problema; que las ideas contenidas en ellas
no sean contradictorias.

6. Que los enunciados sean claros y precisos con el uso adecuado del
lenguaje científico.

Es importante además identificar las variables del objeto en estudio y en


una investigación de tipo experimental considerar que la variable independiente
es la causa, es el estímulo; y es aquella que el investigador puede controlar o
manipular en función de lo que pretende obtener como resultado exacto y confiable
(VICAES) y que en el enunciado de la hipótesis constituye el sujeto de la oración,
igualmente identificar la variable dependiente considerada como el efecto de la
variación de la variable independiente (VADEF) y que en el enunciado es el
predicado o el criterio

En este mismo proceso identificar las variables intervinientes las que deben
ser controladas para “evitar”su acción en el experimento. De una adecuada
identificación de las variables dependerá su operacionalización y por lo tanto la
selección de los indicadores pertinentes.

Por un proceso deductivo seleccionar las consecuencias lógicas permitirá


establecer un diseño lógico adecuado y posteriormente un diseño experimental de
acuerdo a los criterios expuestos por Campbell y Stanley(1979); Sánchez y
Reyes(l987); Goode y Hatt(1986) y otros que definan adecuadamente el proceso de
236

contrastación de las hipótesis en términos de fácil comprensión y explicación que


posteriormente permitirá establecer todo el diseño metodológico.

“Los tiempos son tres: Presente de las cosas


asadas, presente de las cosas presentes y
presente de las cosas futuras”
San Agustín

DISEÑOS DE CONTRASTACION DE HIPOTESIS


EN INVESTIGACIÓN CIENTÍFICA
Como conductores de trabajos de investigación y de la enseñanza de Metodología
de Investigación Científica para estudiantes y profesores, con frecuencia nos hemos
encontrado con situaciones de no identificar el tipo de investigación que estaban
desarrollando constituyendo una traba para la planificación del Proyecto de
Investigación, particularmente en sus aspectos de Hipótesis y el correspondiente
Diseño de Contrastación de la Hipótesis.

En tal sentido, frente a esta situación se ha desarrollado el presente documento que


tiene por finalidad informar sobre los diferentes DELINEAMIENTOS
EXPERIMENTALES, que se pueden aplicar en la formulación del Proyecto de
Investigación. Para el efecto se presentan los esquemas presentados por Sánchez
y Reyes (1985), Ary, Jacobs Y Razavich (1982) y, Goode y Hatt (1986); los mismos
que esencialmente están basados en Campbell y Stanley (1979), teniendo en
cuenta sus consideraciones originales, a fin de que cada investigador pueda elegir
el más apropiado de acuerdo a sus necesidades, pero garantizando su validez
interna y generalización de su esquema.
237

El presente acapite no pretende ser un recetario dogmático; sino un orientador en el


sentido de que la buena investigación depende de la agudeza, invención y
perspicacia del investigador. Así pues en algunas ocasiones se podrán aplicar una
mezcla de delineamientos, no coartando la originalidad y libertad de pensamiento
del investigador; también cada investigador, dentro de las normas de buen sentido y
de los principios de coherencia, podrá diseñar su propio modelo, surgido más por el
problema estudiado o por el contexto en que se halla inmerso, que de los criterios
apriorísticos.

Esperamos una crítica constructiva para mejorar el documento, a pesar de que hay
un grupo de casta estéril de científicos hipercríticos que, además de no producir
nada en el campo de la Metodología de la Investigación Científica, se mantienen en
un estado insomne a la espera de que, al surgir cualquier trabajo, le pueda sacar
algún desaire.
238

DISEÑOS DE INVESTIGACIÓN
DISEÑO es una estructura u organización esquemática que adopta el investigador
para relacionar y controlar las variables de estudio; cuyo objetivo es imponer
restricciones controladas a las observaciones de los fenómenos.
Implica pasos que se deben seguir en la solución de problemas para poder
encontrar las posibles soluciones del mismo. Cumple dos funciones básicas y
prioritarias:
1. Permite hacer las comparaciones necesarias requeridas para las hipótesis de la
investigació
2. Capacita al investigador a través del análisis estadístico de los datos, para hacer
las interpretaciones significativas con relación a los resultados del estudio.

1. DISEÑOS DESCRIPTIVOS
No se pueden considerar propiamente diseños; pero pueden ser tratados como
tales porque proporcionan al investigador guías u orientaciones para la realización
de un determinado estudio. No se presenta la administración o control de un
tratamiento. Se corresponden con el tipo de Investigación Descriptiva.
INVESTIGACIÓN DESCRIPTIVA SIMPLE
Se busca y recoge información respecto a una situación previamente determinada
(objeto de estudio). No se supone la influencia de variables extrañas, obteniéndose
solamente la información que proporciona la situación. El diagrama o esquema del
diseño puede ser:
M O M= muestra con quien se va a realizar el estudio.
O= información relevante o de interés que se recoge de la
muestra.

INVESTIGACIÓN DESCRIPTIVA COMPARATIVA


Se buscan de varias muestras con respecto al mismo fenómeno y luego se
caracteriza a este fenómeno en base a la comparación de los datos recogidos,
en la totalidad de ellos en alguna categoría.
M1 O2 M1 M2 M3 = cada una de las muestras
M2 O3 O1 O2 O3 = Información (observación) recolectada en
cada muestra.
M3 O3 O1= O2 = O3 Comparaciones en cada una de las muestras.
239

INVESTIGACIÓN CORRELACIONAL
Está interesada en la determinación del grado de relación entre dos o más
variables de interés en una misma muestra o el grado de relación entre dos
fenómenos observados.

INVESTIGACIÓN CAUSAL COMPARATIVA


Se recolecta información de dos o más muestras con el propósito de observar el
comportamiento de una variable, tratando de controlar estadísticamente otras
que pueden afectar la variable estudiada 8variable dependiente).
M1 O1X M1 y M2 = muestras
x = variable controlada estadísticamente
M2 O2X O1 y O2 = observaciones o mediciones realizadas.

INVESTIGACIÓN LONGITUDINAL
Se toma una muestra de sujetos la misma es evaluada en distintos momentos
en el tiempo y por un periodo bastante largo.

INVESTIGACIÓN TRANSVERSAL
Estudia a los sujetos de diferentes características (edades) en un mismo
momento.

2. DISEÑOS EX – POST FACTO


También hace referencia a un tipo de investigación en el cual el investigador no
introduce ninguna variable experimental en la situación que desea estudiar. Por el
contrario solo examina los efectos que tiene una variable que ha actuado u ocurrido
de manera normal u ordinaria. Tampoco se presenta la administración o control de
un tratamiento, sino se asume que la variable independiente ya ha actuado u
ocurrido, limitándose a señalar las posibles relaciones con (efectos sobre) la
variable dependiente. Se genera cuando se trata de responder a interrogantes:
¿Cuál es el factor contribuyente en una determinada situación?, ¿Qué efecto tuvo o
ha tenido un determinado factor en los organismos?, ¿Cuáles son las
características que distinguen a un grupo de otro? Estos diseños también se
corresponden con el tipo de Investigación Descriptiva.

DISEÑO CO – RELACIONAL:
240

Implica la recolección de conjuntos de datos de dos o más grupos de sujetos


con la intención de determinar la subsiguiente relación entre los conjuntos de
datos.
O1 O2 O1 = conjunto de datos observado de un grupo.
O2 = conjunto de datos observados del otro grupo.

DISEÑO DE GRUPO CRITERIO


Se utiliza cuando se está interesado en la operación de hipótesis que es lo que
causa o produce una condición o estado peculiar. A menudo se inicia con la
contrastación de un estado que se opone al estudiado.
(X) O1 (X) = variable experimental no manipulable.
O2 O1, O1 = conjunto de datos observados de uno y otro
grupo.

3. DISEÑOS EXPERIMENTALES
Es un tipo de investigación en el cual el investigador introduce alguna variable
experimental en la situación que desea estudiar; la variable independiente es
manipulable, es decir que puede ser introducida en una situación y observar sus
variaciones. El experimento es el método de investigación más refinado con que se
verifican las hipótesis. Los diseños experimentales son univariados.
X = tratamiento experimenta (variable independiente)
O = observación o medición
A = factores de selección controlados por aleatorización
----- = grupos intactos, control incompleto del sesgo o influencia del factor de
selección
X1, X2, X3 = tratamiento experimental 1, 2, 3.
O1, O2, O3 = observación o medición 1, 2, 3.
Ap = grupos seleccionados por apareamiento

3.1 DISEÑOS PRE - EXPERIMENTALES


No tienen la capacidad de controlar adecuadamente los factores que
influyen contra la validez interna y validez externa.

3.1.1 Diseño de un solo grupo después:


241

Se aplica un tratamiento a un grupo y luego se hace la observación en los


sujetos que componen el grupo, con el fin de evaluar los efectos del tratamiento.
Falta grupo control.
X O
3.1.2 Diseño de Pre – Test y Post – Test con un solo grupo:
No usa grupo control. Implica la realización de tres fases:
- Una medición previa de la variable a ser estudiada
- Introducción de la variable experimental a los sujetos
- Una nueva medición de la variable.
O1 X O2
3.1.3 Diseño de comparación de grupos solo después:
Hace uso de un control, el mismo que no recibe el tratamiento experimental.
Los grupos que intervienen no son seleccionados, pues ya están formados.
X O1
---------------
O2

3.2 DISEÑOS CUASI EXPERIMENTALES


Controlan algunas, aunque no todas, las fuentes que amenazan la validez.
Son más adecuados que los Diseños Pre - Experimentales. Se emplean en
situaciones en las que es difícil o casi imposible el control experimental riguroso.

3.2.1 Diseño de Series de Tiempo


Se realizan mediciones periódicas de la variable dependiente en un solo
grupo, antes de la aplicación de la variable independiente, y luego de dicha
aplicación se efectúan nuevas mediciones.
O1 O2 O3 O4 X O5 O6 O7 O8

3.2.2 Diseño de Muestras Equivalente en el Tiempo


Similar al diseño anterior. La variable experimental se aplica varias veces al
grupo y su aplicación se alterna con períodos de aplicación.

X1 o1 XO O2 X1 O3 XO O4

3.2.3 Diseño con Grupo Control no equivalentes:


242

Se aplica cuando se tiene dos grupos formados. Se evalúa la variable


dependiente en ambos, luego a uno de ellos se aplica el tratamiento experimental y
el otro sigue las tareas de rutina.
O1 X O2
---------------------
O3 O4

3.2.4 Diseño Contrabalanceado:


Se aplica también cuando los grupos están formados, pero todos los sujetos de cada grupo
pasan por las mismas condiciones experimentales, aunque en distinta secuencia.
Replicaciones X1 X2 X3 X4
1 Grupo A B C D
2 Grupo C A D B
3 Grupo B D A C
4 Grupo D C B A
MEDIA MEDIA MEDIA MEDIA

3.2.5 Diseño de Muestras Separadas


Es la repetición, por dos veces, del diseño pre – experimental de un solo
grupo antes y después. Se produce porque la variable independiente no se puede
aplicar a todos los sujetos al mismo tiempo.
O1 X O2
-----------------------------------------
O3 X O4

3.2.6 Diseño Arreglado:


Resulta de la combinación de diseños pre- experimentales, ninguno de los cuales
por si mismos son adecuados para la investigación, pero que combinados pueden
satisfacer ciertos requerimientos.
GRUPO A X O1
------------------------------
GRUPO B O2 X O3

3.3 DISEÑOS EXPERIMENTALES PROPIAMENTE DICHOS


Proporcionan el control adecuado el control adecuado de las posibles fuentes que
atentan contra la validez interna. Variable experimental €, Grupo Control ©
243

3.3.1 Diseño de Grupo Control sólo después:


Requiere de dos grupos de sujetos que previamente han sido seleccionados
aleatoriamente a cada uno de ellos. Después de proceder a aplicar el tratamiento a
uno de los grupos, se evalúa a ambos.
E A X O1
C A O2

3.3.2 Diseño de dos grupos apareados sólo después:


E proceso de selección se realiza a través del apareamiento. El tratamiento
es aplicado a cada uno de los sujetos del grupo experimental y luego se procede a
evaluar la variable a ambos.
E Ap X O1
C Ap O2

3.3.3 Diseño de dos grupos Pre y Post Test:


La selección de los sujetos para cada grupo se realiza en forma aleatoria. La
variable dependiente es medida antes y después de la aplicación del tratamiento.
E A O1 X O2
C A O3 O4

3.3.4 Diseño de cuatro grupos de Solomón:


La selección de los sujetos es aleatoria. Al primer y segundo grupo se les efectúa
una medición antes de la aplicación del tratamiento, al tercer y cuarto grupo solo
después de la aplicación:
C A O1 X O2
E1 A O3 O4
E2 A X O5
E3 A X O6

3.4. DISEÑOS FACTORIALES


Estudia el efecto simultáneo de diversas variables (factores) en una misma
situación. Se manipulan en forma simultánea dos o más variables independientes, a
fin de analizar su efecto independiente que cada una de ellas produce en la variable
dependiente, así como los efectos conjuntos debido a las interacciones entre las
244

diversas variables; en este sentido estos diseños experimentales factoriales son bi y


multivariados.

3.4.1. DISEÑO FACTORIAL SIMPLE:


Es un diseño que tiene dos variables independientes y en donde cada variable tiene
dos valores o condiciones (niveles), cada una de las cuales se combinan: 2 x 2.
Variable experimental X1
VARIABLE ATRIBUTIVA X2 TRATAMIENTO A TRATAMIENTO B
Nivel 1 Celda 1 Celda 3
Nivel 2 Celda 2 Celda 4
3.4.2. OTROS DISEÑOS FACTORIALES:
Pueden ser construidos teniendo en cuenta el número de variables y el número de
categorías de cada uno de ellos. En un diseño factorial 2 x 3 x 4 hay tres variables
independientes con dos, tres y cuatro niveles respectivamente.

MÉTODOS DE INVESTIGACIÓN

1. INVESTIGACIÓN EXPERIMENTAL
Los EXPERIMENTOS constituyen la forma más rigurosa y más deseable de la
INVESTIGACIÓN CIENTÍFICA. El control es la esencia del Método Experimental.
Las condiciones controladas que caracterizan al experimento permiten identificar
relaciones funcionales y verificas entre los fenómenos que interesan a los
investigadores. Cuando se controlan las condiciones en que ocurre un evento se
tiene ventajas notables sobre los observadores, quienes se limitan a contemplar o
estudiar un fenómeno sin controlarlo; así, a) Pueden manipular o alterar las
condiciones de manera sistemática y anotar la variación en los resultados, b)
Disponen de los medios para hacer que acontezca un evento en un momento en el
que estén preparados para realizar observaciones y mediciones exactas. c) Pueden
repetir sus observaciones las mismas condiciones, lo cual les permite identificarlas
245

y además describirlas de manera que otros las apliquen y comprueben los


resultados. Sin embargo aunque la experimentación es la forma ideal de resolver
los problemas de los investigadores, se debe reconocer que hay muchas preguntas
importantes que no pueden resolverlas a través de ella; por lo que hacen falta otros
tipos de investigación.

1.1. DISEÑOS PREEXPERIMENTALES


Proporcionan un escaso control o nulo de las variables extrañas que influyen
contra la validez(1) interna(2) y validez externa(3)

1.1.1. DISEÑO DE UN GRUPO, CON PREPRUEBA Y POTPRUEBA


1.1.2. DISEÑO ESTATICO, DE DOS GRUPOS

1.2. DISEÑOS EXPERIMENTALES VERDADEROS


Son los más recomendables para la investigación debido al control que
proporcionan
1.2.1. DISEÑO DE DOS GRUPOS, ALEATORIZADOS Y SOLO CON
POSPRUEBA.
1.2.2. DISEÑO DE DOS GRUPOS APAREADOS ALEATORIAMENTE Y SOLO
CON POST PRUEBA
1.2.3. DISEÑO CON PREPRUEBA Y POSPRUEBA CON DOS GRUPOS
ALEATORIZADOS
1.2.4. DISEÑOS DE TRES GRUPOS DE SOLOMON
1.2.5. DISEÑO DE CUATRO GRUPOS CON SOLOMON

1.3. DISEÑOS FACTORIALES


Son aquellos en los que se manipulan simultáneamente dos o más variables
con el propósito de estudiar el efecto independiente que cada variable produce
en la variable dependiente; así como los efectos debido a interacciones entre
las diversas variables.
1.3.1. DISEÑO FACTORIAL SIMPLE
1.3.2. OTROS DISEÑOS FACTORIALES

1.4. DISEÑOS CUASI EXPERIMENTALES.


No brindan un control experimental absoluto; por lo que el investigador debe
conocer las variables que pueden ser controladas en forma absoluta; las
246

fuentes de invalidez tanto externa como interna y tomarlas en cuenta al hacer


las interpretaciones.
1.4.1. DISEÑO CON PRE Y POSTPRUEBA, CON GRUPO CONTROL NO
ALEATORIO
1.4.2. DISEÑO CONTRAEQUILIBRADO
1.4.3. DISEÑO DE SERIES TEMPORALES CON UN GRUPO
1.4.4. DISEÑO DE SERIES TEMPORALES CON GRUPO CONTROL.

2. INVESTIGACION EX – POST- FACTO


El diseño EX POST FACTO se utiliza cuando los investigadores no están en
condiciones de probar la hipótesis, asignando sujetos a diferentes condiciones en
que puede manipularse directamente la variable independiente. Cuando se desea
investigar la influencia de variables como el ambiente, la parasitosis, educación
sanitaria, ambiente familiar, conducta, etc., a estas variables se les denominan
ATRIBUTIVAS y designan una característica que el sujeto posee; al contrario una
variable ACTIVA es la que se puede manipular directamente. Cuando en una
investigación intervengan variables independientes activas se emplea la
investigación experimental, en tanto que si son atributivas debe recurrirse a una
INVESTIGACIÓN EX POST FACTO, (DEL LATÍN CON POSTERIORIDAD AL
HECHO). Los investigadores logran la variación que desean, no por manipulación
directa de la variable, sino seleccionando a los individuos en que la variable está
presente o ausente.
Investigación sistemática empírica, en la cual el científico no tiene control
directo sobre las variables independientes, porque ya acontecieron sus
manifestaciones o por ser intrínsicamente. Se hacen inferencias sobre las
relaciones de ellas, sin intervención directa, a partir de la variación
concomitante de variables independientes y dependientes. (1)
Considera solamente el DISEÑO GRUPO CRITERIO:
3. INVESTIGACIÓN DESCRIPTIVA
Los métodos de investigación descriptiva sirven para obtener información
acerca de las condiciones existentes del estado actual de los fenómenos;
pretende precisar la naturaleza de una situación tal como existe en el momento
del estudio; así el objetivo es “describir lo que existe” con respecto a las
variaciones o las condiciones de una situación. Casi nunca busca la
247

comprobación de hipótesis. Tiene amplia aplicación en ciencias naturales y en


el campo educativo.
3.1. ESTUDIO DE CASOS
Es una investigación exhaustiva sobre un individuo, una familia, una
comunidad, una población. Se preocupa de averiguar porque hace alguna cosa
y en que forma cambia el comportamiento cuando el individuo responde al
medio ambiente. Aún cuando alcanza profundidad, siempre carecen de de
amplitud; aportan información sobre individuos excepcionales y no sobre
individuos representativos, su mayor utilidad no es como instrumento de
comprobación de hipótesis sino de la generación de ellas.

3.2. ENCUESTAS
Una encuesta recoge datos más o menos limitados a través de un número
relativamente extenso de casos, su finalidad es conseguir información sobre las
variables y no sobre los individuos. Intentan medir lo que existe sin preguntar
porque existe. Las preguntas de una encuesta deben suelen diseñarse para
proporcionar información acerca de las variables y no para relacionarlas
variables entre si; aunque la información puede señalar relaciones entre
variables. La encuesta que cubra la población entera del estudio se llama
censo; la que estudia sólo una parte se denomina encuesta muestral.

3.3 ESTUDIO DE TIPO EVOLUTIVO

Obtiene información confiable de cómo son los individuos en diferentes


etapas de su vida; en sus diversas características y la manera en que cambian los
rasgos con el crecimiento.

3.3.1 METODO LONGITUDINAL:

Estudia la misma muestra de individuos durante un lapso prolongado.

3.3.2 METODO DE MUESTRAS REPRESENTATIVAS (TRANSVERSAL):

Estudia individuos de diversos niveles de edad en el mismo punto del


tiempo.

3.4.1 ESTUDIOS DE SEGUIMIENTO:


248

Similar al método longitudinal se trata de investigar el desarrollo


subsecuente de los individuos después de un tratamiento o de una condición
determinados.

3.5. ANALISIS DOCUMENTALES

Orientados al examen de archivos y documentos

DISEÑOS DE CONTRASTACIOND E HIPOTESIS


(GOODE Y HATT, 1986)
1. DISEÑO DE UNA SOLA CASILLA
Usa un solo grupo con carácter de “experimental”: el investigador observa y
describe el comportamiento del grupo para luego informar. Es de carácter
retrospectivo y es el diseño apropiado para los problemas de identificación y
descripción; sus resultados son validos para formular, a partir de ellos,
nuevos problemas de tipo explicativo

Observaciones
en el grupo

Ejemplos:
1. descripción morfológica (forma, tamaño, estructura) de las células de la
mucosa labial
2. Identificación de los componentes de la cadena alimenticia en un
determinado ecosistema
3. Identificación de las c bacterias componente s de la flora normal de
Casmerodius albus egreta.
4. Determinación de las características morfoanatómicas de Ananas
comosus

2. DISEÑO EN LINEA O SUCESION


Requiere de un solo grupo en calidad de grupo experimental y las conclusiones
se establecen por comparación entre la situación antes de la aplicación de la
variable estímulo

Selección del grupo Observaciones ANTES


OBSERVACIONES
Experimental DEL ESTIMULO DESPUES
DEL
ESTIMULO
ESTIMULO
249

A A1 A2

3. DISEÑO CLASICO

Es el diseño típico en los experimentos; es de carácter prospectivo, requiere


grupos pareados; uno como grupo experimental y otro como grupo testigo. el
grupo experimental recibe la influencia de la variable independiente y el grupo
testigo o blanco no la recibe (estimulo nulo)

ANTES DESPUES

ESTIMULO
GRUPO A A’
EXPERIMENTAL

NO ESTIMULO

GRUPO
B’
TESTIGO B

Comparaciones: A vs B
A vs A’
B vs B’

4. DISEÑO CON GRUPOS DIFERENTES


Emplea dos grupos experimentales que reciben el mismo estimulo pero en
tiempos diferentes y a veces hasta en ambientes diferentes; es de carácter
prospectivo

TIEMPO 1
ESTIMULO

Z
TIEMPO 2

X
ESTIMULO

Z: Grupo de individuos franceses portadores del VIH en 2005


250

X: Grupo de pobladores brasileños portadores del VIH estudiados en 2006

5. DISEÑO CON DOS GRUPOS DESPUES


Es una variación del diseño clásico en la que se hacen solo dos observaciones,
ambas después de la aplicación del estimulo desconociéndose la situación
“antes” tanto del grupo experimental como del grupo testigo. Ninguno de los dos
grupos recibe estímulo alguno por parte del investigador; pues tanto la variable
independiente como el estimulo nulo (placebo) ya han sido aplicados sin la
coordinación del investigador; desconociéndose la situación “antes”. >Las
conclusiones se derivan de la comparación entre los resultados del grupo
experimental con el grupo testigo. Es un tipo de diseño retrospectivo

ANTES DESPUES

ESTIMULO
GRUPO X X’
EXPERIMENTAL

NO ESTIMULO

GRUPO
Z’
TESTIGO Z

Comparaciones: X’ vs Z’

6. DISEÑO CON ESTIMULO CRECIENTE


Es una variación del diseño clásico en la que se usan varios grupos
idénticos que servirán de grupos experimentales y testigo. La variable
independiente (estimulo) se aplican en dosis o por espacios de tiempo diferentes de
modo creciente; el grupo testigo no recibe estimulo. Las conclusiones se obtienen
por comparaciones entre los grupos experimentales y entre estos con el grupo
testigo

ESTIMULO

ANTES DESPUES

GRUPO TESTIGO Y ESTIMULO NULO Y’


251

GRUPO EXPERIMENTAL 1 Z1 2X Z1’

GRUPO EXPERIMENTAL 2 Z2 4X Z2’

GRUPO EXPERIMENTAL 3 Z3 8X Z3’

Ejemplo:

Y: grupo de conejos a los que no se oaplico tratamiento o se le dio un


placebo

Z1; Z2, Z3, Grupos de conejos a los que se se inocularán cepas de


Clostridium botulinum en concentraciones de progresión
creciente.

DISEÑOS DE CONTRASTACION DE HIPOTESIS


(Hernández et al., 1994)
Los Diseños de Investigación no Experimental o Ex Post Facto, nos sirve de
guía para tener una idea aproximada en lo que respecta a todos los aspectos que
se relacionen con ella y en este acápite, se trata los Diseños de Investigación no
Experimental o Ex Post Facto, como parte de la Investigación no experimental.

La Investigación no experimental es tratada bajo cinco aspectos. En el


primero apreciamos una definición básica de la investigación no experimental, así
como la relación entre la causualidad y la Investigación, ya que la causalidad
resulta ser parte importante en una investigación de este tipo. El segundo, nos
sirve para comprender lo que son los diseños ex post facto enfocando cuando
debemos usar este tipo de diseños y cuales son, ejemplificando para un mejor
entendimiento. El tercero, evalúa la investigación no experimental, dando a
conocer sus limitaciones y el valor de la misma. El cuarto, hace una comparación
entre la investigación no experimental y la experimental, para así ver las diferencias
y semejanzas entre estas y el último relaciona el tipo de estudio, la hipótesis y el
diseño de la investigación.

De lo expuesto anteriormente se puede deducir la importancia de este tipo


de investigación y por lo tanto de los diseños; la que radica en pro porcionar los
conocimientos teóricos básicos para un mejor entendimiento de los diseños ex post
facto o no experimentales.
252

La Investigación no experimental del tipo ex post facto es la que se realiza


sin manipular debidamente las variables independientes, se basa en variables que
ya ocurrieron o se dieron en la realidades sin la intervención directa del
investigador. Es un enfoque retrospectivo.

La investigación no experimental es conocida también como investigación ex post


facto (los hechos variables ya ocurrieron) y observa variables y relaciones entre
estas en su contexto natural.

Los diseños no experimentales se dividen de la siguiente manera:

Descriptivo
Transeccionales
Correlacionales/
Causales

Diseños no
Experimentales

De tendencia

Longitudinales De análisis
evolutivo
de grupo
Panel

La investigación no experimental posee un control menos riguroso que la


experimental y en aquella es más complicado inferir relaciones causales. Pero la
investigación no experimental es más natural y cercana a la realidad cotidiana.

El tipo de diseño a elegir se encuentra condicionado por el problema a


investigar, el contexto que rodea a la investigación, el tipo de estudio a efectuar y
las hipótesis formuladas.

1. INVESTIGACION NO EXPERIMENTAL.
1.1. ¿Qué Es la investigación ex post facto o no experimental?
Es la que se realiza sin manipular deliberadamente variables. Es decir, se
trata de investigación donde no hacemos variar intencionalmente las variables
independientes. Lo que hacemos en la investigación no experimental es observar
fenómenos tal y como se da en el contexto natural, para después analizarlos.
Como señala Kerlinger (1979, p. 116): La investigación no experimental o ex post-
facto es cualquier investigación en la que resulta imposible manipular variables o
asignar aleatoriamente a los sujetos o las condiciones de hecho, no hay
condiciones o estímulos a los cuales se expongan los sujetos de estudio. Los
sujetos son observados en un ambiente natural, en su realidad.
253

En un experimento, el investigador construye deliberadamente una situación


a la que son expuestos varios individuos. Esta situación consiste en recibir un
tratamiento, condición o estímulos bajo determinadas circunstancias, para después
realizar los efectos de la exposición o aplicación de dicho tratamiento o condición.
Por decirlo de alguna manera, en un experimento se “construye” una realidad.

En cambio en un estudio no experimental no se construye ninguna situación,


si no que se observan situaciones ya existentes, no provocadas intencionalmente
por el investigador. En la investigación no experimental las variables independientes
ya han ocurrido y no pueden ser manipuladas, el investigador no tiene control
directo sobre dichas variables, no pueden influir sobre ellas porque ya sucedieron,
al igual que sus efectos.

1.2. CASUALIDAD E INVESTIGACION CIENTIFICA


Se ha realizado y continúa haciéndose mucho trabajo, especialmente en
sociología, para el estudio y análisis de relaciones causales en investigación ex
post facto. Uno de los enfoques principales ha sido lo que se conoce como análisis
de trayectoria, cuyo objeto es estudiar y probar hipótesis alternativas o variables
independientes alternativas, y ayudar a establecer conexiones e inherencias
causales. Una buena obra de consulta es la Blalock, que examina esta toma difícil
en profundidad. Sin un conocimiento substancial del análisis de regresión múltiple –
más allá del tratamiento del tema en este texto – no es posible seguir las
exposiciones de Blalock y otros. Para el estudiante avanzado ciertamente deseará
estar al tanto de los progresos.

La posición adecuada en este libro es que el estudio de causa y casualidad


en un laberinto interminable. Una de las dificultades es que la palabra “causa” tiene
muchos significados e insinuaciones metafísicas. Quizá más importante es que no
se necesita realmente. Puede realizarse investigación científica sin invocar causas
ni investigaciones causales, aunque los términos que implican causa y otros son
casi imposibles de evitar y, por tanto, se usarán ocasionalmente. Blalock señala que
las leyes causales no pueden ser demostradas empíricamente, pero que es útil
pensar causalmente. Coincidimos en que las leyes causales no pueden ser
demostradas empíricamente, pero sentimos ambigüedad al pensar causalmente.
Hay poca duda de que los científicos piensen causalmente y que cuando hablan de
una relación entre p y q ESPERAN o CREEN que p causa q. Para ninguna
evidencia puede demostrar que p causa q.

Esta posición no es tanto una objeción a las nociones causales como una
afirmación de que no son necesarias al trabajo científico. PUEDEN aportarse
evidencias sobre la validez empírica de expresiones condicionales de la clase “Si p,
254

entonces q”, pueden probarse hipótesis alternativas y pueden formular expresiones


probabilísticas acerca de la p y q – y otras p y q y las condiciones r, s y t. Invocar la
palabra “causó” y la expresión “relación causal” no aparta realmente nada
constructivo. Puede hasta ser engañosa.

En manos expertas y usadas con circunspección, el análisis de trayectoria y


métodos relacionados puede ayudar a aclarar relaciones teóricas y empíricas. Pero
cuando su adopción y uso implican que se buscan y ENCUENTRAN causas, tales
métodos pueden ser engañosos. En suma, los elementos de lógica deductiva en
relación con expresiones condicionales, un contexto y método de trabajo e
inferencia probabilística, y la prueba de hipótesis alternativas son suficientes
ayudas para el trabajo ex post facto científico sin el excesivo bagaje de nociones
causales y métodos presumiblemente ligados al reforzamiento de inferencias
causales. Dejemos el caso con algunas palabras apropiadas de Bertrand Russell;
La palabra “causa” está tan inexplicablemente ligada con asociaciones
engañosas que hace deseable su completa eliminación del vocabulario filosófico...
la razón de que la física ha cesado de buscar causas es que, en realidad, no hay
tales cosas. La ley de causalidad... es una reliquia de una edad pasada,
supervivencia, como la monarquía, solo porque se supone erróneamente que se
hace daño.

1.2.1. Condiciones para inferir relaciones causales:


Si se desea llegar a la conclusión de que una variable (x) es la causa de otra (y) se
necesitan tres clases de datos:
1) Que se haya probado una relación estadística entre X
yY
2) Que X preceda a Y en el tiempo
3) Que Y no depende de otros factores.
Gracias a los dispositivos de seguridad integrados en un diseño
experimental, estos estudios suministran datos en todos estos aspectos y con ello
permiten hacer inferencias causales. Sin embargo, en los estudios ex post facto no
se dispone de ellos y por lo tanto la interpretación de la relación causal es mucho
más difícil.

Si en uno de estos estudios se establece la relación entre dos variables, el


siguiente paso será buscar datos relativos a los otros dos puntos. El investigador
debe establecer el orden temporal es decir, tiene que considerara si Y ocurrió antes
que X y si por lo tanto no puede ser un efecto de ella. Se toman decisiones acerca
de la relación temporal entre ambas sobre una base lógica o como resultado de
mediciones que muestran que los grupos no diferencian en Y antes de una
exposición a X. Así mismo es de suma importancia que el investigador examine si
255

además de X otros factores causaron Y. Para verificar esta posibilidad se


introducen otras variables dentro de análisis y se observan en que forman afectan
a la relación entre X y Y.

Quizá se descubra que esta relación perdura aún si se introducen otras


variables. En este caso, se dispone de pruebas que apoyan una inferencia causal.
Por otra parte tal vez se descubre que la presencia de las otras variables pueden
cambiar la relación entre X y Y e incluso eliminarla. De ser así, se saca la
conclusión de que X no causa a Y o que la relación entre ambas es espuria.

2. DISEÑO DE LA INVESTIGACION NO EXPERIMENTAL O EX POST FACTO

Al Intentar contestar preguntas como estas ¿Cuál era el factor contribuyente


en una situación dada? O ¿Qué efecto produjo una situación o practica social? O
¿Cuáles son las características que distinguen a este grupo del otro? El investigar
puede disponer una investigación ex post facto en el que dos o más grupos se
comparan: uno ha sido expuesto a la experiencia en cuestión y el otro no. También
puede estudiar dos grupos que sean distintos; en algunos aspectos, con el
propósito de descubrir las causas de la diferencia. El diseño fundamental para ello
es una modificación del diseño experimental, en el que compara dos grupos en una
variable dependiente.

El efecto supuesto del tratamiento ocurre en el grupo experimental pero no


en el control. Cuando se manifiesta en este lo hace en grado distinto, lo cual se
aprecia en las mediciones de Y1 y Y2. Es decir, ambas indican que los dos grupos
difieren en la medición de la variable dependiente. El investigador intenta relacionar
la variable dependiente Y con una variable independiente que apareció
previamente una variable no manipulable designada por (X), que ocurrió en el grupo
experimental no así en el de control obsérvese que la variable independiente no
manipulable se señala así (X), en contraste con la manipulable X.

Por ejemplo, un investigador puede estudiar el rendimiento deficiente (Y), y


para ello busca en el historial de estos estudiantes los posibles factores
contribuyentes (X) que hayan conducido a eso. En base a un número de
mediciones estandarizadas compararía en rendimiento de un grupo de estudiantes
de aprovechamiento normal con el de alumno de aprovechamiento deficiente. Haría
una precaución (X) de los grupos preatributos (X) de interés es decir, las variables
extrañas de importancia por apareamiento o por medios estadísticos, entre ellos el
análisis de covarianza, la correlación parcial o las puntuaciones de cambio.

2.1. PROCEDIMIENTOS EN UNA INVESTIGACION NO EXPERIMENTAL


256

Debido a la excesiva complejidad de la metodología de este estudio se


describe las etapas fundamentales para la comprensión del procedimiento de
diseño de tipo ex post facto con un ejemplo.

A continuación se expone las etapas del planteamiento de una investigación


para indagar la relación entre creatividad y rendimiento en la solución de problemas
por universitarios.

El estudio ex post facto compararía dicho rendimiento en los estudiantes


creativos. He aquí la hipótesis: los universitarios creativos mostrarán mayor
velocidad y exactitud en una prueba de solución de problemas que los no creativos.
En ellas se indican claramente la necesidad de un diseño ex post facto pues los
investigadores no pueden manipular la creatividad ni hacer una asignación aleatoria
de los sujetos a los grupos. No les queda más remedio que comenzar con dos
grupos que ya sean distintos en la variable independiente (creatividad) y
compararlos en la variable dependiente, rendimiento en la solución de problemas.

Tienen que definir universitarios creativos y universitarios no creativos. Al


estudiante creativo podrían definirlo como universitario no graduado de la escuela
de pedagogía que logre una puntuación por encima del cuartel superior en la
prueba de Guilford de uso y consecuencias alternativas y en una prueba de
anagramas. Los no creativos serán los que alcancen puntuaciones por debajo del
primer cuartel.

Deberían tratar de identificar otras variables aparte de la creatividad que


puedan afectar a la variable dependiente al rendimiento en solución de problemas,
por ejemplo: especialmente universitaria inteligencia, sexo, año de licenciatura.

Deberán tomar medidas para igualar los grupos experimental y de control n


esas variables por medio del apareamiento u otras técnicas estadísticas. Por
ejemplo: Un estudiante destacado del segundo año que pertenezca al grupo
creativo podría aparearse con su equivalente en el grupo no creativo.

Aplicará una medida de la variable dependiente, o sea una prueba de


solución de problema. Esto se realiza una vez que se han formado los grupos
apareados. El análisis ulterior de los datos mediante una prueba de “t” revelará
cualquier diferencia significativa en el rendimiento de solución de problemas de los
dos grupos, y tal vez muestre una relación entre la creatividad y el rendimiento en
esa dimensión.
257

2.2. ¿CUANDO UTILIZAR LOS DISEÑOS NO EXPERIMENTALES?


El diseño Ex Post Facto se utiliza cuando los investigadores no están en
condición de probar la hipótesis, asignando sujetos a diferentes condiciones en que
pueda manipularse directamente la variable independiente. En los estudios Ex Post
Facto los cambios de la variable independiente ya se produjeron y los
investigadores deben estudiarlos en forma retrospectiva para buscar los efectos
que pueden ocasionar en una variable dependiente observada.

Cuando en una investigación influyen variables ATRIBUTIVAS


independientes como el ambiente familiar, la motivación, la inteligencia, los hábitos
de lectura de los padres y de otras que designan una característica que el sujeto
posee antes de que comience un estudio.

Cuando el investigador trata de responder a interrogantes como las


siguientes: “¿Cuál fue el factor contribuyente en una determinada situación?”, o
“¿Qué efecto tuvo o ha tenido cierta condición social o determinada?” “¿Cuáles son
las características que distinguen a este grupo de otro?”.

2.3. TIPOS DE DISEÑOS NO EXPERIMENTALES


Diversos autores han adoptado diversos criterios para clasificar la
investigación no experimental.

a. De acuerdo al número de momentos o puntos en el tiempo en los


cuales se recolectan los datos (dimensión temporal)
Los diseños no experimentales se pueden clasificar en transeccionales y
longitudinales.

A.1. Diseños de Investigación Transeccionales o transversal


Los diseños de investigación transeccional o transversal recolectan datos en
un solo momento, en un tiempo único. Su propósito es describir variables, y analizar
su incidencia e interrelación en un momento dado. Por ejemplo, investigar el
número de empleados, desempleados y sus subempleados en una ciudad en cierto
momento. O bien, determinar el nivel de escolaridad de los trabajadores de un
sindicato, en un punto en el tiempo.

Pueden abarcar varios grupos o subgrupos de personas, objetos o


indicadores. Por ejemplo, medir los niveles de aprovechamiento de grupos de
primero, segundo y tercer año de instrucción básica o primaria. O tal vez medir la
relación entre la autoestima y el temor de logro en atletas de deportes acuáticos, de
raqueta y de pista. Pero siempre, la recolección de los datos es un momento único.
258

A su vez, los diseños transeccionales pueden dividirse en dos: descriptivos y


correlacionales/casuales.

A.1.1. Diseños Transeccionales descriptivos


Los diseños transeccionales descriptivos tienen como objetivo indagar la
incidencia y los valores en que se manifiesta una o más variables. El procedimiento
consiste en medir en un grupo de personas u objetos una o, generalmente, más
variables y proporcionar su descripción. Son, por los tanto, estudios puramente
descriptivos y cuando establecen hipótesis, estas son también descriptivas.

Los estudios transeccionales descriptivos nos presentan un panorama del


estado de una o más variables en uno o más grupos de personas, objetos (v.g.,
periódicos) o indicadores en determinado momento.

En ciertas ocasiones, el investigador pretende hacer descripciones


comparativas entre grupos o subgrupos de personas, objetos o indicadores (esto
es, en más de un grupo). Por ejemplo: un investigador que deseara describir el nivel
de empleo en tres ciudades.

En este tipo de diseños queda claro que ni siquiera cabe la noción de


manipulación que cada variable se trata individualmente, no se vinculan variables.

Ejemplos:
1. Las famosas encuestas nacionales de opinión sobre las tendencias de los
votantes durante períodos de elección. Su objetivo es describir el número de
votantes en un país que se inclinan por los diferentes candidatos contendientes en
la elección. Es decir, se encuentran en la descripción de las preferencias del
electorado.
2. Un estudio que pretendiera averiguar cual es la espectativa de ingreso
mensual de los trabajadores de una empresa. Su propósito es describir dicha
expectativa. No pretende relacionarla con la calificación del trabajador, ni su edad o
sexo, el objetivo es descriptivo.

A.1.2. Diseños Transeccionales correlacionales


Estos diseños describen relaciones entre dos o más variables en un
momento determinado. Se trata también de descripciones, pero no de variables
individuales sino de sus relaciones, sean estas puramente correlacionales o
relaciones causales.

En estos diseños lo que se mide es la relación entre variables en un tiempo


determinado. Por lo tanto, los diseños correlacionales/causales pueden limitarse a
259

establecer relaciones entre variables sin precisar sentido de causalidad o pueden


pretender analizar relaciones de causalidad. Cuando se limitan a relaciones no
causales, se fundamentan en hipótesis correlaciones y cuando buscan evaluar
relaciones Causales, se basan en hipótesis causales.

Ejemplos:
1. Una investigación que pretendiera indagar la
relación entre la atracción física y la confianza durante el noviazgo en pareja de
jóvenes, observando cuan relacionadas están ambas variables (se limitan a ser
correlacional).

2. Un estudio sobre la relación entre la


urbanización y el alfabetismo en una nación latinoamericana, para ver que variables
macrosociales mediatiza tal relación (causal).

Debemos recordar la causalidad implica correlación, pero no de toda


correlación significa causalidad. Primero establecemos correlación y luego
causalidad.

Estos diseños pueden ser sumamente complejos y abarcar diversas


variables. Cuando establecen relaciones causales son explicativos. Su diferencia
con los experimentos es la base de la distinción entre experimentación y no
experimentación. En los diseños transeccionales correlacionales/causales, las
causas y efectos ya ocurrieron en la realidad (estaban dadas y manifestadas) y el
investigador las(os) observa y reporta. En cambio, en los diseños experimentales y
causiexperimentales el investigador provoca intencionalmente al menos una causa
y analiza sus efectos o consecuencias.

Aun estructuras más complejas estos diseños se fundamentan en hipótesis


correlacionales y de diferencia de grupos sin atribuir causalidad (cuando pretenden
establecer relaciones causales). Asimismo, los diseños correlaciona-les/causales en
ocasiones describen relaciones en uno o más o subgrupos y suelen describir
primero las variables incluidas en la investigación, para luego establecer las
relaciones entre estas (en primer lugar, son descriptivos de variables individuales,
pero luego van más allá de las descripciones: van establecer relaciones).

Comentario Tanto en los diseños transeccionales descriptivos como en los


correlacionales/causales vamos a observar variables o relaciones entre estas en su
ambiente natural y en un momento en el tiempo.
260

Los diseños transeccionales correlacionales/causales buscan describir


correlaciones entre variables o relaciones causales entre variables, en uno o más
grupos de personas u objetos o indicadores y en un momento determinado.

A.2. Diseños de Investigación Longitudinal


En ocasiones el interés del investigador es analizar cambios a través del
tiempo en determinadas variables o en las relaciones que entre éstas. Entonces se
dispone de los diseños longitudinales, los cuales recolectan datos a través del
tiempo en puntos o períodos especificados, para ser inferencias respecto al cambio,
sus determinantes o consecuencias.

Los diseños longitudinales se fundamentan en hipótesis de diferencias de


grupos, correlacionales y casuales.
Ejemplo: Un investigador que buscara analizar como evolucionan los niveles
de empleo durante cinco años en una ciudad u otra que pretendiera estudiar como
ha cambiado el contenido sexual en las telenovelas en los últimos diez años.

Los diseños longitudinales suelen dividirse en tres tipos: Diseños de tendencia


(trend), diseños de análisis evolutivos de grupos (cohorte) y diseños panel

A.2.1. Diseños Longitudinales de tendencia


Los diseños de tendencia o trend son aquellos que analizan cambio a través
del tiempo dentro de alguna población en general. Su característica distintiva es
que la atención se centra en una población. Por ejemplo, una investigación para
analizar cambios en la actitud hacia el aborto en una comunidad. Dicha actitud se
mide en varios puntos en el tiempo (digamos, anualmente durante 10 años) y se
examina su evolución a lo largo de este período. Se puede observar o medir toda la
población o bien tomar una muestra representativa de ella cada vez que se
observe o midan las variables o las relaciones entre éstas.

Ejemplo:
Una investigación nacional sobre las actitudes hacia la dictadura militar de
los chilenos nacidos en 1973, digamos cada cinco años comenzando a partir de
1985. En este año se obtendría una muestra de chilenos de 12 años de edad y se
medirían las actitudes. En 1990, se obtendría una muestra de chilenos de 17 años y
se medirían las actitudes. En 1995, se obtendría una muestra de chilenos de 22
años y en año 2000 una muestra de chilenos de 27 años, y así sucesivamente. De
esta forma, se analiza la evolución o cambios de las actitudes mencionadas. Desde
luego, aunque el conjunto específicos de personas estudiadas en cada tiempo o
medición puede ser diferente, cada muestra representa a los sobrevivientes del
grupo de chilenos nacidos en 1973.
261

A.2.2. Diseños Longitudinales de evolución de grupo


Los diseños de evolución de grupo o estudios cohorte examinan cambios a
través del tiempo en subpoblaciones o grupos específicos. Su atención son las
cohortes o grupos de individuos vinculados de alguna manera, generalmente la
edad, grupos por edad (Glenn, 19977). Un ejemplo de estos grupos (“cohorts”)
sería el formado por las personas que nacieron en 1930 en Brasil, pero también
podría utilizarse otro criterio de agrupamiento temporal como: las personas que se
casaron durante 1986 y 1987 en Costa Rica o los niños de la ciudad de México que
asistían a instrucción primaria durante el terremoto que ocurrió en 1985. Tales
diseños hacen seguimiento de los grupos a través del tiempo. Usualmente en estos
diseños se extrae una muestra cada vez que se mide el grupo o subpoblación más
que incluir a toda la subpoblación.

Ejemplo.
Un ejemplo de investigación longitudinal evolutiva de grupo es el trabajo ya
citado que se realizó en Pemex acerca del SIDA, los datos a cerca de la evolución
de los enfermos se recolectaron a través del tiempo y se analizó la evolución de los
pacientes infectados entre 1984 y 1987 por la sangre o derivados contaminados
provenientes de Transfusiones y Hematología, S.A. de este momento se siguió la
evolución de los 49 sujetos que integraron el universo. Cuando terminó el período
de estudio, 18 de los pacientes habían fallecido, mientras que 31 se encontraban
vivos

A.2.3. Diseños Longitudinales Panel

Los diseños panel son similares a las dos clases de diseños vistas
anteriormente, sólo que el mismo grupo de sujetos es medido en todo los tiempos o
momentos.

Ejemplo:

Una investigación que observaran anualmente los cambios en las actitudes


de un grupo de ejecutivos en relación con un programa para elevar la productividad,
digamos durante cinco años. Cada año se observaría la actitud de los mismos
ejecutivos. Es decir, los individuos y no sólo la población o subpoblación, son los
mismos.

En los diseños panel se tiene la ventaja de que además de conocer los


cambios grupales, se conocen los cambios individuales. La desventaja es que a
262

veces resulta muy difícil obtener exactamente a los mismos sujetos para una
segunda medición u observaciones subsecuentes. Este tipo de diseños puede
estudiar poblaciones o grupos más específicos y es conveniente cuando se tiene
poblaciones relativamente estáticas.

A. Según Tuckman (1978)

Los diseños no experimentales son de 2 tipos:

B.1. Diseño Co-relacional

Según Tuckman (1978). Este tipo de estudio “implica la recolección de dos o


más conjuntos de datos de un grupo de sujetos con la intención de determinara la
subsecuente relación entre los conjunto de datos” (p.147).

Ejemplo:
Tratar de relacionar la formación profesional de los docentes de un centro de
Formación Magisterial y la efectividad que logran con sus educandos; este estudio
puede realizarse indagando por las notas obtenidas por los profesores en los
distintos cursos llevados en su formación profesional, y otras mediciones que
posiblemente hayan sido realizadas (actitudes, por ejemplo), esto por un lado; y por
el otro, midiendo su efectividad en los alumnos mediante las evaluaciones
pertinentes.

El siguiente esquema correspondería a este tipo de diseño: O1 O2

O1 correspondería al conjunto de datos con respecto a la formación


profesional de los profesores y O 2 sería el conjunto de datos pertenecientes a los
alumnos.

Aquí cabe señalar que el investigador no podría asignar a los profesores a


programas de formación profesional, ni controlar esta formación mediante el uso de
un grupo control. A lo sumo nos mostrará la relación existente entre la calidad de la
formación profesional del profesor (echo o conjunto de hechos que han ocurrido)y
su efectividad en la enseñanza.

Para determinar la existencia o no de una relación deben utilizarse las


medidas de correlación y como resultado puede tener una de las siguientes
interpretaciones:
- La variable medida en O1 ha causado en O2, lo que supone el
investigador en el ejemplo.
263

- La variable medida en O2 ha causado a O1.


- La variable no medida ha causado O1 y O2.

La imposibilidad de determinar inequivocadamente la relación se debe a que


el investigador no asigna a los sujetos a una condición ni ha manipulado la variable
independiente o experimental sino que simplemente muestra determinadas
características. Igualmente, una relación sumamente débil o su no existencia
pueden rechazar las tres interpretaciones.

La importancia y utilidad de estos estudios es que nos permita establecer


alguna relación entre variables sugiriendo por ende la posibilidad de una
causalidad.
Tuckman nos dice que estos estudios “no son adecuados para el
establecimiento de relaciones causales entre variables pero son útiles como un
primer paso en este sentido” (p.149)

B.2. Diseño de Grupo Criterio


Este tipo de diseño se utiliza cuando uno está interesado en la generación
de hipótesis con respecto a que es lo que causa o produce una condición o estado
particular. Para ser esto a menudo se comienza la contrastación de características
con una condición o estado que se opone al que queremos estudiar.

Ejemplo:
Si queremos estudiar cuales son los factores que contribuyen o causan la
indisciplina en un centro educativo. Aquí el investigador no puede generar un
estudio para obtener como producto la indisciplina, sino que debe de oponer a “un
centro educativo indisciplinado”, un “centro educativo disciplinado” para poder
observar que es lo que establece la diferencia.

La determinación de indisciplina tiene- disciplina puede hacerse mediante


escala o mediante el criterio de jueces o expertos.

Luego deberá de contratar a alumnos de un centro educativo con los del


otro, pudiendo en este momento examinar otros aspectos del comportamiento del
alumno (personalidad, por ejemplo) como posibles causas de la indisciplina en un
centro educativo.

Tuckman sostiene que en este tipo de estudios es incorrecto concluir que se


han identificado las causas del la indisciplina, ya que la identificación fue lograda
sobre la base después del hecho. Si se deseara establecer dicha relación causal se
deberá someter al centro educativo a un tipo de reglas de comportamiento y luego
264

comparar la conducta de los alumnos, con la conducta de los alumnos que han sido
sometidos a otras reglas de comportamiento (disciplina).

Este tipo de diseño puede ser diagramado de la siguiente manera:

(x) O1 O2

(X) es una variable independiente no manipulada.

VAN DALEN y Meyer (1996) opinaron que algunos autores en


particular los sociólogos – los diseños ex post facto son denominados también
diseños causal comparativo.

Cuando los científicos estudian las relaciones de causalidad, prefieren


emplear el método experimental, pero, en algunos casos, el método causal
comparativo es el único adecuado para encarar un problema. En un experimento de
laboratorio, el investigador controla todas las variables, a excepción de las
independientes que él maneja de diversas maneras para observar los cambios que
introducen. Pero, a causa de la complejidad y de la naturaleza de los fenómenos
sociales, un educador no siempre puede seleccionar, controlar y manipular todos
los factores necesarios para estudiar relaciones de causalidad.

En los casos en que los investigadores no pueden manejar la variable


independiente y establecer los controles requeridos en los “verdaderos
experimentos”, pueden, en cambio, realizar un estudio causal comparativo. En un
experimento, el investigador puede suponer que si se somete a los alumnos a la
experiencia A, se observará el resultado B. En consecuencia, decide manipular la
variable independiente A; para ello, expone a un grupo experimental a la
experiencia A, efectúa las verificaciones necesarias mediante un grupo de control y
observa el resultado. En un estudio causal comparativo, el investigador invierte el
procedimiento: parte de la observación del fenómeno B, que ya se ha producido, y
trata de hallar, entre las múltiples causas posibles, los factores variables
independientes que se relacionan con el fenómeno o contribuyen a determinar su
aparición.

La investigación causal comparativa tiene su origen en el método elaborado


por John Stuart Mill para descubrir las conexiones causales. El método de la
concordancia de Mill establece que “si dos o más instancias del fenómeno
investigado tienen sólo una circunstancia en común, en la cual todas las instancias
concuerdan, es la causa (o efecto) del fenómeno dado”.
265

Muchos procesos, prácticas, programas y resultados educacionales, han


sido analizados mediante el método causal comparativo. Los problemas
considerados son muy diversos; en algunos casos, se trata de estudios
relativamente simples, en los que no se procuran establecer relaciones
cuantitativas, en tanto que en otros, los trabajos realizados son bastante más
complejos y demandan la utilización de grupos de control y de algunos aspectos del
método experimental.

Cuando los educadores se proponen explicar los fenómenos, a menudo


realizan estudios causales comparativos. Pero este método de investigación
presenta algunas limitaciones.

1. La imposibilidad de establecer un control es una de las


mayores dificultades del método causal comparativo.

2. Si al estudiar un problema, el factor que produce un efecto determinado no


se incluye entre los puntos considerados, no será posible averiguar la causa. Pero,
¿de que manera se puede identificar un factor relevante?. Si algunos factores
parecen acompañar a ciertos fenómenos, uno o más de ellos puede ser su causa;
por otras parte, el hecho de que algunos factores aparezcan siempre que se
produce un fenómeno no significa que guarden con él una relación de causalidad.

3. El método de concordancia y diferencias exige que un solo factor sea el que


determine la aparición o la ausencia de un fenómeno. Pero, por lo general, esta
condición no se da cuando trabajamos con fenómenos sociales complejos, puestos
que estos últimos obedecen habitualmente a la acción de múltiples causas.

4. Un fenómeno puede ser producto de múltiples causas, e inclusive es


posible que en diferentes momentos obedezca a distintas de ellas.

5. Cuando dos variables se hallan relacionadas entre sí, es probable que


resulte difícil determinar cuál de ellas es la causa y cual es el efecto.

6. También surgen dificultades cuando se intenta clasificar a los sujetos en


grupos dicotómicos, a fin de establecer comparaciones entre ellos; los fenómenos
sociales sólo presentan similitudes si los incluimos en las más amplias categorías.
Por otra parte, los hechos sociales no se clasifican automáticamente en categorías
exclusivas.
7. Cuando se tratan de estudios en los que se comparan situaciones
normales, la tarea de seleccionar los sujetos no requiere los mismos cuidados y
precauciones que en el caso de los estudios experimentales más complejos. Por lo
266

general, resulta considerablemente difícil hallar grupos de elementos que sean


similares en todos sus aspectos, excepto en lo que respecta al hecho de hallarse
expuestos a una variable distinta. Siempre existe el peligro de que los grupos
presenten diferencias en la relación con otras dimensiones salud, inteligencia,
antecedentes familiares, experiencia anterior que pueden afectar los resultados del
estudio.

Los estudios causales comparativos poseen ciertas limitaciones y a menudo


no proveen información tan precisa y confiable como la que es posible obtener
mediante estudios experimentales rigurosos. En cambio nos proporcionan
instrumentos para abordar los problemas que no pueden estudiarse en condiciones
de laboratorio y nos brindan valiosos indicios acerca de la naturaleza de los
fenómenos.

Por otra parte, a medida que las técnicas, instrumentos y controles empleados
en los estudios causales comparativos se fueron perfeccionando, este método de
investigación ha ido adquiriendo cada vez mayor difusión.

3. EVALUACION DE LA INVESTIGACIÓN NO EXPERIMENTAL

3.1. LIMITACIONES DE LA INTERPRETACIÓN EX POST FACTO

La investigación ex post facto tiene tres debilidades principales, dos de las cuales
ya se han expuesto un detalle:
1) La incapacidad para manipular variables dependientes.

2) La falta de poder de distribución al azar, y

3) Al riego de interpretación inapropiada. En otras palabras, comparada


con la investigación experimental, siendo iguales otras cosa, la
investigación ex post facto carece de control.

Esta falta de la base de la tercera debilidad: el riesgo de interpretación


inapropiada.

El peligro de interpretaciones inapropiadas y erróneas en la investigación ex


post facto se debe en parte a la plausibilidad de muchas explicaciones de
acontecimientos complejos. Nos es fácil aceptar la primer y más obvia
interpretación de una relación establecida, especialmente si trabajamos sin
hipótesis para guiar la investigación, o avanzamos de la variable dependiente a la
267

variable independiente. Estas dos circunstancias están estrechadamente


relacionadas por que la investigación no guiada por hipótesis, la investigación “para
hallar cosas”, es a menudo investigación ex post facto. La investigación
experimental es más probable que se base en hipótesis cuidadosamente definidas.

La hipótesis son predicciones si – entonces. En un experimento de


investigación la predicción es de una X bien controlada a una Y. Si resulta cierta la
predicción, tenemos relativa seguridad al afirmar la condicional, si X, entonces Y.
Sin embargo, en un estudio ex post facto analizado en las mimas condiciones
estamos considerablemente menos seguros al expresar la condicional, por las
razones expuestas anteriormente. Cuidadosas salvaguardias son más esenciales
en este último caso, especialmente en la solución y la prueba de hipótesis
alternativas.

Una relación predicha (o no predicha) en investigación ex post facto puede


ser muy espuria, para su plausibilidad y conformidad con la concepción previa
puede hacerla fácil y aceptar. Este es un peligro en la investigación experimental,
para en MENOS peligro que en la investigación ex post facto porque una situación
experimental es mucho más fácil de controlar.

La investigación ex post facto producida sin hipótesis, sin predicciones,


investigación en la que los datos son simplemente recogidos y luego interpretados,
es aun más peligrosos en su capacidad de engañar. Diferencias o correlaciones
significativas son localizadas si es posible y luego interpretadas. Supongamos que
un educador decide estudiar los factores que conducen a un subaprovechamiento.
Escoge un grupo de niños con aprovechamiento inferior al normal y un grupo de
niños con aprovechamiento normal y administra una batería de prueba de ambos
grupos. Luego, calculan las medidas de los dos grupos sobre las pruebas y analiza
las diferencias con prueba t. Entre, por ejemplo, 12 de tales diferencias, tres son
significativas. El investigador deduce entonces que los niños con aprovechamiento
inferior al normal y los niños con aprovechamiento normal difieren en las variables
medidas por estas tres pruebas. Con análisis de las tres pruebas, cree que
comprende lo que caracteriza a los niños de bajo aprovechamiento. Como las tres
pruebas parecen que miden inseguridad, entonces la causa de su aprovechamiento
es inseguridad.

Aunque la sencillez de este ejemplo esta un poco exagerado, estudios


muy similares a este hipotético son emprendidos a menudo. Cuando son guiados
por hipótesis, los resultados de tales estudios son más validos, pero todavía son
más débiles porque se aprovechan de relaciones casuales, y, por encima de todo,
la explicación de los resultados parece plausible – una vez hallada una explicación
268

plausible. Según Merton, las explicaciones POST FACTUM no se prestan a


nulificaciones, porque son muy flexibles. Cualesquiera que sean las observaciones,
agrega pueden hallarse nuevas interpretaciones que “cuadren a los hechos”.

3.2. IMPORTANCIA DE LA INVESTIGACIÓN NO EXPERIMENTAL


Algunos autores afirman que no debería utilizarse este tipo de investigación
por los peligros que encierra la interpretación de la misma.

Por otra parte hay quienes afirman que muchas de las variables de gran
interés en la educación son susceptibles de la investigación experimental. No
podemos hacer una asignación aleatoria de niños u hogares rotos o intactos, a
clases bajas o altas, etc. Por lo tanto, si queremos aprender algo acerca de la
relación entre esas variables atributivas y otras, el método ex post facto constituye
nuestro único recurso. Si se utilizan sistemas apropiados para el control parcial y se
toman en cuenta las hipótesis alternativas, habrá mayores posibilidades de acertar
que de equivocarse. Kerlinger expresa este punto de vista con considerable
exactitud:

A pesar de sus imitaciones, este tipo de investigación se utiliza en


psicología, sociología y pedagogía simplemente porque en estas disciplinas
abundan los problemas que no pueden ser investigados experimentalmente. Su
carácter manipulable quedará demostrado por completo mediante una breve
reflexión sobre algunas importantes variables de la investigación pedagógica:
inteligencia, actitud, ambiente familiar, educación paterna, personalidad del
maestro, atmósfera escolar. Desde luego es posible realizar una investigación
controlada, no así una autentica experimentación. En su mayor parte los problemas
sociológicos de la educación son de carácter ex post facto, entre ellos: la desviación
extrema en la conducta del grupo y su efecto en el aprovechamiento las decisiones
del concejo técnico y sus efectos en el rendimiento y en la moral de los maestros y
supervisores. Aunque no quisiéramos recurrir a este tipo de investigación, tenemos
que hacerlo.

Incluso podemos afirmar que es más importante que la investigación


experimental, lo cual no es en absoluto una observación metodológica. Significa
más bien que los problemas que más trascendente de la investigación y
pedagógica de orden científico no se prestan a la experimentación, aunque algunos
de ellos pueden someterse a una investigación controlada ex post facto

4. CARACTERISTICAS DE LA INVESTIGACIÓN NO EXPERIMENTAL EN


COMPARACION CON LA INVESTIGACION EXPERIMENTAL
269

Tanto la investigación experimental como la no experimental son


herramientas muy valiosas de que dispone la ciencia y ningún tipo es mejor que el
otro. El diseño a seleccionar en una investigación depende más bien del problema a
resolver y el contexto que rodea al estudio. Desde luego, ambos tipos de
investigación poseen características propias que es necesario resaltar.

El control sobre las variables es más riguroso en los experimentos que en


los diseños cuasiexperimentales y a su vez, ambos tipos de investigación tienen
mayor control que los diseños no experimentales. En un experimento se realizan
relaciones “puras” entre las variables de interés, sin contaminación de otras
variables y por ello podemos establecer relaciones causales con mayor precisión.
Por ejemplo, en un experimento sobre el aprendizaje podemos variar el estilo de
liderazgo del profesor, el método de enseñanza y otros factores. Así, podemos
saber cuánto afectó cada variable. En cambio, en la investigación no experimental,
resulta más complejo separar los efectos de las múltiples variables que intervienen
(en un estudio no experimental sobre los daños que provoca el tabaquismo, sería
más fácil saber cuánto construyó el tipo de papel en que se envolvió el tabaco,
cuánto cada sustancia que compone la mezcla, el número de cigarrillos fumados, el
grado a que se consume cada cigarrillo, etcétera). En la investigación no
experimental las variables pueden manipularse por separado o conjuntamente con
otras para conocer sus efectos, en la investigación no experimental no podemos
hacerlo.

Por lo que respecta a la posibilidad de réplica, los diseños experimentales y


cuasi experimentales se pueden replicar más fácilmente, con o sin variaciones.
Pueden replicarse en cualquier lugar siguiendo el mismo procedimiento.

Ahora bien, como menciona Kerlinger (1979), en los experimentos (sobre


todo en los de laboratorio) las variables independientes pocas veces tienen tanta
fuerza como en la realidad. Es decir, en el laboratorio dichas variables no muestran
la magnitud real de sus efectos, la suele ser mayor fuera del laboratorio. Por lo
tanto, si se encuentra un efecto en el laboratorio, éste tenderá a ser mayor en la
realidad.

En cambio, en la investigación no experimental estamos más cerca de las


variables hipotetizadas como “reales” y consecuentemente tenemos mayor validez
externa (posibilidad de generalizar los resultados a otros individuos y situaciones
cotidianas).
270

Una desventaja de los experimentos es que normalmente se selecciona un


número de personas poco o medianamente representativo respecto a las
poblaciones que estudian. La mayoría de los experimentos utilizan muestras no
mayores de 200 personas, lo que dificulta la generalización de resultados a
poblaciones más amplias. Por tal razón, los resultados de un experimento deben
observarse con precaución y es a través de la réplica de éste (en distintos
contextos y con diferentes tipos de personas) como van generalizándose dichos
resultados.

En resumen, ambas clases de investigación: experimental y no


experimental, se utilizan para el avance del conocimiento y en ocasiones resulta
más apropiado un tipo u otro dependiendo del problema de investigación a que nos
enfrentamos.

Tomemos un ejemplo para explicar el concepto de investigación no


experimentales y su diferencia con la experimentación. Vamos a suponer que el
investigador dese a analizar el efecto que produce el consumo de alcohol sobre los
reflejos humanos. Si decidiera un enfoque experimental, asignaría al azar los
sujetos a varios grupos, supóngase cuatro grupos: un grupo donde los sujetos
ingirieran un elevado consumo de alcohol (7 copas de tequila o aguardiente), un
segundo grupo que ingiriera un consumo medio de alcohol (4 copas), un tercer
grupo que bebiera un consumo bajo de alcohol (una sola copa) y el cuarto grupo de
control que no ingiriera nada de alcohol. Controlaría el lapso en el que todos los
sujetos consumen su “ración” de alcohol, así como otros factores (misma bebida,
cantidad de alcohol servida en cada copa, etcétera). Finalmente mediría la calidad
de respuestas de los reflejos de cada grupo y compararía los grupos, para
determinar el efecto del consumo de alcohol sobre los reflejos humanos. Desde
luego, el enfoque podría ser cuasiexperimental (grupos intactos) o los sujetos
asignados a los grupos por emparejamiento (digamos en cuanto al sexo, que influye
en la resistencia al alcohol, pues las mujeres suelen tolerar menos cantidades de
alcohol que los hombres).

Por el contacto, si decidiera seguir un enfoque no experimental, el


investigador podría acudir a lugares donde se localicen distintas personas con
diferentes consumos de alcohol (por ejemplo, oficinas donde se haga el nivel de
consumo de alcohol, como una estación de policía). Encontraríamos personas que
han bebido cantidades elevadas, medias y bajas de alcohol, así como quienes no lo
han ingerido. Mediría la calidad de sus reflejos, llevaría a cabo sus comparaciones y
establecería el efecto del consumo de alcohol sobre los reflejos humanos.
5. RELACION EXISTENTE ENTRE EL TIPO DE ESTUDIO, LA HIPÓTESIS Y EL
DISEÑO DE LA INVESTIGACION
271

Anteriormente se comentó que el planteamiento del problema y en el marco


teórico nos indica si nuestro estudio o investigación se iniciará con fines
básicamente exploratorios, descriptivos, correlacionales o explicativos. Asimismo, el
tipo de estudio nos lleva a la formulación de cierta clase de hipótesis y éstas a la
selección de determinado diseño de investigación. En la tabla 7.1 se muestre
esquemáticamente esta correspondencia.

Algunos problemas de investigación pueden ser abordados o no en forma


experimental. Por ejemplo, si deseáramos analizar la relación entre la motivación y
la productividad en los trabajadores de cierta empresa, podríamos seleccionar un
conjunto de éstos y dividirlos al azar en cuatro grupos: uno donde se propicie una
elevada motivación, otro con mediana motivación, otro más con baja motivación y
uno último al que no se le administre ningún motivador. Después compararíamos la
productividad de los grupos. Tendríamos un experimento.

Si se tratara de grupos intactos tendríamos un cuasiexperimento. En


cambio, si midiéramos la motivación existente en los trabajadores así como su
motivación existente en los trabajadores así como su productividad y
relacionáramos ambas variables, estaríamos realizando una investigación
transeccional correlacional. Y si cada seis meses midiéramos las dos variables y
estableciéramos su correlación efectuaríamos un estudio longitudinal.

Pero vayamos más a fondo para analizar las diferencias. En la investigación


experimental se construye la situación y se manipula de manera intencional a la
variable independiente (en este caso el consumo del alcohol) después se observa
el efecto de esta manipulación sobre la variable dependiente (en este caso la
calidad de los reflejos). Es decir, el investigador influyó directamente en el grado de
consumo de alcohol de los sujetos. En la investigación no experimental no hay ni
manipulación intencional ni asignación al azar. Los sujetos ya consumían un nivel
de alcohol y en este hecho el investigador no tuvo nada que ver, no influyó en la
cantidad de consumo de alcohol de los sujetos. En una situación que previamente
existía, ajena al control directo del investigador. En la investigación no experimental
se eligieron personas con diferentes niveles de consumo, los cuales se generaron
por muchas causas, pero no por la manipulación intencional y previa del consumo
de alcohol. En cambio en el experimento, si se generaron lo niveles de consumo de
alcohol por una liberación deliberada de esta variable. En resumen, en un estudio
no experimental los sujetos ya pertenecían a un grupo o nivel determinado de la
variable independiente por autoselección.

Esta diferencia esencial genera distintas características entre la


investigación experimental y no experimental, que serán discutidas cuando se
272

analicen comparativamente ambos enfoques. Para ello es necesario profundizar en


los tipos de investigación no experimental.

La investigación no experimental es investigación sistemática y empírica en


que las variables independientes no se manipulan porque ya han sucedido. Las
inferencias sobre las relaciones entre variables se realizan sin intervención o
influencia directa y dichas relaciones se observan tal y como se han dado en
contexto natural.

Un ejemplo no científico (y tal vez hasta burdo) para ilustrar la diferencia


entre un experimento y un no experimento serían las siguientes situaciones:

EXPERIMENTO Hacer enojar intencionalmente a una persona


para ver sus reacciones.

NO EXPERIMENTAL Ver las reacciones de esta persona cuando


llega enojado.

En algunos casos el autor puede haber deducido que la investigación ex post


facto es inferior a la investigación experimental, pero esta deducción no estaría
justificada, es fácil decir que la investigación experimental es “mejor”, que la
investigación ex post facto, o que la investigación experimental tienen hacer “trivial”,
o que la investigación ex post facto es “meramente correlativa”. Tales expresiones,
si mismas, son simplificaciones excesivas. Lo que necesita el estudiante de
investigación es una comprensión equilibrada de las fuerzas y debilidades de
ambas clases de investigación. Adherirse inequívocamente a experimentación o a
experimentación ex post facto puede ser una mala política.

Algunos estudiantes de investigación creen que mucha investigación sobre


la conducta pero particularmente investigación educacional sufre una falta grave de
enfoque experimental riguroso y que estará atrasada mientras exista esta situación.
El autor cree que la buena investigación experimental se necesita urgentemente en
todos los campos, y que grandes dosis de mala investigación ex post facto deben
evitarse. Hay gran necesidad de mejorar en la investigación ex post facto
educacional. Quizá una buena regla sería ignorar los resultados de cualquier
estudio ex post facto que no prueba hipótesis. Excepciones esta restricción de
vencer pocas y muy lejanas entre sí.

Quizá otra buena regla sería ser altamente escéptico de cualquier estudio ex
post facto que solo pruebe una hipótesis: es decir, deben probarse
273

sistemáticamente hipótesis, “negativas” alternativas. Los investigadores deben


predecir relaciones significativas y relaciones no significativas siempre que sea
posible.

Una advertencia final de esta: tratar siempre los resultados e interpretaciones de los
datos de investigaciones ex post facto con gran cuidadoso y precaución, cuando se
debe ser cuidadoso con resultados e interpretaciones experimentales, se debe ser
doblemente cuidadoso con resultados e interpretaciones ex post facto.

MUESTREO Y DISEÑOS MUESTRALES

El muestreo de poblaciones, es decir los métodos que permiten seleccionar


una parte de la población (una muestra), para inferir sobre la población total.

BASE TEORICA DEL MUESTREO


Los datos masivos tienen dos propiedades simultáneas y fundamentales,
ellos son:
1. La diversidad, los elementos de una población están afectadas por un
sin número de fuerzas, que pueden actuar independientemente sobre los elementos
individuales. Pero en una población estadística, los elementos no pueden variar sin
límites. Por ejemplo: en una misma camada de peces, a pesar de que las
condiciones experimentales son las mismas, algunos peces crecen más que otros,
pero siempre dentro de ciertos límites, no hay un pez cuya talla es 1 cm. y el otro
1000 cm.

2. Regularidad o uniformidad: Las fuerzas independientes, que producen


una variable en una población, tienden a equilibrarse y concentrarse, alrededor de
un valor central. En nuestro ejemplo, la talla de los peces tiende a concentrarse
alrededor de una talla media.

Como las variaciones son limitadas y cada población tiene sus


características, es posible seleccionar una muestra aleatoria insesgada
relativamente pequeña que pueda representar una población particular.
274

Debido a la regularidad si se toma una muestra aleatoria grande, sus


características difieren muy poco de la población estadística. Sin embargo, debido a
la diversidad, un número de muestras aleatorias de las mismas características,
pueden diferir. Entonces, las muestras no tienen una regularidad estricta.

Los promedios son más estables, que los números individuales. Además los
promedios son más estables si se incluyen más observaciones. Esta es una
propiedad importante de los grandes números que tienden a ser uniformes y
estables, esto se conoce como la ley de los grandes números.

Consecuencias de la ley de los grandes números en el muestreo son:


1. Confiabilidad de las muestras: Cuanto mayor es el tamaño de la
muestra, es más representativa de la población.
2. Adecuación de los métodos muestrales.
Entonces, a través de la estabilidad de los grandes números es posible
determinar el tamaño de la muestra, dentro de límites señalados de precisión,
cuyas características pueden atribuirse a la población.

Se ha definido que aún cuando las muestras sean grandes, sus


características no son exactamente las mismas de la población, lo que se conoce
como errores muestrales, los que se pueden medir si las muestras son aleatorias.
Para ello se debe conocer la naturaleza de la distribución de frecuencias
subyacentes, se debe aplicar probabilidades, lo que se puede hacer solamente si
las muestras son aleatorias.

CRITERIOS BASICOS DE MUESTREO

MUESTRAS:
Los elementos incluidos en una población se llaman unidades muestrales
que se pueden agrupar en dos clases:
1. Unidades muestrales elementales; son todos aquellos elementos
contenidos en una población cuyas características van a ser medidas o contadas.
2. Unidades muestrales primarias, pueden ser las unidades elementales
mismas o agrupaciones de estas.
Las unidades elementales son los individuos que forman la población sobre
la que se va a inferir.

MUESTRA: Es un conjunto de las unidades elementales escogidas como


representativas a partir del cual se pueden inferencias acerca de la población y
pueden contener unidades primarias aunque el propósito sea conocer las
propiedades de las unidades elementales, es necesario puntualizar que el propósito
final del muestreo no es calcular estadísticas maestrales; sino hacer inferencia
respecto a la población .

En teoría de muestra se debe distinguir entre:

a. Muestra aleatoria o probabilística en la que se conoce la probabilidad


de ser seleccionada, se puede medir el error muestral y mantener dentro de límites
conocidos. El término muestra aleatoria no se utiliza para describir datos de la
muestra sino para definir el proceso empleado para seleccionar la muestra.
Por lo tanto la aleatoriedad es una propiedad del procedimiento muestral y no
de la muestra individual.
275

b. Muestra dirigida: se toma utilizando el juicio personal, por lo tanto no se


conoce la probabilidad de que un elemento sea considerado en la muestra por lo
que no puede aplicarse el análisis probabilístico.

POBLACION, UNIVERSO

POBLACION; conjunto de elementos o unidades muestrales acerca de la


cual se va hacer deducciones y puede ser: finita, si el número de elementos es
determinado; o infinita, si contiene un número indeterminado de elementos.

También es necesario diferenciar; Población total u Objeto de población


estadística; la primera se refiere al conjunto de elementos de la población mientras
que la segunda es la que es operacionalmente factible de ser muestreada.

UNIVERSO, es otro término frecuentemente empleado para describir una


población empleándose con rigurosidad en investigación experimental.

MARCO DE REFERENCIA
Siempre que el acceso a una población presente dificultades, se debe hacer
una lista, en la que identifiquen las unidades elementales. Esto se llama marco de
referencia y es la población estadística sobre la que se va a inferir; aquí cada
unidad debe ser claramente definida sin ambigüedad. Cuando se prepara el marco
de referencia se debe incluir la información necesaria para preparar una encuesta
sólida, esta puede ser considerada como una encuesta inventario y debe efectuarse
antes de llevar a cabo el muestreo por encuesta

En algunas ocasiones es necesario hacer una encuesta de verificación de


los elementos examinados (EVEE) la que se realiza en una zona más pequeña de
la zona total, pero es mas intensiva, posteriormente se comparan los resultados de
ambas encuestas y las diferencias sirven de base para ajustar o corregir el marco
de referencia original.

Es necesario tomar en cuenta los criterios de precisión, exactitud y


eficiencia.

a. Precisión: llamada también confiabilidad de los resultados muestrales,,


esto es el tamaño del error estándar de la estadística, a menor error estándar
mayor precisión.
b. Exactitud: es la diferencia entre el valor de la estadística muestral y el
verdadero valor del parámetro de la población, la que es causada por los errores no
muestrales y el sesgo. La exactitud es la meta de un estudio; pero la precisión es lo
que se puede medir.
c. Eficiencia: se dice que un diseño muestral es más eficiente que otro si
una misma precisión se obtiene con un menor costo.

PLAN DE MUESTREO

Para escoger una parte de la población sobre la cual se va a hacer


inferencia, se utiliza el diseño muestral, en él se consideran dos aspectos:

Selección: de las reglas y de las operaciones por las cuales los elementos
de la población van a estar incluidos en la muestra.
276

Estimación: de los valores de la población a partir de las muestras.

En muestreo de encuesta o muestreo de poblaciones, los diseños


muestrales pueden ser de tipos:

- Muestreos aleatorios o probabilísticos: donde el proceso de seleccionar


la muestra es aleatoria

- Muestreo no aleatorio: donde el proceso de obtención de la muestra es


en base de juicio, en forma causal. Etc. Kish [l975], los llama muestreo de modelos,
dentro de este tipo incluye el muestreo de poblaciones móviles por marcaje.

DISEÑOS DE MUESTREO PROBABILISTICO

En estos diseños, cada elemento de la población tiene una probabilidad


conocida y no nula de ser seleccionada. En consecuencia, a partir de la muestra se
puede hacer inferencia en la población, utilizando solamente métodos estadísticos,
sin hacer suposiciones acerca de las distribuciones de la población.

El muestreo irrestricto aleatorio [mia] es el procedimiento de selección de


la muestra, en la cual los elementos de la población tienen probabilidades iguales
de selección.

Los diferentes tipos de diseños de muestreo probabilístico son


modificaciones del mia. Los cambios se han introducido para proveer de diseños
más prácticos, económicos o precisos.

Kish[1975] entrega una tabla, con diferentes alternativas [anexo 1].

Los procedimientos muestrales más utilizados son:

1. Muestreo aleatorio no restringido o muestreo aleatorio simple [MAS].


2. Muestreo aleatorio restringido:

- Muestreo estratificado [MES]: - proporcional.


- desproporcionado.

- Muestreo por conglomerado [MPG] o agrupado:


- monoetápico.
- bietápico.
- multietápico.

Muestreo sistemático [MST].

1. MUESTREO ALEATORIO SIMPLE (MAS).

De los diferentes procedimientos muestrales, el muestreo aleatorio simple,


es el más conocido, porque es relativamente sencillo efectuar las estimaciones.

El muestreo aleatorio simple puede ser de dos tipos:


277

Con reposición en poblaciones finitas o sin reposición en poblaciones


infinitas: cada elemento de la población tiene una probabilidad igual e
independiente de ser incluido en la muestra

Sin reposición en poblaciones finitas: la probabilidad de selección de


cada elemento aumenta a medida que N [número de elementos de la población
disminuye].

En ambos casos se obtiene la muestra utilizando tablas de números


aleatorios.
El MAS es procedimiento eficiente si:
La población no es grande
Si las unidades muestrales son fáciles de obtener a un bajo costo.
En poblaciones cuyos elementos se concentran en áreas pequeñas.

En otros casos, el muestreo aleatorio simple [MAS] se vuelve poco eficiente


debido a su alto costo.

2. Muestreo estratificado [MES]:

Para emplear el muestreo estratificado (MES) se debe tener conocimientos


previos de la población a estudiar, porque ésta se debe dividir en estratos
homogéneos.
El procedimiento de selección de la muestra dentro de cada estrato puede
ser aleatorio o sistemático.

El muestreo estratificado se puede dividir en dos tipos:

a Muestreo estratificado proporcionado: donde el número de elementos


es proporcional al tamaño del estrato. Este tipo de muestreo puede utilizarse
solamente cuando la variabilidad de la población es pequeña.

b Muestreo estratificado desproporcionado: para determinar el tamaño


de muestra por estrato se efectúa una asignación óptima, para lo cual se considera:
el tamaño del estrato y la dispersión de las mediciones. Por consiguiente, se asigna
una mayor representación al estrato con mayor dispersión. Entonces, en los
estratos de menor variabilidad el tamaño de la muestra es más pequeño.

Existen otros criterios de asignación óptima del tamaño de muestra. Como


tomar tamaños de muestras pequeñas en los estratos en que obtener la muestra es
costoso o bien de difícil acceso. Otro caso, es tomar el mismo tamaño sin
considerar el tamaño de estrato.

También pueden subestratificarse los estratos, con el objeto de agrupar la


población con respecto a las características más relevantes. Este procedimiento se
conoce con el nombre de estratificación cruzada.

En el muestreo estratificado desproporcionado, en el cálculo de los


estimadores se utilizan ponderadores. Cabe señalar, que se debe ser en extremo
cuidadoso en la asignación óptima del tamaño de la muestra y en el empleo de las
correspondientes ponderaciones.

Los requerimientos básicos para el empleo de muestreo estratificado son:


278

- dentro de cada estrato debe haber tanta uniformidad como sea posible.
- la diferencia entre los estratos debe ser lo más grande posible.

El conocimiento previo de la población se puede obtener a través de: 1.


muestreo preliminar, 2. Observaciones pasadas y 3. Juicios de expertos
[desaconsejado por no ser muestreo probabilístico].

En el caso de que la población que se desea estudiar sea heterogénea y su


distribución de frecuencia altamente asimétrica, el muestreo estratificado [MES] es
más eficiente que el muestreo aleatorio simple [MAS]. Sin embargo, si la población
tiene una distribución simétrica o moderadamente asimétrica, la eficiencia de
ambos diseños muestrales es similar.

3. Muestreo por conglomerado [MPG]:

Los conglomerados son unidades de muestreo o unidades primarias,


conformados por agrupaciones de elementos o de unidades elementales.

Para que el muestreo por conglomerado sea eficiente se deben cumplir los
siguientes requisitos:
1. Las diferencias entre las unidades elementales deben ser tan grandes
como sea posible.
2. Las diferencias entre conglomerados [o unidades primarias] deben ser tan
pequeñas como sea posible.

Se puede observar que los requisitos del muestreo por conglomerados son
contrarios a los del muestreo estratificado.

Cabe hacer notar, que los requisitos del muestreo por conglomerados son
difíciles de satisfacer, porque en las mayorías de las poblaciones humanas o
animales, los elementos similares tienden a agruparse.
Es necesario hacer notar que en el muestreo por conglomerados es posible
tener costos inferiores a los muestreos obtenidos con los muestreos estudiados
anteriormente [MAS y MES]. Este menor costo se debe a que en MPG se
disminuyen los desplazamientos para la obtención de la muestra.

Por las razones antes señaladas, el muestreo por conglomerados puede ser
eficiente.

Existen varios procedimientos de muestreo por conglomerados:


 Cuando se muestrean todas las unidades elementales del
conglomerado, se trata del muestreo por conglomerado monoetápico.
 Cuando se extrae una muestra de los conglomerados, se trata del
muestreo por conglomerado bietápico.
 Cuando se selecciona una muestra de unidades elementales y una
muestra de conglomerados, el procedimiento utilizado tiene dos
etapas de selección final de la muestra, se denomina muestreo de
etapas múltiples o polietápico.

En los diversos tipos de muestreo por conglomerados, éstos pueden tener el


mismo tamaño o pueden ser diferentes. Por otro lado, en las diversas etapas, el
procedimiento de selección de la muestra puede ser aleatorio o sistemático. Resulta
279

evidente, que en el muestreo por conglomerado existe una gama de procedimientos


que pueden emplearse en diversos casos.

4. Muestreo Sistemático [MST]:

Es un muestreo probabilístico. La principal ventaja de este método es la


sencillez con que se escoge la muestra. Pero se debe ser cauteloso en su
utilización, porque la variable que se quiere medir puede tener una prioridad
“oculta”, entonces se puede caer en ciclos, y así sesgar la muestra que se obtiene.

El muestreo sistemático [MST] es eficiente, si los elementos próximos entre


sí tienen mayor uniformidad que los distantes. Estos requerimientos son similares a
los del muestreo estratificado proporcionado. Entonces si las poblaciones son
grandes los muestreos MES y MST tienen eficiencias similares. El muestreo
sistemático [MST] es más eficiente que el muestreo aleatorio simple cuando se
mantienen las condiciones señaladas anteriormente.

DISEÑO NO PROBABILISTICO:

En la tabla que ilustra este diseño [anexo 2], se presenta en forma


esquemática, los diferentes tipos de muestreo no aleatorios más frecuentemente
empleados.

ESCALAS DE MEDICION

Una de las etapas más importantes del proceso de la investigación científica es la


cuantificación de hechos o eventos observados; es decir, transformar en cifras el
producto de nuestras percepciones. Para esto, es necesario identificar con toda
exactitud la característica o atributo a ser medido en los elementos de estudio;
luego, hacer uso de un procedimiento objetivo así como de un instrumento sensible
y confiable. Sólo así la información obtenida permitirá llegar a conclusiones válidas.
En todo proyecto de investigación se debe especificar cada una de las variables
que se estudiará así como la escala de medición utilizada. Es necesario señalar
que la adecuada tipificación de las variables así como la identificación correcta de la
escala de medición, facilitan grandemente la elección del contraste estadístico para
el análisis.
280

En este acápite se describirán, brevemente, las escalas de medición que


frecuentemente se usan en los trabajos de investigación.

ESCALAS DE MEDICION
En cualquier estudio de investigación es necesario definir en qué escala se hará la
medición de las variables propuestas. Existen fundamentalmente cuatro tipos de
escalas: nominal, ordinal, de intervalo y de razón o proporción.

2.1 NOMINAL
Es el nivel más elemental de medición y consiste en clasificar los objetos de estudio
según las categorías de una variable. Para cada unidad de estudio se determina la
pertenencia a una entre varias categorías. Las categorías son mutuamente
excluyentes y exhaustivas, y no es posible establecer relaciones de orden entre las
categorías. Por ejemplo, las variables estado marital, sexo, procedencia, ubicación
geográfica se miden en escala nominal. Lo único que se logra en este nivel de
medición es la categorización o la identificación. Sirve para variables cualitativas.
Permite la comparación descriptiva entre variable o sus categorías, sin embargo no
permite la comparación cuantitativa entre ellas.

El alcance de esta escala es el conteo, y sólo los signos matemáticos de igualdad o


desigualdad hacen su presencia en esta escala de medición

2.2 ORDINAL
Este tipo de escala se usa para clasificar los objetos, hechos o fenómenos en forma
jerárquica según el grado que posea una característica determinada. Al igual que en
la escala nominal se determinan la pertenencia de las unidades a categorías. En
este caso se considera que existe un grado de intensidad de la propiedad medida,
por lo que las categorías guardan un orden, una jerarquía, pero no se obtiene
información sobre la magnitud de las diferencias entre los casos así clasificados.

De una unidad se puede decir a que categoría pertenece, puede conocerse la


frecuencia y, además, cuál es la categoría que ocupa determinada posición de
orden. Por ejemplo, dolor: leve, moderado, intenso; severidad de una enfermedad:
grado I, grado II, grado III; nivel de información sobre X aspecto: excelente, bueno,
regular y malo. La escala ordinal proporciona información en cuanto a la cantidad
de diferencia entre los objetos, pero no refleja distancia entre una y otra categoría.
Aaker expresa que debido a que no se conoce la cantidad de diferencia entre los
objetos, las operaciones aritméticas permisibles se limitan a estadísticas como la
mediana y la moda pero no a la media aritmética.

2.3 DE INTERVALO
Las escalas de intervalo poseen las características de las escalas nominales y de
las ordinales; en particular, la que se refiere al orden por rangos. Se asignan
números para indicar la intensidad de una característica, con unidad de medida y
origen arbitrarios, que se elige en base de conveniencias prácticas de tal manera
que se mantiene la igualdad de los intervalos. Aquí los números para clasificar los
objetos representan también incrementos iguales del atributo que se está midiendo.
Esto significa que las diferencias pueden ser comparadas. La diferencia entre 1 y 2
es la misma que entre 2 y 3, pero es sólo la mitad de la diferencia entre 2 y 4.Sin
embargo la ubicación del punto cero no es fija, puesto que cero no denota la
ausencia del atributo. Las variables temperatura y puntajes en un cuestionario de
conocimientos (inteligencia, rendimiento académico, nivel de información, etc.) se
miden, por ejemplo, en escalas de intervalo.
281

Aaker ( ), señala que las escalas de intervalo tienen propiedades muy deseables
porque virtualmente la totalidad del rango de las operaciones estadísticas puede ser
empleada para analizar el número resultante, incluyendo la suma y resta. En
consecuencia es posible calcular una media aritmética a partir de medidas de la
escala de intervalo.

2.4 DE RAZON
Llamada también de proporción, constituye el nivel más alto de medición
para las variables cuantitativas, contienen las características de una escala de
intervalo con la ventaja adicional de poseer el cero absoluto, lo cual permite
determinar la proporción conocida de valores de la escala.

Se asignan números para señalar la intensidad de una característica con


unidades de medida arbitraria, pero de origen fijo, lo que mantiene la igualdad de
las relaciones o proporciones. Se permiten las operaciones aritméticas con los
números que identifican las categorías. Por ejemplo: peso, talla, ingreso, CO2 en la
sangre, número de hijos, etc. se miden en escala de razón.

Cuadro 1. Tipos de escalas de medición

Escala Reglas para asignar Aplicación común


números
Nominal Los objetos son idénticos o Clasificación (por sexo,
diferentes área geográfica, clase
social).
Ordinal Los objetos son más grandes Rangos (preferencias,
o más pequeños. posición de clases).
Intervalo Los intervalos entre los Números índices, escala de
rangos adyacentes son temperatura, algunas
iguales. medidas de actitudes.
Razón Existe un punto de cero Ventas, ingresos, unidades
significativo para que las producidas, costos, edad.
comparaciones de magnitud
absolutas sean posibles
EVALUACION DE PROYECTOS DE INVESTIGACION

EVALUACION DEL PROBLEMA

La etapa de recolección y sistematización de la información teórica y


empírica y el nivel de reflexión que ella implica permite realmente reflexionar sobre
lo que se quiere investigar así como tener un avance de la comprensión del
tratamiento que otros estudiosos hayan hecho de ese problema, en estas
condiciones es posible hacer una evaluación, es decir si se justifica y es
importante desde el punto de vista del desarrollo de la ciencia, la tecnología y la
sociedad. Cuando no se tiene idea resulta materialmente imposible cumplir con
este paso.

Al referirse a este aspecto se debe tener en cuenta la trascendencia del


tema y el problema a investigar, tales como si su solución va a contribuir al
desarrollo científico y empírico, si va a conducir a nuevas investigaciones, si es
282

investigable o si está adecuado para el propio investigador. Desde esta perspectiva


hay que considerar lo siguiente:

1. Si es un problema relevante para la sociedad, como por ejemplo


investigar la necesidad de una nueva metodología en el proceso enseñanza -
aprendizaje de una determinada rama de la ciencia.
2. Si contribuye a solucionar un problema relevante para la sociedad,
derivado de lo anteriormente mencionado y que ayuda a tomar conciencia de que
su investigación apunta a la transformación de la realidad y en beneficio de la
sociedad.
3. Si es un problema relevante para el desarrollo científico y
tecnológico, pues puede ocurrir que su solución no contribuya a ello. No
contribuye cuando el problema ya haya sido suficientemente esclarecido por otros
investigadores y la investigación que se propone no tiene la perspectiva de avanzar
más allá cuando el problema es irrelevante para la sociedad.
4. Si puede ser tratado con la técnica y marcos teóricos disponibles,
porque puede ocurrir a veces que no existe aún la base teórica científica como para
abordar el problema. En este caso no queda más remedio que dejarlo solamente
planteado.
5. Si es adecuado para el propio investigador, es decir, si el que está
abordando el proyecto tiene la formación científica suficiente en el campo dentro
del cual está inmerso el problema que pretende investigar.
6. Si, finalmente es afrontado con los recursos materiales disponibles.
Del tipo de investigación depende la utilización de una serie de materiales y equipos
los que implican tener disponibles presupuestos y recursos necesarios para su
utilización y que no represente un estimado mayor que el lógicamente posible.

En algunos casos es conveniente considerar la forma o el procedimiento


para pasar de la recolección y sistematización de la información a la evaluación
del problema siendo mas natural y espontáneo en el docente que tiene una línea
de investigación ya definida, en la mayoría de los casos cuando los estudiantes
han elegido para investigar un tema seleccionado por el docente; Pueden surgir
algunas dificultades aún cuando muestren un marcado entusiasmo pues sino se
cultiva esa línea las posibilidades de una adecuada orientación no serán muy
exitosas. No obstante si los estudiantes muestran mucha voluntad pueden llegar a
cumplir con los requisitos antes mencionados en el proceso de evaluación de un
problema , por ejemplo, si llegan a valorar la relevancia o no que el problema tiene
para la sociedad.
En algunas ocasiones la evaluación del problema aparece en los modelos de
los proyectos como sinónimo de justificación e importancia, sin embargo
debe hacerse notar que estos aspectos tienen una estrecha vinculación.
Sánchez y Reyes (1987) asumen que la justificación e importancia responde al
porqué de la investigación, en tal sentido se puede destacar su importancia o
justificar la investigación considerando los criterios siguientes:
i) Puede haber una justificación legal, si el problema a investigar cumple
con exigencias dispositivos y directivas de dependencias que fijan políticas de
investigación.

ii) Puede mostrarse la importancia de un estudio desde el punto de


vista teórico - científico o tecnológico si se orienta al desarrollo e la ciencia o de la
técnica.
283

iii) Puede mostrarse la importancia práctica del estudio en el sentido de


que sus resultados permitan reajustar políticas de acción inmediata sobre un
determinado fenómeno o hecho.

Se han sugerido diversas reglas para plantear un problema de investigación


como las de Bunge (1982) o las de Gortari (1988 ) sin embargo creemos que es
conveniente dejar sentado los criterios siguientes al momento de evaluar un
problema:
1. las preguntas deben señalar con claridad y precisión lo que se requiere
investigar.
2. Las preguntas deben basarse en información teórica y empírica:
 Teórica: significa, que debe fundamentarse en un marco teórico
científico y que se deben seleccionar los conceptos más operativos que
articulados con los mas generales permiten reflejar real y
concretamente el objeto de la investigación.
 Empírica: debe incorporar información empírica elaborada por la ciencia
en la que se inscribe el problema y por el propio investigador.
 Debe expresar una relación entre dos o más variables.
 Se debe tener en cuenta las posibilidades de comprobación empírica.
 Si el problema se ha formulado con la rigurosidad lógica pertinente.
 Se debe considerar si en la formulación y planteamiento del problema
se ha utilizado el lenguaje científico.
En este punto consideramos necesario el deslinde terminológico entre el
planteamiento del problema, entendido como la aprehensión del objeto de
estudio por el método de investigación científica es decir apropiarse de la materia
de investigación en todos sus detalles, analizar sus distintas formas de desarrollo y
descubrir sus vínculos internos. El otro aspecto es la exposición del problema que
es la forma como el investigador ordena su discurso, es decir las distintas formas
en las que plantea, delimita, justifica y formula o enuncia el problema de
investigación. En este último caso se sugieren evaluar las pautas siguientes:

-1. Si el problema conserva la lógica interna, es decir, si hay coherencia


entre las ideas que se exponen, considerando en muchos casos la esquematización
de las ideas eslabonadas unas con otras.
-2. Si las preguntas han sido formuladas con claridad y precisión.
-3. Si en la fundamentación del problema hacen referencia a los avances
que otros científicos han producido sobre el problema; pero sin entrar en mayores
detalles y en el caso de que el problema se haya originado por experiencia propia,
que éste sea explicado muy brevemente.

EVALUACION DEL MARCO TEORICO


En este aspecto debe evaluarse:

1. Si el marco teórico tiene sustento en a) La teoría general y el


conocimiento teórico científico actualizado en que se encuentra el problema y b)El
conocimiento empírico del problema.

2. Si es la explicación primera del investigador, teórica e integral del


objeto de estudio o del problema.

3. Si considera el aspecto novedoso del investigador sobre el


problema en estudio y que posibilite una crítica que supere las concepciones
existentes sobre el objeto o problema en estudio.
284

4. Si posibilita el desarrollo de la hipótesis las que se encuentran


inmersas en el marco teórico, pero que sin embargo es necesario precisarlas.

5. Si está bien formulado; es decir:

i) Su construcción debe guardar una lógica interna en si misma.


ii) Si mantiene la lógica en el conjunto del proyecto especialmente frente a la
interrogante y las variables del problema que se plantea.

6. Si utiliza el lenguaje científico, que es mucho más exigible que cuando


se plantea el problema y no solo en el sentido del manejo apropiado de los
conceptos y categorías, sino también en el sentido sistemático y lógico de su
construcción.

El marco teórico de un proyecto es el resultado de un arduo trabajo por


parte del investigador, luego que se considera que ya se tiene la concepción sobre
el problema en estudio, hay necesidad de exponerlo siguiendo la dirección general:
de lo simple a lo complejo. Del fenómeno a la esencia. Al respecto Tecla ( l980 )
considera que es una etapa de discriminación donde se elimina aquella
información que resultó falsa o irrelevante y donde se omiten las tentativas fallidas
o tentativas falsas, considerando puntualmente que el método de exposición del
marco teórico comprende la selección y el desarrollo de la forma mas adecuada
para nuestros fines.

Generalmente se debe considerar si el marco teórico:

1. Tiene una lógica interna que articule diversas concepciones.

2. Si las concepciones seleccionadas se presentan con un nivel de


desarrollo que posibiliten una comprensión integral de los problemas planteados
. 3. Si el camino de la exposición es unidireccional, es decir que exponga el
tema desde lo general a lo particular o viceversa.

4. Si utiliza las categorías simple y complejo, fenómeno y esencia se sigue


generalmente este camino: de lo simple a lo complejo y del fenómeno a la esencia.

Finalmente se debe evaluar si se ha cumplido con las normas sugeridas


para la exposición del marco teórico:

 Conservar la lógica interna.

 Presentar con claridad: las categorías, las críticas a otras


concepciones y al propio enfoque del investigador

 La sustentación y fundamentación de las críticas a otras


concepciones y de su propio enfoque se harán con un nivel de
desarrollo que pueda ser comprensible por los lectores del
proyecto.

 La forma de presentar el texto varía, sin embargo se sugiere


abarcarlo desde lo simple a lo complejo y del fenómeno a la esencia.
285

 Para los que recién se inician en la investigación sería muy conveniente


seguir este esquema: i) primero presentar las categorías y conceptos
centrales; ii) segundo presentar los enfoques o concepciones elaborados
por otros investigadores con su respectiva crítica y iii) tercero, presentar
la concepción propia del investigador. El que puede ser perfeccionado a
medida que adquiere más experiencia.

EVALUACION DE LAS HIPOTESIS

En este aspecto se debe evaluar si realmente la sistematización de las


hipótesis obedece a criterios esbozados por autores de reputación tales como
Kopnín (1966) que señala que las hipótesis constituyen el camino indispensable
para el descubrimiento de las leyes, para la creación de teorías fidedignas.

La mayoría de concepciones sobre la hipótesis es que es una respuesta


probable frente al problema o una solución adelantada que se hace sobre la base
de conocimientos teóricos y empíricos de carácter complejo y sistemático que se
organiza especialmente para explicar el problema que se investiga y que es núcleo
central de la suposición.

Se debe considerar además que las hipótesis tienen su nacimiento con el


mismo planteamiento del problema. Moya (1994) afirma que: el comienzo de lo
nuevo aún desconocido en el problema significa que él señala la dirección hacia la
cual apuntará la investigación para encontrar el nuevo conocimiento que se busca
y su entorno. Igualmente se resalta de la literatura que el conocimiento probable
antes de ser hipótesis es una conjetura; es decir cuando el investigador lanza su
primera respuesta frente al problema planteado aún sin argumentaciones
teóricas ni empíricas, es decir una suposición inicial, cuyos fundamentos teóricos y
empíricos aún no se conocen, sin embargo se debe considerar que este es un
eslabón importante en el proceso de la investigación mas adelante a medida de que
se nutre de l conocimiento científico teórico y empírico se llega a la formulación de
la hipótesis de investigación.

De lo expuesto anteriormente se afirma que la hipótesis se perfila y


desprende del marco teórico ya que éste le da el soporte necesario y el encuadre a
la suposición y por otro enunciar una explicación probable a la exigencia de la
interrogante algunos autores consideran que los conocimientos de las hipótesis: los
conocimientos verdaderos; los conocimientos probables y la suposición
conllevan a definir que la suposición es considerada como el alma de las
hipótesis.

Es indudable que existe una estrecha correlación entre hipótesis y problema


generalizándose que se integran en un sistema, una totalidad y que en el proceso
de investigación se establece una lógica de hipótesis a problema.

En esta fase se debe evaluar si el planteamiento de la hipótesis se hace


sobre la base de su fundamentación teórica y empírica como una respuesta
probable al problema y considerar los criterios siguientes:

1. Que la respuesta probable al problema sea precisa; es decir relevar,


poner en primer plano, a la suposición que originará la hipótesis.
286

2. Que sea científicamente fundada, es decir, garantizada por suficientes


conocimientos teóricos y empíricos

3. Que sea factible de comprobación o verificación

4. Que establezca relaciones entre variables.

5 Que sea lógicamente coherente con el conjunto del proyecto,


particularmente, con el problema y el marco teórico, lo que se obtiene en la práctica
verificando que la hipótesis responda al problema; que las ideas contenidas en ellas
no sean contradictorias.

6. Que los enunciados sean claros y precisos con el uso adecuado del
lenguaje científico.

Es importante además identificar las variables del objeto en estudio y en


una investigación de tipo experimental considerar que la variable independiente
es la causa, es el estímulo; y es aquella que el investigador puede controlar o
manipular en función de lo que pretende obtener como resultado exacto y confiable
(VICAES) y que en el enunciado de la hipótesis constituye el sujeto de la oración,
igualmente identificar la variable dependiente considerada como el efecto de la
variación de la variable independiente (VADEF) y que en el enunciado es el
predicado o el criterio

En este mismo proceso identificar las variables intervinientes las que deben
ser controladas para “evitar“su acción en el experimento. De una adecuada
identificación de las variables dependerá su operacionalización y por lo tanto la
selección de los indicadores pertinentes.

Por un proceso deductivo seleccionar las consecuencias lógicas permitirá


establecer un diseño lógico adecuado y posteriormente un diseño experimental de
acuerdo a los criterios expuestos por Campbell y Stanley (1979); Sánchez y
Reyes(l987); Goode y Hatt (1986) y otros que definan adecuadamente el proceso
de contrastación de las hipótesis en términos de fácil comprensión y explicación
que posteriormente permitirá establecer todo el diseño metodológico.

EVALUACION DE MATERIAL Y METODOS

Se debe delimitar adecuadamente el área de estudio sobretodo cuando se


trata de estudios descriptivos considerando:

1. Lugar donde se realizará el estudio.


2. Delimitación geográfica.
3. Institución y otras consideraciones témporo-espaciales

Las consideraciones de población y muestra son de singular importancia


pues la primera es aquella en la que se generalizarán los resultados y de la cual
únicamente se tomará una porción adecuada para que, realizadas las mediciones
se puedan hacer las inferencias respectivas.

Se evaluará aquí la delimitación del tamaño de la población y la muestra


asociada a criterios de tiempo, costo, profundización del análisis de variables y su
control. . En la mayoría de los casos se debe indicar la fórmula utilizada para
287

determinar el tamaño de la muestra y las consideraciones pertinentes para su uso;


adoptadas para su selección, e igualmente verificar si el proceso de muestreo es
el mas adecuado para cumplir con los requisitos señalados por Pardinas(1979) que
expresa que: el muestreo consiste en seguir un método, un procedimiento,
tal que al escoger un grupo pequeño de una población se pueda tener un
grado de probabilidad de que ese pequeño grupo posea efectivamente las
características el universo que estamos estudiando

El diseño o técnica de observación implica generalmente la esquematización


de todo el proceso que comprenderá la experiencia (en el caso de los estudios
descriptivos) o el experimento (en el caso de estudios experimentales). Es mucho
más didáctico presentar un esquema que escribir cientos de palabras. Sin embargo
la secuencia lógica y ordenada en que se presenta es un punto importante a
considerar.

En lo relacionado a instrumentos se debe evaluar las características de los


instrumentos de lápiz y papel (formularios, encuestas, etc.) y los de medición
en lo relacionado a su confiabilidad y validez e igualmente la pertinencia del uso en
el momento necesario y concreto (Hernández et al, l994).

Las técnicas de recolección de datos debe ser planificada a fin de dar


respuesta objetiva al problema planteado y a la hipótesis formulada dependiendo
del tipo de estudio y los indicadores de las variables a medir.; aquí es conveniente
considerar los criterios de Cervo y Bervian (1980) que sugieren reglas para la
observación como un proceso fundamental en el acopio de datos.

Las técnicas de análisis deben describir los métodos para presentar los
datos, por ejemplo en cuadros, figuras y gráficos pues éstos constituyen medios
esenciales para organizar y resumir una serie completa de datos
Desde la fase de planeamiento el investigador se formará una imagen mental
sobre como organizar los datos y presentarlos en forma tabular

Las técnicas estadísticas dependen de los diseños estadísticos y no a la


inversa en otros términos el investigador decide cual diseño permitirá observar las
relaciones hipotéticas y enseguida selecciona el procedimiento que concuerde con
sus preguntas y con la índole de sus datos. No elige primero una técnica atrayente
y diseña después el estudio para que encaje en ella. .Un criterio importante es
asegurarse de que la información sea buena y confiable antes de proceder a
planificar cualquier tipo de análisis.

Un plan de tabulación podría ser correctamente evaluado si considera:

i) En detalle las variables identificadas que serán objeto de estudio.


ii) Determinadas las variables que serán analizadas individualmente o
aquellas que involucren cruce según el número y las escalas de
clasificación.
iii) En algunas ocasiones incluye el listado de cuadros que se presentarán.

Pineda et al (1994) consideran que el plan de análisis es un aspecto muy


importante pues es lo que determinará si se da respuesta a las preguntas de
investigación y que involucra el tratamiento estadístico de los datos, en términos
generales describe como será tratada la información, los mismos autores
288

establecen una relación muy interesante entre las escalas de medición y las
estadísticas por nivel que se exponen a continuación:

Escala Nominal : Modo, frecuencia, coeficiente de contingencia, Chi


cuadrado.
Escala Ordinal : Mediana, percentiles, rangos, cuartiles, Spearman rho,
Kruskal-Wallis (mas todas las anteriores ).
Escala de intervalo: Promedio, desviación estándar, varianza y correlación
de Pearson; correlaciones proporciones múltiples,
Prueba T, Prueba F, análisis de varianza (mas todas
las anteriores).

Mayores explicaciones y mas directas se obtendrán si se comparan las


consideraciones hechas en el proyecto con lo sugerido por Morles (1977) y Torres
(1994). Que se adjuntan

GUIA PARA LA EVALUACION DE PROYECTOS


DE INVESTIGACION

PUNTAJE No
ASPECTOS 0 1 2 345 Aplicables

A) Cualidades del Tema


1. Importancia del problema
2. Originalidad
3. Interés
4. Factibilidad
5. Delimitación

B) Cualidades Teórico-Conceptuales
6. Formulación del problema
7. Objetivos de la investigación
8. Limitaciones
9. Revisión de la literatura
10. Bases teóricas
11. Definición de términos
12. Supuestos
13. Sistemas de variables
14. Sistemas de hipótesis

C) Cualidades Metodológico-Operacionales
15. Población y muestra
16. Diseño de observación
17. Instrumentos
18. Técnicas de recolección de datos
19. Técnicas de análisis
20. Estudio piloto
21. Recursos propuestos

D) Cualidades Formales
22. Lenguaje y estilo
23. Presentación
289

24. Bibliografía
25. Anexos

EVALUACION GENERAL
PUNTOS

GUIA PARA LA EVALUACION DE PROYECTOS


DE INVESTIGACION

PUNTAJE No
ASPECTOS 0 1 2 3 4 5
Aplicables

A) Cualidades del Tema


1. Importancia del problema
2. Originalidad
3. Interés
4. Factibilidad
5. Delimitación

B) Cualidades Teórico-Conceptuales
6. Formulación del problema
7. Objetivos de la investigación
8. Limitaciones
9. Revisión de la literatura
10. Bases teóricas
11. Definición de términos
12. Supuestos
13. Sistemas de variables
14. Sistemas de hipótesis

C) Cualidades Metodológico-Operacionales
15. Población y muestra
16. Diseño de observación
17. Instrumentos
18. Técnicas de recolección de datos
19. Técnicas de análisis
20. Estudio piloto
21. Recursos propuestos

D) Cualidades Formales
22. Lenguaje y estilo
23. Presentación
24. Bibliografía
25. Anexos
290

EVALUACION GENERAL PUNTOS

DISEÑO METODOLÓGICO

Se consideran los aspectos siguientes:


1. Tipo de estudio
2. Área de estudio
3. Universo y muestra
4. Métodos e instrumentos de análisis
5. Plan de tabulación y análisis
6. Procedimientos.

Se debe delimitar adecuadamente el área de estudio sobretodo cuando se trata


de estudios descriptivos considerando: 1.lugar donde se realizará el estudio. 2.
Delimitación geográfica. 3. Institución y otras consideraciones temporo-espaciales

Las consideraciones de población y muestra son de singular importancia pues


la primera es aquella en la que se generalizarán los resultados y de la cual
únicamente se tomará una porción adecuada para que, realizadas las mediciones,
se puedan hacer las inferencias respectivas. Se evaluará aquí la delimitación del
tamaño de la población y la muestra asociada a criterios de tiempo, costo,
profundización del análisis de variables y su control.. En la mayoría de los casos se
debe indicar la fórmula utilizada para determinar el tamaño de la muestra y las
consideraciones pertinentes para su uso. adoptadas para su selección, e
igualmente verificar si el proceso de muestreo es el mas adecuado para cumplir con
los requisitos señalados por Pardinas (1979) que expresa que: el muestreo
consiste en seguir un método, un procedimiento, tal que al escoger un grupo
pequeño de una población se pueda tener un grado de probabilidad de que
ese pequeño grupo posea efectivamente las características del universo que
estamos estudiando

El diseño o técnica de observación implica generalmente la esquematización


de todo el proceso que comprenderá la experiencia (en el caso de los estudios
descriptivos) o el experimento (en el caso de estudios experimentales). Es mucho
mas didáctico presentar un esquema que escribir cientos de palabras, sin embargo
la secuencia lógica y ordenada en que se presenta es un punto importante a
considerar.

En lo relacionado a instrumentos se debe considerar las características de los


instrumentos de lápiz y papel (formularios, encuestas, etc.) y los de medición en
lo relacionado a su confiabilidad y validez, e igualmente la pertinencia del uso en
el momento necesario y concreto,(Hernandez et al, l994).

Las técnicas de recolección de datos debe ser planificada a fin de dar


respuesta objetiva al problema planteado y a la hipótesis formulada dependiendo
del tipo de estudio y los indicadores de las variables a medir.; aquí es conveniente
291

considerar los criterios de Cervo y Bervian (1980) que sugieren reglas para la
observación como un proceso fundamental en el acopio de datos.

Las técnicas de análisis deben describir los métodos para presentar los datos,
por ejemplo en cuadros, figuras y gráficos pues éstos constituyen medios
esenciales para organizar y resumir una serie completa de datos, por lo que desde
la fase de planeamiento el investigador se formará una imagen mental sobre
como organizar los datos y presentarlos en forma tabular

Las técnicas estadísticas dependen de los diseños estadísticos y no a la


inversa en otros términos el investigador decide cual diseño permitirá observar las
relaciones hipotéticas y en seguida selecciona el procedimiento que concuerde con
sus preguntas y con la índole de sus datos. No elige primero una técnica atrayente
y diseña después el estudio para que encaje en ella. Un criterio importante es
asegurarse de que la información sea buena y confiable antes de proceder a
planificar cualquier tipo de análisis.

Un plan de tabulación podría ser correctamente formulado si considera:

i) En detalle las variables identificadas que serán objeto de estudio.


ii) Determinadas las variables que serán analizadas individualmente o aquellas
que involucren cruce según el número y las escalas de clasificación.
iii) En algunas ocasiones incluye el listado de cuadros que se presentarán.

Pineda et al., (1994) consideran que el plan de análisis es un aspecto muy


importante pues es lo que determinará si se da respuesta a las preguntas de
investigación y que involucra el tratamiento estadístico de los datos, en términos
generales describe como será tratada la información, los mismos autores
establecen una relación muy interesante entre las escalas de medición y las
estadísticas por nivel que se exponen a continuación : en la escala nominal
(Modo , frecuencia, coeficiente de contingencia, Chi cuadrado); en la escala
ordinal ( Mediana, percentiles, rangos, cuartiles, Spearman rho, Kruskal-Wallis,
mas todas las anteriores ) y en la escala de intervalo :(Promedio, desviación
estandar, varianza y correlación de Pearson correlaciones proporciones múltiples,
Prueba T, Prueba F, análisis de varianza; mas todas las anteriores). Mayores
explicaciones y mas directas se obtendrán si se comparan las consideraciones
hechas en el proyecto con lo sugerido por Morles (1977) y Torres (1994), que se
adjuntan

“Un hoy vale por dos mañanas, si amas la


vida, economiza el tiempo, porque de
tiempo se compone la vida”.
B. Franklin
292

ESTADÍSTICA INFERENCIAL: RECUERDOS Y RECOMENDACIONES

La investigación científica tiene tres pilares que soportan su complicada


estructura. Estos pilares son:
a. Lógica, destinada a velar por la conservación de la verdad en los juegos
interferenciales propios de la ciencia; es decir que cuando se deduce e induce,
no surjan desviaciones y se produzcan resultados fallados o falsos.
b. Lenguaje, medio general de transmisión de ideas, las que deben ser
reproducidas fielmente sin distorsiones, sin apartar de la realidad, es decir que
cuando algo se dice con palabras se usen las adecuadas y se organicen de
manera tal que no siembren dudas u otras ideas no relativas al asunto, dentro
de los linderos de la semántica y la sintaxis.
c. Estadística, destinada por un lado a describir clara y simplemente las
realidades; a representar las, independientemente de su magnitud, aunque
fueran muy grandes las dimensiones que pudieran ostentar y a determinar el
comportamiento de esas grandes magnitudes empíricas en comparación con
los comportamientos normales (teóricos), de otro lado. Corresponde la primera
a la Estadística Descriptiva, a la Inferencial la segunda.

Se tratará ahora, de algunas partes del tercer pilar de la ciencia, de aspectos


teóricos y prácticos de la Estadística Inferencial, útil para investigadores poco
relacionados con la doctrina matemática en busca de mejor entendimiento con el
asesor especialista.
La estadística inferencial o analítica tiene una sola finalidad dominante:
determinar si los hallazgos tienen significación estadística. Se sabe que
significación estadística debe entenderse como la medida de la poca participación
del azar en los resultados. Esto quiere decir que si el azar participa mucho en los
resultados no hay significación estadística y si lo hace discretamente los resultados
son significativos. El valor convencional que sirve de punto crítico es 5%. Entonces
si se obtienen valores de 2%, 12%, 30% y 0.1%; se estará frente a resultados
significativos, no significativos, no significativos y significativos; respectivamente.
De lo mencionado anteriormente se pude concluir un hecho muy importante tan
importante como elemental y obvio que la aplicación de la estadística inferencial
sólo será procedente en caso de participación al azar. Es decir cuando se trabaje
con muestreo aleatorio. De ninguna manera en los censos. Ni cuando se confíe en
293

la opinión de expertos que usa el muestreo no aleatorio, en la solución de muchos


problemas científicos.
También resultará conveniente el tener en cuenta que un resultado
significativo no es prueba de verdad, es sólo un testimonio, algo que advierte si se
está caminando cerca de la teoría matemática o muy lejos de ella, tanto que
podríamos estar totalmente perdidos.

Significación estadística es la probabilidad de participación del azar en los


resultados de un experimento, se representa por p y su cálculo requiere de los
resultados del experimento perfectamente planificado y de muchos conocimientos
de la teoría estadística: pruebas, modelos, potencia, eficiencia, colas, zonas de
aceptación y rechazo, errores alfa y beta, parámetros, estadísticos, correlaciones,
progresiones, varianza, tablas, formulas, etc.

Como el conocimiento científico es un conocimiento intencional, para


lograrlo se necesita una adecuada y completa planificación. La actividad científica
es un a actividad intelectual, del más alto nivel, que no puede ser tributaria de la
improvisación ni del descuido. En esta etapa de planificación, que el investigador,
decide las pruebas a usar; es en esta etapa que debe consultar al asesor
especialista. Pues muchas veces aun cuando la muestra no sea aleatoria, el azar
puede intervenir en la distribución de los elementos a tal o cual grupo de
observación, a tal o cual variable estímulo.

Uno de los problemas más complicado, para los investigadores con pobre
formación estadístico, es la selección de la prueba. Entran en juego muchos
factores, por un lado y existe diversidad de pruebas, por el otro. Las pruebas se
clasifican en paramétricas y no paramétricas; pero esta no es una clasificación
exclusiva y excluyente. Hay casos de uso de unas siendo no paramétricas y de
otras paramétricas, con resultados muy similares; como también hay pruebas
mixtas. Así mismo, debe recordarse que todas las distribuciones, cuando aumentan
de tamaño terminan por normalizarse, es decir toman las características de la
distribución normal.

Sin embargo, esta multitud creciente de pruebas derivan de pocos modelos


estadísticos, todos destinados a obtener el valor p.
294

Valor P
Para calcular el valor p deben darse los siguientes pasos:
- ejecutar la investigación planeada.
- Obtener los datos
- Ordenar y presentar los datos con el auxilio de la estadística
descriptiva.
- Identificar la existencia de distribución y, si la hay conocida, su tipo.
- Alimentar la fórmula correspondiente y realizar cálculos.
- Obtener el valor experimental.
- Obtener el valor tabular, que requiere de tomar en cuenta el tipo de
distribución.
- Tomar en cuenta el tamaño de muestra.
- Establecer los grados de libertad, si son pertinentes.
- Ubicar la tabla y leer en ella

El valor tabular obtenido será comparado con la siguiente escala


convencional:

P < 0.05 = significativo


P < 0.01 = muy significativo
P < 0.001 = altamente significativo

En síntesis: si P> 0.05 no hay significación estadística, el azar participa


demasiado y podría ser el principal responsable de las diferencias observadas.

MODELOS ESTADÍSTICOS
Los modelos estadísticos sirven para derivar las fórmulas estadísticas o
estadísticos, simplemente; que son muchos y que día a día se incrementan por
nuevas creaciones.
Los principales y más comunes resultan de comparar:
- Parámetro con estadístico
- Estadístico con estadístico
- Frecuencia observada con esperada
- Sucesiones observadas con esperadas.
295

- Valores de variables con valores de otra variable u otra observación.


- Dato A con Dato B por pares.

 Parámetro con estadístico:


Compara valores poblacionales conocidos o supuestos con valores
muestrales de la misma naturaleza. Es decir, por ejemplo, el promedio poblacional
con el muestral o las varianzas de ambos, muestra y población o las proporciones
poblacionales y muestrales.

En la práctica se usa para investigar incidencias o prevalencias. Si se sabe,


por ejemplo, que tal enfermedad tiene una tasa de 64%. Cabe preguntar ¿Ha
bajado realmente? ¿La diferencia es fruto de las fluctuaciones del azar?
Se pretende determinar si la diferencia es real o fluctuación por azar. La
prueba paradigma de este modelo es la Prueba Z.

 Estadístico con estadístico:


Compara valores de dos muestras. El promedio de una muestra
experimental con el promedio del testigo, por ejemplo, o la varianza de ambos o las
proporciones de dos muestras.
Se usan los valores sintéticos o consolidados de cada muestra. En otras
palabras, que si las muestras tienen:
X = 3 resultante de los datos 2, 2, 4,4
X = 4 resultante de los datos 3, 3, 5,5
Se utilizan los valores 3 y 4 (medias) o los datos 2, 2, 4,4 y 3, 3, 5,5.

En la práctica sirve para establecer si la variable independiente o estímulo


es efectiva. Pues de ocurrir así, los estadísticos tendrán diferencias significativas,
entr los grupos experimental y testigo.
Las pruebas prototipo de este modelo son la F de Fisher y la t de Student.

Análisis de varianza
El análisis de la varianza resulta útil y certero para estudiar series de una,
dos o más variables (uni, bi y polivarianza). Establece las varianzas en las serie de
datos, por campos para ser comparados con la varianza total, y establecer así el rol
del azar y cada una de las subcategorías de las variables.
296

El valor práctico radica en permitir estudiar múltiples factores de una sola


vez, con gran potencia y eficacia, que no se lograría; por ejemplo si en una serie de
cuatro observaciones aplicáramos la prueba t varias veces y que además elevaría
incontrolablemente el error beta.

El análisis de la varianza en la práctica podría servir para comparar varios


fármacos en el tratamiento de determinado proceso patológico o varios factores
causales.

 Frecuencia observado con esperada


No requiere del conocimiento del tipo de distribución ni de varianza. Este
modelo consiste en contar cuántos casos positivos hay en la muestra aleatoria,
para compararlos con las frecuencias esperadas, teóricas o predeterminadas.
En la práctica sirve para establecer a asociación o independencia de dos o
más variables, sin relación causa – efecto definitivo o necesario.
El paradigma de este modelo es la Prueba del X 2, que busca medir la
aleatoriedad de los resultados.
 Sucesiones observadas con esperadas
Cuando no existen más valores matemáticos que los contajes, la
aleatoriedad se puede establecer únicamente por la sucesión de los datos.
A la aparición continuada de la misma calidad o categoría se llama
Sucesión o Racha. Si observamos el orden de aparición experimental y
comparamos con el orden probable o teórico estamos en tal caso. En estas ideas
se basa toda la estadística no paramétrica. Es decirla estadística de las cualidades
o de los atributos, de todo lo que no es medible, de todo lo que es sólo contable.
Tal el valor práctico de las Pruebas de la mediana, de los signos, la U; entre
otras muchas.

 Cada valor de una variable con los de otra.


Es este un modelo muy importante. Compara cada valor de una variable en
dos observaciones de la misma o de otra. Incluye:
- Correlaciones
- Regresiones
297

Busca asociaciones y relaciones causa – efecto, es altamente


discriminativos y permite anticipar valores no conocidos (regresiones) y
responsabilidades en los cambios.
En la práctica las correlaciones miden el grado de asociación, entre valores
observados, sin relación causa – efecto y sin posibilidades de proyección Ro(r) el
índice de correlación toma valores entre 1,0, - 1; para a correlación directa,
independencia e indirecta, respectivamente, cuando son perfectas, con la existencia
de todos los valores intermedios y sin delimitaciones netas y puntuales.
Entiéndase que correlaciones miden cuánto y en qué forma se asocian dos
variables, sin que una sea responsable de los cambios de otra. Sólo nos dice éstos
caminan junto o separados y cuan ligadas.
La regresión sí trata de establecer una relación causal y el grado de ella,
tanto que permite anticipar valores no observados con gran certeza.

 Dato con dato


Corresponde al modelo secuencial. Consiste en seleccionar aleatoriamente
un primer caso par someterlo a cierto tratamiento A o B y dar al siguiente el otro
tratamiento no seleccionado inicialmente. Comparar los resultados de la pareja y
anotar en gráfica ad – hoc al ganador; para seguir de la misma manera hasta
rebasar cierto límite previamente establecido, en función de la magnitud del valor p.
Se trabaja sin tamaño predeterminado de muestra y es muy práctico para
observaciones clínicas.

MODELOS DE DISTRIBUCIONES PROBABILÍSTICAS


Son esenciales para la inferencia; puesto que permiten calzar el modelo
experimental con la prueba pertinente.

Modelo de Bernoulli:
Aplicable cuando la variable aleatoria puede asumir sólo dos valores.
Ejemplo:
1 y 0 con p y q como sus probabilidades respectivas y p+q con E(x)=u=p y
V(x)=s2=E(x2)=p-p2=p(1-p)=pq
Casos:
Cuando el resultado dé un evento o su supuesto
Éxito – fracaso
298

Positivo – negativo
Femenino – masculino
Defectuoso – no defectuoso

Modelo Binomial:
Equivale a series repetidas e independientes de Bernoulli, con las
propiedades siguientes:
1.- Se repite experimento sencillo varias veces y resultados son
independientes.
2.- Resultados son dos categorías mutuamente excluyentes (éxito-fracaso).
3.- La probabilidad (p) de éxito en una prueba es invariable en todas sus
pruebas.
(q) probabilidad de fracaso= (1-p).
4.- En pruebas determinadas se buscan resultados positivos o no.
5.- Se realiza experimento idéntico en número fijo de pruebas.

La variable Binomial es discreta y tiene n+1 valores posibles. Sirve para


resolver problemas como:
¿En número de pruebas, cuál es la probabilidad de obtener x éxitos?
La función probabilística binomial se representa con la expresión:
b (x;n,p)=(ca)pxqx-n término de Binomial! (q+p)n con E(x)=np y V(x)=npq

Modelo Multinomial:
También se ocupa de pruebas independientes como el Binomial que puede
considerarse un caso especial, pues el Multinomial resulta de reemplazar los
coeficientes Binomiales por Multinomiales.
Aplicable a experimentos como:
-K resultados posibles mutuamente excluyentes.
-Con probabilidades p1+p2+……pk=1
-Repetido el experimento n veces sirve para resolver problemas como:
¿Cuál es la probabilidad de obtener exactamente x1 ocurrencias en e1 x2 en
e2 …..xk en ek; dado que x1 + x2 + x3 ………xk-n?

Modelo Hipergeométrico:
299

Aplicable a muestreo de población finita sin reemplazo, con elementos cuyos


resultados pueden ser solo de dos categorías: éxitos-fracasos. Con eventos
de-pendientes por no haber reemplazado y con probabilidades que varían
con cada tirada. El núnero de éxitos en las n pruebas dependientes se llama
Variable Hipergeométrica y se genera con tres números fijos N n y k.
El Modelo Hipergeométrico es mejor que el Binomial si el muestreo es
destructivo.

Modelo Uniforme Discreto:


Aplicable a experimentos que pueden terminar en n formas mutuamente
excluyentes e igualmente posibles. Con expresión:
u (x,r)=1/(Nn)

Modelo de Poisson:
Aplicable cuando interesa conocer la ocurrencia de un evento más no su
ocurrencia, como:
1.- Probabilidad de las n ocurrencias por unidad de tiempo o espacio t,
idénticas; sin importar tamaño para determinación del promedio.
2.- Eventos independientes entre intervalos temporo-espaciales.
3.- Promedio constante y positivo, que determina para intervalos pequeños:
Eventos proporcionales a intervalos.
Probabilidad de más de un evento en intervalos despreciables.
La función de probabilidad es:
P (r;u)=S(x;u)

Modelo Uniforme y Continuo:


Corresponde a variable aleatoria cuyo valor está comprendido en intervalo
finito para número finito, con probabilidades constantes. La probabilidad de
un subintervalo tendría la probabilidad proporcional a la longitud del
subintervalo.
Modelo Exponencial:
Ante una secuencia de eventos que siguen la Ley de Poisson, en una tasa
de u eventos por unidad de tiempo cabe preguntar ¿Cuánto tiempo
necesitamos esperar para observar la primera ocurrencia de un evento?
Con P(x)>x=P( no ocurrencia en (O, x))=eu donde:
300

u =medida de ocurrencia por unidad de tiempo


x =intervalo entre sucesos
e =base de logaritmos naturales

Modelo Normal General:


Con variable continua, con las constantes u y s, con valores de la medida
entre menos y más infinito.
Propiedades:
a. está definida la probabilidad por la distancia entre mu y sigma.
b. a mayor desviación de mu a x, menor probabilidad de densidad de x.
c. la curva para n tiene 2 puntos de inflexión a distancia sigma.
d. la curva nunca toca el eje de las x, va al infinito.
e. cambio de una mu desplaza toda la distribución, mientras el sigma altera
posición relativa.
f. cambio linear de escala da distribución normal.
g. si los valores de la variable son independientes su suma también lo es.
h. si X está normalmente distribuida Z = (x -)/s. transforma x a Z en unidades
de desviación estándar.

Modelo Normal Estandarizado:


Una distribución estandarizada si  = 0 y s2 = 1 con función de distribución.
P(a< x <b) = N(b) – N(a)
El modelo de distribución normal; es el más importante porque:
- muchos fenómenos siguen la ley de probabilidad normal.
- Se aproxima a muchas distribuciones.
- De él derivan otras como t, X2 y F.
- Y se convierten en normal cuando el tamaño es suficientemente grande.

Pruebas Estadísticas
Derivan de los modelos revisados y son múltiples. Pero en general buscan
valores estandarizados del error estadístico.
Recordemos que error estadístico se llama a la diferencia entre el parámetro
y el estadístico, entre valores poblacionales verdaderos y los muestrales obtenidos.
En general:
EE = P – E
301

Ejemplos:
EE =  - x
EE = s2 – s2
Pero como la media, median, moda, proporciones, etc, serán muy distintas
de una variable a otra hay necesidad de convertirlas a valores uniformes para poder
compararlas e inferir acertadamente. Es decir hay que expresarlas en las mismas
unidades, a esto se llama estandarizar y se logra dividiendo el error estadístico por
el error estándar o desviación de la media.
Si trabajamos con tallas  (mu) podría resultar en 175 cm y la media
muestral x en 170; entonces el error estadístico será 175 – 170 = 5 cm. Pero si lo
hacemos con hemoglobina con media poblacional de 14 y muestrale de 13 el error
estadístico será 1 g. Más ¿Qué conclusión podemos sacar de comparar 5cm con
1g? De allí la necesidad de la estandarización. Esta se logra convirtiendo los
valores a unidades de desviación correspondiente. Para el ejemplo planteado, los
errores estándar estimados son de 2cm y 0.5g.; respectivamente, que nos darían
unidades estandarizadas Z = 2.5 y 2. Demostrando gran similitud en los
comportamientos de variables y de unidades tan diferentes. Las inferencias
resultarán más próximas a la realidad y tendrán más sentido.

Clases de Pruebas Estadísticas


a. Paramétricas
Z para medias
Para proporciones
X2 para varianza
F
T para desviación poblacional desconocida n pequeña
Para dos media con n pequeña con muestras dependientes.
b. No paramétricas
Mediana para sucesiones del signo
X frecuencia de dos o mas clases para independencia (contingencia) para
homogeneidad.
Mediana para dos muestras independientes para dos muestras iguales.
Wald-wolfowitz para muestras independientes.
Wilcoxon para dos muestras iguales.
H de Kruskal-Wallis
302

U de Mann-Whitney

c. mixta
Correlaciones
Regresiones

Ejemplos:

- Caso 1
Hipótesis:
El tratamiento A es mejor que el B
Resultados
Media (DS) n ANTES DESPUÉS
Grupo A 10 25(0.6) 20 (0.2)
Grupo B 8 24(0.5) 22 (0.5)
Identificación de Datos:
Antes Después
25 = Xa 20 = Xa
24 = Xb 22 = Xb
0.6 = Sa 0.2 = Sa
0.5 = Sb 0.5 = Sb
nA = 10 nB= 8
Análisis:
Tipo de variable : continua
Tipo de prueba : paramétrica
Tamaño de muestra : pequeña
Modelo estadístico : estadístico
con estadístico
Conclusión: Prueba F
Prueba t

- Caso 2
Hipótesis:
El tratamiento A es mejor que el B
303

Resultados
antes después
A 18 15
B 16 2
Identificación de datos:
18 = na
16 = nb
15/18 = pa
2/16 = pb
34 = total n
Análisis:
Tipo de variable : discreta
Tipo de prueba : no paramétrica
Tamaño de muestra : grande
Modelo estadístico : proporciones
Conclusión:
1- Z para proporciones
2- X2

- Caso 3
Hipótesis:
El tratamiento A es mejor que el B, C, D.
Resultados
A B C D T
1 6 4 3 8 21
2 8 5 2 2 17
3 3 5 2 3 13
4 2 3 6 0 11
T 19 17 13 13 62
Identificación de Datos
1, 2, 3, 4 = pruebas observadas
4 = Tamaño A, B, C
A, B, C, D = Categorías
3 = Tamaño D
19 = Total A
304

15 = Tamaño Total
17 = Total B
21 = Total OBS 1
13 = Total C
17 = Total OBS. 2
13 = Total D
13 = Total OBS. 3
62 = Gran Total
11 = Total OBS. 4
Análisis:
Tipo de variable : continua
Tipo de prueba : paramétrica
Tamaño de muestra : grande
Modelo estadístico : varianza vs varianza
Conclusión: ANÁLISIS DE COVARIANZA
- Caso 4.
Hipótesis:

La incidencia del proceso será más alta el año siguiente.


Resultados
Antes después
22% 26%
n = 120
Identificación de datos:
22 = p
26 = p
120 = n
Análisis:
Tipo de variable : discreta
Tipo de prueba : no paramétrica
Tamaño de muestra : grande
Modelo estadístico : parámetro con estadístico.
Conclusión:
Z para proporciones
-
305

Caso 5.
Hipótesis:
El procedimiento A es mejor que B y C.
Resultados
A B C T
Positivos 12 11 10 33
Negativos 3 8 10 21
Total 15 19 20 54
Identificación de Datos:
12, 11, 10, 3, 8,10 = frecuencias observadas
54 =N
15 = TA
19 = TB
20 = TC
33 = T positivos
21 = T negtivos
Análisis:
Tipo de variable : discreta
Tipo de prueba : no paramétrica
Tamaño de muestra : pequeño
Modelo estadístico : frecuencia observada vs frecuencia esperada.
Conclusión
Prueba del X2
Caso 6.
Hipótesis:
La variable A disminuye los latidos cardíacos.
Resultados:
Pacientes antes después
1 80 70
2 76 76
3 100 99
4 72 74
5 80 70
6 95 110
7 70 76
306

8 65 63
9 75 72
10 90 88
Identificación de Datos:
Todos datos pareados
Análisis:
Tipo de variable : discreta
Tipo de prueba : no paramétrica
Tamaño de muestra : pequeño
Modelo estadístico : aleatoriedad de diferencias.
Conclusión:
Prueba de Wilcoxon.

PROCEDIMIENTO PRÁCTICO PARA SELECCIONAR LA PRUEBA


Paso 1. Identificación de datos.
o Hacer una relación de los datos anotando a lado de cada uno su
símbolo.
Para ello:
 Leer cuidadosamente la hipótesis
 Plantear los resultados a obtener

(Usar letras griegas para parámetros y latinas para estadísticos).

Paso 2. Análisis de datos


Establecer:
- tipo de variable (continua o discreta)
- tipo de prueba (paramétrica, no paramétrica)
- tamaño de muestra (grande, pequeña)
- modelo estadístico.
Conclusión: Prueba…..
307

LA MONOGRAFIA

DEFINICION:
Es el tratamiento científico, sistemático, completo y metódico de un asunto
cualquiera, con el empleo del método científico sea este en el campo de las letras o
de las ciencias.

Según la Real Academia de la Lengua en Oblitas (1987); monografía, es el


tratamiento, científico y sistemático de una determinada parte de una ciencia o de
algún asunto en particular que se ejecuta con profundidad.

Con este nombre se conoce en la educación superior al primer intento de


escribir un artículo científico; pero que requiere sin embargo de por lo menos una
adiestramiento previo en las técnicas de lectura, del resumen de un libro o cualquier
otra fuente bibliográfica y del manejo adecuado de las fichas de investigación.

De acuerdo al enfoque de Fox (1981) la monografía es el resultado de la


investigación bibliográfica que encuentra en el pasado la solución al problema
científico en estudio.

2.2. CARACTERISTICAS DE UNA MONOGRAFIA:


308

Para ser considerada como tal, una monografía debe reunir las
características siguientes:
1. EXACTITUD, para el tratamiento de los datos y el logro adecuado al
planteamiento de los problemas a solucionar.

2. IDONEIDAD, proveniente de la solvencia del investigador, según la cual


el trabajo monográfico debe ser adecuado para realizarlo
independientemente y con la solvencia intelectual requerida.

3. VERIFICACION: referida a la autenticidad de datos obtenidos, los que


permitirían verificar los reportados en la monografía.

4. IMPARCIALIDAD, un trabajo monográfico científicamente desarrollado


debe estar al margen de subjetivismos personales, esgrimiendo la
verdad escueta y precisa como un eje en el desarrollo de la monografía.

5. NOVEDAD en el tratamiento de temas desconocidos o marginados o


que necesitan aclaración y tratamiento profundo en beneficio del
autor(es) o de la comunidad intelectual en la que están inmersos y se
desenvuelven.

6. CLARIDAD en el manejo temático y el perfil estadístico, es decir


eliminando aspectos que formalmente constituyen adornos de
apreciaciones subjetivas que confunden al lector; además debe usarse
adecuadamente las propiedades del lenguaje para expresar con certeza
y elevado criterio, el pensamiento que se desea transmitir.

7. ENFASIS, para tratar un solo tema con la profundidad necesaria, sin


distorsiones que conlleven a errores de interpretación en el lector.
8. CORRELACION, para tratar el tema en forma secuencial en capítulos y
subcapítulos interrelacionados entre sí, de modo tal que exista una
manifiesta coherencia, exactitud, claridad en el fondo y forma y por lo
tanto en la elocución.

9. ELEGANCIA Y CORRECCION GRAMATICAL, el adecuado uso de la


semántica y la sintaxis en el leguaje, permitirá al autor expresar
claramente sus ideas y al lector le otorgará motivación e interés para
interpretar claramente lo que escrito está.

2.3. SELECION DEL TEMA MONOGRÁFICO

El punto de partida más importante en la elaboración de una monografía es


el sentir, verdadero entusiasmo por un tema y preferirlo entre otros, de modo tal que
se posibilite el acopio de numerosa y actualizada información sobre el tema.

El estudiante debe concentrar su atención y personal interés en el desarrollo


sistemático del tema, es decir que sea capaz de asimilarlo como una de sus mas
vivas preocupaciones.

Para la selección del tema monográfico se debe tomar en cuenta las


consideraciones que a continuación se mencionan

2.3.1. INTERES DEL INVESTIGADOR POR UN DETERMINADO TEMA:


309

Motivado por las perspectivas de estudios posteriores y futuros; por la


actualidad del problema a investigar y por la importancia que significa el aprendizaje
de la elaboración de una monografía para aplicarlo en otras asignaturas con las
aptitudes que el caso requiere.

2.3.2. DELIMITACION DEL TEMA; la precisión en el tema permite al investigador


abarcarlo con exactitud y trabajar con seguridad en la recopilación y ordenamiento
de los datos, realizando el esfuerzo necesario para aclararlo mediante cuidadosa
discusión

2.2.3. NOVEDAD DEL TEMA PROXIMO A ESTUDIARSE, esto implica que se debe
seleccionar temas que no hayan sido desarrollados por otros investigadores, es
decir no limitarse a transcribir otras monografías; sino a darle orientación personal,
particular y novedosa del tema monográfico.

2.2.4. ESTUDIO ANALITICO PRELIMINAR DE OTROS TRABAJOS

Relacionada con las fuentes de información , las que debe ser reputadas
como de máximo valor científico, actualizado y de preferencia, bibliografía
contenida en libros(bibliografía conceptual) o revistas u otras fuentes primarias de
investigación de carácter científico, publicados, evitando peculiares informaciones
periodísticas.

2.2. 5. ORIGINALIDAD, para aplicar los conocimientos científicos bajo la emisión de


juicios de valor y criterios de ordenamiento en la creación y elaboración de
documentos que como la monografía tienen valor científico.

2.2.6. EXTENSION DEL TEMA, éste debe ser pequeño en su extensión y sencillo
en su concepción de modo que el volumen del artículo no resulte en un número
exagerado de páginas, que distraiga la atención del lector o cree un clima de abulia,
cansancio y desgano para leerlo; sino que debe centrar la atención del lector en el
tema monográfico.
2.2.7. RELACION CON EL ASESOR; siendo éste un documentos científico,
conviene señalar que quien conduzca a estudiante en el desarrollo de una
monografía debe poner a disposición del estudiante investigador, su mejor
predisposición y orientarlo según su experiencia y conocimientos para una
adecuada selección y abordaje del tema lo mismo que para su elaboración y
presentación.

2.4. ESTRUCTURA DE UNA MONOGRAFIA


Se sugiere considerar en una monografía las acciones
1. SECCION PRELIMINAR
 Pasta
 Pagina titular
 Dedicatoria(*)
 Epígrafe(*)
 Contenido
 Lista de tablas
 Lista de figuras
2. CUERPO DE LA MONOGRAFIA
 Introducción
310

 Definición de términos
 Capítulos y subcapítulos
 Discusión
 Conclusiones
 Resumen
 Referencias bibliográficas
3. SECCION APENDICE
 Anexos(si los hubiere) (*) = opcional

2.4.1. SECCION PRELIMINAR

 PASTA Y PAGINA TITULAR, en la elaboración de esta parte de la


monografía se sugiere considerar lo siguiente:
1. NOMBRE DE LA INSTITUCION, completa y en forma de pirámide
invertida, con mayúsculas, sin comilla y luego la unidad académica a la que
pertenecen los autores.
2. TITULO, breve y conciso y resume en una frase el aspecto
fundamental de la investigación, corto, claro, generalmente no mas de 15
palabras, no usar abreviaturas y debe incluir los elementos principales del
problema a investigar.
3. AUTORES, nombres y apellidos completos en orden alfabético; pero
empezando por los nombres y señalando apellidos paterno y materno (en algunos
casos se estima conveniente utilizar los nombres y apellidos de los autores tal
com0o aparecen en la s publicaciones científicas de los cuales son autores
4. INTENCION Y FINALIDAD:
Indica el propósito de la elaboración y presentación de la monografía, por
ejemplo: monografía que se presenta para la asignatura de Biología Celular
5. LUGAR Y FECHA:
Para ubicar em el espacio y en el tiempo la monografía como u trabajo
científico.
A manera de ejemplo se ilustra en la figura 1 los diversos aspectos que se
deben incluir en la portada o página titular
 2. DEDICATORIA: es el reconocimiento que el autor(es) formula a
alguna persona o institución suele colocarse a la altura de la octava
línea próxima al margen derecho, no muy extensa, sin incluir
demasiados nombres , sobria , sin grandilocuencia ni sentimentalismos

 3. EPIGRAFE:
Destaca una determinada frase de cualquier autor que revele de modo
sugestivo o completo el sentido de la investigación; se recomienda en
este caso evitar el exceso, no menos de tres y no mas de quince líneas
cada una; se escriben a espacio simple y con distribución similar a la
dedicatoria.
 CONTENIDO
Es una lista de las partes del trabajo con sus respectivas divisiones y
subdivisiones, aquí se indica el número de las páginas en donde se
encuentran cada una de ellas según el orden en el que aparecen.

Las partes principales del cuerpo de la monografía se listan aquí con números
romanos, en mayúsculas, sin subrayar y seguidas de puntos suspensivos hasta un
311

centímetro antes de indicar la página; estas se empiezan a escribir en el margen


izquierdo, con números romanos, seguidas de punto y dos espacios.
La palabra CONTENIDO, debe ser escrita con mayúsculas y a 4 centímetros
del borde superior de la hoja, los títulos de sección estarán separados unos de
otros por doble espacio y los títulos de segundo orden solamente pro un espacio.

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


ESCUELA DE POST GRADO
MAESTRIA EN CIENCIAS
MENCION INGENIERIA AMBIENTAL

ECOETICA
312

AUTORES: CESAR ALBERTO GARCIA ESPINOZA


ANTERO CELSO VASQUEZ GARCIA

Monografía que se presenta como


requisito parcial del curso Metodología
de la Investigación Científica

LAMBAYEQUE, 2003
313

DEDICATORIA

SI PIENSAS QUE ESTAS VENCIDO; VENCIDO ESTAS


314

C BARNARD

AGRADECIMIENTO
315

CONTENIDO

Página

I. INTRODUCCION............................................................................. 1

II. DEFINICION DE TERMINOS....................................................... 3

III. ECOETICA.................................................................................. 5

3.1 DEFINICION................................................................... 5

3.2 FILOSOFIA......................................................................

3.3 CRITERIOS......................................................................

3.4 APLICACIONES.................................................................

3.5 LIMITACIONES..............................................................

3.5.1. Científicas............................................................
3.5.2 Técnicas...............................................................
3.5.2 Filosóficas..............................................................
316

IV. DISCUSION.................................................................................... 20

V. CONCLUSIONES.......................................................................... 23

VI. RESUMEN.................................................................................... 24

VII. REFERENCIAS BIBLIOGRAFICAS........................................... 25

VIII. ANEXOS........................................................................................ 26
317

I. INTRODUCCION

.............................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
................................................................................................................................

.............................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
....

.............................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
........

.............................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
........

.............................................................................................................................
.........................................................................................................................................
318

II. DEFINICION DE TERMINOS

...............................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
...............................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
319

......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................
320

III. ECOETICA

3.1. DEFINICION. ...........................................................................................


......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....

3.2. FILOSOFIA

3.3
321
322
323
324
325
326
327
328
329
330
331
332
333

IV. DISCUSION

..........
334
335

V. CONCLUSIONES
336

VI. RESUMEN
MAXIMO 200 PALABRAS
337

VII. REFERENCIAS BIBLIOGRAFICAS

Siguiendo los criterios de Day ( 1994)


338

ANEXOS
339
340

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


FACULTAD DE CIENCIAS BIOLOGICAS

LA LLUVIA ACIDA

AUTOR: ÁNTERO CELSO VÁSQUEZ GARCÍA

Monografía que se presenta como


requisito parcial del curso de
Metodología de la Investigación
Científica

Lambayeque, 2005
341
342

I. INTRODUCCION

Los problemas ambientales globales que se evidencian en la


actualidad, básicamente son consecuencia de una inadecuada política de
desarrollo de la humanidad con una larga historia en la que, la
industrialización, marcó un punto de quiebre en la salud ambiental del
planeta tierra, Nuestro Hogar, hoy amenazada por numerosas situaciones
que la tornan un tanto vulnerable y proclive al daño ecológico en el que el
ser humano sufriría las peores consecuencias.

Glynn y Heincke (1999), consideran que los principales problemas


ambientales globales de origen antropogénico son: i) Efecto invernadero; ii)
Deterioro de la capa de Ozono y iii) La lluvia ácida, los que amenazan
incesantemente al ser mas inteligente sobre el planeta. Cuestión un tanto
contradictoria por cuanto él ha sido el creador de la mayoría de situaciones
que implican riesgo y peligro para si mismo.

Se ha considerado conveniente realizar esta investigación de tipo


bibliográfico en razón de que hay una diseminación del conocimiento
científico respecto a la lluvia ácida que va, desde la confusión en la acepción
de los términos hasta una sesgada interpretación de los datos y hechos
registrados hasta la actualidad y previstos para el futuro, mas aun en razón
de que las reacciones químicas implicadas en la producción de lluvia ácida
en la atmósfera son complejas y aún poco conocidas. Sin embargo por la
importancia que este problema reviste, tanto para docentes como para los
estudiantes universitarios en general y de los de la facultad de Agronomía en
La Universidad Nacional de Tumbes, en particular, se pretende abarcarlo con
una perspectiva científica y didáctica de modo tal que el documento sea útil
para los fines prácticos.

El documento abarca consideraciones pertinentes sobre el ciclo del


agua; los factores que influyen en él así como la contaminación atmosférica
343

originada por la lluvia ácida. De este último tema se analizan: el origen; las
fuentes; la extensión y fuerza, efecto sobre los organismos vivos y el medio
acuático y, terrestre y aéreo; se pretende explicar químicamente desde la
perspectiva de autores de publicaciones recientes, así como las
posibilidades tecnológicas para mitigar los efecto.

Se espera que al culminar la lectura del documento se logren los


objetivos siguientes:
1. Definir en forma sencilla el termino lluvia ácida,
2. Deslindar la terminología pertinente relacionada con la lluvia ácida.
3. Explicar desde la perspectiva de la Química, las reacciones
involucradas en el fenómeno de contaminación aérea denominada
la lluvia ácida
4. Ejercitar al estudiante para que dado un esquema del ciclo
hidrológico, indique con precisión las fuentes de contaminantes
que originan la lluvia ácida
5. Valorar los conocimientos existentes, de modo tal que
internalizados por los actores nos oriente a prever situaciones
proactivas para minimizar los efectos de la lluvia ácida.

II. DEFINICION DE TERMINOS


344

SOx .- Oxido de azufre


NOx .- oxido de nitrógeno
Lluvia natural o normal como la precipitación atmosférica en forma
de gotas de agua que resultan de la unión de las microgotas que, en
suspensión, se encuentran formando la nubes, originándose otras de mayor
tamaño que caen por acción de la gravedad (Seoanes, 1996).

Lluvia ácida, como forma de contaminación atmosférica, que se


origina cuando los óxidos de azufre y nitrógeno se combinan con la
humedad atmosférica para formar ácidos sulfúrico y nítrico, que pueden ser
arrastrados a grandes distancias de su lugar de origen antes de depositarse
en forma de lluvia

Deposición ácida, es lluvia, niebla, bruma, o nieve con más acidez


de lo normal

Precipitación ácida Así como también hay partículas secas en la


atmósfera, la combinación de deposición y caída de estas partículas

III. CICLO DEL AGUA


345

3.1 DEFINICION
Es el movimiento del agua de los puntos de evaporación a la atmósfera,
precipitación y nueva evaporación (Nebel y Wright, 1999). Llamado también
ciclo hidrológico, en esencia consiste en que el agua pasa a la atmósfera por
evaporación o transpiración y vuelve al suelo por condensación y
precipitación.
Hay tres circuitos principales en el ciclo: i) el circuito del escurrimiento
superficial, en el que el agua de lluvia se desplaza por el suelo y se
convierte en parte del sistema de aguas superficiales; ii) el circuito de
evapotranspiración, en el que el agua se infiltra, se retiene como agua
capilar y regresa a la atmósfera por evaporación y transpiración vegetal; y iii)
el circuito de agua freáticas, en el que el agua se infiltra, circula por
conductos acuíferos y sale por manantiales, fuentes o pozos, donde se une
al agua superficial. Estos tres se muestran en la figura 1.

1
3

Fuente: Nebel y Wright (1999)


Figura 1. Ciclo del agua

3.2. FACTORES QUE INFLUYEN EN EL CICLO DEL AGUA:


346

3.2.1. Temperatura ambiental


Es un factor importante básicamente porque si se incrementa la temperatura,
la evotranspiración aumenta forma significativa, tal como sucede en las
zonas tropicales y subtropicales; además, se debe considerar que el
incremento de la temperatura, afecta la actividad metabólica de los
organismos vivos de acuerdo al factor Q 10, explicitado en el sentido de que
un aumento de 10 ºC en la temperatura ambiental duplica la velocidad de las
reacciones enzimáticas. Según el Coeficiente de Temperatura. La velocidad
de nuevas reacciones biológicas se duplican aproximadamente con un
aumento de 10°C de temperatura (Q 10 = 2). Desde la perspectiva de Capó
(2002), la elevación de la temperatura hace aumentar la velocidad de
volatilización de los productos químicos, su solubilidad en el agua y las
velocidades de las reacciones en las cuales están implicados

3.2.2 Intensidad luminosa.


Al existir una mayor intensidad luminosa y también una mayor cantidad de
horas luz, la fotosíntesis en las plantas expuestas, es mayor, lo que origina
liberación de cantidades mayores de oxigeno y agua.

3.2.3 La naturaleza fisicoquímica del suelo


Dependiendo de la composición química del suelo (lecho) en los diversos
estratos, como por ejemplo, zonas rocosas, arenosas, fangosas, arcillosas;
la escorrentía, la precolación y la filtración varían considerablemente.

3.2.4 Características fisicoquímicas del agua confinada en ríos, lagos,


océanos y napa freática
Se incluyen características tales como: Temperatura, Oxigeno disuelto, CO 2,
dureza, pH y otros. El agua que penetra en el suelo queda retenida como en
una esponja. De ahí, la toman las plantas y la devuelven a la atmósfera por
transpiración. Cuando el suelo llega al límite de su capacidad de retención,
el líquido adicional que se filtra por su propio peso se denomina agua de
gravedad.
347

Las aguas freáticas son las que se acumulan sobre un estrato impermeable
y saturan los poros del suelo; la parte superior es el nivel freático. Las aguas
freáticas se extraen cavando pozos que superen el nivel freático o que se
desliza horizontalmente hasta que llega a un manantial; tal como se aprecia
en la figura 2.

Figura 2. Vías de infiltración del agua y su relación con el suelo

3.2.5. Condiciones climáticas, sobretodo el tipo, intensidad, velocidad


y dirección de los vientos, que influyen significativamente en el
desplazamiento de las masas de vapor de agua.

3.2.6. Altitud sobre el nivel del mar.


El aire húmedo de los vientos alisios se enfría conforme sube por la ladera
de una montaña. Las condiciones desérticas ocurren en el lado de sotavento
en tanto que el aire descendente se calienta y tiende a evaporar el agua del
suelo; comúnmente denominado sombra de lluvia. En otros términos el ciclo
348

en lo referente a la evaporación, es mayor en zonas de menor altitud, cerca


de nivel del mar siempre y cuando se trate de zonas tropicales (Figura 3)

Figura 3. Desplazamiento de los vientos en relación con la altitud snm y la


temperatura

3.3. RELACIÓN DEL CICLO DEL AGUA CON LA CONTAMINACIÓN


ATMOSFÉRICA
3.3.1 CONTAMINACIÓN ATMOSFÉRICA
3.3.1.1 DEFINICIÓN
Capó (2002) define contaminación atmosférica como “la presencia de
sustancias en la atmósfera que resultan de la actividad del hombre o de
procesos naturales y que producen efectos negativos en el hombre y en el
medio ambiente”. El mismo autor también la define, como la presencia en la
atmósfera de sustancias o energía en tales cantidades y de tal duración que
son capaces de causar daño a los hombres, las plantas o animales, de
dañar los objetos y estructuras fabricadas por el hombre, de provocar
cambios de temperatura y clima o dificultades para el cómodo disfrute de la
vida, de los bienes o de otras actividades humanas. Esta definición implica,
por consiguiente, la necesidad primaria de medir la cantidad o amplitud de
349

los distintos contaminantes previamente detectados, así como el tiempo que


permanecen activos en la atmósfera, dentro de la capa que sirve de sustento
vital al hombre, puesto que la atmósfera en una determinada zona esta
condicionada a la presencia de tres elementos primarios:1) fuentes de
emisión contaminantes, tales como chimeneas, tubos de escape, etc. 2)
condiciones, metereológicas que determinan la dispersión de los
contaminantes en las capas inferiores de la atmosférica. 3) receptores
animados e inanimados, sobre los cuales inciden y a quienes afectan los
contaminantes dispersados. De acuerdo con estas consideraciones; si
faltare cualquiera de estos tres elementos, no se permitiría la formación de
una zona con contaminación atmosférica.

3.3.1.2 FUENTES DE CONTAMINACION ATMOSFERICA


La contaminación atmosférica se generan desde dos fuentes: i) naturales y
ii) antropogénicos. Una lista de las fuentes naturales se muestra en la tabla
1. Tabla 1. Contaminantes Naturales del Aire

Fuente Contaminantes
Volcanes NOX, SOX, H2S, SCO, HCI, HF, etc
Cenizas y partículas sólidas
Incendios Forestales CO2, CO, NOx, SO2, CH3CL, HCN, etc.
Vientos Huracanados Partículas de Polvo
Plantas Vivas Hidrocarburos: Parafinas y terpenos, polen.
Plantas en
Desintegración CH4, H2S
Suelos Procesos de desinfección: N2O
Procesos Aeróbicos: NH3
Procesos anaeróbicos: CH4, NO; H2S
Mar Emisión de Gases CO, CO2, CH4, N2O, S2C, CH3CL
Partículas salinas.
Descargas Eléctricas NOx
Los contaminantes antropogénicos, denominados también contaminantes
primarios (los más importantes se muestran en la tabla 2), al ser liberados
al ambiente por las actividades del hombre, por cambios químicos y acción
de la luz solar en la atmósfera, se transforman en los denominados
contaminantes secundarios resultantes de una reacción química entre un
contaminante primario y uno o más componentes del aire.
350

Tabla 2. Contaminantes atmosféricos gaseosos

Tipo Contaminantes Contaminantes


primarios secundarios

Compuestos de Azufre SO2, H2S SO3 ; H2SO4

Compuestos de nitrógeno NO; NH3 NO2 ; NO3

Compuestos del carbono C1 – C3 Aldehídos, Cetonas,


Ácidos

Óxidos del carbono CO, CO2 Ninguno

Compuestos de los HF, HCl Ninguno


halógenos

FUENTE: Capó (2002, 61)

Otro criterio para clasificar los contaminantes atmosféricos más importantes,


es aquel que atendiendo a su estado físico considera:

i) Partículas sólidas y líquidas

ii) Gases y vapores

Desde la consideración de la presencia de contaminantes en las distintas


capas de la atmósfera se distinguen:

EN LA TROPOSFERA:

 Óxidos de Carbono, CO; CO2


 Óxidos de Nitrógeno: NO, NO2; N2O
 Óxidos de Azufre: SO2; SO3
 Compuestos Orgánicos Volátiles (COVs)
 Hidrocarburos, CH4, C6H6 ; Freones,
 Halógenos.
 Oxidantes fotoquímicos: PAN
 Macropartículas suspendidas: Polvo, Pb.
 Sustancias radiactivas: Rn, Po, I.
 Calor.
351

 Ruido.

EN LA ESTRATOSFERA:

 Oxido de Nitrógeno.

 Halometanos

3.4. LLUVIA NORMAL

Seoanez (1996), define la lluvia normal como la precipitación atmosférica


en forma de gotas de agua que resultan de la unión de las microgotas que,
en suspensión, se encuentran formando las nubes, originándose otras de
mayor tamaño que caen por acción de la gravedad. La lluvia es un
mecanismo natural de limpieza de la atmósfera y tiene propiedades de
acarreo únicas, remueve los gases atmosféricos, aerosoles, partículas, y
todos aquellos compuestos que han sido introducidos a la atmósfera por
diferentes fuentes de emisión naturales (erupciones volcánicas, incendios
forestales y descargas eléctricas) o antropogénicas (plantas de energía,
industria y transporte). Por lo tanto, la lluvia es un indicador útil de los niveles
de contaminación ambiental, que aporta datos valiosos acerca de entradas
de nutrientes y compuestos tóxicos a los sistemas terrestres y acuáticos.

3.5 LLUVIA ÁCIDA,

3.5.1. DEFINICION

Seoanes, op cit., define Lluvia ácida como la precitación de gotas de agua


que al entrar en contacto con óxidos de azufre y óxidos de Nitrógeno del aire
contaminado y por acción fotoquímica toma un carácter marcadamente
ácido.

Baird (2001) señala que el termino genérico Lluvia ácida cubre una
variedad de fenómenos que incluyen también a la niebla y a la nieve y ácida.
352

Gutiérrez et al., (1997) consideran a la lluvia ácida como forma de


contaminación atmosférica, que se origina cuando los óxidos de azufre y
nitrógeno se combinan con la humedad atmosférica para formar ácidos
sulfúrico y nítrico, que pueden ser arrastrados a grandes distancias de su
lugar de origen antes de depositarse en forma de lluvia. Adopta también a
veces la forma de nieve o niebla, o precipitarse en forma sólida

Glynn y Heincke (1999), mencionan que la lluvia normal tiene en términos


genéricos un pH aproximado de 5,60, atribuido al equilibrio entre el agua de
lluvia y el dióxido de carbono del aire, el cual se disuelve en cantidad
suficiente en las gotas para dar una solución diluida de ácido carbónico.
Igualmente señalan que la lluvia ácida tiene pH menor de 5,6 y en amplias
áreas del este de Norteamérica y del norte de Europa, donde predominan las
fuertes precipitaciones pluviales, la lluvia cae con un pH cercano a 4 y en
raras ocasiones de 3,0. La preocupación tiene relación sobre todo con los
efectos de la acidez en las poblaciones de peces y otros animales acuáticos
con daños potenciales a cultivos y bosques y con el creciente deterioro de
los materiales para construcción, incluso parece probable que las lluvias
acidificadas pudiesen penetrar en las reservas de aguas subterráneas y
aumentar la solubilidad de los metales tóxicos, Las aguas ácidas disuelven
también metales como el plomo y el cobre de las tuberías de agua caliente y
fría.

En la consideración de Nebel y Wright (1999) deposición ácida es lluvia,


niebla, bruma, o nieve con más acidez de lo normal. Así como también hay
partículas secas en la atmósfera, la combinación de deposición y caída de
estas partículas se denomina precipitación ácida (Figura 4)

De hecho, aunque el término lluvia ácida viene usándose desde hace más
de un siglo -procede de unos estudios atmosféricos realizados en la región
de Manchester, Inglaterra-, un término científico más apropiado sería
deposición ácida. La forma seca de la deposición es tan dañina para el
medio ambiente como la líquida.
353

Figura 6. Deposición Ácida, las emisiones de dióxido de azufre y óxidos de


Nitrógeno reacciones con los radicales hidroxilos y el vapor de aguad e
la atmósfera para formar sus ácidos respectivos, que caen como
deposición ácida seca o mezclados con agua como precipitación ácida

3.5.2. ORIGEN
El problema de la lluvia ácida tuvo su origen en la Revolución Industrial, y no
ha dejado de agravarse desde entonces. Hace mucho que se reconoce la
gravedad de sus efectos a nivel mundial, como ejemplifican los periodos de
smog ácido en áreas muy industrializadas. No obstante, la gran capacidad
destructiva de la lluvia ácida sólo se ha hecho evidente en las últimas
décadas. En algunas latitudes, la lluvia ácida ha erosionado estructuras, ha
dañado los bosques y las cosechas, y ha puesto en peligro o diezmado la
vida en los lagos de agua dulce.
Se atribuye a las emisiones industriales ser la principal causa de la lluvia
ácida. Debido a que las reacciones químicas implicadas en la producción de
lluvia ácida en la atmósfera son complejas y aún poco conocidas, las
industrias tienden a rechazar la imputación y a hacer hincapié en la
necesidad de realizar estudios posteriores y, debido al coste de reducir la
354

contaminación, los gobiernos de turno han respaldado su actitud. Los


estudios publicados a comienzos de la década de 1980, no obstante,
inculpaban inequívocamente a las industrias como principal fuente de la
lluvia ácida.

3.5.3 CICLO DEL AGUA Y SU RELACION CON EL pH

En el ciclo del agua es pertinente considerar lo relacionado al pH como un


factor importante y con marcada influencia en las reacciones fisicoquímicas
por lo que consideramos necesario explicitar su concepción. El valor pH se
refiere en principio al grado de acidez o alcalinidad de una solución,
expresión de la concentración de iones H + y iones OH- respectivamente.
Para un cabal conocimiento de este valor es necesario considerar la
definición de Bronsted (1928) para un ácido (donador de protones) y de una
base o álcali (aceptor de protones). Así por ejemplo cuando el ácido acético
se disuelve en agua un cierto número de sus moléculas se disocia de la
manera siguiente:

CH3COOH + H20 CH3COO- + H3O+


Ácido acético Anión acetato
En la reacción un protón del ácido acético ha sido donado al agua
produciendo un anión (acetato) y un catión (ion hidronio), al invertirse la
reacción el anión acetato actúa como un aceptor de protones y por lo tanto
cumple con el requisito de una base. El ácido acético y los iones acetato se
conocen como par conjugado ácido - base. Un ácido fuerte es aquel que
dona protones fácilmente al agua, mientras que uno que no los dona se
conoce como ácido débil

El grado de disociación que es específico para cada ácido se puede calcular


a partir de la fórmula siguiente:
H+ A-
K = ---------------
HA
Donde para una solución dada:
355

HA: es la concentración del ácido sin disociar.


H+ : es la concentración de iones hidrógeno.
A- : es la concentración de la base conjugada
El agua se disocia muy ligeramente y produce, tanto iones hidrógeno (como
un ácido) como iones hidroxilo (como una base) y para ilustrar este caso se
puede utilizar las ecuaciones siguientes:
H2O H+ + OH-

H+ OH-
------------ = K
H2O

Donde K es la constante de disociación del agua, por lo tanto:

H+ OH- = K H2O

Como el grado de disociación es tan leve, H 2O se puede considerar como


aproximadamente constante, por lo tanto se puede combinar con K y da Kw:
H+ OH- = Kw

La medición de la conductividad eléctrica a la temperatura ambiental que


indica que la concentración de iones Hidrógeno (o hidroxilo) es
aproximadamente 10-7 N

Igualmente se asume que en un litro de agua a 22 °C hay:


= 0.0000001 g de iones H+
= 1 / 107
Por lo tanto la concentración de iones H+ = OH- = 1 x 10-7 = 7

Sobre la base de estas consideraciones el valor pH introducido por


Sorensen en 1909, se define como el logaritmo negativo de la concentración
de iones hidrógeno:
356

pH = - log H+
Esta definición es útil para:
1. Calcular el pH de una solución:
2. Calcular la concentración de iones Hidrógeno H+
3. Calcular el logaritmo de base 10 de  H+

Se trata de resumir la escala de pH en la figura 5.


Valores de pH
1 7 14

Acidez creciente Alcalinidad creciente


Valor de pH Neutro Valor del pH
De una solución de una solución
normal en normal en
iones H+ iones OH-

Figura 5. Esquematización de la escala de pH

Como el pH es el logaritmo negativo de H+ , las soluciones ácidas tienen


valores menores de 7,0 y las soluciones básicas tienen valores mayores que
7,0. Cuanto menor sea el pH por debajo de 7,0 tanto mas ácida será la
solución; cuanto mayor sea el pH por arriba de 7,0 la solución será mas
básica. Como la escala de pH es logarítmica, un cambio en pH de una
unidad corresponde a un cambio diez veces mayor o menor en la
concentración de iones H+

3.5.4 EXTENSIÓN Y FUERZA


357

Nebel y Wright (1999) enfatizan que en ausencia de contaminación, la lluvia


es ligeramente ácida, con pH de 5,6. y que la precipitación ácida, entonces
es cualquier precipitación que tenga pH de 5,5 o menos.
En nuestros días, la precipitación ácida es la norma en casi todo el mundo
industrializado; por ejemplo, el pH de la lluvia o la nieve en buena parte del
este de EEUU es de alrededor 4,5. Muchas áreas de esa región reciben
precipitaciones con pH de 4,0 y, a veces, incluso de 3,3. La niebla y el rocío
tienen todavía mas acidez en las montañas boscosas del este de los
Angeles, los científicos se han encontrado con que gotas de niebla que caen
de las agujas de los pinos tienen pH de 2,8 (casi 1000 veces mas ácidas de
lo normal). La precipitación ácida también es grave en Europa, desde el
Reino Unido al centro de Rusia, y este bien documentado en Japón.
En términos más precisos, la lluvia ácida se incluye en las denominadas
contaminaciones transfronterizas, es decir que originadas en un país a o
latitud determinada se puede transportar a grandes distancias por acción de
los vientos Los contaminantes pueden ser arrastrados por los vientos
predominantes a lo largo de cientos, incluso miles de kilómetros.
Este fenómeno se conoce también como transporte de largo alcance de
contaminantes aéreos (TLACA). En 1968 Svante Oden, de Suecia demostró
que la precipitación sobre los países escandinavos se estaba haciendo cada
vez más ácida, que los compuestos de azufre de las masas de aire
contaminado eran la causa primordial y que grandes cantidades de las
sustancias acidificantes provenían de emisiones de las áreas industriales de
Europa central y Gran Bretaña.
Los estudios de trayectorias en Norteamérica han demostrado que mas del
50% de la precipitación ácida en Ontario central se debe a las masas de aire
que pasas sobre las fuentes emisoras de azufre mas importantes de los
estados del oeste medio de Estados Unidos, en especial Ohio e Indiana
(Environment Canada, 1981). Por otra parte, las lluvias ácidas de los
Adirondacks y del sur de Québec, en muchos casos parecen tener su origen
en los estados industriales del litoral oriental como Nueva York,
Massachussets y Maryland, y también en Pensilvania y tros estados sobre
358

los cuales ya ha pasado antes el aire. Más del 10% de la lluvia ácida que
cae en el noreste de Estados Unidos proviene de fuentes canadienses

3.5.5 FUENTES DE LOS CONTAMINANTES QUE ORIGINAN LA


LLUVIA ACIDA
Nebel y Wright (1999) clasifican las fuentes en:
i) Fuentes naturales, que contribuyen con cantidades cuantiosas de
contaminantes procedentes de volcanes, espuma del mar y procesos
microbianos expresado en el orden de 50 a 70 millones de toneladas en
óxidos de azufre por año. Además, señalan que los relámpagos, la quema
de la biomasa y los procesos microbianos originan de 30 a 40 millones de
toneladas de óxidos de nitrógeno.
ii) Fuentes antropogénicas. En este contexto podemos distinguir fuentes
puntuales tales como

a) La industria de fundición de metales no ferrosos (es decir conversión de


minerales a metales libres); en esta consideración, muchos metales valiosos
como el cobre y el níquel, se encuentran en la naturaleza como metales
sulfurados, en la primera etapa de la conversión a metales libres, los
minerales son calcinados habitualmente en el aire para eliminar el azufre
que se convierte a SO2 y es a menudo emitido al aire; por ejemplo:

2 NiS(s) + 3O2(g) 2Ni O + 2 SO2(g)

b) La generación de energía en plantas termoeléctricas


c) La combustión de los combustibles fósiles; en los que finalmente se
generan tanto SOx como NOX (figuras 5, 6 y 7)

Las fuentes antropogénicas se calculan en 100 a 130 millones de toneladas


de óxidos de azufre y de 60 a 70 de oxido de nitrógeno. La diferencia vital
entre ambas fuentes es que los óxidos de la fuente antropogénica están muy
concentrados en las regiones industrializadas, en tanto que en las emisiones
359

de las naturales están distribuidos en todo el planeta y son parte del


ambiente global. Los niveles de los óxidos antropogénicos han aumentado
por lo menos cuatro veces desde 1900, en tanto que los otros se mantienen
constantes. Cada año en Estados Unidos se liberan 19.9 millones de
toneladas de dióxido de azufre de las que el 88% provienen de los
combustibles (sobretodo de las plantas de energía eléctrica operadas con
carbón). De óxidos de nitrógeno son 21.3 millones de toneladas, 44.5% de
las emisiones de los transportes y 50% de los combustibles quemados en
sitios fijos. En el este de aquel país, la fuente de más de 50% de la
deposición ácida son las chimeneas de 50 enormes plantas que funcionan
con carbón.

Figura 5. Fuentes primordiales de los principales contaminantes que originan


la lluvia ácida (Nebel y Wright, 1999, p:386)

SO2 + H2O +O2

H2SO4
360

pH

Figura 6. Formación del ácido sulfúrico a partir del SO 2 procedente de la


combustión de petróleo y derivados.

Figura 7. Formación de NOx a partir de la combustibles fósiles

REACCIONES QUIMICAS

Los valores menores de 5,6 indican la presencia de ácidos fuertes tales


como ácido sulfúrico y ácido nítrico, que son producidos a partir de las
reacciones de sus precursores, óxidos de azufre y de nitrógeno (SO x y NOx)
con la humedad de la atmósfera (H2O).
De los compuestos precursores de ácidos, el SO 2 en fase gaseosa es
emitido en forma significativa por plantas termoeléctricas, el cual es oxidado
a SO4 = y el radical (•SO4-) al reaccionar con el peróxido de hidrógeno
361

(H2O2) produce el H2SO4 influenciado por la intensidad de la luz solar, la


humedad relativa y la presencia de nieblas y nubes, este proceso de
transformación química se describe de manera general mediante las
siguientes ocho reacciones:

·SO2(g) + H2O(l) SO2·H2O (1)

·SO2 + ·H2O H+ + HSO3-(l) (2)

· HSO3-(l) H+ + SO3=(l) (3)

·SO3=(l) + O2(g) ·SO5-(l) (4)

2·SO5-(l) ·SO4-(l) + SO4=(l) + O2(g) (5)

SO4-(l) + HCO3- SO4=(l) + H30+ + ·CO3- (6)

SO4-(l) + H2O2 HSO4-(l) + ·HO2 (7)

· SO4-(l) + Cl- SO4=(l) + Cl (8)

Los NOx formados en los procesos de combustión están relacionados con:


i) La fijación térmica del nitrógeno atmosférico en el aire de
combustión, conocido como NOx térmico y cuya formación depende de la
temperatura máxima o la alta presión, la concentración de nitrógeno en el
combustible, la concentración de oxígeno y el tiempo de residencia.
ii) El nitrógeno molecular para los procesos de combustión, es
conocido como NOx de combustible.

En pruebas de sistemas de combustión externas con combustibles fósiles se


ha mostrado que más del 95% de los NO x emitidos lo constituye el NO. En el
caso de los combustibles residuales el factor más importante para la
362

formación de NOx es el contenido de nitrógeno en el combustible; la


conversión de nitrógeno a NOx se encuentra entre el 20 y 90% excepto en
grandes equipos en donde usualmente se alcanzan temperaturas muy
elevadas en la flama, por lo que las emisiones de NOx pueden ser mayores
Estudios sobre el NOx emitido en áreas urbanas, es decir en aire ambiente,
han mostrado que la conversión es <5% por hora, arriba del 24% por hora
ocurre con los demás NOx que son transformados a ácido nítrico «HNO3» y
nitrato de peróxi-acetilo «PAN».
La predominancia del NO emitido es oxidado a NO 2 el cual puede reaccionar
con OH durante el día y también con •HO 2, •R2, O3,•RO, •RO2, NO3 y otros.
Las reacciones con •HO2 y •RO2 son una parte central en atmósferas limpia y
contaminada.

·NO(g) + ·NO2(g) + H20(l) 2HONO(l) (9)

2NO2(g) + H2O(l) HONO(l) + HNO3(l) (10)

NO2(g) + OH- M
HNO3(l) (11)

En las reacciones 9, 10 y 11 en fase acuosa el NO y NO 2 contribuyen a la


depositación del ácido nítrico en forma de gotas, el tiempo de vida del NO 2
es de aproximadamente 1 día.

Es pertinente remarcar que la ligera acidez que presenta el agua de lluvia en


condiciones normales es causada por la formación de ácido carbónico,
cuando la humedad atmosférica alcanza un equilibrio con el bióxido de
carbono en el ambiente presentando un pH entre 5.0 y 5.6 unidades y que la
lluvia ácida es influenciada en menor proporción por los ácidos débiles
(ácido acético y fórmico), mientras que los fuertes (ácido sulfúrico y nítrico)
debido a su fuerza iónica son los que determinan la acidez en el agua de
363

lluvia cuando no son neutralizados. Sin embargo, si la presencia de los


ácidos débiles es considerable, estos causarían la acidificación

Los estudios referentes a la composición química de la lluvia son realizados


en tiempos prolongados, para detectar modificaciones causadas por el
incremento de actividades humanas, esto relacionado con las emisiones
totales de SO2 y NOx, en donde la aportación relativa de cada sector
(industrial, transporte, doméstico, comercial y de servicio) se debe al
desarrollo y funcionamiento de las actividades socioeconómicas del lugar.
El término NOx agrupa el óxido de nitrógeno (NO) y al bióxido de
nitrógeno (NO2).
Fu (1999) en términos genéricos establece las reacciones que se
producen a partir del SO2 para la formación del ácido sulfúrico, la primera en
presencia de ozono y la segunda con oxigeno molecular. Tal como se
aprecia en las reacciones a y b y en la figura 8.
H2SO4 (H2SO4)n
aerosol
a) SO2 + O3 SO3 + O2
1 H2O
b) SO2 + O2 SO3 H2SO4 (H2SO4)n
2
364

SO2 SO3 H2SO4

Figura 8. Emisión de SO2 a la atmósfera y posterior formación de Ácido sulfúrico

En la perspectiva de Fu (1999), el pH del agua de lluvia en la atmósfera se


debe al equilibrio que dan los iones Hidrogeno procedentes del ácido
carbónico; tal como se muestra en las reacciones siguientes.

CO2 + H2O = H2CO3

H2CO 3 = HCO3- + H+

HCO3- = CO3-2 +H+


Potenciales corrientes ácidas pueden originar pH de 4 ó inferiores. El dióxido
de azufre puede ser acidificado en la atmósfera (de 1 a 5% / hr); tiene dos
bandas de absorción en el espectro de la troposfera; una cerca de 384 nm
dando origen a un radical de triple estado de .SO2 y otra cerca de 294 nm
causando formación de un estado simple de energía altamente excitada.
SO2+hv= .SO2
.SO2+O2=SO3+O
Al referirse a la acidez y dureza el mismo autor parte de la consideración de
que el dióxido de azufre se oxida hasta trióxido de azufre y éste al unirse con
365

el agua de la atmósfera origina ácido sulfúrico de acuerdo a las reacciones


siguientes:
SO2+O=SO3
SO3+ H2O=H 2SO4

La reacción en las gotas de lluvia parece originar la formación de bisulfito y


sulfito de acuerdo a las reacciones siguientes:
SO2 (g) + H2O= SO 2 (aq)

SO2 (aq) + H2O= H3O+ + HSO3-


HSO3 -+H2O = H3O+ + SO3-2
El sulfato puede ser oxidado por el oxigeno atmosférico y este proceso es
catalizado por iones metálicos tales como Cu+2 y Fe+3
2SO3-2 + O2 = 2SO4-2
Otros agentes oxidantes también están presentes; por ejemplo O 3 y H2O2
HSO3- +O3 = HSO4- +O2
SO32- +H2O2= SO4-2 + H2O

La oxidación del dióxido de nitrógeno a ácido nítrico es muy rápida,


reacciona con un radical OH- o con Ozono de la manera siguiente:
NO2 + OH. = HNO3
NO2 + O3 = NO3 + O2
NO3 + NO2 = N2O5
N2O5 + H2O =2HNO3
El ácido clorhídrico (HCl) puede liberarse directamente de la combustión del
carbón.

Al respecto, Gutiérrez, et al (1997), mencionan que las transformaciones


químicas que ocurren en la atmósfera son caracterizadas como procesos de
oxidación, reducción y ácido base. Las reacciones involucran compuestos de
carbono, nitrógeno y azufre como los de mayor interés. La oxidación de
hidrocarburos, oxido nitroso y dióxido de azufre (SO 2) da lugar a la formación
de compuestos oxigenados tales como aldehídos, dióxido de nitrógeno (NO 2)
y ácido sulfúrico (H2SO4). Estos productos pertenecientes a los denominados
contaminantes secundarios se forman en la atmósfera a partir de los
contaminantes primarios que son emitidos de modo directo por las distintas
fuentes.
366

La radiación solar influye en los procesos fotoquímicos en la atmósfera


interactuando con moléculas que funcionan como fotoaceptores. Producto
de la disociación de moléculas estables son los radicales libres, los cuales
son muy reactivos, como ejemplo: oxigeno atómico (O), Hidrógeno atómico
(H), radical hidroxilo (OH) y radical hidroperóxido (HO 2). Numerosos
problemas ambientales no están confinados a un sistema sino que implican
interacciones entre ellas .La lluvia ácida tiene su origen en la emisión de
dióxido de azufre y óxidos de nitrógeno gaseosos a la atmósfera por las
chimeneas de estaciones generadoras, fundiciones y escape de
automóviles. Estos gases son transportados por corrientes aéreas sobre
amplias regiones. La precipitación pluvial los lava y origina la lluvia ácida
dañina para la vida acuática los bosques y los cultivos (Figura 9).

Figura 9.Lluvia ácida con la explicación de la reacciones químicas primarias

3.5.5 TRANSPORTE ATMOSFÉRICO

La concentración de un contaminante en un tiempo y lugar determinado


depende: 1) del índice de emisión y configuración de las fuentes, 2) de las
367

reacciones químicas y físicas que transforman una especie de contaminante


en otro, 3) del transporte y difusión (dilución) de los contaminantes como
resultado de diversas variables meteorológicas y de la difusión del
contaminante en los suelos y el agua (deposito seco), y por interacción con
gotas de agua o nubes (deposito húmedo).

El deposito ácido, particularmente en la forma de lluvia ácida, se ha


convertido en un problema ambiental grave y se relacionado en diversas
partes del mundo con la acidificación de lagos, ríos y aguas superficiales
dando como resultado la desaparición de la flora y fauna acuáticas. Se
considera que la lluvia ácida pueda producir daños directos e indirectos a los
bosques y a la vegetación, y aun, a monumentos y edificios, y así contribuir
a la corrosión de metales y pinturas. Los cambios mas significativos que se
han observado en ecosistemas acuáticos con acidez creciente, sobretodo
cuando el pH es inferior a 5,5 son los siguientes:
a. Reducción o eliminación de la población de peces
b. Reducción de la descomposición bacteriana y aumento de los
hongos en la materia de descomposición.
c. Reducción de la diversidad de plantas y animales acuáticos.
d. Reducción de la productividad del fitoplancton debido a la
alteración del ciclo de la generación de nutrimentos.
e. Incremento de la biomasa y la productividad de las plantas
macroscópicas bentónicas.
f. disminución de la biomasa y número de invertebrados
herbívoros.
g. multiplicidad de cambios en la cadena alimentaria.

3.5.6 EFECTOS DE LA DEPOSICIÓN ÁCIDA


La deposición ácida ha sido un problema causado por los centros
industriales durante mas de un siglo; sin embargo, su afecto a los
ecosistemas fue notado apenas hace 35 años, cuando los pescadores
comenzaron a observar grandes menguas en las poblaciones de peces de
368

muchos lagos en Suecia, Notario y las montañas Adirondack al norte del


estado de Nueva York. Los científicos suecos fueron los primeros en señalar
como causa el aumento en la acidez del agua de los lagos y a vincularla a
precipitaciones con un pH anormalmente bajo. Desde ese entonces, como
los daños ecológicos se han difundido, los estudios han revelado los
diversos modos en que la deposición ácida altera y destruye los sistemas
naturales.

3.5.6.1 Efectos en los ecosistemas acuáticos


El pH del ambiente es crucial porque afecta el funcionamiento de casi todas
las enzimas, hormonas y otras proteínas de los organismos que lo habitan.
Por lo general los seres vivos regulan su pH interno, pero cuando el pH del
entorno es casi siempre bajo, a menudo supera esta capacidad regulatoria
en muchas formas de vida. La mayor parte de los lagos, chacras y corrientes
de agua dulce tienen un pH natural de 6 a 8 y los organismos están
adaptados a el. Huevos, esperma y crías son muy sensibles a los cambios.
Si el pH del ambiente varía incluso en una unidad del punto optimo, casi
todos se trastornan y muchos mueren.

Cuando estos sistemas acuáticos se acidifican, casi todos los organismos


superiores mueren, ya sea por que la acidez los mate o porque impida que
se reproduzcan. Cuando el agua con un pH bajo disuelve a los metales
pesados, liberando sustancias que entonces se vuelven muy tóxicos para las
plantas y los animales que lo asimilan. Por ejemplo conforme los lagos se
acidifican, los peces acumulan mercurio. En los grandes lagos, las
concentraciones de este metal son tan elevadas que los estados
circundantes advierten que no se consuman la pesca recogida de esas
aguas

3.5.6.2 Efectos en los bosques


El daño de la precipitación ácida sobre los bosques se debe a reacciones
químicas con los suelos. En principio la precipitación les añade nitrógeno y
369

azufre, que estimula el crecimiento de los árboles; después, estas sustancias


arrastran por lixiviación los neutralizantes (por lo regular sales de calcio y
magnesio). Cuando las sales dejan de neutralizar la lluvia ácida, se
desprenden iones de aluminio de los minerales del suelo. La combinación de
aluminio (que es toxico) y la creciente escasez de calcio (esencial para los
vegetales) reduce el crecimiento de los árboles. En algunas partes de
Europa la decadencia de los bosques es un problema grave y las pruebas
indican que allí ocurren los mismos cambios químicos en el suelo. Dadas las
diferencias en la capacidad neutralizadora de los suelos y los montos
distintos de nitrógeno y azufre de la lluvia ácida, los bosques están afectados
en grados diversos; algunos siguen creciendo en tanto que otros
desaparecen. A veces, un resultado de la acidificación es el surgimiento
paulatino de especies más resistentes. Por ejemplo en Nueva Inglaterra, los
abetos balsámicos vienen reemplazando a las piceas.

3.5.6.3 Efectos en los seres humanos y sus obras


Uno de los efectos más notables de la precipitación ácida es el deterioro de
las piezas de ornato. La piedra caliza y el mármol (que es una forma de
piedra caliza) son los materiales preferidos para los monumentos y las
fachadas de los edificios. La reacción entre los ácidos y la piedra caliza los
erosiona a un ritmo muy acelerado.
Edificaciones y esculturas que se han mantenido en pie cientos y aun miles
de años sin grandes cambios se disuelven y desmoronan a ojos vistas.
Algunos funcionarios están preocupados de que los escurrimientos de
aluminio y otras sustancias toxicas a causa de la precipitación ácida
contaminen las aguas superficiales y las subterráneas. El aumento en la
acidez del agua también arrastra plomo de las tuberías viejas y de las
soldaduras de los nuevos tubos de cobre.

Las construcciones, las estatuas y los monumentos de piedra, sufren erosión


por efecto de diverso contaminantes que arrastra el aire entre ellos la lluvia
ácida. Los materiales de construcción como acero, pintura, plásticos,
370

cemento, mampostería, acero galvanizado, piedra caliza, piedra arenisca y


mármol también están expuestos a sufrir daños, los efectos de los diversos
contaminantes todavía no se pueden separar unos de otros de manera
confiable. Sin embargo se aceptan que le principal agente corrosivo
individual de los materiales de corrosión es el dióxido de azufre y sus
productos secundarios. Cuando los contaminantes azufrados se depositan
en una superficie de piedra arenisca o caliza, reaccionan con el carbonato
de calcio y lo convierten en sulfato de calcio (yeso), fácilmente soluble, que
se deslava con la lluvia.

3.5.6.4 Efectos en los cultivos


Aunque la sensibilidad hacia el daño foliar directo por la lluvia ácida de
algunos cultivos parece ser mayor que la de muchas especies de árboles, no
existen pruebas sólidas de que las hojas de los cultivo hayan sido dañadas
por gotas ácidas en el campo (NATO, 1980). No obstante, algunos estudios
detallados han comenzado a insinuar que incluso en un sistema agrícola
bien amortiguado la lluvia ácida puede ser perjudicial. Queda claro que los
sistemas terrestres son menos sensibles a la sedimentación ácida que los
sistemas acuáticos. Algunos efectos a corto plazo de la lluvia ácida pueden
ser benéficos, probablemente a causa de las aportaciones de nitrógeno
fertilizante. Sin embargo a largo plazo es muy posible que se produzcan
efectos dañinos. Sin duda se afectaran los ciclos y los equilibrios de los
nutrientes en el bosque, y el crecimiento de los árboles puede menguar

3.5.6.7 Efecto de la lluvia ácida en las aguas subterráneas y


potables
El agua del subsuelo se acumula con gran lentitud por la filtración de agua
de la superficie a través del suelo y el lecho rocoso hasta la capa freática. En
muchas áreas rurales y en especial en las áreas con cabañas, los pozos se
llevan mas abajo del nivel freático y el agua se bombea a la superficie para
consumirse sin previo tratamiento. Los datos científicos indican que en
ciertas áreas esta ocurriendo acidificación del agua del subsuelo y la
371

consecuente contaminación de la misma con metales solubles en ácido. Los


metales que son causa de mayor preocupación son el plomo, cobre y el zinc
y también el aluminio procedente del lecho rocoso. El agua del subsuelo es
muy susceptible a infiltración y a sustitución por aguas ácidas que se filtran
de más arriba. El riesgo de que esta agua subterránea se contamine con
metales pesados y aluminio aumenta de forma considerable a medida que el
pH de la lluvia y del agua que se filtra del suelo baja a 4.0 y da origen a
efectos adversos en la salud.

En un resumen esquemático se pueden apreciar los efectos de la lluvia


ácida en el agua y en el suelo (figura 10)

Figura 10. Procesos y efectos ambientales de la lluvia ácida


(Fuente Gutierrez et al 1997)

3.5.7. MANEJO O MEDIO DE REDUCIR LAS EMISIONES QUE FORMAN


ÁCIDOS

Puesto que es indudable que esta causando daño bastante considerable a


nuestro medio es claro que se necesita actuar para remediarlo. Debemos
estar concientes de la complejidad del problema, sus ramificaciones e
interacciones en el aire, el suelo, el agua y los sedimentos así como sus
372

efectos en las plantas, los animales los microbios. Si es probable que ciertas
acciones reparadoras tengan altos costos asociados con ellas, es necesario
tener la seguridad de que estos costos se justifican y que la acción va a ser
eficaz. No puede haber soluciones rápidas. La limpieza puede tomar
décadas, aun si comenzamos ahora. En los últimos años se ha establecido
los requisitos fundamentales para la acción: i) el reconocimiento de que la
lluvia ácida es un problema grave; ii) el conocimiento de que disminución de
las emisiones es la mejor solución.
Las emisiones del dióxido de azufre se pueden reducir si se toman las
medidas siguientes antes, durante y después de la combustión.

ANTES DE LA
COMBUSTION
Cambio de combustible Cambio de los combustibles con alto contenido de
azufre a otros con menor contenido de azufre.
Mezclado de combustible Mezclado de combustibles con contenido de azufre
más alto y más bajo para producir un combustible
común contenido de azufre de nivel medio.
Desulfuración de petróleo Eliminación del azufre durante el proceso de refinación
del petróleo por hidrogenación (adición de hidrogeno).
Lavado del carbón(limpieza Trituración y eliminación de azufre y otras impurezas
física del carbón) del carbón poniendo este en un liquido(el carbón limpio
flota, las impurezas se hunden)
Limpieza química del carbón Disolución el azufre del carbón con sustancias
químicas.
DURANTE LA
COMBUSTION
Combustión en lecho Mezclado de piedra caliza finamente molida con
fluidizado(CLF) carbón y combustión en suspensión
Inyección de piedra caliza en Inyección de piedra caliza finamente molida en un
quemadores de etapas quemador especial.
múltiples(ICQM)
DESPUES DE LA
COMBUSTION
Desulfuración de gases de Mezclado de un absorbente químico con cal o piedra
combustión(DGC) o lavado caliza con los gases de combustión para eliminar el
dióxido de azufre.

Las emisiones de dióxido de azufre de fundiciones no ferrosas se pueden reducir por


diversos medios entre los cuales se cuentan:
Separación de minerales Eliminación de algunos de los minerales azufrados de
los minerales metálicos antes de la fundición.
Cambio de proceso Uso de procesos de fundición que provocan menos
SO2 o generación de corrientes residuales mas fáciles
de controlar.
Fabricación de subproducto Captura del SO2 después del proceso de fundición
para producir ácido sulfúrico (que se utiliza en mucos
procesos industriales y en la fabricación de
fertilizantes) o azufre elemental (que se usa en
373

procesos industriales).

Las investigaciones dejan claro que las consecuencias políticas y


socioeconómicas serán graves si nada se hace.
Los cálculos de la Organización para la Cooperación y el Desarrollo
Económico (OCDE) se aplican en las regiones del noroeste y sur de Europa
y tienen como base el dólar americano en 1980. El costo medio de limpieza
se calcula en $ 780 por tonelada de azufre. Aplicado a toda Europa con
exclusión de estados independientes (antes URSS), el costo de una
reducción del 50% en el SO2 seria alrededor de $ 8 000 millones anuales.
La Oficina General de Contabilidad (GAO) del gobierno de Estados Unidos
sugirió en un informe de 1982 sobre la lluvia ácida, que una reducción en las
emisiones de SO2 de 10 millones de toneladas anuales en el este de
Estados Unidos costaría entre 3 000 y 4 500 millones de dólares (GAO,
1981)
La Clean Air Act (ley para el aire limpio), firmada en 1990 por Estados
Unidos y Canadá fija como objetivo una reducción del 50% en las emisiones
de azufre para el año 2000, lo cual constituye un paso en esta dirección
Como sabemos que alrededor de la mitad de las emisiones que forman
ácidos provenientes de las chimeneas de las plantas de energía eléctrica
que funcionan con carbón, las estrategias de carbón se centran en esas
fuentes. Entre las que se han propuesto, las seis principales son:
1. Limpieza del carbón,
2. Combustión con base de fundente,
3. Cambio de combustible
4. Empleo de depuradores,
5. Plantas de energía alternativa y
6 Reducción en el consumo de electricidad

Un aspecto químicamente importante es la denominada desulfuración


expuesta por Fu (1999) explicitado en los términos siguientes:
Hay muchas maneras de reducir las concentraciones de SO 2. El combustible
de bajo-azufre abrasador es una de las posibilidades. El carbón tiene un
374

volumen de azufre que va arriba de 3.4%, pero en las minas de Arizona se


encuentra carbón con un contenido de azufre de sólo 1%. También es
posible extraer el azufre del combustible. Para el aceite, esto es bastante
simple y está haciéndose actualmente en algunas refinerías.

El Azufre existe en forma orgánica e inorgánica en el carbón. El compuesto


de azufre inorgánico en el carbón es principalmente la pirita. La pirita puede
quitarse fácilmente protegiendo el carbón pulverizado para alimentar a los
hornos grandes y mejorar sus características de la combustión. También, la
pirita y el azufre orgánico (como RSR, RSH, o =CH-S-CH=) pueden quitarse
por una de las reacciones siguientes:
1. Desplazamiento
2. Neutralización ácido base
3. Oxidación.
4. Reducción.
5. Separación con solventes.
6. Descomposición térmica

Baird (2001) menciona que, cuando el dióxido de azufre emitido se diluye,


como ocurre en las emisiones de centrales energéticas, su eliminación por
oxidación, no es factible. En cambio, el SO 2 gas se elimina por una reacción
ácido-base entre este y carbonato de calcio (calcita) u oxido de calcio (cal)
en forma de sólido húmedo y apelmazado. Los gases emitidos pasan a
través de una suspensión del sólido húmedo, o bien se bombardean
mediante chorros de la suspensión. En algunas aplicaciones se utilizan
granos finos de oxido de calcio, en lugar de una suspensión de carbonato de
calcio, para retener el dióxido de azufre de las emisiones gaseosas. Con
estos procesos de lavado, mas formalmente conocidos por desulfuración
de los gases de combustión (flue-gas desulfuration), puede eliminarse
hasta el 90% del gas. El producto resultante es una suspensión de sulfito y
sulfato de calcio, o en el caso de que se utilice oxido de calcio granular, se
obtiene un sólido seco que, usualmente, se deposita en un vertedero. En
375

algunas operaciones, principalmente en Japón y Alemania, el producto es


totalmente oxidado por reacción con aire, y el sulfato de calcio obtenido se
seca y se vende como yeso. Las reacciones con carbonato de calcio son las
siguientes:
CaCO3 + SO2--------------------CaSO3 +CO2
sulfito de Ca

CaSO3 + O2----------------------CaSO4
Sulfato de Ca

En otros sistemas, el dióxido de azufre queda retenido mediante el uso de


suspensiones de sulfito de sodio o de óxido de magnesio, regenerándose
luego estas suspensiones y el SO 2 concentrado, por medio de la
descomposición térmica del producto.

Recientemente se han aplicado tecnologías limpias de carbón, en las que


el carbón puede utilizarse de una forma mas limpia y a menudo
energéticamente mas eficiente que en el pasado. En las diferentes
tecnologías, la limpieza puede ocurrir en la precombustión, durante la
combustión, en la postcombustión o por conversión del carbón en otro
combustible.

La limpieza en la precombustión se aplica cuando el carbón tiene el


contenido de azufre en el mineral que ha sido eliminado –usualmente en
forma de azufre pirítico, FeS2-, de manera que no puede producir dióxido de
azufre. El carbón se pulveriza hasta conseguir un tamaño muy pequeño de
partículas y se puede separar de forma efectiva en partículas minerales y
partículas de carbón. Esto último se lleva a cabo, aprovechando que los dos
tipos de partícula tienen diferente densidad, con lo que pueden separarse
mezclando el sólido pulverizado en un líquido de densidad intermedia, y
permitiendo que la porción correspondiente al combustible ascienda hasta la
parte superior, donde se recoge. Como alternativa a esta limpieza física, se
376

puede emplear métodos biológicos o químicos. Así, pueden usarse


microorganismos para oxidar el Fe +2 de la pirita insoluble en el carbón
pulverizado, a Fe+3 y obtener la forma soluble. Alternativamente, pueden
usarse cultivos de bacteria que “coman” el azufre orgánico en el carbón.
Químicamente el azufre puede lixiviarse con una disolución de sosa o potasa
cáustica.

En la limpieza por combustión, las condiciones de combustión pueden


modificarse para reducir la formación de contaminantes, o bien pueden
inyectarse substancias absorbentes al combustible y capturar los
contaminantes cuando se van formando. En la combustión con lecho
fluidizado, se mezclan calcita y carbón pulverizado y, luego, se suspenden
(“fluidizan”) en chorros de aire comprimido en la cámara de combustión.
Virtualmente, todo el dióxido de azufre se captura antes de que escape.
Puesto que este procedimiento permite utilizar temperaturas mucho más
bajas, se disminuye considerablemente la formación y emisión de la cantidad
de óxidos de nitrógeno. La nueva central de Aconi, en Nueva Escocia, es
una de las primeras en utilizar esta tecnología a gran escala.

Algunas de las técnicas avanzadas utilizadas en la limpieza de


postcombustión –tales como el uso de óxido de calcio granular o de
disoluciones de sulfito de sodio- ya se han descrito anteriormente. En el
proceso SNOX, desarrollado recientemente en Europa, los gases de salida
se mezclan con amoniaco gas para eliminar el óxido nítrico por reducción
catalítica a nitrógeno molecular (mediante la reacción discutida
previamente). l gas resultante se recalienta y el dióxido de azufre se oxida
catalíticamente a trióxido de azufre, el cual se hidrata después con agua
para dar ácido sulfúrico que se condensa y se elimina.

En la conversión de carbón, el combustible es, en primer lugar, gasificado


por reacción con vapor, la mezcla gaseosa se limpia de contaminantes, y el
gas una vez limpio, se quema en una turbina de gas, generando electricidad;
377

el calor residual de los gases de combustión se utiliza para producir vapor


para una turbina convencional y, así, generar mas electricidad. De forma
alternativa, el carbón gasificado puede convertirse en combustibles líquidos
apropiados para el uso en automóviles.

Las emisiones de dióxido de azufre de las centrales de energía pueden,


también, reducirse sustituyendo el carbón por petróleo, gas natural o carbón
con bajo contenido de azufre, no obstante estos combustibles son más caros
que el carbón con alto contenido de azufre.

La concentración de SO2 de los gases residuales de los procesos de


calcinación convencionales (tales como el utilizado para el Níquel) es alta;
consecuentemente es posible hacer pasar el gas sobre un catalizador de
oxidación que convierta el SO2 a SO3 sobre el cual pueda añadirse agua para
producir ácido sulfúrico comercial,

A partir de la reacción de generación del SO2

2 NiS(s) + 3O2(g) 2NiO + 2 SO2(g)

Se plantea las siguientes


2 SO2(g)+ O2(g) 2 SO3(g)

SO3(g) + H2O(ac) H2 SO4

La última reacción tiene lugar en dos etapas (que no se muestran), para


asegurar que ninguna de las substancias escapen al medio ambiente en
primer lugar el SO3 se combina con el ácido sulfúrico y luego se le añade
agua a la solución resultante (Baird, 2001).

3.6. CASOS DE LLUVIA ACIDA EN EL PLANETA


Durante la última década, la lluvia ácida ha sido un importante motivo de
preocupación porque continúa contaminado grandes áreas de nuestro
378

planeta. La lluvia ácida se produce (siguiendo la dirección del viento) en las


áreas de importantes emisiones industriales de dióxido de azufre y de oxido
de nitrógeno. Capó (2002), menciona que en Alberta, Canadá, entre el 32 el
46% del azufre emitido en forma de dióxido de azufre es transportado por las
corrientes asociadas a tormenta y depositado en la superficie del suelo en
forma de sulfuro o sulfato, en un radio de 32 km de distancia de la fuente
originaria. En Noruega se ha detectado un problema de acidificación por la
misma causa. En el área del río San Lorenzo, en Norteamérica, se ha
comprobado que un incremento de la acidificación de la precipitación causa
una disminución de las cosechas.

Nebel y Wright (1999) mencionan que en Noruega y Suecia, los peces han
desaparecido en por lo menos 6500 lagos y siete estuarios del Atlántico. En
Ontario, Canadá, alrededor de 1200 lagos han dejado de albergar vida. En
Adirondack, una región favorita de los paseantes neoyorquinos, más de 200
lagos carecen de pesca y muchos están desprovistos de toda vida aparte de
las algas y bacterias resistentes. Más de 190 lagos y ríos de Nueva
Inglaterra sufren de acidificación reciente. De las Montañas Verdes de
Vermont a las de San Bernardino, California, la desaparición de los bosques
causó gran preocupación en los años ochenta. En Nueva Inglaterra, 500 000
hectáreas de bosques de altura quedaron devastados.

Las investigaciones en el Bosque Experimental Hubbard Brooks en las


montañas Blancas de New Hampshire han mostrado una reducción notable
de calcio y magnesio en los suelos de los bosques desde los años sesenta.
En Estados Unidos la corrosión por ácidos en edificios, monumentos y
equipos de exteriores cuesta cada año miles de millones de dólares en
reemplazos y compostura. En Kamakura, Japón, una estatua de bronce de
Buda que se levanta a más de 11 metros de altura se está disolviendo poco
a poco con los baños de lluvia ácida proveniente de Corea y China

3.7. CASOS DE LLUVIA ACIDA EN EL PERU


379

En el Perú existen industrias con escaso nivel tecnológico de carácter


artesanal que muchas veces operan dentro de la informalidad, evadiendo las
normas de protección ambiental en el proceso de la actividad que realizan.
Esto ha ocasionado serios problemas de contaminación no solo del aire, sino
también del agua. Tal es el caso por ejemplo de la industria pesquera en
Chimbote (una ciudad ubicada a 450 Km. al norte de la capital peruana, a
pocos metros sobre el nivel del mar), siendo considerada esta como uno de
los lugares mas contaminados del país (YACHAY, 1997)

El diario El Comercio con el apoyo de DIGESA (Dirección General el


Ministerio de Salud) realizo mediciones por cinco horas consecutivas en la
avenida Abancay de Lima para verificar la existencia y el volumen de
partículas de polvo contaminante que caen cada minuto y que también se
hallan en suspensión en el aire; es decir, ese polvillo que se acumula y
ennegrece estatuas, fachadas, cortinas, prendas de vestir y hasta cristales
de los anteojos. En esas cinco horas se acumularon 200 microgramos de
polvo por metro cúbico más de la mitad del volumen del polvo permisible de
polvo en 24 horas. Según esta evaluación la avenida Abancay estaría
soportando mil microgramos de polvo al día, siendo el nivel permisible de
350 microgramos. Los principales problemas de salud que se relacionan con
el parque automotor en Lima Metropolitana son las emisiones de monóxido
de carbono y niveles de ruido generado

El INAIT señala que un vehículo automotor en buen estado emite a la


atmósfera por cada 27 galones de gasolina un promedio de 28 Kg. de
monóxido de carbono por día y 1,5 Kg. de oxido de nitrógeno de tal manera
que si se considera un rendimiento promedio de 30 Km/galón de
combustible, y un recorrido promedio de 50 Km /día, entonces el consumo
diario seria de 1,6 galones proporcionalmente en un día se emitirá a la
atmósfera 1,7kg de CO/vehículo-día
380

IV. DISCUSION Y COMENTARIOS

Como se ha expuesto, la tendencia actual esta orientada a un cabal


conocimiento de los problemas ambientales globales que posibilitarían
mitigar de alguna manera y en un tiempo relativamente corto, los impactos
ambientales negativos generados por la actividad humana.

En este contexto los científicos tratan de encontrar soluciones a problemas


previstos; pero no en las magnitudes en las que se presentan; por cuanto la
tendencia al desmedido desarrollo económico en el que se priorizó la parte
económica; poco a poco ha dado lugar al hipotético crecimiento o desarrollo
sostenible, el mismo que tendrá éxito en la medida en la que los países
industrializados se comprometan integralmente a cuidar la salud de nuestro
planeta.

El problema de la lluvia ácida es álgido y como lo mencionan Glym y


Heincke (1999) constituye uno de los problemas ambientales mas difíciles de
abarcar por cuanto este tipo de contaminación, no respeta fronteras locales,
de países o de continentes en razón de lo cual el enfoque y la tarea para
remediarla debe ser objeto primordial en el establecimiento de políticas
ambientales globales.

Se menciona que el científico Agnus Smith lo describió en 1885 pero que se


ha hecho evidente en los últimos cuarenta años; en los que gracias a los
avances de los conocimientos en Física, Química y Biología se ha tratado de
dilucidar el intrínseco fenómeno de la denominada precipitación ácida,
deposición ácida o más comúnmente conocida lluvia ácida. Autores como
Gutierrez, et al (1997), Fu (1999) y Baird (2001) reportan las ecuaciones
químicas, que incluyendo complejos procesos de oxidación y reducción y
otros nos brindan los criterios adecuados para una interpretación mas
completa de este fenómeno. E igualmente en base a ello plantean
alternativas de solución que orientan la tecnología al uso preactivo,
381

preventivo y correctivo de procesos para minimizar los contaminantes


primarios que originan esta perturbación.

En nuestro País no son muy evidentes aun, indicios de la denominada lluvia


ácida; sin embargo ya se han documentado hechos tales como los del
puerto de Chimbote, los de la ciudad de Lima y otras zonas urbanas en las
que el parque automotor se ha incrementado de manera incontrolada lo que
origina un aumento de sustancias contaminantes que originarían este
fenómeno. El caso es similar a zonas aledañas a industrias con emisiones
elevadas de dióxido de azufre. Un caso concreto es el ocurrido hace cinco
años en las cercanías de Santiago de Cao, provincia de Ascope,
departamento de La Libertad en la que estructuras de polímeros de alta
densidad importados para ser usados en la protección de los postes de
transmisión de energía eléctrica, resultaron dañados, pues en zona cercana
a Papelera Trupal S.A., se detectaron altas concentraciones de SO 2 que
posiblemente originaron la desintegración de estos polímeros (Vásquez, A.
2003, Com. Pers.).

Motivo para docentes y alumnos comprometidos con las ciencias básicas


como la Química y con la Bioética, es el adquirir el conocimiento necesario y
pertinente sobre aspectos que involucren acciones de prevención a todo
nivel para ejercer un efecto multiplicador en la sociedad de la cual somos
miembros.

Con la presentación documentada del tema hemos compatibilizado tanto las


causas, como las consecuencias de la lluvia ácida, así como diversos
mecanismos que podrían mitigar este problema o estar preparados para
hacerlo de darse el caso.
V. CONCLUSIONES
382

1. La tecnología humana puede causar graves impactos en extensas


áreas del planeta; como es el caso de la lluvia ácida, para corregir los
problemas ambientales y alcanzar un desarrollo global.

2. La contaminación del aire por lluvia ácida implica complejas


reacciones de oxidación y reducción cuyo conocimiento es necesario
para intentar mitigar este problema.

3. Los gases poco solubles como el SO2 y diversos compuestos sintético


como los halocarbonos se dispersan por todo el mundo y se
convierten en parte duradera o permanente de la atmósfera

4. Los gases más solubles como el SO 2 y los NOx pueden afectar


grandes porciones de los continentes y causar graves daños a los
ecosistemas, el turismo, la agricultura y la silvicultura, así como a
construcciones y materiales.

5. En Norteamérica cualquier intento por resolver el problema de la lluvia


ácida implica la participación de los gobiernos de Estados Unidos y
Canadá así como los estados y provincias de gran parte de la mitad
oriental del continente; y dado de que esto implica costos elevados,
será muy difícil que los gobiernos actúen rápido y de manera
conjunta.

6. La eliminación de contaminantes como el SO 2, el NOx y CO2 de los


gases de combustión es factible, pero muy costoso

7. Urge implantar políticas ambientales sólidas para el manejo


apropiado del medio ambiente.

VI. RECOMENDACIONES
383

1. La tecnología futura debería buscar fuente de energía y materia primas


que generen menos sustancias contaminantes capaces de escapar a la
atmósfera, por ejemplo, las plantas generadoras de energía nuclear son
de una tecnología mas limpia para producir energía en comparación con
las plantas generadoras alimentadas con carbón

2. Deben utilizarse las chimeneas altas para alivian los problemas locales
de contaminación del aire

VII. REFERENCIAS BIBLIOGRAFICAS

BAIRD, C. 2001. QUIMICA AMBIENTAL, Barcelona. Editorial Reverte SA.


p: 104-108
384

CAPO, M. 2002. Principios de Ecotoxicología, Diagnostico, Tratamiento y


Gestión del Medio Ambiente. Barcelona. McGraw-Hill Interamericana.
p: 58-65.

GLYNN, J. y G. HEINKE. 1999. Ingeniería Ambiental. 2ª ed, México.


Prentice Hall Hispanoamericana. p

GUTIERREZ, H., ROMIEU, I., COREY, G. y T. FORTOUL. 1997.


Contaminación del Aire, Riesgos para la Salud. México. El Manual
Moderno. p 8,161

FU, T. 1999. Environmental Chemistry: Essentials of Chemistry for


Engineering Practice, Vol 4A. USA. Prentice Hall Internacional. p: 310-
336, 364-365,

NEBEL, B. y R. WRIGHT. 1999. Ciencias Ambientales, Ecología y


Desarrollo Sostenible. 6ª ed., México. Prentice Hall
Hispanoamericana. p:71-73; 123 -135; 264-272; 400-406

SEOANEZ, M 1996. El Gran Diccionario del Medio Ambiente y de la


Contaminación, España. Coediciones Mundi-Prensa

YACHAY, CENTRO DE STUDIOS Y ASESORIA –ONG. 1997. Ecología Y


Desarrollo Sustentable, Almanaque Ambiental Del Peru, Lima.
Salgado Editores. p:71-74.
385
386

MODELOS DE INFORMES DE
INVESTIGACIÓN
MODELOS DE INFORMES DE TESIS
387

VALORACIÓN DE LA PÉRDIDA DE LA BIODIVERSIDAD EN LA


EXPLOTACIÓN DE YESO DE LAS CANTERAS DE MORROPE,
PROVINCIA Y DEPARTAMENTO DE LAMBAYEQUE - PERÚ.

VICTOR ESCOBEDO OBLITAS (1), JOSEFA ESCURRA PUICON (2), ANTERO VASQUEZ GARCIA (3)
1. Profesor Principal DE. Facultad de Ingeniería Civil- UNPRG
2. Profesor Asociado DE. Facultad de Ciencias Biológicas- UNPRG
3. Profesor Principal DE. Facultad de Ciencias Biológicas

I. INTRODUCCIÓN

Desde el punto de vista biológico, el ecosistema es el mas elevado de los


niveles de organización de la materia y está compuesto por biotopos y
biocenosis, los que en los últimos años, han merecido especial importancia
debido a consideraciones económicas y de valoración ante el continuo
deterioro de sus componentes, que van desde la simple acción del ser
humano sobre su entorno por desconocimiento, necesidad o ignorancia que
no le permite medir la magnitud del efecto negativo que ocasiona, hasta la
intervención de intereses públicos o privados

Kapp en Left (1995) señaló que no existe un instrumento económico,


ecológico o tecnológico de evaluación con el cual pueda calcularse el valor
real de la naturaleza en la economía, lo que ha conducido a una falta de una
teoría objetiva del valor de ella, sostiene además que los costos ambientales
y la valorización de los recursos naturales ya no son determinados de
manera objetiva y cuantitativa en la esfera económica, sino que dependen
de percepciones culturales, derechos comunales e intereses sociales

UICN , PNUMA y WWF (1991) al mencionar una nueva estrategia de cuidado de la


tierra señalaron que es necesario destacar dos aspectos : i) el primero basado en
una ética de cuidado de la naturaleza y las personas y ii) el segundo es una
estrategia en la cual las acciones recomendadas se refuerzan mutuamente a nivel
individual, local, nacional e internacional
388

La producción de yeso en el distrito de Mórrope, provincia y departamento de


Lambayeque, a pesar que no es considerada como una actividad estratégica para
el país, que se remonta a tiempos de la colonia, que en la actualidad podría permitir
el despegue económico de Mórrope y mejorar la calidad de vida de