Anda di halaman 1dari 13

LA METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA Y

OTROS ERRORES DE CONCEPTO


Lic. Dante Bobadilla
Facultad de Medicina Humana
Universidad de San Martín de Porres
Lima – Perú
Resumen
A raíz de la ola de críticas surgidas en relación a los reportes de investigación
que se publican en las revistas especializadas, se analiza el entorno de ideas y
creencias que domina el escenario académico actual, responsable de generar
este tipo de estudios. Se revisan los conceptos de investigación, ciencia y otros,
que se emplean en estos ambientes, para llegar a la conclusión de que
predominan falsos supuestos.
Palabras clave: ciencia, metodología, investigación, estadísticas, paradigma.
Abstract
After the wave of criticism that arose around the research reports that are
published in specialized journals, we examine the environment of ideas and
beliefs that dominates the current academic area, which is responsible for
generating this kind of studies. We review the concepts of research, science and
others that are used in these environments, to conclude that predominate false
assumptions.
Keywords: science, methodology, research, statistical, paradigm
Introducción
La ciencia, aun con toda su aura magnífica de certeza y seguridad, es, al fin y al
cabo, una actividad humana, y como tal, no puede desenvolverse al margen de
los vaivenes del comportamiento humano, incluyendo -¡cómo no!- su inevitable
dosis de irracionalidad. La actividad científica –o lo que pareciera serlo- tampoco
ha estado exenta del fenómeno de la masificación producido durante el siglo XX
en casi todo el mundo occidental, y en especial, de la masificación de la
educación universitaria. En añadidura, podríamos decir que gracias a la
metodología, la ciencia se ha convertido prácticamente en una actividad popular,
en consecuencia hemos visto aparecer una pléyade de publicaciones que llenan
sus páginas con investigaciones científicas sobre los más variados asuntos del
ser humano. Al cabo de unas cuantas décadas de publicaciones de este tipo,
muchas dudas han empezado a aflorar en el ambiente y se ha desatado una
verdadera tormenta alrededor de este escenario al que algunos ahora se resisten
a llamar “científico”. La psicología, por supuesto, no ha sido ajena a todo este
acontecer. Peor aún, probablemente sea el campo más afectado. Sin embargo,
en ella las cosas transcurren todavía como si nada hubiera alterado la quietud
de sus aguas.
Detectando el problema
Cualquiera que lea uno de esos típicos reportes de investigación científica que
hoy abundan en las revistas, y lo haga con la mente despejada, y particularmente
con esa predisposición crítica alcanzada al cabo de unos años de desencanto
con los “hallazgos” de los experimentos científicos en la medicina y la psicología,
sabe que no puede dar mucho crédito a estos reportes. A menudo nos invade
una sensación de perplejidad tan sólo con observar el diseño del experimento,
las variables que se confrontan o los conceptos implicados. Pero más allá de
estas cosas que al simple ojo del buen clínico puede parecernos sospechoso,
todavía están los problemas de tipo metodológico y estadístico que ya no son
tan fáciles de detectar para cualquiera. Y esto es así porque las estadísticas
inferenciales son realmente algo muy complejo y difícil de manejar con
propiedad para cualquier persona. Muchos libros de texto de estadística son
más arduos y difíciles de entender que el psicoanálisis de Lacan o la metafísica
de Heidegger, por decir algo. Por lo mismo, no deja de ser preocupante y
sospechoso el hecho de que un número tan grande de personas esté volcada a
emplearla con tanta facilidad en toda clase de “investigaciones científicas”,
incluso en áreas del saber en las que no hace falta una formación matemática
rigurosa, como es el caso de la psicología. Peor aún si consideramos el escenario
de nuestros países en donde las deficiencias de la formación escolar en
matemáticas son mundialmente reconocidas.
Pero las mayores muestras de preocupación, crítica, y hasta enfado, contra esta
clase de investigación fundada en estadísticas, han surgido en el campo de la
medicina, y desde hace mucho. Entre los numerosos artículos publicados al
respecto, sin duda uno de los que tuvo mayores repercusiones fue el del Dr.
John P. A. Ioannidis con su explosivo ensayo “Why Most Published Research
Findings Are False?” (1). Es decir, “¿Por qué la mayoría de los hallazgos de las
investigaciones publicadas son falsas?”. Semejante artículo tenía que llamar, por
supuesto, la atención de todos los editores de revistas científicas --empezando
por el Director de la Journal of Public Library of Science - Medicine (2), que
publicó el artículo-- los que no tardaron en justificarse de diversas formas. Una
de ellas dice sencillamente que no es su trabajo verificar la veracidad de lo que
publican. Puede que eso sea cierto, pero es verdad que tienen una
responsabilidad por alentar y preferir este tipo de publicaciones en desmedro
de otras. Como todos saben, existe una miríada de revistas dedicada a reportes
de investigaciones hechas con metodología estadística, mal llamada “método
científico”, y no hace falta nada más que demostrar los tópicos tradicionales del
“rigor metodológico” para publicar cualquier cosa como un hallazgo científico.
Estas revistas suelen rechazar, con las disculpas más elegantes, cualquier
trabajo de discusión teórica, por ejemplo, explicando sin rubor que tan sólo se
interesan por estudios empíricos, como si sólo eso fuera importante en el
panorama científico. Que alguien ahora nos advierta de que la gran mayoría de
tales reportes son falsos, en el sentido de que realmente no demuestran lo que
pretenden, es algo que no debería llamarnos la atención en lo más mínimo.
Inevitablemente los estándares intelectuales funcionan como una forma de
censura. El predominio de ciertos estándares intelectuales típicos como el
empirismo y el metodologismo a ultranza, se aseguran de que otros modelos no
reciban atención ni publicidad ni debate (3). Hasta parece haber un interés
especial por confundir la investigación estadística con ciencia, lo cual es, desde
cualquier punto de vista, un disparate; tanto así que ya se ha planteado la idea
de considerar a este tipo de prácticas como una pseudociencia (4).
El debate generado en el campo médico en relación a las investigaciones basadas
en estadísticas no es reciente, pero parece estar siempre sistemáticamente
oculta. El cuestionamiento de métodos estadísticos está presente en simposios,
artículos y hasta en libros de texto. Y las propuestas van desde una revisión de
casi todos los pasos hasta el reemplazo de la estadística inferencial por la
bayesiana. En dichos estudios se leen frases elocuentes como “La medicina
basada en la evidencia se ha convertido en una suerte de espada del
conocimiento, que se muestra y aniquila al adversario en cada visita o reunión
médica”. (5)
Por supuesto, la psicología no ha estado al margen del problema planteado por
las investigaciones de carácter estadístico. Si bien ya desde los años 60 se
escucharon críticas a la “metodolatría” (May, 1967) y al “fetichismo
metodológico” (Koch, 1969), estas estuvieron dirigidas inicialmente hacia la
actitud, pero luego aparecieron una variedad de críticas muy profundas hacía la
metodología estadística misma (6) que cuestionaban el empleo indiscriminado
del test de significancia de la hipótesis nula (NHST) en las investigaciones
psicológicas, en los que se denunciaba, por ejemplo, el empleo de un híbrido de
los test de Fisher y Pearson y Neyman. Finalmente, al cabo de años de debate,
en 1996 una comisión especial de la APA (Task Force on Statistical Inference)
conformada entre otros por Robert Rosenthal, Jacob Cohen y Leland Wilkinson,
estuvo comisionada para examinar el espinoso problema creado por la ola de
críticas hacia las investigaciones estadísticas, ampliamente dominantes en el
escenario de la psicología americana (y de paso, de la nuestra). El reporte final
vio la luz en 1999 (7) pero pasó inadvertido y este asunto siguió ignorado. Hasta
el día de hoy son pocos los que conocen de su existencia, y mucho menos los
que siguen sus recomendaciones. Si bien el reporte final de la APA no llegó al
extremo de prohibir las investigaciones de carácter estadístico frecuentista-
inferencial, como más de uno esperaba, sí hace una sucinta relación de
recomendaciones en cada tópico de esta metodología. Por último, nos ofrece
una frase bastante expresiva: “Good theories and intelligent interpretation
advance a discipline more than rigid methodological orthodoxy…Statistical
methods should guide and discipline our thinking but should not determine it”
(7).
Ahora bien, al margen de los problemas referidos estrictamente al empleo
apropiado de las estadísticas, debemos reconocer la existencia de mitos y
creencias presentes en nuestros ambientes académicos, y que son los que al
final impulsan a la gente a abrazarse de ciertos paradigmas culturales, llevados
por actitudes casi religiosas en búsqueda de “la verdad” o, al menos, del
reconocimiento. Actúan convencidos de la infalibilidad y certeza del método,
ejecutando cada paso con una profunda sensación de seguridad, como si se
tratara de un acto ritualista de naturaleza casi mágica. Y aunque pocos entiendan
el significado profundo de sus acciones, las repiten como una especie de conjuro
científico, confiados en obtener los resultados en gratitud a la fidelidad
mostrada. Por todo esto, intentaremos aquí hacer una breve revisión psicológica
de lo que hay detrás de esta conducta académica y de estas actitudes
cientificistas, así como un acercamiento epistemológico al conocimiento
implicado en este paradigma, y que tal vez no sea tan científico después de todo.
Si bien los problemas generados por el metodologismo alcanzan diversas
disciplinas, lo que sigue está básicamente referido al campo de la psicología, ya
que como la “ciencia en crisis” que es, epistemológicamente hablando, resulta
un permanente campo de debate en cuanto se refiere a la investigación de los
fenómenos humanos. Todas las conductas humanas que logran sostenerse en
el tiempo como actividades fuertes en una comunidad, se sostienen en mitos y
creencias. Planteamos que la actividad que desarrollan las comunidades
académicas en el campo de la investigación no es diferente. Revisaremos
algunos de estos aspectos.
El mito de la verdad estadística
Se ha producido cierto avance en la humanidad desde los días de Cristo. En
aquella época una muchedumbre congregada en una plaza determinaba a gritos
si alguien era crucificado o liberado. Hoy tenemos la información que nos
ofrecen los medios: “El 80% de la población cree que el Ministro de Salud ha
cometido un delito”. A diario nos manejamos con esta clase de información
estadística. Es más, casi toda la información que se maneja a nivel público tiene
un sesgo estadístico; hasta los partidos de fútbol se resumen con unas
estadísticas sin sentido ni utilidad. Diríamos que la sociedad se ha
estadistificado y que estamos en “La Era de la Información Estadística”. ¿Cómo
afecta esto nuestra comprensión de la realidad? ¿Cómo afecta nuestra imagen
del conocimiento? De muchas maneras. En primer lugar reduce el esfuerzo de
análisis induciéndonos a conformarnos con la inmediatez de un dato, y con la
primera forma interpretativa que obtengamos, que por lo general, es una que
viene consentida y direccionada socialmente. La información estadística impone
un criterio cuantitativo y simplista a la comprensión y análisis de la realidad,
relegando o anulando todo su aspecto cualitativo y complejo. Gracias a esto, la
estadística gana espacio no por su verdad sino por sus ventajas, pues además
de su simpleza carga con una especie de glamour que otorga estatus a quien la
maneja. Y es que hace falta cierta capacidad intelectual para comprender
apropiadamente la estadística. De hecho, hay muchas formas de interpretarla,
pero aun la más errada exige cierta formación y nivel intelectual, por lo mismo
resulta extraño su empleo masivo, lo que demuestra que ha terminado
convertida en una forma más de las tantas actividades populares carentes de
todo sentido racional.
Por otro lado, no podemos ignorar la información estadística que se emplea con
el deliberado propósito de manipular la interpretación de la realidad a favor de
una sola perspectiva o causa. Como bien se ha dicho, la información estadística
es la mejor manera de “mentir científicamente”, ya que el dato estadístico es una
simplificación grotesca de la verdad que al ser mostrada sin más, evoca una
realidad castrada de su inherente complejidad. Nos dicen cosas como: “El 80%
del cuerpo humano es agua”, “un oficinista promedio imprime 10 mil hojas al
año, un árbol produce 16.67 resmas de papel, el 50% de lo que se imprime acaba
en el basurero”, “el promedio de celulares por persona es de 1.4”. Este tipo de
“información” ha dado pie para la chanza de varios pensadores. Incluso existe
una frase famosa que se atribuye a Disraeli y a Mark Twain indistintamente:
“Existen tres clases de mentiras: mentiras, malditas mentiras y estadísticas”.
También se han escrito libros para burlarse de esta clase de información, como
la exitosa publicación de A. K. Dewdney “200% of Nothing” y artículos brillantes
de pensadores de la talla de Stephen Jay Gould (8). Pero nada de esto es capaz
de cambiar las cosas. La realidad humana transcurre guiada por su propia
dinámica, no necesariamente racional, y se desordena por su propia entropía.
En el transcurso de la evolución cultural de las sociedades, como ocurre en
cualquier otro tipo de proceso evolutivo natural, no intervienen factores lógicos
o racionales. El resultado inevitable de esta situación en una sociedad en la que
predominan ciertos conceptos curiosos sobre democracia, es que se produce
una alteración en la lógica de nuestros pensamientos en favor de los números y
de la simplificación de la realidad a través de un dato que nos libera de su
complejidad. Algún sociólogo diría que la “democratiza” a fin de que todos la
entiendan. Borges decía que la democracia no era más que un error de la
estadística. En los hechos, nuestra democracia se ha convertido en el predominio
del número, de la cantidad sobre la calidad. Se trata de un proceso sistemático
de eliminación de las diferencias cualitativas de la sociedad iniciado hace ya dos
siglos y cuyo fin es el igualitarismo más rampante entre todos los seres
humanos. Y nada mejor que el número, la cantidad, la cifra estadística como el
elemento democratizador. Así lo que importa es la cantidad de votantes y no sus
diferencias cualitativas. Esta prédica sistemática de dos siglos ha producido una
mentalidad numérica y cuantitativa en el hombre de hoy y ha llegado incluso a
los ambientes académicos. Tal es la lógica que se emplea en la metodología
científica que pretende estudiar la realidad social y humana a base de
mediciones hechas con instrumentos estandarizados y, por ende, igualitarios.
Ya casi debemos sentir vergüenza para diferenciar entre un alfabeto y un
analfabeto o entre culturas visiblemente distintas. Hasta se han hecho leyes para
castigar este tipo de “discriminación”, y esta palabra ha pasado a la lista de malas
palabras. Ya ni el científico discrimina nada en la realidad social. Konrad Lorenz
se quejaba de que “se le concede legitimidad científica a la percepción cuando
está al servicio de la lectura de un instrumento de medición pero se le niega
cuando se la emplea para observar directamente un proceso natural” (9). Incluso
lo advertía el cancionero popular muy a principios del siglo XX:
Hoy resulta que es lo mismo
ser derecho que traidor,
ignorante, sabio o chorro,
generoso o estafador...
¡Todo es igual!
¡Nada es mejor!
Lo mismo un burro
que un gran profesor.
No hay aplazaos ni escalafón,
los ignorantes nos han igualao.
Si uno vive en la impostura
y otro roba en su ambición,
da lo mismo que sea cura,
colchonero, Rey de Bastos,
caradura o polizón. (10)
Podemos afirmar que hemos ingresado en una era de supremacía de la cantidad
sobre la calidad, y en una fase en que la lógica del pensamiento esta dominada
por lo numérico, cuantitativo y estadístico. Sin embargo, debemos advertir que
la información estadística no es, estrictamente hablando, “información” sino que
pasa a ser un dato más, pero de mayor complejidad intrínseca, pues requiere un
trabajo mental posterior de asignación de escenarios para una interpretación
fundada necesariamente en información previa. Sin estos requisitos de trabajo
posterior (y anterior) ninguna información estadística vale nada realmente. En
otras palabras, para entenderla cabalmente hay que reponerle toda la
complejidad que ella misma ha perdido con ciertos propósitos, como facilitar
una ecuación, por ejemplo. Visto así, no podemos considerarla una verdad en sí
misma. Todo lo contrario, alejada de su matriz de realidad compleja y su estricta
finalidad matemática, ella puede convertirse en una falsedad para todo lo demás.
Por tanto, como lo recomienda el informe de la APA, el dato estadístico no puede
ni debe determinar nuestros razonamientos. En buena cuenta, esto significa que
no podemos considerar el dato estadístico como un fin, y mucho menos como
algo que decide una verdad. En la investigación que corresponde hacer en las
ciencias humanas y sociales se precisa fundamentalmente atender las
diferencias cualitativas del fenómeno, lo que conlleva irremediablemente al
empleo de una hermenéutica comprensiva para el estudio de escenarios
complejos, impregnados de subjetividad, con hechos que adquieren su real
significación a partir de un análisis apropiado de la cultura que los engloba y de
las circunstancias históricas que convergen en ella, los cuales son elementos
vitales que ninguna estadística está en condiciones de ofrecer.
Lamentablemente, este tipo de trabajo demanda el empleo de ciertas
capacidades mentales difíciles de hallar en una población heterogénea. Los
intentos de emplear metodología para salvar este escollo, no resuelven el
problema.
El mito de “el método científico”
Existe un amplio sector académico –bien podría considerársele también una
“secta académica”– predicando una especie de credo cientificista que prescribe
el empleo del llamado “método científico”, como una suerte de garantía de
verdad científica. En realidad se trata del método basado en la estadística
frecuentista-inferencial, cuya utilización indiscriminada anda tan cuestionada
por estos días. Es este sector precisamente el responsable de aquellos
cuantiosos reportes “científicos” que han provocado la ola de críticas comentada
líneas arriba. En tanto que dicho método es apreciado como la única ruta hacía
el conocimiento objetivo, la preocupación central está puesta casi
exclusivamente en el rigor metodológico; todo lo demás es secundario,
incluyendo la naturaleza del problema, razón por la cual dicho método es
trasladado cómodamente desde el escenario de las ciencias naturales hacia el
campo de las ciencias humanas, sin que nadie se haya molestado en hacer una
adecuada sustentación epistemológica para semejante proceder científico. Se
trata pues de un supermétodo que resulta válido para cualquier escenario, por
lo que fue elegido sin conocer el problema. Por ello observamos la aplicación
del mismo tanto para estudiar la reacción de una población de bacterias a una
sustancia, como para determinar el papel del estrés laboral en los ejecutivos de
un banco, con miras a universalizar los resultados. Así es como anda nuestro
ambiente científico hoy en día. Mario Bunge hablando sobre este punto nos dice:
“Diferenciando entre el método general de la ciencia y los métodos especiales
de las ciencias particulares hemos aprendido lo siguiente: primero, que el
método científico es un modo de tratar problemas intelectuales, no cosas, ni
instrumentos, ni hombres; consecuentemente, puede utilizarse en todos los
campos del conocimiento. Segundo, que la naturaleza del objeto en estudio
dicta los posibles métodos especiales del tema o campo de investigación
correspondiente: el objeto (sistema de problemas) y la técnica van de la mano.
La diversidad de las ciencias está de manifiesto en cuanto que atendemos a sus
objetos y sus técnicas: y se disipa en cuanto que se llega al método general que
subyace a aquellas técnicas” (Bunge, 1973).
De hecho, un método de investigación tiene que ser coherente con la naturaleza
del problema que estudia. En las ciencias naturales no tienen el problema de la
auto-referencia que existe en las ciencias humanas, donde la relación sujeto-
objeto no es tal y se trastoca la base misma del proceso cognoscitivo, pues hace
falta construir antes una ontología y una epistemología apropiadas que la
sustente. Por otro lado, no hay nada más extraño para la ciencia que un
pretendido único método universal. La única precisión que podríamos añadir a
la expresión de Bunge es que no son los objetos en sí los que dictan la
metodología sino el concepto que del objeto maneja el sujeto investigador, es
decir, esa ontología particular a la que nos hemos referido. Históricamente
entendimos por “método científico general” a la serie de pasos que
desarrollamos para llegar a un saber válido, entendiendo por tal aquel que
resulta verificable. Es decir, hemos estado refiriéndonos a la observación, la
comprensión del problema, la formulación de una hipótesis, la experimentación
y la aceptación o rechazo de la hipótesis. Luego hará falta la confrontación de la
hipótesis exitosa que podrá, en tanto, ser una verdad provisional. En otras
palabras, se trata tan sólo del proceder heurístico natural y necesario para
conseguir un conocimiento objetivo en términos generales, pero que de hecho
tienen que empezar a diferenciarse en cada campo particular de las ciencias, o
lo que es lo mismo decir, en cada escenario de la realidad en donde pretendemos
estudiar algún aspecto de la misma con un enfoque particular. Por tanto es
inapropiado hablar de métodos universales, tan sólo queda la libertad del
investigador, su creatividad y fortuna frente a su problema. Y gracias a ese libre
pensar y proceder científico, se han creado tantos métodos que hoy hace falta
mucho trabajo para conseguir una clasificación razonablemente estructurada de
la metodología científica existente. Las tenemos de las más complejas y
ambiciosas, como la planteada por Gabriele Beissel-Durrant, del ESRC National
Centre for Research Methods y el Southampton Statistical Sciences Research
Institute, del Reino Unido (11), y las más reducidas como la que proponen
Montero y León, para el campo específico de la psicología (12).
Aun así toda clasificación tiene apenas un valor referencial y pedagógico, nunca
podrá tener un carácter prescriptivo ya que la base del pensamiento científico
es la libertad y la creatividad del investigador para hallar el camino al
conocimiento de su campo de estudio y desde su perspectiva particular. De ello
resulta precisamente el anarquismo epistemológico de Paul K. Feyerabend en su
ya famoso “todo vale”.
Naturalmente comprendemos que en nuestra cultura es difícil andarse con
muchas libertades, y más aún en el campo académico, tan proclive a los
estándares. Nuestra cultura busca afanosamente la sistematización y la
estandarización de todo. Ella es la base de la masificación, proceso
antropológico evolutivo predominante en nuestro tiempo. Y la ciencia (o lo que
parece) no escapa de este afán. Por ello Feyerabend advierte:
La educación científica, como hoy día se entiende, apunta exactamente a este
objetivo. Tal educación simplifica la ‘ciencia’ simplificando a sus participantes:
en primer lugar se define un dominio de investigación. A continuación, el
dominio se separa del resto… y recibe una ‘lógica’ propia. Después, un
entrenamiento completo en esa lógica condicionará a quienes trabajan en dicho
dominio. Con ello se consigue que sus acciones sean más uniformes y al mismo
tiempo se congelan grandes partes del proceso histórico. (Feyerabend, 1974).
Indudablemente hay una diferencia abismal entre la ciencia verdadera y esa
ciencia sistematizada, estandarizada, metodologizada y castrada de su
complejidad, que se intenta producir en nuestros ambientes académicos con
altas dosis de dogmatismo cientificista, y una amplia gama de conceptos
simplificados y hasta equivocados. Por ejemplo, frecuentemente leemos que fue
Percy W. Bridgman, el fundador del operacionalismo, quien construyó el camino
del método experimental aplicado en psicología desde la época de Watson. Sin
embargo, cuando se lee con atención el pensamiento de Bridgman, hay muchas
cosas más que debemos comprender. Desde el principio se encarga de
transmitirnos su estado de perplejidad debido a la insólita situación que la
Teoría de la Relatividad plantea a los físicos, pues lo primero que Einstein
demostró fue que la actitud mental que había dominado a los físicos durante
tanto tiempo, frente al estudio de la realidad, había estado equivocada. En
consecuencia, el pensamiento de Bridgman apunta en la dirección de no abrazar
una idea ni acomodarse en una posición segura para enfrentar la tarea de
estudiar y comprender la realidad. Y nos dice textualmente:
"No existe un método científico como tal (...); el rasgo distintivo más fértil de
proceder del científico ha sido el utilizar su mente de la mejor forma posible y
sin freno alguno". (Bridgman, 1927).
Todo esto nos induce a reflexionar en torno a lo que es el verdadero proceder
en la ciencia, y lo que el cientificismo académico pretende que sea. La gran
mayoría de conceptos que nos ofrecen han pasado por el tamiz de la
simplificación grotesca y la tergiversación interesada con el afán de mostrarnos
un mundo homogéneo, regular y perfectamente predecible. Han acomodado
todo el escenario para que encaje en sus conceptos de ciencia y método, que
son conceptos derivados de un pensamiento religioso de fondo, pues apuntan a
la perfección y armonía del universo, y hacía una idea de ciencia como aquel
afán irreverente del hombre por descubrir las leyes inmutables con que Dios
echó a andar el mecanismo universal. Por eso mismo reaccionan con enfado
visceral ante las teorías del caos, el azar y la complejidad que amenazan su
sistema de creencias.
Es difícil determinar quién y cuándo patentó la idea de que el método estadístico
inferencial era “el método científico”, pero esta idea ha estado ganando terreno
y hoy en muchas universidades se cree firmemente en esto. Han sido
convencidos de que todo es perfectamente predecible y sólo hace falta descubrir
la ley universal que rige en cada segmento de la vida humana. Una ley que salta
a la vista gracias a una fórmula estadística que determina una relación de
causalidad entre dos variables mágicamente aisladas del resto del universo. Así
de simple. Además es un método que ha estado llenándose de una sofisticación
tal que hoy pocos llegan a entenderla cabalmente, no obstante parece producir
una veneración semejante a la que se profesa ante un arcano. Por lo mismo no
deben sorprendernos los pocos resultados que obtienen, el ridículo que están
haciendo en el terreno de las publicaciones científicas, y la lluvia de críticas que
vienen cosechando. Si el método se sustentó inicialmente en ciertas evidencias
de su éxito en campos muy diferentes al de las llamadas “ciencias humanas y
sociales”, hoy vemos que las evidencias apuntan en otra dirección. No obstante,
nada de esto es relevante ya que la conducta humana, incluso en los ambientes
académicos, no se rige necesariamente por la racionalidad sino por los mitos y
creencias que la reemplazan y por ciertos intereses corporativos menos visibles.
Esto es particularmente cierto en la psicología, donde se ha venido saltando a la
garrocha el problema epistemológico de fondo, y cuando esto ocurre, lo normal
es acabar actuando sobre la base de puras creencias.
La creencia en los datos
Todavía queda una larga serie de mitos alrededor de lo que se llama “la
metodología de la investigación científica” cuyo análisis y contra–argumentación
excederían los alcances de un modesto artículo. No obstante, no podemos dejar
de referirnos a uno de sus productos más distintivos: el datismo, o la firme
creencia en que el único medio de obtener conocimientos sobre cualquier
aspecto de la realidad son los datos. No importa si se trata de aspectos objetivos,
subjetivos, naturales, humanos, microbiológicos, sociales, atómicos o mentales.
Es como si un motín de cocineros entusiasmados por uno de sus nuevos
artefactos, hubiera dictaminado que todos los alimentos deben pasar por la
licuadora antes de ser servidos. Así resulta que hoy los datos han reemplazado
al fenómeno, a la sociedad, a la persona, al mensaje. Ya nadie se esfuerza por
comprender estas cosas tal como son en la realidad sino tan sólo por estudiar
algunos de sus datos, y con curiosas técnicas para recolectarlos o incluso
fabricarlos, elaborarlos de diversas maneras caprichosas sólo para satisfacer las
necesidades del método, pues este método no hace absolutamente nada sin
datos. Y como corolario trágico de esta situación el pensamiento humano se ha
vuelto “datista”. Ya no sólo datista-numérico-cuantitativo, sino que se ha
acuñado un término nuevo que resulta una verdadera joya del pensamiento
datista: “dato cualitativo”. Entiéndase por dato cualitativo cualquier cosa que
venga a su mente.
Pero esta no es la mayor joya del pensamiento datista en la ciencia académica.
La cumbre datista-metodologista está coronada, sin ninguna duda, por Glaser y
Strauss y su “Teoría Fundamentada” (13) según la cual es posible generar teorías
científicas a partir del análisis comparativo de los datos. En otras palabras,
cualquiera puede llegar a ser un científico y generar sus propias teorías. No tiene
que hacer nada más que analizar unos datos siguiendo el mágico método que,
luego de hacer todo el trabajo pesado, al final iluminará una verdad. Gracias a
esa mentalidad práctica americana, el sistema de la comida rápida había llegado
al fin al escenario científico y las teorías científicas salían a la carta para cualquier
contexto social.
“Our discussion of comparative analysis (of data) as a strategic method for
generating theory assigns the method its fullest generality for use on social units
of any size, large or small, ranging from men or their roles to nations or world
regions.” (Glaser & Strauss, 1967).
No hace falta mucha epistemología para darnos cuenta de que las teorías
sociales no pueden surgir nada más que de los meros datos. Ni siquiera las
teorías económicas lo hacen. Menos aun en escenarios en los que la generación
de datos constituye un proceso reduccionista que desintegra la realidad original,
diferente a otros escenarios en los que los datos están presentes como parte de
la realidad. Podemos convenir en que en la naturaleza encontramos datos -es un
hecho- y que estos se recogen prácticamente como recolectar manzanas porque
ellos existen, están allí, son parte de la realidad física. Se trata del peso, la
longitud, la acidez, etc. Pero en el mundo subjetivo de los seres humanos las
cosas son muy distintas. Si bien es cierto que en el principio la psicología
experimental procedía igual que la física y se ocupaba de puros datos físicos,
hoy el malentendido ha crecido, y cuando se pretende estudiar cuestiones
subjetivas como la autoestima, los datos tienen que inventarse para cuantificar
y objetivar forzadamente el fenómeno, pues el paradigma actual de la ciencia
nos obliga a prescindir de todo lo que no sea objetivo. Lo curioso es que se
pretende hacer psicología siguiendo este paradigma, por lo que el recurso de
disfrazar los fenómenos subjetivos con algunas cifras objetivantes es uno de los
más empleados. Para ello existe una disciplina entera dedicada exclusivamente
a la invención de toda clase de “instrumentos de medición” que nos
proporcionarán los “datos objetivos” requeridos por el método. De este modo la
psicología cumple con pasar por las arcas caudinas del cientificismo
metodologista y objetivista, solo para alcanzar su viejo sueño de ser reconocida
como ciencia, a costa incluso de perder de vista su propio campo de estudio y
su sentido original.
Siempre ha sido un capítulo aparte la discusión alrededor de la psicometría y
sus maneras de asumir y de manipular los constructos psicológicos. Algo que
no vamos a tratar ahora, pero el debate existe y es un asunto que generará dudas
mientras se persista en ese empeño de transmutar los fenómenos subjetivos en
objetivos, lo que a la larga constituye una creencia más, ya que nunca podremos
estar seguros de qué es lo que realmente se está midiendo, si es que algo se
mide al final de todo ese proceder insulso. Por ello, antes de emplear cualquiera
de las tantísimas escalas de medición psicológica convendría averiguar si no hay
por allí un estudio que prueba la inconsistencia de su supuesta universalidad y
validez. Un buen ejemplo es el de la famosa escala de Holmes y Rahe empleada
para el estudio del estrés, evaluada en Tenerife por González de Rivera y
Revuelta (14) cuyo resumen nos anuncia:
“Las diferencias con los valores establecidos en el estudio original de Holmes y
Rahe son considerables para algunos items, y demuestra el condicionamiento
sociocultural de las escalas de sucesos vitales.”(14)
El cambio de giro profesional
El hecho de depender de métodos y de datos para analizar y comprender la
realidad nos ha llevado a convertir la metodología y el tratamiento de los datos
en toda una ciencia particular en sí misma. No sólo hemos dejado a un lado la
realidad para ocuparnos tan sólo de sus datos (o de lo que creemos que son sus
datos) sino que debemos ocupamos además de todos los pasos del proceso
complejo y tedioso de producir, tratar, analizar y comparar datos. Se ha
desarrollado una amplísima gama de inventarios, escalas y pruebas de todo tipo,
muchas de ellas francamente insulsas o impracticables en la clínica, y que
generan permanente polémica. Además se suman paquetes de software que
pretenden facilitar la tarea de tratar los datos. Surgen teorías en torno al
tratamiento de los datos. Toda esta gama de instrumentos y métodos requieren
una formación especial y adicional para poder manejarlos con propiedad. Hoy
los profesionales necesitan de un entrenamiento especializado para estudiar sus
datos e investigar de la forma en que el sistema espera que lo hagan, y son
encaminados hacía la dependencia de tales instrumentos y métodos. El sistema
condiciona a cada elemento dentro de dicho ambiente, los que están sometidos
a seguir la fe o ser marginados. Sin duda hay áreas de las ciencias naturales
donde la investigación metodológica con datos funciona, pero el intento de
universalizar tal metodología a todos los aspectos de la realidad, especialmente
al campo de las sociedades y del hombre, cualquiera sea su interés, dista mucho
de ser un proceder científico, y ni siquiera inteligente, para decir más.
Podemos considerar este ambiente como un paradigma que, siguiendo el
concepto Kuhniano, define lo que es la ciencia y el proceder científico en una
comunidad académica. Los demás deben acomodarse o serán excluidos,
estigmatizados y hasta tratados con la misma severidad que la antigua
Inquisición (15). De este modo somos conducidos hacía una lógica de
pensamiento que acaba aislándose de la racionalidad para acomodarse a unos
cánones culturales que definen su propia estructura racional sobre la base de
mitos y creencias. Sin darnos cuenta hemos acabado poco a poco sumergidos
en una extraña dimensión que no es otra cosa que el absurdo. Tal vez ya no
podamos comprenderlo claramente porque el absurdo no nos ofrece datos y no
habrá forma de estudiarlo científicamente, a menos, claro, que alguien nos
ofrezca una escala de medición de lo absurdo, que lo objetive y lo cuantifique
para pasarlo por el método. Digo. Es un decir.
Para concluir, debemos indicar que apenas nos hemos ocupado de algunos de
los aspectos culturales que dominan en los ambientes académicos y que
adquieren las formas de mitos y creencias que reemplazan la racionalidad. Aun
queda mucho por decir en torno a la sistematización y estandarización,
tendencias que han conducido al empobrecimiento del pensamiento y a la
pérdida de la creatividad y originalidad. La ciencia en manos de la burocracia
académica se ha convertido en un producto envasado producido en serie, cuyos
hallazgos repletan las revistas en un lenguaje impersonal, casi robotizado,
donde cualquier expresión de emoción personal debe ser eliminada para hablar
en abstracto y en tercera persona. Y con estudios que más allá de sus resultados,
se muestran orgullosos de su método.
Conclusiones
La actividad científica, como cualquier otra actividad humana, puede verse
afectada por creencias y mitos que se generan al interior de las comunidades
académicas, las que operan al igual que un organismo en defensa de su
integridad territorial frente a cualquier forma de amenaza. La configuración
actual de la ciencia como la única proveedora de la verdad, ha llevado a
consagrar el método estadístico inferencial como el privilegiado, sin duda
debido a su innegable éxito en determinados campos de su aplicación, aun
cuando en otros no ha ofrecido la misma eficacia, y pese a que muy pocos la
entienden y manejan apropiadamente. Esta situación ha generado un ambiente
de duras críticas no sólo a la metodología estadística empleada sino, y sobre
todo, al metodologismo militante.
El deseo de imponer un criterio único de verdad objetiva ha llevado a implantar
una serie de dogmas de investigación, como el empleo sistemático de datos de
todo tipo, incluyendo “datos cualitativos”, y datos obtenidos mediante
procedimientos dudosos que intentan objetivar y cuantificar incluso aspectos
subjetivos y cualitativos del ser, con el sólo propósito de emplear el método
estadístico frecuentista-inferencial, que, para grandes sectores académicos,
acaba siendo el único método de estudio de la realidad, cualquiera que esta sea.
Luego de un análisis de la historia de la ciencia y un recorrido por el pensamiento
de algunos filósofos de la ciencia, queda claro que no existe ningún método que
pueda preciarse de ser “el método científico” y que la realidad no puede estar
sometida a un único método de estudio. El científico, en su esfuerzo por
comprender el aspecto de la realidad que le interesa, está obligado a alejar su
mente de los cánones y presupuestos culturales, procurando mantener la
libertad de su pensamiento y emplear su ingenio y creatividad para elaborar el
procedimiento más apropiado para su investigación. Todo hombre de ciencia se
convierte en investigador en el instante en que descubre el mejor método para
estudiar el problema que le interesa desde su enfoque particular. Esta conducta
natural del científico ha generado una gran cantidad de “métodos” que hoy son
un reto para cualquier sistema de clasificación. Pero tales métodos no pueden
ser prescriptivos, sólo pueden servir como modelos a imitar si la naturaleza del
fenómeno en estudio es la misma