Anda di halaman 1dari 369

LECTURAS

FILOSOFICAS DE
CIENCIA COGNITIVA

Luis A. Perez Miranda (Editor)


LECTURAS FILOSÓFICAS
DE CIENCIA COGNITIVA

Luis A. Pére: Miranda (Editor)


ILCLI-UPV-EHU

Universidad Euskal Heniko


del País Vasco Unibertsitatea
ARGITALPEN
ZERBITZUA
SERVICIO EDITORIAL
Cl]'. Biblioteca Universitaria
Lecturas filosóficas de ciencia cognitiva / Luis A Pérez Miranda (Editor). -
Bilbao: Universidad del País Vasco J Euskal Herriko Unibertsitatea, Servicio Edito-
rial, D.L. 2007. - 380 p. : 23 cm. - (Filosofía: 7)
D.L.: BI-3299-07 ISBN: 978-84-9860-022-3

1. Ciencias cogniti vas 2, Cognición 3, Inteligencia artificial. I. Pérez Miranda,


Luis A., cd. lit.

159.955

((~I Servicio Editorial de la Universidad del País Vasco


Euskal Herriko Unibertsitateko Argitalpen Zerbitzua
ISBN: 978-84-9860-022-3
Depósito legal/Lege gordailua: BI - 3299-07
Fotocompasición/Fotokonposaketa: Ipar, S. Coop.
Particular de Zurbaran, 2-4 - 48007 Bilbao
Irnpres ión/Inprimaketa: 1txaropena, S.A.
Araba Kalea, 45 - 20S00 Zarautz (Gipuzkoa)
CONTENIDOS

Algunas cuestiones clave para entender la ciencia cognitiva actual


Luis A. Pére: Miranda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Selección de Artículos

1. La Computación en Ciencia Cognitiva.


Z. Pylyshyn.
Extraído de Michael I, Posner (ed.), Foundutions 0./ Cogniuve Science (19R9),
pp. 49-92. The MlT Prcss. (Traductor: Agustín Vicente) . . . . . . . . . . . . . 23

2. El Test de Turing.
D. Davidson.
Extraído de Newton-Srnith. W.H. and K. V. Wilkes (eds.), Modelling the
Mind. Oxford: Oxford University Press 1990. pp. 13-26. Reimpreso en:
D. Davidson, Problems of Rationalitv. Oxford: Clarendon Press, 2004,
pp. 77-86. (Traductor: Jesus Mari Larrazabal) . . . . . . . . . . . . . . . . . . . . 75

3. Arquitecturas Simbólicas para la Cognición.


A. Newell, P. S. Rosenbloom, 1. E. Laird.
Extraído de Míchacl l. Posner (ed.), F'oundations 01Cognitive Science (1989),
pp. 93-132. The MIT Press. (Traductor: Fernando Martínez) . . . . . . . . . . 87

4. La Arquitectura de lo Mental: Un Enfoque Conexionista.


D. Rumelhart.
Extraído de Michael l. Poseer (ed.), Foundations of Cognitive Science (1989).
pp. 133-160. The MIT Press, (Traductor: Jesüs Ezquerro) . . . . . . . . . . . . 135

5. Motivos, Mecanismos y Emociones.


A. Sloman.
Extraído de la revista Cognition and Emotion 1 (1987),217-33. (Traductor:
Luis A. Pérez t\.firanda) '. . . . . . . . . . . . . . . . . 169
6. Modelos Mentales.
P. N. Johnson-Laird.
Extraído de Michael 1. Posncr (cd.), Foundations ofCognitive Science (19R9),
pp. 469-500 Thc MIT Press. (Traductor: L. A. Pércz Miranda). . . . . . . . . 191

7. El Discurso.
B. Grosz, A1. Pollack. and C. Sidner.
Extraído de Michael I. Posner (ed.), Foundations (Jj Cognitive Science (19lN).
pp. 437-468. The MIT Press. (Traductor: Kepa Korta) . . . . . . . . . . . . . . 229

8. La Semántica "Modelo-Teórica.
J. Barwise and 1. Etchemendy.
Extraído de Michael l, Posner (ed.), Foundations ofCognitive Science (1989),
pp. 207-244. The MIT Prcss. (Traductor: Fernando Migura). . . . . . . . . . . . 269

9. Ruedas Cognitivas: El Problema del Marco de la Inteligencia


Artificial.
Daniel C. Dennet.
Extraído de C. Hoolway (ed.). Minds, Machines, and Evolution: Philoso-
phical Studies ( 1994). pp. 12<j-151. (Traductor: Jesús Ezquerro) _. . 317
10. Escapando de la Habitación China.
Margaret A. Boden.
Extraído de Margaret A. Boden, Computer Models DI Mind (l 9gS l,
pp_ 23~-251. (Traductor: Xabier Arrazola) . . . . . . . . . . . . . . . . . . . . . . . . . 349

Índice Analítico y de Nombres. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369

8
ALGUNAS CUESTIONES CLAVE PARA
ENTENDER Li\ CIENCIA COGNITIVA ACTUAL
Luis A. Pérez Miranda

Introducción

La Ciencia Cognitiva constituye un ámbito de investigación de ca-


rácter multidisciplinar que engloba a una amplia variedad de estudios y
metodologías en torno a los procesos cogniuvos de razonamiento, repre-
sentación del conocimiento, planificación, toma de decisiones, memo-
ria, aprendizaje. visión, procesamiento del lenguaje natura), etc. Puede
decirse que el objetivo pricritario.en Ciencia Cognitiva (en adelante
Ce). aunque no el único, e~ la comprensión de la naturaleza de la mente
humane. En un segundo plano situaríamos a la reflexión filosófica sobre
los problemas conceptuales derivados de las teorías y modelos que tra-
tan de explicar dichos procesos'.
La ce entendida como el estudio de la inteligencia y sus procesos
cognoscitivos y computacionales puede ser abordada desde múltiples
ámbitos y ópticas diferentes. Podríamos, por ejemplo, intentar construir
una teoría abstracta de los procesos inteligentes al margen del modo
en que éstos son implementados. sea física o biológicamente. Piénse-
se, sin ir mas lejos, en el desarrollo de la lógica formal, Ia teoría de la
decisión o la teoría de juegos. Podríamos tener también como objetivo
una teoría general de la inteligencia a partir del estudio de la conducta

I La Ciencia Cogninva LOmo programa de investigación propiamente dicho nace


seguramente a raíz del congreso sobre teoría de la información celebrado en el Massa-
chusetts Institute of Technology, en el ano 1956. donde se reunieron el psicólogo G. Mi-
ller, el lingüista N. Chornsky y l()~ informáticos A. Newell y H. Simon. En esre simposio
quedó clara la convergencia en cuanto al objeto de estudio, los procesos cognitivos. así
como a la metodología seguir que debería estar basada en la hipótesis de la computación
de la naturaleza humana.

9
de los organismos inteligentes (animales y humanos), al modo en que se
llevan a cabo en psicología experimental. O incluso podríamos estudiar
la inteligencia exhibida por los ordenadores tratando de comprender los
principios que subyacen a la organización y conducta de los programas
inteligentes (cf, Simón. ] 989). El reconocimiento y uso de esta variedad
de métodos y enfoques diversos en el estudio de los procesos cognosci-
tivos es 10que ha dado lugar al nacimiento de la disciplina que nos ocu-
pa. Partiendo del análisis de algunos artículos considerados ya clásicos
en el estudio de la cognición en sus distintas facetas, trataremos de dar
algunas de las claves que nos sirven para entender la evolución que está
sufriendo la Ciencia Cognitiva en nuestros días.

Ciencia Cognitiva y Computación

De unos años a esta parte, la influencia de la Inteligencia Artificial


(en adelante lA) sobre el resto de las ciencias que se ocupan de los
estudios sobre la mente humana se ha hecho cada vez más notoria. Es
justo reconocer. no obstante, que la relación existente entre las ciencias
de la computación y la ce ha sido desde los comienzos muy estrecha,
Así, por ejemplo, la relevancia de la noción de computación en la com-
prensión de la cognición ya fue puesta de rnanitiesto por A. Turing a
finales de Jos años cuarenta: El descubrimiento de la máquina universal
de Turing - un autómata abstracto que puede simular cualquier otro or-
denador que sea «especificable. formalmente-, le llevó seguramente a
pensar que un ordenador debidamente programado podría. en principio,
exhibir comportamiento inteligente. No hay que olvidar que algunas de
las ideas básicas acerca de la posibilidad efectiva de simulación de la
mente humana en un ordenador digital aparecieron en su célebre en-
sayo Computing Machinery and lntelligence'. La crítica de Davidson
a Turing, en El Test de Turing, está centrada en la suposición no fun-
dada que Turing hace de que la máquina tiene autonomía semántica. es
decir, que es capaz de comportarse proporcionando significado como
lo hacen los sere~ humanos de modo causal y en función de una histo-
ria de aprendizaje de las relaciones entre el hablante. el mundo, y los
oyentes. En una línea análoga de pensamiento, Z. W. Pylyshyn, en su
ya célebre artículo. 1LJ Computacián en Ciencia Cognitiva, ha tratado

2 La versión castellana del mismo .,~ encuentra publicada en Cuadernos Teorema


(1974), Dpto, de Lógica y Filosofía de la Ciencia, Universidad de Valencia.

10
de establecer el papel de la computación en la compresión de la mente
humana. Pylyshyn ha defendido la idea de que los ordenadores son de
hecho los únicos mecanismos conocidos que tteHefl un comportamiento
lo.suñcientememe flexible ·como para ajustarse a la plasticidad de 1ft
~ humana. Además éstos serían los únicos mecanismos capaces de
producir un comportamiento que pudiera ser descrito como dependiente
de conocimiento. Por todo ello cabe considerar a la computación como
el mejor candidato para explicar la cognición en términos mecanieistas;
y también en lo referente a otros aspectos, como por ejemplo. el hecho
de que pueda influirse sistemáticamente sobre el comportamiento indu-
ciendo diferencias en las creencias o los fines.
Si, no obstante. nos ciñéramos a los relativamente escasos resulta-
dos obtenidos hasta la fecha por los enfoques computacionales en los
estudios de la mente, podríamos llegar a la conclusión equivocada de
que este paradigma ha fracasado estrepitosamente en relación a buena
parte de sus objetivos. Ahora bien, no puede pasar por alto que muchos
de estos estudios se encuentran todavía en sus primeros estadios y que
existe un gran desconocimiento acerca de lo que realmente es la mente
humana en relación a muchas de sus propiedades esenciales.

En la dirección apuntada conviene aclarar, por un lado, que no se


sabe a ciencia cierta cuáles son los límites de lo que puede ser expli-
cado o no en términos computacionales y, lo que es más importante. se
desconoce en gran medida l~.I!,~W!II~ de los procesos que se inten-
tan explicar o simular. Por otro lado, el conflicto entre simulado/real en
lA está a menudo ligado a la distinción entre investigadores que sólo
trabajan sobre procesos determinados de un agente inteligente (visión,
lenguaje, planificación, etc.) y aquellos que están interesados en diseñar
sistemas completos. Por si esto fuera poco. los criterios para hablar del
grado de completud de esos sistemas en relación a las capacidades hu-
manas pueden variar igualmente. De hecho, hay diseñadores de robots
que no están interesados en dotarles de sistemas emotivos autónomos,
como por ejemplo, curiosidad, imaginación. creatividad, preferencias
estéticas. etc. Por lo que en este caso puede hablarse de robots cuyas
capacidades no se parecen a las de los humanos, aunque puedan ser
considerados como robots completos. En cualquier caso puede decirse
que son las ciencias de la computación las que van a la cabeza de la CC.
Para muchos investigadores la lA es el núcleo fuerte de la ce. Si consi-
deramos a la lA como ~~A~J~}nteli~.~j~t?~.g~~ entonces
su objetivo principal debería ser proporcionar una teoría sistemática que

I1
explicara (y quizás fuera capaz de simular) tanto las categorías gene-
rales de la intencionalídad como las distintas capacidades psicológicas
que sobre-elias-;e-f~ndW;entan.Debería dar cuenta no sólo de la psi-
cología humana sino también de cualquier forma inteligente, fuera ésta
natural o artificial (cf, Boden, 1990)3. Y más aún, debería decimos si la
;,' inteligencia puede ser implementada sólo en algún tipo de arquitectura
L u v similar a la del cerebro, o si, en su caso, esto puede ser llevado a cabo
c"
" ~u mediante algún otro tipo de arquitectura (cf. Boden, 2006). Lo impor-
- \.r tante sería la función como tal y no tanto el substrato material sobre el
cual se realiza. En este sentido los procesos cognitivos no tendrían por-
[1'
qué ser modos de operar exclusivos del cerebro,

Arquitecturas Computacionales

~, "Cabe destacar.dos tipos de investigación sobre loas arqujtecturas com-


putacionales" de )ossisiemas--mt-elig~ntes en
-IÁ,' por un lado, el Uamado
programa GOFAJ (<<good old- tashioncd Artificial Intelligence») y. por
otro. el Conexionismo'; AlIen Newell, Paul S. Rosenbloom, y John E.
Laird, en su artículo Arquitecturas Simbólicas para la Cognición. se ocu-
paron de la noción de arquitectura computacional, en cuanto estructura
tija en la que operan los mecanismos responsables de la conducta de un
sistema. En este trabajo presentaron los requisitos que debería cumplir una
arquitectura para conseguir una conducta que fuera flexible e inteligente.
A su vez examinaron en términos de funciones las propiedades que una
arquitectura semejante deberla tener para dar cuenta de tales requisitos. La
base es la concepción clásica de un sistema de símbolos, sujetos a opera-
clones composicionales y a interpretación por medio del ciclo extracción-
" .JéjecucjÓll, y con diversos tipos de memoria, encamada en los ordenadores
digitales programables. Las arquitecturas Act" y Soar, basadas en sistemas
de producciones y en la solución de problemas por medio de la creación de
sub-metas. sirven como ilustración de los conceptos clave.
I Por su parte. en el artículo La Arquitectura de lo Mental: un Enfo-
',:-~ que Conevionista. Rumelhart defendió que los modelos conexíonistas

; Véase también M. Boden (2006).


~ '" Por arquitectura entendemos las especificaciones d~ diseño básicas 4U~ subyacen a
\ los sistemas de procesamiento de información.
5 Ambos programas encuentran su punto de partida en el trabajo (,A Logical Calculus
of the Ideas Imrnancnt in Nervous Activity- de W. S. McCullueh y W. H, Pitts (1965>,

12
están inspirados neuronalmente y realizan una computación de estilo
cerebral, por 10 que resultan más apropiados para la teorización cog-
nitiva. Frente a las arquitecturas -clásicas - que son seriales, las co-
'>~~,..se caraesenzan por realizar un procesamíemomeeívo en.
paralclo. La analogía neuronal se refleja en el hecho de que utiliza
unas unidades básicas o nodos que se hallan interconectados entre sí
de forma múltiple.
Es conveniente señalar, no obstante, que hoy en día podemos encon-
tramos con modelos explicativos de procesos cognitivos de alto nivel
basados en arquitecturas híbridas. que comparten características tanto
de las ar~uitectºr~s_simbó~s E~sica~" como de las arquitecturas co-
nexionistas~--Lo qt.i"epuedenser ventajas propias de un tipo de arqui-
tectura en algunos dominios de problemas se convierten en desventajas
frente a otros dominios de problemas (cf. Clark, 1989).
Una labor fundamental para saber lo que realmente somos pasa se-
guramente por investigar. modelar y diseñar sistemas y arquitecturas
para el procesamiento de la información no sólo en los ordenadores. sino
también en los cerebros, las mentes, la ciencia. y también en la sociedad.
A. Slomaa, en su conocido trabajo Motivos, Mecanismos y Emociones,
esbozó las líneas maestras de lo que deberían ser los estudios cognitivo-
computacionales, y su correspondiente metodología, en el ámbito de
las emociones y sentimientos. Para una completa explicación de estos
episodios y disposiciones, dice Sloman, necesitamos una teoría acerca
del modo en que los estados mentales son generados y controlados. y
del modo en que éstos conducen a la acción -es decir, una teoría acer-
ca de los mecanismos mentales. Al mismo tiempo una teoría de estas
características debería ser capaz de explicar cómo deberían ser construi-
das, almacenadas, comparadas y usadas las representaciones internas de
modo que nos permitieran llevar a cabo inferencias. formular planes. o
controlar acciones. Sloman señala cuáles deberían ser las restricciones
en el diseño para el caso de animales o máquinas inteligentes. Al mismo
tiempo indica las soluciones de diseño en relación a la estructura de las
emociones humanas y a los mecanismos computacionales que subyacen
a los estados emocionales habituales. Se trataría en definitiva de en-
contrar la arquitectura cognitiva que mejor sirviera como soporte a los
procesos mentales que queramos modelar.

¡., En relación al papel que desempeñan la:'! arquitecturas híbridas en la explicación de


los procesos cognitivos. véase la tesis doctoral de Fernando Martínez Manrique (l99t{),

13
A diferencia de lo que ocurre en las investigaciones sobre CC, para
muchos de Ios.investigadores de IA su labor es, principalmente, un ejer-
cicio ingenieril, y sólo muestran un interés por el estudio de las capa-
'. - cidades y procesos cognitivos humanos en la medida que éstos puedan
ser útiles para la construcción de sus propios diseños. Para el científico
cognitivo puro, por el contrario. el objetivo de la investigación consiste
en encontrar buenas explicaciones de las capacidades y comportamien-
tos de los agentes inteligentes ex istentes.

Psicología Cognitiva

La tesis que sosteníamos más arriba coincide en gran medida con


el punto de vista sostenido por Boden (2006) cuando afirma que la
psicología, en la medida que trata de comprender la naturaleza de la
mente humana, constituye el núcleo temático central de la CC. No
obstante su fundamento teórico estaría directamente ligado a las ideas
y teorías desarrolladas en lA. Conviene recordar que muchos cientí-
ficos de la cognición tienen por objetivo primordial la modelización
computacional del modo en el que las men~es (humanas y/o animales)
trabajan. Desde este punto de vista la mente no sería más que un tipo
de máquina con características muy marcadas y peculiares, cuyo cstu-
dio exige un alto grado de interdísciplinaridad (sic, Boden, 2006). To-
das las disciplinas que configuran el amplio espectro de la ce tienen
un claro interés por determinar qué es la mente human~ y su modo de
fu nc ionamiento.
Para la psicologia computacional ics procesos mentales, en la medi-
da que son altamente espeeificahles, pueden se explicados en términos
computacionales.Lapsicologíano sería en este caso sino el estudío de
r los procesos computacionales en los que las representaciones mentales
- . 5e construyen, interpretan y transforman.
Muchos científicos cognitivos consideran que la mente es un tipo
de sistema simbólico, 10 que ha llevado a la proliferación de los estu-
dios sobre modelos mentales. Los modelos mentales son representacio-
nes en la mente de situaciones reales o imaginarias. Sin embargo, tal
y como reconoce P.N. Johnson-Laird en su célebre artículo Modelos
Mentales, estos estudios son de una diversidad tan extraordinaria que
parecen tener poco en comun sí exceptuamos la mera referencia a re-
presentaciones simbólicas de algún tipo. Así las explicaciones sobre
la percepción visual, la comprensión del discurso. el razonamiento, y

14
la representación del conocimiento y de las distintas habilidades prác-
ticas han hecho referencia todas ellas a versiones de la hipótesis de
los modelos mentales. La idea de que nuestras operaciones mentales
descansan sobre modelos mentales fue sugerida por Kenneth Craik en
1943. Craik sugirió la idea de que la mente humana construye modelos
a pequeña el escala a partir de la percepción, la imaginación, o la com-
prensión del discurso que le sirven para anticiparse a las situaciones ve-
nideras. Los defensores de los modelos mentales sostienen que éstos no
sólo descansan sobre imágenes visuales sino que también pueden ser
abstractos. representando situaciones que no pueden ser visualizadas.
;>I Cada modelo mental representa una posibilidad. Los modelos mentales
serían similares a los modelos de los arquitectos o a los diagramas de
~ los físicos en el sentido que su estructura es análoga a la estructura de
! la situación que representan.
i
Uno de los procesos mentales que siempre ha llamado la atención
en el marco de las ciencias cognoscitivas es el del pensamiento y. por
extensión, el del razonamiento. ESTO es, el modo en el que los agentes
racionales pasamos de una información dada a otra, no necesariamente
explícita. mediante algún proceso de inferencia. Los psicólogos cogni-
tivos han tratado de explicar cómo es posible que razonadores no adies-
trados en lógica sean, sin embargo. capaces de juzgar la validez (o co-
rrección) de razonamientos deductivos. En su opinión el razonamiento .
puede ser entendido como un proceso en el que se manipulan modelos ---:r
mentales, para lo cual no haría falta disponer de una competencia lógica.
Estos modelos servirian a su vez de soporte para las representaciones
del conocimiento". La controversia ~ acerca de si--llevamos
-
a cabo razo- ~:'c', ~
"'"'- ---.. -,,"-
~ na~~~~~zs ~~~~~-~9_C!~]gJ~~~i~~_~ _ Qe-I!i(~~~'n~~~ además dé haberse
<Iílatado e-n el tiempo, ha sido fructífera en cuanto a resultados. Dicha
controversia ha conducido a diseñar mejores experimentos. a hacer más
explícitas las teorías psicológicas mediante su implementación en pro-
gramas informáticos, así como a desarrollar otras teorías del razona-
miento en nuevos dominios.
Les psicólogos cognitivos han estudiado además cómo los niños de-
sarrollan tales modelos, cómo los modelos construidos para un dominio
pueden servir COlllO analogía para otro dominio. cómo éstos dan lugar al

") Sobre la teoría de los modelos mentales en castellano véase «Razonamiento y ra-
cionalidad» de M. Jet Carmen Ayuso (1997). El libro incluye además la traducción de
dos trabajos de autores reconocidos en el campo de la psicología cognitiva: Johnson-
Laird y Byrne.

15
nacimiento de emociones. y cómo diseñar sistemas de computación para los
cuales es fácil construir modelos (cf, Johnson-Laird & Byrne, 2(02).

Lenguaje

Las novedosas tesis de Noam Chornsky acerca de la adquisición


del lenguaje en los años 50 pusieron en solfa el programa behaviorista
de Watson y Skinner. La importancia de los procesos internos para el
estudio del lenguaje quedó reflejada en su gramática generativa-trans-
formacional. A partir de entonces la investigación sobre la gramática
universal se convirtió en una de las tareas principales de la lingüística.
En contraposición con el enfoque descriptivo y empírico de la lingüís-
tica estructural -centrado fundamentalmente en el estudio taxonómico
de las lenguas- Chomsky reafirmó la necesidad de una perspectiva ra-
cionalista del análisis lingüístico. Frente al enfoque lógico-matemático
de los estudios sobre la gramática, el enfoque chornskiano presenta una
orientación inherentemente cognitiva y psicológica. Mientras que la
lógica-matemática se ha centrado en una noción de lenguaje indepen-
diente de la mente y del hablante", la lingüística generativa ha tenido por
objeto de estudio los principios del lenguaje entendido como la descrip-
ción de una facultad cognitiva particular de los hablantes;
Una muestra del carácter multidisciplínar de la ce en el ámbito del
lenguaje lo constituye el artículo, El Discurso, de Barbara J. Grosz, Martha
E. Pollack y Candace L. Sidner. Estos autores ponen de manifiesto que la
investigación en análisis del discurso, estructura del discurso y procesa-
miento del discurso considera a los discursos, no a las oraciones aisladas,
como las unidades básicas del lenguaje. En su estudio prima el deseo de
descubrir los mecanismos que hacen que ciertas secuencias de profcrcn-
das sean coherentes y otras no; y de comprender cómo afecta el contex-
to al uso y a la comprensión de varias clases de expresiones lingüísticas.
Prestan especial atención a tres grupos de problemas del discurso: aquellos
que surgen al tratar de determinar la estructura del discurso. aquellos rela-
cionados con fenómenos de nivel sintagmático (por ejemplo, pronombres,
descripciones definidas, elipsis), y aquellos que conciernen a cómo se de-
riva el significado o efecto de un discurso o segmento discursivo. Hay que

~ Recuérdese que la tradición de la gramátiCll lógica encamada sobre todo en la figu-


ra de R. Montaguc (197--1-) ha sostenido la hipótesis según la cual no existe una diferencia
sustancial entre los lenguajes formales y los lenguajes naturales.

16
señalar. no obstante, que en este trabajo los autores toman como centrales
las cuestiones computacionales o de procesamiento del discurso.
En el artículo Semántica Modelo-Teórica. Barwise (t) y Etche-
mendy, autores entre cuyas aportaciones hemos de destacar las relati-
vas a los fundamentos y desarrollo de la Semántica de Situaciones. nos
presentan, de manera sintética, algunos de los enfoques adoptados en
la ingente empresa de dotar a los lenguajes naturales de una semántica
adecuada, que esté, a su vez. definida de manera clara y rigurosa. Para
ello consideran en primer lugar la semántica extensional modelo-teó-
rica clásica, señalando sus limitaciones; para posteriormente, abordar
otros acercamientos que suponen alguna extensión o modificación de
la misma. Así. distinguen una extensión en la que se toma en serio el
papel del contexto y. a modo de modificaciones de la perspectiva clá-
sica. nos remiten sucesivamente a la Semántica de Mundos Posibles
-conocida por su productividad en el ámbito de la lógica modal- y
a la novedosa Semántica de Situaciones. Como cabría esperar, estiman
que esta última se encuentra en una posición óptima -debido a su
refinamiento y ftexibilidad- para hacer frente a dicha empresa. Con
el objeto de mostrar los problemas que se generan, en mayor o menor
grado, con cada uno de estos enfoques, se sirven de fragmentos de un
lenguaje diseñado por ellos mismos para tal fin. Éste contará con una
sintaxis fácil de especificar pero. al tiempo, será lo suficientemente pa-
recido a los lenguajes naturales como para exhibir mediante ejemplos
concretos las virtudes y limitaciones de cada perspectiva.
Para poder explicar algún día los procesos cognitivos inteligentes
principales, no parece que pueda prescindirse de las técnicas e instru-
mentos de las ciencias de la computación, pero tampoco del trabajo
desarrollado en otras áreas de conocimiento. Por poner un ejemplo,
¿.cómo vamos a ser capaces de explicar los mecanismos que subyacen
al procesamiento y a la comprensión del lenguaje natural o del discurso,
si desconocemos su naturaleza? Sin la colaboración de informáticos,
neurocientñicos. psicólogos, lógicos y lingüistas seria seguramente un
proyecto abocado al fracaso.

Problemas Filosóficos

La influencia de los estudios sobre la mente y el cerebro se ha dejado


también sentir en el campo de la filosofía. Lo que ha venido a llamarse
la revolución cognitiva ha tenido un fuerte impacto sobre la filosofía de

17
la mente y, en menor escala, sobre la filosofía del lenguaje y la episte-
rnología", El escrito de D. Dennett Ruedas Cognitivas: El Problema del
Marco de la Inteligencia Artificiat está considerado ya como uno de
los clásicos acerca del -problema del marco-o Dennett distingue aquí
entre un problema del marco restringido (tal como ha sido tratado en el
campo de la lA por Mcf.arthy y Hayes, por ejemplo) y otro más amplio
y de mayor calado, que excede el marco estricto de la lA y constituye un
problema epistemológico profundo, el problema de la relevancia. Den-
nett trata de hacernos ver que las dificultades en el tratamiento del pro-
blema restringido tienen que ver con el problema profundo en sentido
amplio. Además, extiende las consecuencias de estas consideraciones a
las perspectivas de la ciencia cognitiva en general.
El famoso artículo de M. Boden Escapando de la Habitación China
es una réplica al trabajo de John Searle, Mentes, Cerebros y Programas,
donde se sostiene que las teonas computacionales nada tienen que apor-
tar a la psicología. Boden, en la línea funcionalista que le caracteriza,
pretende demostrar que las objeciones de Searle están mal fundadas.
En su opinión. el análisis de la computación ayuda a la explicación de
la representación y la comprensión. Incluso el programa de computa-
ción más simple exhibiría características básicas fundamentales para la
comprensión. La llegada de los ordenadores programables replanteó la
manera de mirar al viejo problema mente-cuerpo. Los contrarios a la
tesis de que las máquinas podían pensar tuvieron que esgrimir nuevos
argumentos para demostrar por qué la apariencia de inteligencia no era
tal cosa. Por su parte, aquellos que sostenían la idea de que las máqui-
nas eran capaces de pensar tuvieron que establecer criterios operativos,
como por ejemplo el test de Turing, para verificar la presencia de inte-
ligencia. Además de todo esto, hay que tener en cuenta que muchos de
los confusos argumentos filosóficos expresados en el lenguaje natural
resultan menos ambiguos cuando pasan por el tamiz de los programas
informáticos que permiten su explicitación (cf. Posner, 1989).

La ciencia cognitiva hoy

En los últimos años se viene apreciando un cierto acercamiento,


aunque todavía tímido. entre los departamentos e institutos de psico-

<) En relación a la cuestión de la relevancia filosófica de la ciencia cognitiva puede

consultarse Alvin A. Goldman (1 993a; y ( 1993b).

18
logía, biología. neurociencia, filosofía, lógica, lingüística, sociología
(entre otros) y los de lA, en la búsqueda de estrategias de investigación
complementarias. Piénsese además que el estudio de estas capacida-
des y comportamientos inteligentes no se reduce a los de un agente
individual en un contexto determinado. sino que incluye también el
tipo de acciones inteligentes derivadas de las relaciones interpersona-
les cotidianas entre los individuos que integran un colectivo. Tal es así
que en la actualidad los proyectos de investigación, congresos, semina-
rios. publicaciones, etc. sobre Sistemas y Organizaciones Multiagentes
han aumentado de manera considerable. Los modelos teóricos en este
campo de trabajo se toman normalmente prestados tanto de las cien-
cias sociales como de las ciencias de la vida: mientras que los modelos
computacionales encuentran su apoyo no sólo en la matemática sino
también en las ciencias físicas. Muchos de estas investigaciones tratan
de mostrar cómo pueden ser representados y procesados los distintos
tipos de organizaciones, sean estas últimas estáticas o dinámicas, pro-
gramadas o emergentes.

Es justo reconocer que las ciencias de la computación han avanzado


de manera notable en la comprensión de los tipos de procesos que son
posibles y útiles. y cuáles no. Por ejemplo. han permitido avanzar en
el esclarecimiento de las nociones de mecanismo y proceso, a través
de nuevas formas de lenguaje de programación; y, en Jo relativo a los
temas de complejidad, han explicado los límites entre lo que es teóri-
camente o matemáticamente posible y lo que es realizable en el mundo
físico. De la mano de estos avances, se están produciendo resultados
teóricos y prácticos muy interesantes que, además de su posible utilidad
en otros ámbitos. tienen una importante incidencia sobre la explicación
y modelización de los procesos propiamente cognitivos.

La investigación aplicada, que es la que realmente recibe tanto sub-


venciones públicas como privadas. se orienta, principalmente, hacia
sectores emergentes cada vez más dinámicos como pueden ser el de
las nuevas tecnologías y el mercado de la informática y de las teleco-
municaciones. Sin lugar a dudas la ce actual se está escorando hacia
temas relacionados con aplicaciones telemáticas avanzadas. tecnología
de red emergentes (por ejemplo, las de Internen, tecnologías del habla.
teoría de la información. arquitecturas avanzadas de computación para
sistemas multiagentes, etc. Todo esto, sin embargo, tiene una cara me-
nos ilustre. La informatizacián es un fenómeno que crece en progresión
geométrica y que ya ha alcanzado sin duda nuestros lugares de trabajo

19
y también nuestras casas. Nadie duda de sus múltiples ventajas, que
son muchas, pero pocas veces se analizan sus consecuencias negativas.
Quizás exista un servilismo excesivo hacia las nuevas tecnologías, una
especie de «esnobismo tecnológico» por ponernos al día, aunque, en
muchos casos, no sepamos, y ni tan siquiera nos planteemos, el porqué
o el para qué de tales cambios. El cambio por el cambio seguramente no
nos lleva sino al mayor de los absurdos. No parece aceptable desde un
punto de vista ético que las necesidades propias del mercado informáti-
ca o telemático primen, más que nunca, por encima de las necesidades
reales, sean éstas domésticas o profesionales. Que una buena parte de
las investigaciones punteras en este ámbito se estén desarrollando en las
propias multinacionales, y no en las universidades, es cuando menos un
síntoma preocupante que obliga a la reflexión.

Referencias Bibliográficas

AYuso. M. del Carmen (1997): Razonamiento y racionalidad. Cuadernos de


Psicología 3. Barcelona: Paidós,
BARWlSE. J. (t) & J. ETCH~MENDY: «Model-theoretic Semantics», en Michael I.
Posner (ed.), Foundations of Cognitive Science (198<), pp. 207-244. Cam-
bridge, Mass.: The MIT Prcss.
BODEN. M. (1988): «Scaping from Chinesse Room». Computer Models ofMind
(1988), pp. 238-251.
RemEN, M. (1990): The Philosophy of A rtific'al Intelligence. Oxford, Oxford
University Press.
BODEN, M. (2006): Minds as Machine: A History ofCognitive Science. Oxford,
Oxford University Press.
CHOMSKY, N. (}957): Syntactic Structure s. The Haguc: Mouton.
CHOMSKY. N, (1959): «Review 01' Skinner, Verbal Behavior», Language. 35:
26-58.
CLARK, A. (1989): Microcognition. Cambridge, Mass.: The MIT Press.
DENNETL D. e, «Cognitive Wheels: the Frarne Problem in Artificial Intelligen-
ce», en e Hoolway (ed.), Minds. Machines. and Evolution: Philosophical
Studies (1984). pp. 129-l51.
GOLDMAN. Alvin A. (1993a): Philosophicul Applications o] Cognitive Science.
Boulder: Westview Press.
GOLDMAN. Alvin A. (1993b): Readings in Philosophv and Cognitivo Science.
Cambridge. Mass.: The MIT Press.
GROSZ. B., M. POLLACK. and C. SIDNER. «Discourse». en Michael 1. Posner
(ed.), Foundations 01 Cognitive Science (1989), pp. 437-46&. Cambridge,
Mass.: The !\-lIT Press.

20
JOHNSON-LAIRD, P. N(l989): «Mental Models», en Michael 1. Posner (ed.),
Foundations of Cognitive Science (1989), pp. 469-500. Cambridge, Mass.:
The MIT Press.
JOHNSON-LAIRD, P. N. & R. Byrne (2002): -Conditionals: a theory ofmeaníng.
pragmatics. and inference-. Psvchologica! Review. {09, 646-678.
:tV1ARTÍNEZ MANRIQUE, F. (1998): Del conexionismo a la hibridación en ciencia
cognitiva: fundamentos conceptuales. Tesis doctoral. Universidad del País
VascolEuskal Heniko Unibensitatea.
MONTAGUE. R. (1974): Formal Philosophy. Selected Papen qf Richard Mon~
tague. edited and with an introduction h.y Richard Thomason. New Haven:
Yale University Press.
MCCULLOCH. W. S. & W. H. PITIS (]965): «A Logical Calculus of the Ideas
Irnmanent in Nervous Activity». en \v. S. McCulloch (cd.), Embodiments o]
/t.1ind, Cambridge. Mass.: The MIT Press.
NEWELL A., Paul S. ROSENBLOOM, y John E. LAIRD (1989): «Syrnbolic Ar-
quitecturcs for Cognition», en Michael r. Posner (ed.). Foundations
of Cognitive Science (l989). pp. 93-132. Cambridge. Mass.: The MfT
Prc~~.
?YLYSHYN, Z. W. (1989): «Computation in Cognitive Science», en Michael I.
Posner (ed.), Foundations ofCognitive Science (1989). pp. 49-92. Cambrid-
ge. Mass.: The MIT Press,
RUMELHART D. (1989): «The Architecture of the Mental: a Conexionist
Approach- en Michael 1. Posner (ed.), Foundations of Cognitive Science
(1989). pp. 133-160. Cambridge, Mass.: The MIT Press.
SEARLE. J. (1980): «Minds, Brains and Programs». The Behavioral and Brain
Sciences 3 (1980),417-424.
SIMON, H. el al. (1989): Foundations of Cognitive Science. en Michael 1. Posner
(~d.)( 1989): Cambridge, Mass.: Thc MIT Press,
- SLOMAN, A., «Motives, Mechanisrns and Emotions», Cognition and Emotion 1
U 987). 217-33.
TUR1NG, A. (1950): -Cornputing Machinery and Intelligence», Mind. vol. 59
(1950), n. 23ó.

Nota final y agradecimientos

Como podrá comprobar fácilmente el lector, los trabajos aquí selec-


cionados son fiel reflejo del carácter interdisciplinar que ha acompañado
a la ce desde sus inicios. El objetivo principal de esta selección de
artículos ya clásicos, traducidos ahora al castellano, es dar a conocer
algunas de la~ líneas de investigación más punteras, que son ya de obli-
gada referencia en el área, y que han servido como punto de partida para
muchas de las investigaciones posteriores.

21
Quiero agradecer, por un lado, a los editores de las revistas y a los
autores de los trabajos originales por habemos permitido traducirlos al
castellano. Por otro, al grupo de profesores e investigadores del ILCLI
(Instituto de Lógica. Cognición, Lenguaje e Información de la Univer-
sidad del País Vasco/Euskal Herriko Unibertsitatea), por su esfuerzo y
buena predisposición en las tareas de traducción, lo que ha permitido
que este modesto proyecto llegara finalmente a buen puerto.

LUIS A. PÉREZ l\-1IRANDA


Coordinador de la Sección de Ciencia Cognitiva en el Instituto
de Lógica, Cognición, Lenguaje. e Informacion (ILCLl)
Universidad del País vascotEuskul Herrlko Unibertsitatea
(UPVIEHUJ

22
LA COlVlPUTACIÓN EN CIENCIA COGNITIVA
Zenon W. Pylyshyn

Nadie duda de que los ordenadores han tenido una profunda influen-
cia en el estudio de la cognición humana. La misma existencia de una
disciplina llamada ciencia cognitiva es deudora de esta influencia. Una
de las principales características que distingue a la ciencia cognitiva de
los estudios más tradicionales sobre la cognición es el alcance de la
influencia tanto de las ideas como de [as técnicas de la computación.
Puede suponer una sorpresa para el profano. por tanto, descubrir que
no hay unanimidad dentro de la ciencia cognitiva ni en cuanto a la na-
turaleza (yen algunos casos deseabilidad) de la influencia, ni en lo que
sea la computación, ni siquiera en su carácter esencial. en relación a la
ciencia cogn iti va.

En este capítulo trataremos de estas dos cuestiones. La primera cues-


tión nos lleva a una discusión sobre el papel de la computación en nuestra
comprensión de la cognición humana (y tal vez animal). Examino una
variedad de tales papeles - desde el uso instrumental de los ordenado-
res para expresar teorías, pasando por su función como fuente de ideas,
hasta la arriesgada afirmación empírica de que la cognición es bastante
literalmente una especie de la computación. Esta última postura (que nos
introduce en una discusión sobre ]0 que llamo la tesis de la equivalencia
fuerte) no puede ni siquiera empezar a ser examinada hasta que tengamos
una comprensión mucho más clara de 10 que queremos decir con el tér-
mino computar -esto es. qué familia de procesos queremos cubrir me-
diante ese término. Este es el tema más polémico de los que me ocuparé,
pero también trataré otro que no puede ser obviado: una comprensión de
los supuestos subyacentes en la disciplina es prerrequisito para la com-
prensión de las propuestas en favor de una reconducción de las metas de
la ciencia cognitiva (véanse, por ejemplo, los capítulos 4 y 8).

23
En la última sección de este capítulo, examinaremos las metodolo-
gías asequibles para validar los modelos computacionales como mode-
los fuertes de procesos cognitivos. Aunque muchas de estas técnicas se
discuten también en otros capítulos de este libro (por ejemplo, capítu-
los J y 7), mi discusión tiene la intención de mostrar cómo .se relacio-
nan algunos de estos métodos con la noción de equivalencia fuerte de
procesos.
Hagamos notar que la opinión de que la computación es relevante
para la comprensión de la cognición. o el comportamiento inteligente en
general, e~ tan antigua como la propia idea de computación. El artículo
original de Turing (1937) sobre computabilidad contiene una sección en
la que Turing intenta proporcionar alguna motivación intuitiva para su
noción de «procedimiento efectivo» observando lo que hace un mate-
mático en el curso de la resolución de un problema y destilando este pro-
ceso a sus esencias. Más tarde Turing (l 950) arguyó que un ordenador
debidamente programado podría en principio exhibir comportamiento
inteligente. El argumento descansa en el propio descubrimiento de Tu-
ring de la existencia de una máquina Turing universal. un autómata abs-
tracto que puede imitar cualquier otro ordenador especificable formal-
mente. La pertinencia de la máquina universal para la ciencia cognitiva
se plantea brevemente más tarde.
Los ordenadores son relevantes para la cognición de muchas mane-
ras. Newell (1970; ver también Newell 1973a) ha discutido un abanico
de teorías sobre la posible relación entre la computación y la cognición.
Estas varían desde la opinión de que los ordenadores proporcionan una
nueva metáfora interesante, hasta la opinión -que yo defiendo-e de
que la cognición es literalmente una especie de la computación. efectua-
da en un tipo particular de mecanismo biológico. En lo que sigue, hago
un boceto de dos de las formas principales en que la computación e~
pertinente para el estudio de la cognición. Después elaboro y defiendo
ambas proposiciones generales y argumento que han sido decisivas en el
desarrollo de la ciencia cognitiva, incluso aunque haya habido muchas
discusiones acerca de los detalles -e incluso los supuestos fundamen-
tales - tras ellas.
Al nivel más abstracto la clase de mecanismos llamados ordenado-
res son los únicos mecanismos conocidos que tienen un comportamien-
to 10 suficientemente plástico como para ajustarse a la plasticidad de
la cognición humana. Son también los únicos mecanismos capaces de
producir un comportamiento que puede ser descrito como dependiente

24
del conocimiento. A causa de tales propiedades la computación se man-
tiene como candidato principal para cumplir con la doble necesidad de
explicar la cognición en términos mecanfsticos y otros aspectos, por lo
demás, problernáticox de la cognición -en particular el hecho de que
puede influirse sistemáticamente sobre el comportamiento induciendo
diferencias en las creencias o 105 fines.
A un nivel más concreto los ordenadores proporcionan un modo de
manejar una serie de problemas que atestan el esfuerzo por entender la
cognición. Entre ellos está la complejidad de los procesos que subya-
cen a la cognición y la necesidad de una teoría que haga de puente a
través del salto desde el procesamiento interno a los ejemplos reales de
comportamiento. Se dice en ocasiones que una teoría así responde a la
condición suficiente. Esta condición impone un requisito particularmen-
te restrictivo sobre la medida de adecuación de una teoría. Fuerza asi-
mismo al teórico a afrontar directamente ciertas cuestiones que de otro
modo podrían darse por sentadas o presupuestas. Entre ellas sobresale la
distinción arquitectura-proceso (y la naturaleza de la arquitectura cog-
nitiva) y la cuestión íntimamente relacionada de la estructura de control
subyacente al procesamiento cognitivo.

1. ¿Qué es computar?

Algunos antecedentes: formalismos. simholos. y mecanismos

La posibilidad de imitar la vida por medio de los artefactos ha intri-


gado a la gente a lo largo de la historia. Pero sólo en la segunda mitad
de este siglo se ha considerado seriamente la posibilidad de usar el
tipo especial de artefacto que llamamos ordenador como un medio para
entender los fenómenos mentales. Lo que es diferente acerca de este
último interés es que la concentración no tiene lugar primeramente en
la imitación de movimientos (como era el caso en los anteriores me-
canismos de cuerda) sino en la imitación de ciertos procesos internos
inobservables. Esta noción se hizo sólo concebible con la emergen-
cia gradual, en distintas áreas del desarrollo intelectual, de una forma
determinada de entender los mecanismos. Esta noción nueva y más
abstracta de mecanismo está completamente divorciada de las consi-
deraciones «mecánicas» de viejo cuño (como las que preocuparon a
Descartes y que Chomsky ha caracterizado como mecánica de contac-
to) y se ocupa sólo de operaciones definidas abstractamente tales como

25
almacenamiento, recuperación, y alteración de instancias de códigos
simbólicos.
Esta noción de mecanismo apareció en conjunción con intentos
de desarrollar unos fundamentos para las matemáticas completamente
formales, libres de contenido. El programa de Hilbert fue uno de los
intentos más ambiciosos de construir las matemáticas por medios pu-
ramente formales; sin importar cuestiones sobre de acerca de qué fuera
el formalismo. Parte de esta empresa encontró fruto en el trabajo de
Frege y Russell y Whitehead, Por otro lado uno de los mayores logros
intelectuales de nuestra era fue la demostración por medios puramente
formales de que el fin de la formalización completa era por principio
imposible (esto fue realizado originariamente por Gódel y subsecuente-
mente por Turing, Church, Post y otros; véase la colección de artículos
en Davis 1965).
El mismo trabajo que proporcionó demostraciones de las particula-
res limitaciones por-principio de la formalización proporcionó asimis-
mo demostraciones de su universalidad. Así, Ajan Turing, Emil Post,
y Alonzo Church. de manera independiente, desarrollaron distintos
formalismos que mostraron eran completos en el sentido de que eran
suficientemente potentes para generar formalmente (esto es; «rnecáni-
camente») todas las secuencias de expresiones que podrían interpretarse
como pruebas y por esto podían generar todos los teoremas demostra-
bles de la lógica. En el caso de Turing, esto tomó la forma de mostrar
que existe un mecanismo universal. una máquina de Turing particular
llamada máquina universal (MU), que podía simular cualquier mecanis-
mo describible en su formalismo. Hace esto aceptando una descripción
del mecanismo a simular, y entonces lleva a término un procedimiento
cuyo comportamiento inputloutput es idéntico al que habría sido gene-
rado por la máquina de la que se había proporcionado la descripción.
Decirnos que la MU computa la misma funcián que la máquina en cues-
tión, donde «la misma función» significa los mismos pares inputloutput
o la misma extensión de la función. No existe requerimiento alguno para
que la Ml,l lleve a cabo los mismos pasos que la máquina objetivo. Eso
sería un sentido más fuerte de equivalencia.
Lo que es interesante sobre el último trabajo. desde nuestro punto
de vista, es que para derivar estos resultados (sobre la universalidad e
incompletud de ciertos sistemas formales). era necesario entender las
nociones de prueba y deducción en un sistema formal en términos de
manipulación de instanciaciones de símbolos o marcas en un trozo de

26
papel. donde la manipulación se especificaba «mecánicamente» de una
forma totalmente independiente de cómo fueran interpretados los sím-
bolos. La lógica se convirtió en un juego jugado con particulares de
símbolos sin significado de acuerdo a ciertas regla~ formales (esto es,
reglas sintácticas).
Fue el desarrollo de la noción de la universalidad de los mecanismos
formales, presentada por primera vez en el trabajo sobre fundamentos
de las matemáticas en los años 30, lo que proporcíonó el ímpetu ini-
cial para ver la mente como un sistema de procesamiento de símbolos.
La universalidad implica que un mecanismo formal de procesamiento
de símbolos puede producir cualquier función inputloutput arbitraria
que podamos especificar con el detalle suficiente. En términos más fa-
miliares, una máquina universal puede ser programada para computar
cualquier función formalmente especificada. Esta plasticidad extrema
de comportamiento es una de las razones por las que se ha visto a los
ordenadores como artefactos que podrían ser capaces de desplegar in-
teligencia. Mucha gente que no estaba familiarizada con esta idea ha
malinterpretado la capacidad de las máquinas. Por ejemplo, el psicólogo
de la Gestalt Wolfgang Kohler (1947) percibió a las máquinas como
demasiado rígidas para servir de modelo de la actividad mental. Esta
última, dijo, está gobernada por lo que llamó factores dinámicos -de
los cuales un ejemplo son los efectos de autodistribución de campo,
como los efectos que causan que se redistribuyan los campos magnéti-
cos cuando introducimos nuevos trozos de metal- en oposición a los
factores topográficos, quc son estructuralmente rígidos. Escribió (Koher
]947, p. 65):

En tanto las condiciones topográficas sean dadas rígidamente, y


no puedan ser alteradas por factores dinámicos. su existencia impli-
ca la exclusión de ciertas formas de función, y la restricción de Jos
procesos a las posibilidades compatibles con esas condiciones... Esta
relación extrema entre factores dinámicos y condiciones topográficas
impuestas se realiza casi enteramente en las máquinas típicas... no
construimos máquinas en las que los factores dinámicos sean los de-
terminantes principales de la forma de la operación.

El hecho de que los ordenadores violan esta afirmación es una de


sus características más importantes y únicas. Su estructura topográfica
es completamente rígida. y sin embargo son capaces de la mayor plas-
ticidad de función. Fue esta misma propiedad la que le llevó a Turing a
especular que los ordenadores serían capaces en principio de desplegar

27
un comportamiento inteligente. Por ejemplo, dedicó un artículo filosófi-
co temprano e importante (Turing 1950) a exponer esta idea. Turing ar-
gumentó que en principio se podría hacer que un ordenador desplegara
actividad inteligente hasta un grado arbitrario. Afirmó que una máquina
debería ser calificada de inteligente si pudiera desarrollar con éxito el
«juego de la imitación» -esto es, engañar a un observador humano, con
el que podría comunicarse sólo a través de un teclado y una terminal, de
tal modo que el observador no pudiera discriminar entre él y otra perso-
na. La posibilidad de que un ordenador sea capaz de pasar con éxito lo
que se ha venido a conocer como test de Turing se basa por completo en
el reconocimiento de la plasticidad de comportamiento implicada en los
sistemas simbólicos, que pueden ser programados para comportarse de
acuerdo a una función finitamente especificable.
Los artefactos que Ilamamos ordenadores toman formas muy di-
ferentes -la mayor parte de las cuales tienen una apariencia bastante
distinta a la que Turing desarrolló en su análisis matemático. Es por lo
tanto apropiado preguntarse qué es lo que hace de un sistema un orde-
nador. Esta es una cuestión particularmente relevante desde el momento
en que una hipótesis de trabajo de gran parte de la ciencia cognitiva es
la de que la mente es literalmente un tipo de ordenador. Uno podría co-
menzar preguntando: ¿en virtud de qué propiedad consigue la máquina
de Turing la universalidad o programabilidad que la recomienda como
modelo de inteligencia?
Newell (1980) proporciona una opinión interesante sobre una de las
características que son esenciales para que un artefacto sea universal o
programable. Para que un mecanismo sea universal, sus inputs deben
ser divididos en dos componentes distintos, a uno de los cuales se le
asigna una interpretación privilegiada como instrucciones o como una
especificación de alguna función inputloutput particular, mientras que el
otro es tratado como input de esa función. Esta división es esencial para
definir una máquina de Turing universal. De esta forma, sólo puede ha-
ber una plasticidad de comportamiento arbitraria si algunos de los inputs
y outputs del sistema son interpretados (o, como lo expresa Newell, si
tienen la capacidad de «designar» algo extrínseco).
La designación es de hecho una de las ideas centrales de la computa-
ción. En los ordenadores los símbolos deben designar de varias formas:
proporcionan acceso a otros símbolos, pueden causar que un intérprete
realice la acción designada por ese símbolo, o pueden designar otras
cosas extrínsecas. Por ejemplo, pueden designar los objetos abstractos

28
llamados números, o pueden designar objetos de razonamiento (por
ejemplo. objetos en el mundo o en la imaginación, proposiciones, predi-
cados, etc.), o pueden incluso designar fines. De hecho, dado que lo que
los símbolos designan no necesita existir (por ejemplo. unicornios o el
caldero de oro al final del arco iris) la propia noción de desígnación, con
el sentido de «referir a», es problemática en tanto en cuanto la gente sue-
le entender que «referir» sólo se aplica cuando existe un objeto al que se
refiera. Por ello normalmente hablamos de la relación entre los símbolos
y lo que simbolizan como semántica, o hablamos del significado de un
símbolo. En cualquier caso, semántica y significado son términos rele-
vantes usados para describir propiedades de los estados de los ordena-
dores (y personas) pero no de otros muchos sistemas complejos que no
funcionan como ordenadores (por ejemplo, la galaxia Andrómeda).
Los sistemas a los que se les ha llamado clásicamente ordenadores
(por ejemplo. la máquina de Turing) comparten una serie de propiedades.
La idea de que algunas de estas propiedades son propiedades constituti-
vas de la computación (y consecuentemente, son también constitutivas
de la cognición, en tanto la cognición es una especie de la computación)
es llamada la visión clásica (por Fodor y Pylyshyn 1988). En la siguien-
te sección tomo en consideración algunas de estas propiedades, admi-
tiendo que este punto de vista no se mantiene de forma unánime entre
los científicos cognitivos (véase. por ejemplo, el capítulo 4).

La visián clásica de la computación y la cognición

En la máquina teórica de Turing y en cada ordenador digital real,


se establece una distinción entre el procesador y la memoria. El proce-
sador «escribe» expresiones simbólicas en la memoria, las altera. y las
«lee». La lectura de algunos de estos símbolos causa que ocurran ac-
ciones especificadas, que pueden cambiar otros símbolos. La memoria
puede consistir en una cinta. un conjunto de registradoras o cualquier
forma de almacenamiento activo. Las expresiones escritas son símbolos
complejos hechos de símbolos más simples, del mismo modo en que las
oraciones son símbolos complejos hechos de símbolos más simples de
una manera sistemática. El procesador (o, en el caso de la lógica. las re-
glas de inferencia) transforman entonces las expresiones en expresiones
nuevas en un tipo especial de forma sistemática. La/orma en la que tales
expresiones son transformadas en un ordenador clásico es muy irnpor-
[ante. Como se ha mencionado, las expresiones simbólicas tienen una

29
semántica, esto es, son códigos de algo. o significan algo. Por lo tanto,
las transformaciones de las expresiones están diseñadas para mantener
coherentemente este significado o asegurar que las expresiones conti-
núen teniendo sentido cuando sean interpretadas semánticamente de un
modo coherente.
Por ejemplo, si las expresiones son numerales como 19. 1011, XIX.
o expresiones en otras notaciones numerales, sirven normalmente como
códigos para números. En tal caso cuando el ordenador transforma estas
expresiones, pueden referir a distintos números. Si se consigue que el
ordenador las transforme- sistemáticamente de la forma apropiada, las
transformaciones pueden corresponder a operaciones matemáticas úti-
les como la adición y la multiplicación. Consideremos un ábaco. Los
patrones de cuentas representan números. La gente aprende reglas para
transformar estos patrones de cuentas de modo tal que la interpretación
semántica de los pares antecedente - y -- consecuente corresponde a
una función matemática útil. Pero no hay nada intrínsecamente mate-
mático en las propias reglas: son tan sólo reglas para mover las cuentas.
Lo que convierte a las reglas en útiles es que tenemos la seguridad de
que existe una cierta correspondencia continuada entre los patrones for-
males o sintácticos de las cuentas y objetos matemáticos (tales como
números). La manera en que puede asegurarse la correspondencia se
ilustra mediante un ejemplo en la siguiente sección.
En computación científica, así como en la historia de las aplicacio-
nes de los ordenadores hasta los setenta. el dominio de representación
encontrado con mayor frecuencia era sin duda el de los números, y con-
secuentemente las transformaciones sobre expresiones más comunes
eran aquellas que reflejan funciones matemáticas sobre números. Pero
si las expresiones simbólicas codificaran proposiciones o creencias o
conocimiento, tal y como podría ocurrir si fueran expresiones en alguna
lógica simbólica. entonces el ordenador podría transformarlas en for-
mas correspondientes a pruebas o inferencias, o quizás una secuencia
de «pensamientos» que tienen lugar durante el razonamiento ordinario.
Lo importante es que, de acuerdo a la visión clásica, ciertos tipos de
sistema, incluidos tanto mentes como ordenadores, operan sobre repre-
sentaciones que toman la forma de códigos simbólicos.
Hay una propiedad aún más importante que tales códigos simbólicos
deben tener. según la visión clásica. En los sistemas simbólicos clásicos
el significado de una expresión compleja depende de forma sistemática
de los significados de sus partes (o constituyentes). Este es el modo en

30
que funciona el lenguaje ordinario, la lógica formal, e incluso el sistema
numeral, y hay buenas razones para creer que deben funcionar de esa
forma tanto en la computación práctica como en la modelización de la
cognición. En el caso de la cognición estas razones tienen que ver con
la productividad y la sistematicidad del pensamiento y el razonamiento.
dos cuestiones discutidas ampliamente en Fodor y Pylyshyn (1988).
Así pues, en resumen la visión clásica asume que tanto los ordena-
dores como las mentes tienen por lo menos los siguientes tres niveles
de organización:
l. Nivel semántico (o de conocimiento). En este nivel explicamos
por qué la gente, o los ordenadores programados adecuadamen-
te. hacen ciertas cosas diciendo lo que saben y cuáles son sus
objetivos, y mostrando que están conectadas en ciertas formas
significativas e incluso racionales.
2. Nivel de símbolo. Se asume que el contenido semántico del co-
nocimiento y los objetivos vienen codificados por expresiones
simbólicas. Estas expresiones estructuradas tienen partes. cada
una de las cuales también codifica cierto contenido semántico.
Los códigos y su estructura, al igual que las regularidades a tra-
vés de las cuales son manipulados, son otro nivel de organiza-
ción del sistema.
3. Nivel físico (o biológico). Para que todo el sistema funcione tiene
que ser realizado en alguna estructura física. La estructura y los
principios a través de los cuales el objeto físico funciona corres-
ponden al nivel físico o biológico.
Esta organización a tres niveles define lo que denomino arquitectu-
ra clásica o cognitiva.
Para ilustrar la afirmación de que son distintos los principios que se
aplican en cada uno de estos niveles. consideremos el siguiente ejem-
plo. Supongamos que tienes una calculadora con un botón para las raí-
ces cuadradas. Sí quieres explicar por qué da respuestas extrañas o no
funciona cuando las pilas están descargadas o cuando cortas uno de los
cables de dentro o cuando la temperatura es baja. tienes que hacer re-
ferencia a las propiedades físicas de la calculadora. al nivel físico. Si
quieres explicar por qué tienen lugar ciertos errores de cálculo en los
dígitos de orden menor de la respuesta. o por qué tarda más en computar
la respuesta de algunos problemas más que la de otros, tienes que hacer
referencia a la forma en que los números están codificados simbólica-

31
mente y a qué secuencia particular de transformaciones siguen estas ex-
presiones simbólicas (esto es, al algoritmo empleado). Se trata de una
explicación al nivel simbólico. Pero si entonces quieres mostrar que el
algoritmo siempre va a dar la respuesta correcta, tienes que hacer refe-
rencia a hechos y teoremas de teoría de números, esto es. a la semántica
de los símbolos.
Uno podría preguntarse cómo es posible que mantengan las ex-
presiones simbólicas y las reglas su interpretación semántica, que se
mantenga la coherencia de la semántica de las expresiones. Uno de los
descubrimientos más importantes de la lógica formal es el de que uno
puede especificar reglas que operen sobre expresiones simbólicas de tal
forma que la secuencia de expresiones corresponda siempre a una de-
mostración. En computación (yen ciencia cognitiva en general) uno no
está únicamente interesado en las secuencias lógicas. o preservadoras
de la verdad. sino también en aquellas secuencias que preservan propie-
dades semánticas como las desplegadas en el razonamiento heurístico o
dirigido a fines.
El siguiente ejemplo numérico muestra cómo uno puede definir una
operación sobre expresiones simbólicas y una función semántica (que
llamaré 5F) de símbolos a números de forma que la operación pueda
ser interpretada consistenternente como adición. A fin de realzar la ge-
neralidad del siguiente ejemplo (para que, llegado el caso, se pudiera
aplicar a algún sistema distinto que un ordenador clásico). lo presento
en su forma más abstracta. Supongamos que tenemos una determinada
función de instanciación IF de clases de equivalencia de estados físicos
de un sistema determinado (tal vez únicamente las partes del sistema
llamadas registros de memoria) a expresiones simbólicas. Para ser más
precisos, digamos que las expresiones consisten en símbolos atómicos
o y x colocados en cadenas de una longitud arbitraria. En este ejemplo
entonces los estados de los registros de memoria corresponderían a ex-
presiones tales como o, x, ox, xx , oox. oxo, OXX, XOX, xxo. xxx. xooo,
etc. Cada una de estas expresiones corresponde a algún estado posible
de cada uno de los registradores de memoria de la máquina.
Supongamos además que cuando algún patrón (a] que llamo #) ocu-
rre en una parte de la máquina Hamada su registro de instrucciones, los
registradores de memoria de la máquina cambian sus estados de acuerdo
a una cierta regularidad especificable. Por ejemplo. cuando la porción de
la máquina que llamamos registrador l se encuentra en el estado que se
corresponde a la cadena xox, y el registrador 2 está en el estado que se

32
corresponde a la cadena xxo, entonces el registrador 3 cambia su estado.
de cualquiera que se encuentre. al estado que corresponde a la cadena
xoxx.

Este tipo de regularidad podría ra/( mah I~ mente usarse para repre-
sentar la adición de números, toda ver que adoptemos una función se-
mántica SF apropiada y que la regularidad cumpla ciertos requisitos. En
este caso la función semántica requerida es fácil de definir -resulta ser
la función que asigna cadenas de os y xs a números. empleando el habi-
tual sistema numeral binario. Al definir la SF formalmente, además. pro-
porcionarnos una manera de enunciar los requisitos que debe cumplir la
regularidad ~i es que va a ser interpretable como adición de números.

Antes de definir la SF, sin embargo. es necesario dar una definición


formal del conjunto de expresiones consistentes en xs y O~. Dado que
no estarnos poniendo ningún límite al número de estados en que puede
estar un registro (y con ello a la longitud de las cadenas de xs y os). la
definición de las cadenas debe darse recursivamente como

(1) o es una cadena.


(2) x es una cadena.
(.~) si T es una cadena. entonces también lo es To (esto C~. la ca-
dena T seguida de o).
{4) si Tes una cadena. entonces también lo e5. Tx (esto C~. la ca-
dena T seguida de x ).

Una manera más simple de expresar de (1) a (4) es en la forma


Backus-Nauer como T::~ olxl'TolTx. donde ::= significa «se estipu la que
e"i») y 1 sign j ti ca «()>>.

Haciendo uso de la definición de las cadenas, la función semántica


puede ser entonces definida recursivamente Lomo

(l) SF(o) =ü {la interpretación semántica de o es el núme-


ro O).
(2) SF(x) = 1 (la interpretación semántica de x es el núme-
ro J)
(3) SF(To) =2*SF(T) (la interpretación semántica de una cadena T
scguidn por o es el doble de la interpretación
semántica de solo "1'),
(4) SF(Tx) ::: 2*SF(T) + J (la interpretación semántica de una cadena T
seguida de x es el doble de la interpretación
de solo T más uno).

33
Esto constituye un ejemplo de una función semántica, definida rc~
cursivarncntc sobre la estructura de las cadenas de símbolos. Es análoga
al método de Tarski para definir la semántica de oraciones de un cálculo
formal en términos de sus propiedades combinatorias. Esta función de
asignación es no trivial. De hecho. define la interpretación semántica de
una notación numeral posicion-vulor.
Para que esta función semántica sea útil, sin embargo, deben existir
regularidades en los cambios de estado del ordenador que correspon-
dan a las operaciones matemáticas definidas sobre las interpretaciones
de los símbolos en el dominio deseado. En otras palabras, deben exis-
tir transiciones de estado que preserven la interpretación SF deseada.
Se ha propuesto ya una regularidad de este tipo, que fue asociada con
la presencia de # en el registro instrucciones. Para que # corresponda
a la adición (o alternativamente para que sea consistentemente inter-
pretable como adición). las transiciones de estado deben preservar la
interpretación semántica de las cadenas de símbolos bajo la operación
matemática definida de la adición (definida, por ejemplo, en términos
de los axiomas de Peano). En otras palabras. algo como lo siguiente
debe ser cierto:
Si el ordenador está en el estado caracterizado por la descripción

l. El registro I «contiene» (o 1F le asigna a) la cadena TI,


2. El registro 2 «contiene» (o IF le asigna a) la cadena T2.
3. El registro instrucciones «contiene>, (o IF le asigna a) #;

entonces el ordenador pasa al estado caracterizado por

4. El registro :3 «contiene- (o IF le asigna a) la cadena T3. donde


se cumple la relación SF(T~) = SF(T 1) + SF(T2).

En otras palabras, la suma (definida matemáticamente) de las in-


terpretaciones semánticas de los dos estados de los registros debe co-
rresponder siempre a la interpretación semántica del estado del tercer
registro. Nótese que la interpretación tiene lugar en el dominio abstracto
de los números. donde operaciones como la de adición están definidas
matemáticamente, mientras que los símbolos a interpretar (el dominio
de la función SF) son estados funcionales. definidos por IF como clases
de equivalencia de los estados físicos del ordenador.
Estas ideas y distinciones se hacen patentes en el caso de los orde-
nadores convencionales. S~ apl ican del mismo modo. sin embargo, en

34
el caso de la cognición, incluso aunque nuestra experiencia subjetiva
sugiera que lo que ocurre en la mente rueda ser diferente. Los hechos
ernpirico-, y el requisito de adecuación explicativa, sin embargo, exigen
lo:'. tr~s distintos nivele, (físico, simbólico y semántico) en el caso de la
cognición humana, exactamente de la misma forma en que los necesi-
tamos en el caso del ordenador. Aunque los argumentos sobrepasan el
marco de este capítulo (véase Pylyshyn 1984), parece que para explicar
el comportamiento humano inteligente. necesitamos hacer referencia a
los tres niveles de organización.
l. Necesitamos el nivel de conocimiento para explicar por qué al-
gunos objetivos y creencias tienden a llevar a ciertos comportamientos.
y por qué los comportamientos pueden cambiarse de formas racionales
cuando. diciendo cosas, se incorporan nuevas creencias. Por ejemplo,
para explicar por qué estoy sentado aquí en esk momento apretando es-
ta~ teclas del teclado en concreto. uno debe hacer mención a mis creen-
cia~ sobre la ciencia cognitiva, mis creencias sobre lo que terminará
siendo este manuscrito. y mis objetivos generales de proporcionar in-
formación Veraz a aquellos que puedan leer el libro en el que aparecerá
este capítulo. Sin este nivel no podríamos capturar regularidades tales
como, por ejemplo, el hecho de que si tuviera la creencia de que se
ha cancelado la publicación del libro, desplegaría un comportamiento
bastante diferente al margen de 10.\ «estímulos» concretos que pudieran
haberme llevado a esu¡ ipresutniblemente falsa¡ creencia. Este tipo de
maleabilidad del comportamiento caracterizablc semánticamente se de-
nomina penetrabilidad cognitiva y se ha empleado para diagnosticar el
comportamiento que requiere explicación al nivel de conocimiento (más
sobre esto en la sección 2.3, y en Pylyshyn 1984 l.
2. Necesitamos el nivel de símbolo para explicar cosas tales como
por qué algunas tareas llevan más tiempo o generan más errores que
otras. La psicología del procesamiento de la información está llena de
casos en los que se descubre que la forma de la representación produce
una diferencia en su comportamiento en los experimentos. Por ejemplo,
('11 los experimentos de solución de problemas existe una diferencia en-

tre codificar el hecho de que todos los objetos en una caja son rojos yel
hecho equivalente de que ningún objeto es azul.
3. Obviamente, necesitamos el nivel biológico para explicar cosas
como los efectos de las drogas o el «jet lag» o los daños cerebrales en el
comportamiento. Es igualmente posible que podamos necesitar el nivel
biológico para explicar otras cosas también. como posiblemente la na-

35
turalcza del desarrollo cognitivo o la maduración o las psicopatologias.
y quizás algunos cambios que hoy en día se llaman aprendizaje; qué
hechos exactamente caen bajo cada uno de los tres niveles es en buena
medida una cuestión empírica abierta.

Objeciones a la visión clásica

Siempre ha habido oposición a la idea de que tenemos estructu-


ras simbólicas en nuestras cabezas. La idea de que el cerebro piensa
escribiendo y leyendo símbolos suena a muchos absurda. A algunas
personas les da la idea de que hemos sido excesivamente influen-
ciados por la forma en que funcionan los ordenadores electrónicos
actuales. El motivo principal dc inquietud parece venir del hecho de
que no tenemos la experiencia subjetiva de estar manipulando sím-
bolos. Pero la experiencia subjetiva ha sido una fuente de evidencia
sobre lo que ocurre en la mente notoriamente equívoca. La inves-
tigación sobre el procesamiento humano de la información revela
la existencia de innumerables procesos que claramente deben tener
lugar (por ejemplo. parsing ; inferencia) de los cuales no tenemos
consc ienci a subjet iva.

En otro lugar (FoJor 1975, Pylyshyn ] 984. Fodor y Pylyshyn


1988) se dan argumentos en favor de la necesidad de postular estruc-
turas simbólicas en el razonamiento humano -de un «lenguaje del
pensamiento- -. Los detalles de estos argumentos exceden el marco
de este capítulo. Para los propósitos presentes, el siguiente resumen
será suficiente.
Si la descripción del nivel del conocimiento es correcta, entonces
tenemos que explicar cómo es posible que un sistema físico. corno un
ser humano, se comporte de maneras que corresponden a principios del
nivel de conocimiento, mientras que al mismo tiempo se rigen por leyes
ffsicas. El contenido del conocimiento se relaciona con el estado de un
sistema en una relación semántica, que es una relación bastante diferen-
te a las que aparecen en las leyes naturales (por poner un ejemplo, el ob-
jeto de la relación no tiene por qué existir). En el momento presente sólo
hay un candidato a explicar CÓIllL) pueden ser realizados causalrncnte los
principios del nivel de conocimiento. y es el que se apoya en una serie
de ideas que arrancan con las visiones de Boole, Hilbert, Turing. Frege,
y otros lógicos. Dice que el conocimiento está codificado en un sistema
de códigos simbólicos, que en sí mismos están realizados físicamente. y

36
que son las propiedades físicas de los códigos lo que causa los compor-
tamientos en cuestión.
Lo que Fodor y Pylyshyn (198B) han añadido a este enunciado
general es el argumento de que el sistema de códigos ha de estar es-
tructurado de forma muy semejante a un lenguaje (como de hecho
ocurre en los varios cálculos lógicos que se han desarrollado). El ar-
gumento surge en parte de observar que tanto la capacidad represen-
racional como la capacidad inferencia! en los sistemas inteligentes es
sistemática. Las capacidades repre sentacionales o infcrenciales no son
puntuales - no tienen lugar aisladamente: la capacidad de representar
ciertas cosas o de llevar a cabo ciertas inferencias va de la mano de la
capacidad de representar otras cosas o de llevar a cabo otras inferen-
cias. Por ejemplo, un sistema inteligente que e . . capaz de representar
ciertas situaciones (por ejemplo, que John ama a Mary, o que una pe-
lota roja pequeña está en una caja azul grande) debe ser también capaz
-se ejercite o no esta capacidad- de representar otras situaciones
que impliquen los mismos componentes conceptuales (por ejemplo,
que Mary ame i.l John o que una pelota azul grande esté en una caja
roja pequeña). De forma similar cualquier sistema inteligente que pue-
de tlevar a cabo ciertas inferencias (por ejemplo, que pueda inferir de
saber que hace sol y calor y humedad que hace sol; esto es, inferir P de
P y Q y R) pueda también llevar a cabo otras inferencias relacionadas
(por ejemplo, pueda inferir de saber que hace sol y calor que hace sol;
esto es, inferir P de P y Q).
Este tipo de sistematicidad se: sigue automáticamente del uso de ex-
presiones simbólicas estructuradas para representar el conocimiento y
servir de base para la inferencia. En otras palabras es un efecto colateral
de una arquitectura clásica. En contraste es una propiedad que debe ser
esti pulada por el teórico (esto es, es un parámetro empírico libre) en
otras arquitecturas no simbólicas.
Debe hacerse hincapié que en el momento presente no existe alter-
nativa a lo que Newell (1980) ha llamado el supuesto del sistemafisico
simbólico para tratar el razonamiento de un modo mecánico, aunque
haya muchas discusiones especulativas sobre cómo se podría llegar a
prescindir de los símbolos. Por lo tanto. incluso si uno no acepta los dis-
tintos argumentos que se han dado en favor de la necesidad de estructu-
ras simbólicas, la estrategia racional es continuar con el supuesto clásico
hasta que haya una alternativa mejor. Al menos, ésa es la extrategia que
se adopta en cualquier otra ciencia madura.

37
2. Metodologías computacionales en ciencia cognitiva: la vía alta y
la vía baja

Tal y como ya he sugerido, los ordenadores pueden formar parte de


procesos de construcción de modelos cognitivos en diversos niveles.
En la práctica, cuanto más fino sea el grado del emparejamiento de la
correspondencia. más estrecho va a ser el abanico de fenómenos que el
modelo pueda cubrir. Por esta razón los psicólogos experimentales, que
tradicionalmente han estado ruás ocupados con modelos que se puedan
someter a examen con bastante detalle mediante datos de laboratorio.
han trabajado generalmente con modelos que son de un alcance relativa-
mente estrecho. Por otro lado. los investigadores que trabajan dentro de
la tradición de inteligencia artificial se han ocupado más de explicar Ius
habilidades o capacidades generales en cuestión. posponiendo la valida-
ción empírica detallada de los mecanismos y algoritmos empleados en
el modelo. Estas han sido denominadas. respectivamente, la «vía baja»
(tlu: low roadv y la «vía alta» tthe higlt roads. para la comprensión de
los procesos cognitivos. Representan distintas estrategias para llegar al
mismo fin último: modelar los procesos cognitivos humanos.

David Marr fue LIno de los protagonistas más influyentes de la vía


rápida, o al menos de la estrategia que comienza en el final de la vía.
Propuso la existencia de tres niveles en los que deben estudiarse los
procesos cognitivos. Los denominó nivel computacional. nivel de al-
gori (tilO,) nive 1de tuecanismo. U na teoría en el primer ni ve] recibía el
nombre de teoría tipo I. Aunque la noción de teoría tipo 1 no está muy
hien definida. Marr proporcionó algunos ejemplos. principalmente de su
propio trabajo o del de ~LLS colegas.

Cualquier dominio que admita una caracterización formal de la


tarea o de la función inputioutput llevada a cabo es una teoría tipo 1.
Frecuentemente los ejemplos citados incluyen la recuperación de la
estructura tridimensional "l partir de una diversidad de tipos de entra-
das. Asf, por ejemplo, hayal menos teorías parciales acerca de qué es
lo que está implicado en la recuperación de la estructura a partir de
información sobre el movimiento, la visión cstereoscópica. el som-
breado, o el contorno. Tales teorías dan una caracterización precisa de
las condiciones bajo las que es posible la «asignación inversa» de los
datos en cuestión (por ejemplo, movimientos de puntos o contornos en
una superficie 2-D) a una estructura 3-D. Tales teorías confran invaria-
blemente en el reconocimiento de ciertas «constricciones naturales»
que existen en el mundo y son explotadas por el sistema visual para
recuperar la estructura 3-D.
En aquellos casos en los que hay una teoría tipo I de alguna habili-
dad cognitiva en concreto, podría ser posible determinar las condiciones
bajo las que tal habilidad cumplirá o no alguna tarea determinada. Por
ejemplo, si tuviéramos una caracterización matemática de las relaciones
entre ciertas propiedades de la luz y los pcrceptos a que dan lugar (esto
es, una teoría tipo 1 de ciertos aspectos de la percepción visual), enton-
ces podríamos ser capaces de relacionar las propiedades de la luz en
cuestión con la presentación de la escena (vía geometría proyectiva) y
determinar las condiciones bajo las que la percepción mediada por esas
características sería verídica.
Esto de hecho se hizo al modelizar procesos tales como los implica-
dos en la percepción de la forma a partir del movimiento (Ullrnan 1979),
o la orientación de superficies a partir de la textura (Stcvcns 1981), o de
la visión estereoscópica (Marr y Poggio 1979). En el primero de éstos,
por ejemplo, Ullman mostró matemáticamente que la recuperación no
ambigua de la figura 3-D a partir del movimiento de ciertas caracteres
visuales de la retina (por ejemplo. puntos al azar en el caso del efecto
de profundidad en el movimiento estudiado por Wallach y O'Connell
~ 1953») sólo puede realizarse de cumplirse ciertas condiciones. La fun-
ción matemática que relaciona caracteres proximales en movimiento con
la escena 3-D a partir de la que se proyectan los caracteres es única sólo
si (a) hay suficientes visiones distintas y distintos caracteres (tres visiones
y cuatro caracteres para la proyección ortográfica o dos visiones y cinco
caracteres para la proyección de perspectiva), y (b) si el proceso está
restringido en las interpretaciones que toma en consideración. Sin (b) no
es posible una única función porque los mismos movimientos de carac-
teres proximales pueden tener origen en muchas configuraciones distales
diferentes. Si la interpretación está restringida por lo que Ullman llama
el supuesto de rigidez. sin embargo. entonces cabe una interpretación
única en casi sólo aquellos casos en los que la gente da la interpretación
verdadera. La restricción es que el proceso intente proporcionar una in-
terpretación de los caracteres corno originándose en puntos en un cuerpo
rígido en movimiento y no proporcione cualquier interpretación que no
sea posible -no considera otras interpretaciones lógicamente posibles.
Aunque esta no es todavía una teoría tipo J completamente adecuada (por
ejemplo, falla para el movimiento biológico, como lo estudia Johansson
( 197), y para deformaciones elásticas percibidas) proporciona una teo-
ría computacional original para el efecto de profundidad cinética.

39
Nótese que tal resultado matemático no se basa en un estudio deta-
llado del proceso de la percepción humana, sino sólo en el hecho de que
tiene una cierta capacidad. a saber, la capacidad de percibir una estruc-
tura )-D única a partir del movimiento de ciertos puntos (esto es, en la
existencia del efecto de profundidad cinética). El resultado matemático
nos dice las condiciones bajo las que tal logro es posible. Así. nos dice
algo acerca de los requisitos internos de esa tarea: requisitos que de
alguna forma debe cumplir el sistema visual. En el caso de Ullman la
función fue también descrita de un modo constructivo -esto es, de un
modo que le permitía ser computada a partir del tipo de información
asequible a un ordenador equipado con transductores apropiados. Esta
última propiedad es también una parte importante del programa compu-
tacionalista. Desde luego. la forma en la que el sistema visual humano
compute esa función es una cuestión cuya respuesta depende de consi-
deraciones empíricas ulteriores. Nótese, en cualquier caso, que simple-
mente conocer algunas de las propiedades de la función que computa
el sistema visual le permite a uno comprender por qué la percepción es
generalmente verídica aunque. contrariamente a Gibson, sepamos que
el paso de la activación de sensores a la percepción implica un proceso
falible (un proceso parecido a la inferencia que, sin embargo, e~ insen-
sible al conocimiento general del mundo). La razón por la que es gene-
ralmente verídico es que las condiciones bajo las que esta asignación
Inversa cuasi-inferencial es válida, son unas que de hecho se cumplen
frecuentemente en nuestro tipo de mundo -esto es. el supuesto de rigi-
dez es generalmente verdadero. al menos en una primera aproximación,
en nuestro mundo (aunque pueda no ser generalmente verdadero en,
digamos, un mundo habitado por peces).
Por lo que Marr abogaba es un caso especial de estrategia de inves-
tigación de arriba a abajo, en la que uno procede intentando descubrir
las líneas maestras más generales del dominio de un problema ames de
resolver alguno de los sub-problemas detallado". Este tipo de abordaje
se practica sistemáticamente en ciencias de la computación.donde -al-
guna vez bajo el nombre «programación estructurada» - se la considera
la estrategia de elección en el diseño de sistemas computacionales. Con-
secuentemente, es la estrategia que caracteriza los abordajes de la inteli-
gencia artificial para entender la cognición. Marr fue incluso más allá al
defender que uno no debería preocuparse por desarrollar un sistema que
desplegara la actuación en cuestión hasta que al menos hubiera intentado
desarrollar una teoría de la tarea (una teona tipo 1), y consecuentemente
que uno debería trabajar primeramente en dominios (como quizás la vi-

40
sión) que permitieran una teoría tipo L en lugar de en dominios como el
razonamiento ordinario donde puede que no haya una teoría tal. Arguyó
y'ue si uno comienza hipotetizando un algoritmo en particular empleado
por un organismo sin entender primero exactamente qué es lo que se
supone que está computando el algoritmo. uno corre el peligro de imitar
sin más fragmentos de comportamiento sin entender sus principios o
los objetivos que está satisfaciendo el comportamiento. Esto es similar
a la recomendación de Chomsky y otros de no hipotetizar mecanismos
de aprendizaje para la adquisición de ciertas habilidades hasta que lino
tenga una teoría sobre el estado estable de la propia habilidad.
Aunque poca gente en ciencia cognitiva toma una postura tan extre-
ma como la de Marr, continúa habiendo diferencias en estilo de enfoque
en la investigación en ciencia cognitiva. Hay diferencias entre gente
que se ocupa de la generalidad y con la búsqueda de principios genera-
les, en contraste con los que desean explicar la variación experimental.
Hay también diferencias entre enfoques que dan la mayor prioridad al
criterio de suficiencia. y por ello construyen programas de trabajo que
cubren algún dominio de habilidades, en contraste con aquéllos que se
ocupan de decidir entre un" o dos opciones gcn~rales (por ejemplo, de-
cidir si un cierto fenómeno, digamos. el reconocer que un estímulo es
miembro de un conjunto previamente memorizado, es el resultado de
una búsqueda paralela, una búsqueda serial auto-terminada. o una bús-
queda exhaustiva serial).
Hasta un cierto punto cuál de estas estrategias se siga depende del
área de investigación o los fenómenos empíricos concretos que se inves-
tiguen. As], el estudio de la visión temprana se persigue frecuentemente
intentando Implementar algoritmos y explorar su:' implicaciones. Los
problemas asociados a la comprensión del lenguaje y procesamiento del
discurso ~e llevan a cabo a menudo también dentro de esa tradición.
Por otro lado. el estudio del aprendizaje, la memoria. y la resolución
de problemas se han abordado con éxito tanto por la vía alta como por
la baja. En tanto el fenómeno empírico de interés pueda ser atribuido
a algún mecanivmo o proceso ai ..lado, cabe establecer empíricamente
la naturaleza del proceso llevando a cabo una serie de experimentos.
Pero en el punto en que el fenómeno surge de la interacción de muchos
procesos, puede que no Se3 posible explicarlo sin un modelo más ge-
neral que incorpora el conjunto completo de los procesos relevantes.
Los peligros de intentar responder cuestiones generales aislando efectos
y atribuyendo fenómenos a caracterísricas particulares del proceso han
sido bien documentadas por Newell (197.3c), quien arguyó (como dice

41
el título de su artículo) que L<No puedes jugar 3 las veinte preguntas con
la naturaleza y g,lIlar,>.
A pesar de estos peligros parece posible estudiar ciertos sub-proce-
sos específicos con detalle en algunos casos sin construir modelos a gran
escala. De hecho el área de la ciencia cognitiva conocida en ocasiones
como p..icología del procesamiento de la información ha estado domi-
nada por la validación empírica de mini-modelos. El análisis en fases de
los procesos cognitivos usando cronometría mental (ver. por ejemplo.
Posncr 1978) e~ un buen ejemplo. La metodología de un análisis de
lo" procesos cognitivos tan minucioso se discute en el capítulo 7. Para
coger un ejemplo concreto. parece ser po.. . ible estudiar aspectos de la
memoria a corto plazo sin desarrollar modelos a gran escala (ver, por
ejemplo. Sperling ] 967). De hecho. como los modelos son de una esca-
la tan pequeña. la teorización en este área típicamente no ha implicado
implementar modelos en la forma de programas de ordenador.
Pero incluso aquí se ha de ser cuidadoso al concluir que no se gana
nada al implementar realmente modelos de pequeña escala. Newell
1] 973b) proporcionó un ejemplo excelente de cómo el intento de diseñar
un modelo en ordenador para explicar algunos fenómenos empíricos de
la memoria a cono plazo puede en sí mismo llevar a nuevas hipótesis
que podrían de otro modo no haber surgido. En ese ejemplo concreto el
intento de implementar un modelo en una arquitectura motivada inde-
pendientemente llevó a una forma concreta de explicar los resultados
de Stemberg (1970) sobre búsquedas en la memoria a corto plazo, la
así llamada hipótesis de descodificación. (¡UC no implica ni búsqueda
exhaustiva ni auto-terminada (las dos opciones que ~e han investigado
en una gran parte de la investigación empírica) y contiene lamo compo-
nentes seriales como paralelos (dos opciones que también se ha asumido
que completan las posibilidades).

El problema del control

El compromiso de construir un modelo que cumpla la condición de


suficiencia. esto C~. uno que realmente genere comportamientos particu-
lares. no-, ohliga él enfrentarnos al problema de cómo y bajo qué condi-
cienes se invocan. en el curso de la generación de acciones, las repre-
sentaciones internas y las reglas. Estas son cuestiones que conciernen
al control del proceso. Aunque- constituyen un tópico central de estudio
en ciencias de la computación. nunca habían surgido en una psicología

42
cognitiva que no estuviera constreñida por la suficiencia computacio-
nal. De hecho. uno de las principales críticas que Se elevaron contra el
trabajo pionero de psicólogos cognitivos como Tolman fue que sus teo-
rías trataban sólo las representaciones del organismo (mapas mentales),
pero que carecían de un modo de explicar cómo estas representaciones
podían conducir a la acción. Por ejemplo. en una crítica temprana a este
enfoque cognitivista Guthrie (1935. p. ] 72) escribía. «En su interés por
lo que ocurre en la mente de la rata, Tolman ha rechazado predecir lo
que..' hará la rata. Por lo que concierne a la teoría, la rata está absorta en
el pensamiento; si consigue la caja de comida al final. es su problema.
no el de la teorfa.»
Se requiere mucho más para comprender las estructuras de con-
trol que saber cómo están secuenciadas las operaciones. Estamos tan
habituado" a pensar acerca de los procedimientos como secuencias de
instrucciones que siguen su curso fijo hasta que alguna operación condi-
cional ramificada detecta una condición especificada, que no nos vienen
fácilmente a la cabeza organizaciones alternativas. Sin embargo, éste es
sólo un tipo posible de organización del control - uno en el que se paso
el control a lo largo de una secuencia linear de operación a operación:
cuando una operación termina. pasa el control a la siguiente operación
en la línea. En ciencias de la computación e inteligencia artificial. sin
embargo, hay un gran interés en esquemas de control muy diferentes
-algunos que pueden cambiar el modo de pensar de los psicólogos
acerca del abanico de posibilidades asequibles para convertir represen-
taciones en acciones.
En lo que sigue. reviso brevemente algunas de las cuestiones que
surgen cuando lino considera el problema de controlar la forma en que
se despliegan los procesos en respuesta a la, representaciones. reglas.
y contingencias del enlomo. Mi propósito no es describir el abanico de
estructuras de control que se estudian en estos momentos en ciencias de
la computación. sino meramente proporcionar un sentimiento intuitivo
de cuáles son algunas de las distinciones en este campo y sugerir que
la ciencia cognitiva tiene mucho que aprender de este úrea de desarro-
llo. Consideraciones como éstas no surgen sin existir un compromiso
con la realización del proceso modelo en un ordenador. 'Y dado que las
cuestiones sobre el control son una de las áreas de estudio centrales de
la... ciencias de la computación, el progreso en el desarrollo de modelos
computacionales de procesos cognitivos a buen seguro dependerá de
ideas técnicas con origen en las ciencias de la computación (y más en
concreto en inteligencia artificial).

43
Uno de los avances en la comprensión de la naturaleza del control
fue la articulación de la idea de retroalimentación del entorno a contro-
lar. Con esto se restablecía un cierto equilibrio entre el artefacto y su en-
torno: Aunque sólo se acredita al artefacto con la posesión de objetivos,
la responsabilidad por el comportamiento es compartida. En ocasiones
cuando el entorno es pasivo, la iniciativa parece provenir primariamente
del artefacto. mientras que otras veces el entorno parece intervenir. y la
iniciativa parece ir en la dirección opuesta. La noción de la responsabili-
dad de la iniciación de diferentes acciones es fundamental para entender
el controL En el caso de la mayoría de los programas de ordenador, la
idea mas común ha sido la del control moviéndose de punto en punto. o
de instrucción en instrucción. de una forma ampliamente predetermina-
da. Tal secuenciación de instrucciones hace la noción de flujo de control
bastante natural. y las instrucciones ramificadas hacen igualmente na-
tural pensar en pasar o mandar el control a otro lugar. Cuando el paso
del control ~e combina con una facilidad primitiva de paso de mensa-
jcs (para pasar argumentos). se hacen posibles las sub-rutinas. Y como
las sub-rutinas pueden ser anidadas -esto es. las propias sub-rutinas
pueden mandar control a otras sub-rutinas aún inferiores con la segu-
ridad de que el control encontrará eventualmente su camino de vuelta
-también hace su aparición la noción de unajerarqufa de control Mi-
llcr, Galantee y Pribram ( 1960) vieron In importancia de la idea de las
sub-rutinas jerárquicas; las llamaron unidades comprobar-operar-com-
probar-salir (test-opcratc-test-exit], o TOTE, y sugirieron que deberían
ser vistas como la unidad teórica básica de la psicología. reemplazando
al omnipresente arco reflejo. Esta idea ha sido muy influyente en la con-
formación del pensamiento de los psicólogos sobre la cognición.
Hay unas cuantas buenas razones por las que un sistema jerárquico
de control es un concepto tan potente. Manteniendo sencillas (en tér-
minos tanto de cuándo se pasa el control y de qué mensajes se envían
junto con él) las interacciones entre rutina y sub-rutina. se hace más
fúcil pensar en cada sub-rutina como un sub-sistema casi independiente;
yeso hace que el sistema completo sea más fácil de añadir. modifi-
car, y comprender (véase la discusión clásica sobre la importancia dc la
organización jerárquica en la naturaleza en Simon 1969). Cada rutina
en la jerarquía puede pensarse como definiendo algún (subjobjetivo en
un sistema total dirigido-u-obietivos. Pasar el control a una sub-rutina
equivale a activar un sub-objetivo, y el control es devuelto cuando ese
sub-objetivo está consumado. Es tan potente esta idea que sus carencia,
han pasado desapercibidas durante muchos años.
En año tan temprano como 1962, sin embargo, Allen Newell
(Newell 1962) resaltó parte de la rigidez de tal organización. En tanto
cada sub-rutina sea un «especialista- estrecho, tal como una rutina
para buscar una lista, la usual comunicación altamente restringida
entre rutina y sub-rutina funciona bien: puedes sin más pasar 10'\ ar-
gumentos y una dirección de retorno a esa sub-rutina y darle control.
Entonces volverá con una respuesta cuando haya acabado. Pero si la
sub-rutina no es un especialista tan estrecho, podría ayudar a poder
comunicar cada tarea en términos más flexibles. Más aún, podría ayu-
dar si la evolución de las sub-rutinas pudiera ser observada sobre la
marcha para evitar que use una cantidad no garantizada de tiempo y
recursos (por ejemplo. memoria) en alguna tarea relati vamente menor
o en una tarea que algún otro proceso pudiera poder determinar que
está abocada al fracaso. Del mismo modo, ayudaría si la sub-rutina
pudiera informar de sus resultados más flexiblemente: especialmente
si pudiera informar acerca de lo que ha ido mal en los casos en los que
ha fallado. Cómo convertir estos desiderata en formas computaciona-
les eficientes ha sido una de las principales preocupaciones de diseño
a la hora de desarrollar lenguajes de prograrnacion en inteligencia
artificial.
Se puede caracterizar una variedad de distintas estructuras de con-
trol en términos de dos distinciones: ( 1) entre enviar control (cuando
la in iciati va res ide en el locus a 11/ig LlO) y capturar contra I (e uando la
iniciativa reside en el locus nuevo). y (2) entre dirigir un mensaje a
un receptor especificado y difundirlo a todas las rutina" o «módulos»
de una vez. Por ejemplo, en el caso estándar de jerarquia-subrutina, el
control siempre es enviado (por la rutina que ya 10 tiene), y se dirige un
mensaje (que contiene parámetros y una dirección de retorno) especí-
ficamente a la rutina a la que se le da control; y cuando el sub-objeti vo
se consigue. el control es enviado de vuelta, junto con un mensaje de
resultado. En la llamada de procedimiento invocada por patrones, tale--
como las empleadas en Planner o Prolog, cuando se necesita realizar
una tarea, se difunde un mensaje describiendo el objetivo. y entonces
el control es capturado por algún módulo diseñado para responder a
ese mensaje de objetivo particular. Esta es también la idea básica de lo
que a veces se llama UIl3 estructura de control de pizarra. de la cual el
viejo sistema Pandemónium (véase, por ejemplo, Lindsay y Norrnan
1977) Y el más novedoso sistema de reconocimiento del habla Hear-
say-II (Erman. Hayes-Roth, Lexser. y Reddy 19XO) son ejemplos.

4.5
Los sistemas de producción son casos especiales de procedimientos
ele llamada de procedimiento invocada por patrones. En los sistemas de
producción los mensajes son también difundidos, y el control es captu-
rado. Pero cuando finaliza la producción, de nuevo simplemente difunde
un mensaje. Su ciclo de control básico se llama ciclo de reconocimiento-
acción. en contraste con el ciclo más convencional de carga-ejecucián
de la computación convencional. El trabajo actual sobre sistemas de
producción .se describe en el capítulo 3.

La distinción entre si 'ie invocan los procesos explícitamente median-


te comandos. indirectamente mediante la ocurrencia de otros eventos, o
implícitamente mediante ciertas condiciones cumplidas es importante
en las ciencias de la computación. La distinción se relaciona estrecha-
mente con la diferencia entre un test y una «interrupción» (el segundo
de los cuales puede ocurrir en relación arbitraria con un proceso). La
distinción entre procesos invocados por datos y procesos invocados por
procesos (caracrensticos de los así llamados procedimientos detnon . que
incluyen los procedimientos «ifadded» o «if-altered» o «if-examincd»
que son evocados por varios tipos distintos de e\ euros computaciona-
les), y procedimientos invocados por proce~(ls explícitos (caractcrísti-
cos de lo que en ocasiones se llaman procedimientos concomitantes o
if-needed¡ es un tema recurrente importante en el estudio de regímenes
de control.

Muchas de las preocupaciones a la hora de diseñar nuevas arquitcc-


turas se reducen a las tres cuestiones siguientes: (1) cómo procurar una
comunicación efectiva y flexible entre diferentes procesos o módulos.
(2) cómo asegurar que toda la información relevante (y tan poca In-ele-
vante como sea posible) llegue a contar a la hora de tomar decisiones
o hacer inferencias. n) cómo retener y liberar la toma de decisiones
hasta el momento apropiado. A la segunda cuestión se le ha dedicado
mucha investigación y ha desembocado en algunas propuestas para or-
ganizar el conocimiento, asf que su pertinencia para temas concretos e~
fácilmente determinable (por ejemplo, «marcos- tFramesv; «guiones»
(Scriptsi, «esquemas» tschrmasv: La tercera cuestión es también de es-
pecial relevancia para los psicólogos (ver. por ejemplo, Brandsford y
Johnson 197.~) quienes han demostrado experimentalmente que muchas
inferencias se llevan a cabo antes de que se requiera ninguna tarea par-
ticular (por ejemplo, en el momento en que se escuchan las emisiones.
en oposición LIt momento en que se requiere de un contenido para algu-
na decisión). A veces debe retenerse la toma de decisiones o la ejecu-

46
ción de procedimientos hasta que sea asequible el contexto apropiado.
Varias propuestas para tratar problemas lingüfsticos como la opacidad
referencial dependen de esta noción de retener la ejecución a la espera
del contexto apropiado. Por ejemplo. la discusión de la comprensión
del lenguaje de Davies y Isard (1972) pone un énfavis considerable en
la importancia de retener la evaluación de procedimientos que intentan
identificar los referentes de varias partes de un enunciado hasta el mo-
mento apropiado. De esta forma hay un creciente reconocimiento entre
los investigadores interesados en los problemas de la psicología cogniti-
va de que una variedad de cuestiones relacionadas con el control han de
jugar un papel prominente.
Para los psicólogos ha sido fundamentalmente el intento de propor-
cionar un sistema que funcione lo que ha obligado a prestar atención a
estas cuestiones. Sin la necesidad de pensar en términos de un sistema
que funcione, la gente se ha centrado típicamente en lo que a veces se ha
llamado reglas «permisivas-.. -como las reglas de la lógica o de la gra-
mática- que especifican las relaciones entre representaciones que son
permisibles. En ese caso no hay necesidad de ocuparse de las condicio-
nes bajo las cuales se invocan reglas particulares o de las implicaciones
de tales cuestiones del control para la arquitectura cognitiva.
No se niega LJLJe el sistema de reglas permisivas sea importante. Sin
una distinción entre lo LJue Chornsky llama una teoría de la competencia
y una teoría de la actuación, o 10 que McCarthy y Hayes (1969) denomi-
nan los problemas epistemológicos y los heurísticos de la inteligencia.
podemos llegar a encontramos simplemente imitando el comportamien-
to más frecuente en lugar de infiriendo 10-; mecanismos subyacentes. Sin
embargo, de acuerdo a la visión computacional. comprender un proceso
requiere también tener una teoría de qué es lo que hace que el proceso se
despliegue como lo hace en ocasiones concretas, yeso a su vez requiere
que ~e aborden también cuestiones del control y de la arquitectura cog-
nitiva apropiada.

El estatuto empirico de los modelos computacionales: niveles de


correspondencia y equivalencia fuerte

Sin tener en cuenta si uno apuesta por la vía alta o por la vía baja,
en ciencia cognitiva uno está en último término interesado en si el mo-
delo computacional es válido empíricamente -si se corresponde con
los procesos cognitivos humanos. «Corresponderse», sin embargo, no

47
es una noción simple; la correspondencia puede tener lugar en muchos
niveles. Si un proceso computacional va a ser un candidato serio como
modelo explicativo del procesamiento mental, se requiere alguna teoría,
tan explícita como sea posible. de cómo este modelo se relaciona con el
dominio de fenómenos que debe explicar. Es tarea de la teoría que instan-
cia el modelo especificar las afirmaciones empíricas implicadas por éste.
Una teoría tal podría. por ejemplo. afirmar simplemente que el modelo
realiza la misma función itiputioutput que el organismo modelado, que
es quizás una teoría de esa función o una teoría tipo 1 en tenninología
de Marr. Como hemos visto al discutir [a metodología de vía alta en la
sección anterior, incluso en este nivel más general de correspondencia,
la teoría ha de hacer una contribución sustantiva a la comprensión del
proceso proporcionando una teoría de las exigencias de la tarea.

Una afirmación más fuerte podría ser la de que el modelo realiza


alguna función concreta usando el mismo método qllC la persona modc-
lizada. La noción de método no está muy bien definida ni es empleada
consistcnternente. incluso entre los científicos de la computación.

Sin embargo. generalmente implica algo más específico que la xirn-


pIe equivalencia iuputloutput, Por ejemplo. hablarnos del método de
relajación para resolver ecuaciones de constricciones que interactuan,
el método de Ncwton para localizar los máximos y los mínimos de una
función. el método de las transformaciones de Fourier para computar el
efecto de un ti ltro dcterrn inado sobre una forma ondu latoria. etc ... Esto,
proporcionan una indicación más específica de la naturaleza del proceso
que la que tendríamo-, si sólo supiéramos [J función inputioutput.

Para especificar con mayor detalle qué secuencia de pasos ha segui-


do el sistema hubría que proporcionar algo así como un algoritmo del
proceso. La noción de algoritmo está de algún modo más apuntalada en
ciencias de la computación que lo que lo está la de método. Por ejemplo.
existe una variedad de algoritmos bien conocidos para los disrintos tipo s
de aproximaciones numéricas a funciones (que "ion de hecho cataloga-
dos y publicados). para analizar lenguajes libres de contexto (por ejem-
plo. el algoritmo Early). y así sucesivamente. Otra gran área de estudio
son los algoritmos para ordenar y combinar listas (ver. por ejemplo,
Knuth 196X). como lo son los algoritmos de tuhle lookup,

Hay por supuesto incluso niveles más tinos de comparación entre


procesos computacionales. Por ejemplo, un nivel de comparación inclu-
1\0 más espccjfico de modelos computacionales es el de un /Jrograma: la

48
codificación de un algoritmo concreto en un lenguaje de programación.
Son posibles niveles de comparación incluso más tinos entre sistemas
computacionales cuando están implementados en ordenadores reales.
Por ejemplo, podríamos tener programas idénticos que fueran imple-
mentados en ordenadores físicamente diferentes, y así sucesivamente.
Así, la variedad de las posibles afirmaciones que una teoría puede hacer
sobre el nivel de correspondencia entre modelo y dominio empírico es
amplia, como la es la de las afirmaciones sobre qué propiedades del
modelo tienen «realidad psicológica». Claramente. si el sistema com-
putacional ha de verse como un modelo del proceso cognitivo. en lugar
de como una simulación del comportamiento cognitivo, debe corres-
ponderse con el proceso mental en mayor detalle de lo que implica la
equivalencia débil. Por otra parte, está igualmente claro que como los
ordenadores no sólo están hechos de distinta materia que lo cerebros.
sino que también los detalles de cómo realizan operaciones concretas
(digamos por ciertas vías de transferencia entre registros y usando me-
canismos binarios y operaciones de desplazamiento de bits) son dife-
rentes del modo de funcionar de los ccrcbrox. La correspondencia entre
modelos computacionales y procesos cognitivos parece quedar en algún
lugar entre estos extremos.

El supuesto general en ciencia cognitiva ha sido que el nivel apro-


piado de comparación corresponde a grandes rasgos a la noción intuitiva
de algoritmo. Desde nuestro punto de vista podemos pensar en dos sis-
temas computacionales como fuertemente equivalentes, o como realiza-
ciones diferentes del mismo algoritmo o del mismo proceso cognitivo,
si se pueden representar por el mismo programa en algún ordenador teó-
ricamente especificado. Una manera sencilla de poner esto es diciendo
que individuamos los procesos cognitivos en términos de su expresión
en el lenguaje canónico de esta máquina teórica.

La estructura funcional (en oposición a la anatómica) de la máquina


-o lo que llamamos su arquitectura funcional o simplemente su arqui-
tectura- representa nuestra definición teórica del nivel adecuado de
especificidad (o nivel de agregación) en el que contemplar los procesos
cognitivos. Es el nivel en el que las estructuras de datos (o estados) del
modelo son interpretados semánticamente, siendo el dominio semántico
el dominio cognitivo (esto cs. en el que los estados representan las cosas
que son objetos el pensamiento y el razonamiento, aquello acerca de lo
que los sujetos piensan). Una descripción de la arquitectura funcional
también expone las propiedades funcionales del sistema cognitivo de-

49
terminadas por su estructura (en lugar de por los contenidos instantáneos
de su memoria). propiedades tales como los recursos funcionales que el
cerebro facilita (por ejemplo, qué operaciones son primitivas, cómo SL'
organiza y se accede a la memoria. qué secuencias están permitidas, qué
limitaciones existen en el paso de los argumentos y en las capacidades
de las diversas memorias intermedias, etc.). Especificar la arquitectura
funcional de un sistema es muy parecido a proporcionar un manual que
defina un lenguaje de programación concreto.

Así una forma de enfrentar la cuestión del nivel de comparación


adecuado en tre un mode Io y un procc~o cagn iti vo - o la noc Ión de equ i-
valencia fuerte de proccsos- es proporcionando una especificación de
la arquitectura funcional de un «ordenador cognitivo», a la cual llamaré
a partir de ahora arquitectura cognitiva. Gran parte del trabajo descrito
en Pylyshyn 191'4 se ocupa de desarrollar esta idea -de proporcionar
res trice iones sobre u na arq u i tectura en gn iti va adecuada y mostrar su per-
tinencia para la visión computacional de la mente. Para los propósitos
actuales la noción de arquitectura funcional será presentada por medio
de una discusión sobre el papel que esta idea desempeña en las ciencias
de la computación y por medio de la presentación del papel íntimamente
relacionado, aunque en muchos modos único, que se requiere desernpe-
ñe en ciencia cognitiva. La discusión que sigue ilustra la observación de
que cualquier noción de correspondencia más fuerte que la equivalencia
débil debe presuponer alguna arquitectura funcional subyacente. Así la
cuestión no es si hemos de preocupamos acerca de la arquitectura cog-
nitiva a la hora de desarrollar modelos computacionales. Más bien, la
cuestión es si podernos estar satisfechos dejándolo como un supuesto
implícito -condicionado ampliamente por la arquitectura funcional de
los ordenadores disponibles en el momento presente- o ~j deberíarnos
hacerla explícita e intentar que los criterios empíricos sean pertinentes
en sus constricciones,

Algoritmos y arquitectura cognitiva

Los algoritmos cognitivos, el concepto central de la psicología com-


putacional, se entiende que son ejecutados por la arquitectura cognitiva.
Según el realismo fuerte yue muchos de nosotros hemos defendido, un
modelo cognitivo válido debe ejecutar el mismo algoritmo que llevan
a cabo los sujetos. Pero resulta que cuáles de los algoritmos puedan
llevarse a cabo depende de una forma directa de la arquitectura fun-

50
cional del artefacto. Artefactos con distintas arquitecturas funcionales
no pueden en general ejecutar directamente los mismos algoritmos. Sin
embargo, los típicos ordenadores disponibles comercialmente parecen
tener una arquitectura funcional que difiere significativamente de la de
los cerebros. Por esto, es de esperar que al construir un modelo en orde-
nador de la arquitectura mental. éste habní primero de ser emulado (es
decir, modelizado él mismo) antes de que el algoritmo mental pueda ser
implementado.
Para que un algoritmo sirva de modelo de un proceso cognitivo,
debe presentarse en una forma o notación canónica, por ejemplo, como
un programa en algún lenguaje de programación. Lo que normalmente
se pasa por alto cuando hacemos esto e~ hasta qué punto la clase de
algoritmos que pueden tomarse en consideración viene condicionada
por los supuestos de los qu~ partimos acerca de qué operaciones básicas
son posibles. cómo pueden interaccionar, cómo están secuenciadas las
operaciones. qué estructuras de datos son posibles, etc. Estos supuestos
....011 parte intrínseca de nuestra elección de un formalismo descriptivo
porque el formalismo descriptivo define lo que he venido denominando
la arquitectura funcional del sistema.
Sin embargo, el abanico de lenguajes de programación o arquitec-
turas funcionales disponibles es más bien restringido. La gran mayoría
de las arquitecturas disponibles son las basadas en registro iregister ha-
sed), donde los símbolos son almacenados y recuperados por sus «direc-
cienes. numéricas o simbólicas, el control se transfiere secuencialmente
a través de un programa (a excepción de las instrucciones ramificadas),
y las operaciones sobre los símbolos se realizan recuperándolos de la
memoria, colocándolos en un registro determinado, aplicándoles uno de
los comandos primitivos, y después almacenando el símbolo resultante
de nuevo en la memoria. Aunque existen variantes de este patrón bási-
co, la idea principal de un proceso secuencial procediendo a través de
una serie de operaciones «carga», «ejecución» y «almacenamiento» ha
sido la dominante desde los comienzos de la computación digital l ver
la sección anterior para una discusión de las alternativas consideradas
en la investigación en ciencias de la computación). Esto vale tanto para
hardware como para softvvare (ver una discusión de 10 segundo en Bac-
kus 1978).

Como nuestra experiencia ha tenido lugar con un abanico tan res-


tringido de arquitecturas, tendemos él asociar la noción de computación,
y con dio de algoritmo, con la clase concreta de algoritmos que pueden

51
ser ejecutados por las arquitecturas pertenecientes a esta clase limitada.
Sin embargo, esto es engañoso por cuanto que, como he hecho notar,
diferentes arquitecturas permiten la ejecución de distintos algoritmos.
Esta opinión puede ilustrarse mejor tomando en consideración ejem-
plos de varias arquitecturas simples. Tal vez la arquitectura de maqui-
na más primitiva sea la máquina de Turing binaria original. Aunque esta
máquina es universal. en el sentido de que puede ser programada para
computar cualquier función computable. cualquiera que haya intentado
escribir procedimientos para ella se habrá dado cuenta de que la mayoría
de las computaciones son increíbleme-nte complejas. Más importante. sin
embargo: la complejidad de In secuencia de operaciones que debe atrave-
sar varía con cosas tales como la tarea y la naturaleza del input en modos
que son bastante diferentes de los de máquinas con una arquitectura más
convencional. Por ejemplo, el número de pasos básicos requeridos para
mirar una cadena de símbolos en una máquina de Turing se incrementa en
proporción al cuadrado del mimero de cadenas almacenadas.
En contraste con ~sta arquitectura, en lo que se llama una arquitec-
tura de registro (una arquitectura que tiene lo que normalmente se de-
signa memoria de acceso arbitrario. en la que recuperar un símbolo por
nombre o por «referencia» es una operación primitiva). la complejidad
del tiempo para mirar un símbolo en una tabla puede. en ciertas condi-
ciones. ser independiente del número de cadenas almacenadas. Debido
a esto, una arquitectura registradora puede ejecutar directamente cier-
tos algoritmos (por ejemplo, el algoritmo hash-coding lookup¡ que son
imposibles en una máquina de Turing - 3 pesar del hecho de que la
máquina de Turing es universal y por consiguiente puede computar la
misma funcion que el algoritmo o ser programada para ser «débilmente
equivalente» al algoritmo. En otras palabras puede computar la misma
función lookup, pero no con el mismo pcrtil de complejidad y por ello
no mediante el LISO del mismo algoritmo hash-coding,
Por supuesto. podría hacerse que una máquina de Turing imitara la
secuencia de estados glJC atraviesa la máquina registradora haciéndola
primero computar las funciones realizadas por cada operación indivi-
dual de la máquina registradora o en otras palabras simular cada paso
individual qu~ da la máquina registradora al ejecutar su algoritmo. Pero
en ese caso la máquina de Turing en primer lugar emularla la arquitec-
tura de la máquina registradora y después ejecutaría el algoritmo en la
arquitectura emulada. una cuestión muy diferente a computarla directa-
mente en la máquina de Turing.

52
La distinción entre ejecutar directamente un algoritmo y ejecutarlo
primero emulando alguna otra arquitectura funcional es crucial en cien-
cia cognitiva. Concierne al problema central acerca de qué aspectos de
la computación pueden tomarse literalmente como parte del modelo y
qué aspectos han de considerarse como meros detalles de implementa-
ción (como el color y lo, materiales con los que se construye un modelo
físico de la doble hélice de ADN). Esperamos naturalmente que habrá
formas de implementar operaciones cognitivas primitivas en ordenado-
res. y que los detalles de cómo se haga puedan tener poco contenido
empírico.

Desde el punto de vista de la ciencia cognitiva. es importante ser


explícito sobre por qué funciona un modelo de la forma en que lo hace
y justificar independientemente los supuestos cruciales acerca de la ar-
quitectura cognitiva. Esto es, es importante para el uso de modelos com-
putacionales como parte de una explicación, en lugar de simplemente
para imitar algún comportamiento, que no demos por supuestas ciertas
característ icas arq uitcctón icas sólo porque resultan estar dis pon i bles en
el lenguaje del ordenador. Debemos primero admitir explícitamente que
algunas propiedades no computacionales tienen su origen en ciertas pro-
piedades supuestas de la arquitectura cognitiva, y después debemos in-
tentar motivar y justificar empíricamente tales supuestos. De otro modo,
puede que características importantes de nuestro modelo descansen en
supuestos adventicios carentes de motivación.

La cuestión surge a menudo en conexión con las afirmaciones de


que ciertas formas de ejecutar tareas intelectuales, por ejemplo, ha-
ciendo uso de imaginería mental, evitan la necesidad de representar
explícitamente cierta"> propiedades lógicas o incluso físicas del domi-
nio representado y evitan la necesidad de procesos ineficientes corn-
binatoriarnente explosivos corno la inferencia lógica. La cuestión a
menudo se enuncia en términos de hipótesis de que una función men-
tal 1I otra ~e llevan a cabo por medio de procesos «analógicos». La
entera cuestión del procesamiento analógico vs. digital e~ compleja y
en general no se ha entendido bien (véase la discusión en el capítulo 7
de Pylyshyn 1984). Por el momento, tomo en consideración sólo casos
simples que implican la afirmación de que algún proceso se ha llevado
a cabo por «lectura directa» o por medios de otro modo no cognitivos
o no infercncialcs. Desde la perspectiva presente, esto debería inter
pretarse como la afirmación de que alguna función cognitiva es real-
mente parte de la arquitectura cognitiva.

53
Considérense casos como el siguiente: Se ha sugerido ocasional-
mente que los sujetos no necesitan poseer conocimiento de propiedades
relacionales como. digamos, la transitividad, al hacer ciertas inferencias,
como en lox problemas de series de tres términos (por ejemplo, «Juan
es más alto que Maria y Juan es más bajo que Pedro. ¿Quién es el más
alto?»). De acuerdo a esta opinión, todo lo que han de hacer Jos -ujetos
es poner en orden las tres unidades (bien en una lista () en una imagen) y
leer de ella la respuesta - simplemente, se dan cuenta de qué objeto es
el primero (o el último) en la lista. Pero por supuesto incluso si un sujeto
puede resolver el problema de esta manera. eso no quiere decir 4ue no
sea necesario el conocimiento t.icito de las propiedades formales (por
ejemplo, transitividad) de la relación «más alto que».

Hay al menos dos razones por las que uno podría tener que pos-
tular el conocimiento de relacione" formales. Primero, la decisión de
representar «más alto» mediante algo como «más adelante en la lista»
debe basarse en el reconocimiento tácito de que la do, relaciones eran
del mismo tipo formal (una lista no sería adecuada para representar por
ejemplo la relación '<está casado con»). Segundo. aunque ordenar tres
nombres en una lista y después examinar la lista en busca de la posición
de un nombre concreto pueda parecer directo y libre de deducción ló-
gica, pensándolo un poco se puede mostrar que la capacidad de llevar
a cabo esta operación mentalmente, en oposición a ffsicamente, presu-
pone muchas cosas sobre las operaciones mentales primitivas disponi-
ble". En particular. apelar a la existencia de una <dista mental» (o una
estructura parecida) implica ciertos supuestos acerca de las propiedades
que tal estructura posee intrínsecamente. Por ejemplo, si el sujeto tiene
una representación mental de las unidades A, B Y C y razones (según la
teoría) para colocar A y B en un orden determinado y entonces añadir e
a la secuencia. el modelo debe asumir que colocar e siguiendo a B deja
la relación entre A y B intacta y la relación de Ay e (con B entremedio)
continúa siendo la misma con respecto a la relación relevante represen-
tada (esto es, la altura) como aquélla entre A y B.

Supuestos como éstos son justificables sólo si existe una operación


en la arquitectura cognitiva que tiene las mismas propiedades matemá-
ticas formales (esto es, cae bajo el mismo sistema de axiomas lógicos)
como las relaciones «más alto'> y «más adelante en la ordenación».
Es más, incluso sí tal operación es parte de la arquitectura cognitiva,
uno todavía no tiene derecho a asumir que el uso de esta capacidad
no requiere apelar al conocimiento tácito de constructos lógicos corno

54
la transitividad. como pone de relieve el primer punto. Por tomar otro
ejemplo actual, las estructuras de matrices de datos se han empleado
frecuentemente para representar las propiedades espaciales de las imá-
genes (ver, por ejemplo, Kosslyn y Shwartz, 1977, Funt 1980). Esta
es una manera conveniente de representar la composición espacial. en
parte porque tendemos a pensar en las matrices en términos espaciales
de todos modos. Además. esta estructura parece convertir en asequibles
ciertas consecuencias sin necesidad aparente de ciertos pasos deducti-
vos que impliquen referencia a conocimientos de geometría. Por ejem-
plo, cuando representamos las ubicaciones de lugares imaginados 1•.'11
nuestro modelo llenando celdas de una matriz. podemos «Iccr- hechos
como qué lugares son adyacentes, qué lugares están a la izquierda, a la
derecha, encima, o debajo de un lugar dado. y qué lugares están entre
un par dado de lugares. Más aún. cuando se mueve un objeto particular
a un lugar nuevo. sus relaciones espaciales con otros lugares no tienen
por qué ser re-computados. En un sentido importante esto está implíci-
to en la estructura de datos. Estas propiedades hacen de la matriz una
representación mucho más natural que, digamos. una lista de asertos
especificando la forma de I()~ objetos y "lUS ubicaciones con respecto a
otros objetos.

Pero. corno en el ejemplo de resolver el problema de la serie de


tres términos "in aparentemente hacer uso de reglas de inferencia ló-
gica (usando una lista). estas propiedades de las matrices surgen de la
existencia de ciertas propiedades formales que son parte de la arqui-
tectura de virtualmente todos los ordenadores contemporáneos. Tales
propiedades no son, sin embargo, constitutivas de la computación. No
estarían. por ejemplo, disponibles en una arquitectura de máquina de
Turing. Para que una estructura matricial de datos con las propiedades
deseadas sea realizable. la arquitectura debe proporcionar al menos la
capacidad primitiva de dirigirse al contenido de una representación por
el lugar -esto es, debe ser posible nombrar una ubicación y pedir el
contenido de la ubicación nombrada. Esto en sí mismo requiere lo que
se llama una arquitectura de registro (o algún otro tipo de almacén ubi-
cación direccionable).

Es más, en esta arquitectura debe ser también posible generar primi-


tivamente los nombres de los lugares adyacentes a un lugar dado (esto
es. debe ser posible hacerlo sin apelar a otras representaciones o al co-
nocimiento tácito de geometría o cualquier otra cosa que implique pasos
inferenciales intermedios). Esto es necesario si queremos que la «bús-

55
queda» de la representación sea una operación primitiva (no deducti-
va). Además. debe haber predicados primitivos que, cuando se aplican a
nombres. evalúan Ias direcciones relativas de lugares correspondientes a
esos nombres (por ejemplo. predicados diádicos como derecha-de ha de
ser primitivo en la arquitectura). Esto a su vez implica que hayal menos
Jos ordenamientos totales independientes sobre el conjunto de nombres,
Aparte, si la distancia relativa entre lugares tiene que ser significativa
en esta representación. entonces podría tener que haber más operaciones
primitivas que puedan aplicarse a colocar nombres para evaluar, diga-
mos, el tamaño relativo (por ejemplo, el predicado más-grande-quev.
Todo este abanico de propiedades se encuentran en todas las arqui-
tecturas de ordenadores normales porque todas usan expresiones nu-
méricas para registrar (esto C~. colocar) nombres y tienen operaciones
aritméticas primitivas incorporadas. Pero estas propiedades son parte de
tales arquitecturas por razones que no tienen nada que ver con las nccc-
sidades teóricas de la ciencia cognitiva, Cuando ceras características son
ex pi atadas al cons tru ir mode Ios cogn iri vos. asu m j mos tácitamente que
estas operaciones son parte de la arquitectura cognitiva de la mente -un
supuesto que claramente debe ser motivado y justificado independien-
tementc. Raramente se han proporcionado argumento-, para cualquiera
de tales propuestas, Entre las pocas sugerencias para aspectos de la ar-
e¡ uitectura tan abstractos que yo he v i ~ ro ,e de be n a Brouwer ( 1964) Y
Nicod (1970), quienes, por razones bastante diferentes propusieron que
se viera la sucesión como un primitivo cognitivo. y G. Spencer Brown
( 1<)6<). quien propuso que hacer una distinción (binaria) - una suer-
te de separación conceptual universal figura-fondo- C"I una operación
primitiva de la mente. Desde luego. una gran cantidad del programa de
investigacicin reciente en ciencia cognitiva -al menos desde el artículo
seminal de Newell sobre sistemas de producción (Newell 1973h)- se
ha ocupado de proponer características específicas de la arquitectura
cognitiva (ver. por ejemplo. el capítulo ~).
Al elegir una arquitectura concreta. uno adquiere compromisos accr-
ca de qué funciones son los parámetros libres que pueden ser diseñados
para ajustarse a situaciones específicas. y cuáles se fijan sobre una deter-
minada gama de influencias o son sub-funciones compartidas por todos
los procesos de una cierta clase. Tener restricciones en la disponibilidad
de ciertas funciones computacionales primitivas es una virtud si nuestro
objetivo es proporcionar una explicación. Cuanto más constreñida esté
una notación o arquitectura. mayor sera el poder explicativo de los mo-
delos resultantes.

56
Este es exactamente el problema de reducir los grados de libertad
disponibles a fin de ajustar el modelo a las observaciones. Cada función
que puede atribuirse a la arquitectura funcional. en lugar de al programa
flexiblemente alterable. alcanza el estatuto de constante en lugar del de
parámetro empírico libre en el modelo. Proporciona una razón de princi-
pio de por qué en alguna ocasión particular el modelo toma una determi-
nada forma en oposición a otras Iogicamente posibles. Es precisamente la
falta de tal razón 10 que convierte a algunos modelos computacionales en
ad !70c. Un objetivo al desarrollar modelos cognitivos explicativos sería
entonces rijar tantas propiedades como sea posible introduciéndolas en la
arquitectura cognitiva fijada. En oposición a este objetivo. sin embargo.
está la necesidad de explicar la notable flexibilidad de la cognición huma-
na. Esto a su vez nos lleva a atribuir las regularidades conductuales a la
manera en que se emplea la arquitectura -esto es, a los programas y el
conocimiento que permiten a la relativamente rígida arquitectura ser ex-
plotada en la generación de un comportamiento que es altamente plástico.
La independencia-del-estímulo de la cognición proporciona una de las
razones más fuertes para atribuir gran parte de su comportamiento ma-
nifiesto al conocimiento tácito de varios tipos en lugar de a las clases de
propiedades funcionales tijas que se han propuesto con frecuencia.

3. Metodologtas para evaluar la equivalencia fuerte

¿Cómo distinguir entre regularidades que son atribuiblcs a propie-


dades de la arquitectura cognitiva y aquéllas atribuibles a la naturale-
za de los procesos cognitivos y sus representaciones? Hace veinticinco
años muchas de las. técnicas para evaluar la equivalencia cognitiva (por
ejemplo, la cronometría mental) no estaban disponibles -o más bien
su WiO en este contexto no era comprendido. Si alguien hubiera llevado
a cabo un análisis de la equivalencia fuerte en esos momentos. mucho
de lo que hoy pcnsamo'\ que es obvio no habría sido incluido. Aunque
podemos esperar que tales técnicas continúen evolucionando, puede ser
útil enumerar unos pocos métodos provisionales que son dominantes en
el trabajo de Jos psicólogos del procesamiento de la información.

Evidencia del estado intermedio

Como ejemplo, recuérdese que la equivalencia fuerte requiere que


un modelo sea expresado en un nivel de agregación en el que ~e revelen

57
todos los estados básicos de representación .. porque cada uno de estos
estados es esencial en la historia rcpresentacional, Así las transiciones
entre estados represernacionalcs no deben de implicar ellos mismos e~­
tados representacionales: esta __ transiciones han de ser realizadas direc-
tamente por la arquitectura cognitiva. Por ello. cualquier evidencia de la
existencia de tale.'! estados representacionales intermedios es evidencia
del carácter no primitivo del sub-proceso en cuestión. Hay varios méto-
dos para obtener tal ev idcncia,
Uno de los primeros métodos pam descubrir estados intermedios en
la resolución de problemas conlleva grabar los pensamientos expresa-
dos por los sujetos durante la resolución del problema (Duncker 1935).
Newell y S imon (1972) desarrollaron esta técnica, que llamaron aná-
lisis de protocolos, hasta un alto nivel de precisión. Aunque el método
sólo puede usarse con ciertos. tipos, lentos y deliberados. de tareas de
resolución de problemas (incluidos problemas que incluyen imaginería
visual: compárese Baylor 1972, Farley 1974. Moran 1973), proporciona
evidencia para estados intermedios que de otra forma podrían no ser
asequibles para restringir el modelo. Cuando se combinan con observa-
ciones adicionales intermedias, tales como protocolos de movimientos
obtenidos de grabaciones de vídeo (Young 197:1) Y grabaciones de mo-
vimientos oculares (Just y Carpenter 1976). este método puede propor-
cionar datos extremadamente útiles. El Uf..O de este método se discute
con mayor amplitud en el capítulo l.

La existencia de estados representacionale« intermedios puede en


ocasiones inferirse de modos mas indirectos. Un buen ejemplo aconte-
ce en la psicolingüfstica. en el estudio del procesamiento de oraciones
en tiempo real. Hay evidencia indirecta de la disponibilidad de cierto:'
componentes del análisis sintáctico en el curso de la comprensión de
oraciones. (Frazier y Fodor 1978, MarslenWilson y Tyler 1980. Forster
1979). Cualquier evidencia de la disponibilidad de estados intermedios
de un proceso para cualquier otro proceso (esto es, cualquier evidencia
de que el funcionamiento del proceso es «transparente» para cualquier
otra parte del sistema) puede tomarse como evidencia de que tal proceso
no es un primitivo, sino que está sujeto a descomposición.

En lo que resta de esta sección torno en consideración otros dos


criterios con base empírica para decidir ~i determinados aspectos de las
regularidades de la conducta deberían atribuirse a propiedades de los
mecanismos -esto es, a la arquitectura cognitiva- o a las representa-
ciones y procesos que operan en ellos. Ambos son. como se ha sugerido.
condiciones suficientes aunque no necesarias -esto es. pueden ideal-
mente decirte cuándo una función requiere un análisis cognitivo más
complejo, pero no te pueden decir que has ido lo suficientemente lejos
porque puede haber varias fuentes de evidencia indirecta de la necesi-
dad de descomposición ulterior. El primero de estos criterios deriva de
consideraciones computacionales y define una noción de equivalencia
fuerte de procesos llamada equivalencia de complejidad. Este criterio se
asocia frecuentemente al uso de medidas de tiempo de reacción. o a me-
didas en línea como las que evalúan la exigencia de atención de tareas
(por ejemplo. medir la ejecución de una tarea secundaria).
El segundo criterio nos ayuda a decidir si un fenómeno empírico
particular debería ser atribuido a la arquitectura o a objetivos y creen-
cias. Descansa en el supuesto de que podemos identificar ciertos casos
claros del fenómeno que debería explicarse en el nivel de conocimiento.
esto es, en términos de las representaciones únicamente, en lugar de en
términos de propiedades de la arquitectura cognitiva. Los fenómenos
que dependen de un modo racional en los objetivos, creencias. y utilida-
des del sujeto xon un caso en cuestión. Por ejemplo, en psicofísica asu-
mirnos que si una medida (como un umbral) cambia sistemáticamente
cuando cambiamos los resultados (esto cs. el coste relativo de errores
de comisión y de omisión). entonces la explicación de ese cambio ha de
proporcionarse en el nivel de conocimiento -en términos de teoría de
la decisión - más que en térrninov de propiedades de sensores u otros
mecanismos que son parte de la arquitectura, En general mostrar que
ciertos fenómenos empíricos son sensibles a objetivos y creencias (o son
lo que llamo cognitivaniente penetrables) es prima fucie evidencia de
que no dcbcrfan ser atribuidos a propiedades de la arquitectura.

Evidencia de complejidad relativa y equivalencia de complejidad

Recuérdese que en el ejemplo discutido anteriormente. había al menos


una propiedad del algoritmo hash-coding que necesita ser preservada por
cualquier proceso fuertemente equivalente - y que no sería preservada si
la misma función fuera realizada en una máquina de Turing tradicional.
Esa propiedad es la relacián entre (o la forma de la función que caracteriza
la relación entre) el número de pasos que llevaría mirar un símbolo en una
tabla y el número total de símbolos allí almacenados. El algoritmo hash-
coding, implementado en una arquitectura con una facilidad primitiva de
recuperar símbolos por su nombre (lo que comúnmente se llama acceso
arbitrario o arquitectura de registro), puede mirar símbolos en un número
de pasos que es (en una primera aproximación) independiente del número
de entrada... en la tabla. Por contra, si este algoritmo fuera emulado en una
máquina de Turing, el número de pasos que supondría se incrementaría
en proporción al cuadrado del número de cadenas almacenadas en la cinta
(de forma que la función que relaciona el número de pasos y el número de
unidades almacenadas sería un polinomio de segundo urden).
La relación entre el número de pasos primitivos dados y ciertas pro-
piedades del input simbólico se considera generalmente una propiedad
esencial invariante de lo que uno intuitivamente piensa que son difcrcn-
tes realizaciones del mismo algoritmo. Por ejemplo. uno claramente no
contaría dos procesos como realizando el mismo algoritmo si uno de
ellos computara una función en un tiempo determinado, independien-
temente del tamaño de su input, mientras el otro es combinatoriarncntc
explosivo -de forma que el tiempo de que hiciera uso se incrementara
exponencialmente cuando alguna propiedad (por ejemplo, la longitud)
del input variara. La cantidad total de tiempo o el número total de pasos
dados no es importante para evaluar la equivalencia de los algoritmos,
porque eso depende de la máquina concreta en la que se lleva a cabo
el algoritmo. Lo que es importante es la naturaleza de la relación entre
cosas tales como el tiempo o número de pasos dados y propiedades de
input, como su longitud. Debido a esto, hay ciertas diferencias aparentes
entre programas que no importan para propósitos de lo que he llamado
su equivalencia en complejidad (Pylyshyn 1984).
En ciencia cognitiva la forma más común de evaluar la comple-
jidad relativa es midiendo los tiempos de reacción relativos, esto es,
observando la forma de la función que relaciona el tiempo que conlleva
una tarea y ciertas propiedades paramétricas de la tarea (por ejemplo,
tamaño del input). Aunque la utilidad de esta medida descansa también
en supuestos metodológicos. ha resultado ser una de las fuentes más
valiosas de evidencia de complejidad relativa en la caja de herramientas
de la ciencia cognitiva. Se discuten ejemplos de este uso en el capítulo
7, asf como en otros muchos capítulos. En una sección subsiguiente de
este capítulo. vuelvo a una consideración del estatuto de medidas tales
como el tiempo de reacción cuando confronte la cuestión de si es posi-
ble en principio decidir acerca de los modelos computacionales correc-
tos usando sólo datos conductuales.
El conjunto de programas que son equivalentes en complejidad
representa claramente un refinamiento del conjunto de programas que

60
computan la misma función inputloutput, y por ello la equivalencia en
complejidad representa una restricción de la relación de equivalencia
débil. Aunque la equivalencia en complejidad captura un aspecto im-
portante de la noción intuitiva de «mismo algoritmo», no es en sí misma
suficiente para definir la equivalencia fuerte. Es, en otras palabras. una
condición necesaria pero no suficiente para la equivalencia fuerte.

Penetrabilidad Cognitiva

Una segunda clase de métodos para estudiar la equivalencia cogni-


tiva asume que lo que he venido denominando fenómenos cognitivos
son un dominio científico natural que puede explicarse enteramente en
términos de la naturaleza de las representaciones y la estructura de pro-
gramas llevados a cabo en la arquitectura cognitiva. Si eso es verdad,
entonces la propia arquitectura cognitiva no debe variar en modos que
demanden el mismo tipo de explicación cognitiva. Debe, en otras pa-
labras, formar un «punto fijo» cognitivo, dc forma que las diferencias
en fenómenos cognitivos podrían ser explicadas apelando a las dispo-
siciones (secuencias de expresiones y de operaciones básicas) entre el
conjunto fijo de operaciones ya los recursos básicos proporcionados por
esta arquitectura. Aunque la arquitectura podría variar como una fun-
ción de condiciones físicas o bioquímicas, no debería variar directamen-
te y en modos lógicamente coherentes con cambios en el contenido de
los objetivos y las creencias del organismo. Si la arquitectura cognitiva
cambiara en modos que requieren una explicación cognitiva gobernada
por reglas, no podría ya servir como base para explicar cómo cambios
en reglas y representaciones producen cambios en el comportamiento.
Consecuentemente. el comportamiento inputloutput de las operaciones
primitivas de la arquitectura cognitiva hipotetizadas no debe depender
de creencias y fines, y con ello de condiciones que cambien los fines
y las creencias del organismo, debe ser lo que llamo cognitivamente
impenetrable.
Este es normalmente un criterio simple de aplicar en la práctica.
Para determinar si una evidencia empírica favorece determinadas pro-
piedades arquitectónicas del sistema cognitivo hipotetizadas, la pregun-
ta natural es si la evidencia es compatible con algunas otras, diferentes.
propiedades arquitectónicas. Una forma de hacer esto es ver si los fe-
nómenos empíricos en cuestión pueden ser sistemáticamente alterados
cambiando los fines o creencias de los sujetos. Si pueden, entonces esto

61
sugiere que los fenómenos no nos hablan de la arquitectura sino más
bien de algunos procesos gobernados por representaciones - algo que
en otras palabras continuaría siendo verdadero incluso aunque la arqui-
tectura fuera diferente de la hipotetizada.
Por ejemplo. éste parece ser el caso en ciertos tipos de fenómenos
de imaginería, tales como la fetación lineal entre el tiempo de reacción
y la distancia en una imagen mental que se «explora» mentalmente (más
sobre este caso. ver Pylyshyn 19R 1). Esto es debido a que el incremen-
to lineal puede hacerse desaparecer cambiando las instrucciones, por
ejemplo. pidiendo ZI los sujetos que imaginen una <iruación en la que no
crean que habría ningún incremento en el tiempo de reacción como fun-
ción de la distancia (esto es, en la que creyeran que J1() habría relación
entre tiempo y distancia en la situación real que tienen que imaginar).
En general. mostrar que un cierto fenómeno es cognitivamentc pe-
netrable proporciona una razón poderosa para interpretar ese fenómeno
como surgiendo de la naturaleza de las representaciones y de proce~o~
cognitivos operando sobre esta~ representaciones En la práctica siern-
pre está la cuestión de exactamente qué estadio del proceso es afectado
por las instrucciones. pero éste no es un problema único del criterio de
penetrabilidad. Ser capaz de determinar si algún fenómeno se Jebe a
propiedades de la arquitectura o al proceso gobernado por la represen
raciones es crítico para evaluar la equivalencia fuerte porque nos da una
forma de determinar si hemos descompuesto los pasos del proceso en
lo," elementos primitivos adecuados.

¿ Podemos decidir quémodelo es correcto a partir de datos conductuales?


La afirmación de la indeterminacián conductual

Finalmente, termino esta sección sobre metodología con una breve


discusión de la afirmación de que la equivalencia fuerte puede no ser en
principio posible en psicología (o que sólo puede conseguirse apelando
a hechos de la biología o mediante la importación de juicios estéticos o
subjetivos de otro tipo). La equivalencia débil es, por definición, cquiva-
lencia con respecto a comportamiento inputloutput. Consecuentemente
cabe suponer que si todo lo que tuviéramos en ciencia cognitiva fuera
comportamiento observado, lino no podría esperar determinar qué mo-
delo computacional es el correcto aparte de elegir uno de los dos equi-
valcntes. De hecho. se ha abogado por c~te punto de vista con bastante
frecuencia (comparar Anderson 197R, Townsend 1974). Nótese que se

62
supone que se trata de un indeterminismo aparte del indeterminismo
científico, en el que un cuerpo finito de datos nunca determina de modo
único la teoría verdadera.
En primer lugar, debe hacerse ver que nadie quiere excluir los da-
tos psicohiológicos como fuente de evidencia para evaluar teorías de In
cognición (ver, por ejemplo. las discusiones de Sejnowsk i y Churchland
en el capítulo X). Pero la cuestión de si deben incluirse o no, no tiene
relevancia alguna para los argumentos del indeterminismo porque los
modelos cognitivos no son modelos acerca de cómo el cerebro reali-
la procesos en el tejido neural, son teorías que describen mecanismos
cognitivos que proce\an representaciones cognitivas. La evidencia neu-
rotisiológica puede. y en ocasiones así lo hace, ayudar a decidir sobre
cuestiones psicológicas. pero contrariamente a lo que alguna gente pa-
rece pensar. este tipo de evidencia es tan indirecta y falible como la me-
dición de tiempos de reacción: no podemos observar más directamente
un mecanismo cognitivo con los métodos de la biología que con los
métodos de la psicofisica (o. para eso, por introspección). Si ese es el
caso, ¿cómo podernos esperar hacer nada mejor que seleccionar uno de
los modelos que son débilmente equivalentes (además de quizás apelar
a criterios externos tale como parsimonia y elegancia -como algunos
han sugerido (Anderson 1978) ?
La respuesta que sugiero (Pylyshyn 1978b) para este tipo de indeter-
minación es la siguiente: Aunque en un sentido todo lo que tenemos es
comportamiento. no todo el comportamiento es de la misma clase desde
el punto de vista de la construcción de teorías. Distinguiendo entre dis-
tintas clases de medidas conductuales e interpretando estas medidas de
distintas maneras motivadas independientemente. podemos hacer algo
mucho mejor que con la equivalencia débil.
Nótese que dar diferentes interpretaciones de la conducta observa-
da es rutinario en toda la psicología experimental. Por ejemplo. un in-
vestigador puede recoger observaciones primarias en un cierto dominio
-digamos. concernientes al comportamiento de una persona al resol-
ver un problema. Hay observaciones que podría esperarse que explicara
una teoría constructiva de ese dominio generando un comportamiento
similar como su output. Pero el investigador típicamente también re-
coge observaciones de un tipo secundario (que podría ser denominado,
sin una distorsión demasiado seria de I~ terminología, observaciones
metaconductuales). de las que podrían inferirse ciertas propiedades del
propio proceso de resolución de problemas. Este es el caso, por ejemplo.

63
cuando los sujetos proporcionan protocolos «pensando-en-voz-alta». Es
también el caso cuando se realizan observaciones que son interpretadas
como indices de cosas tales como procesar complejidad ola demanda de
atención de la tarea. En tal caso no se espera que una teoría o un modelo
generaría realmente tal conducta como parte de su output. Más bien. la
idea es que el modelo debería generar el comportamiento toutpurv pri-
mario de una forma que reflejara ciertas propiedades de procesamiento
en tiempo real indicadas por observaciones en la clase secundaria,
Considérese el siguiente ejemplo en el que la metodología en desa-
11'0110 de la ciencia cognitiva ha conducido a un cambio gradual en la
manera en que se interpreta un aspecto importante del comportamiento
observado. El ejemplo concierne al que es probablemente la medida
dependiente más ampliamente empleada en psicología cognitiva, a sa-
ber, el tiempo de reacción. Esta medida se ha interpretado a veces como
simplemente otra respuesta, a explicar por un modelo cognitivo de la
misma forma que el modelo explica registros de respuesta tales como la
secuencia de los botones que se apretaron. Desde el trabajo pionero de
Donders (llevado a cabo en los 1860 y reeditado como Donders J 969)
~e ha interpretado ampliamente también como una medida más o menos
directa de la duración de los procesos mentales (Wasserman y Kong
1979). He argumentado (Pylyshyn 1979a, 1984) que ninguna de estas
interpretaciones es correcta en general; el tiempo de reacción puede ver-
se en general ni como el output computado de un proceso cognitivo ni
como una medida de la duración de un eventu mental o una operación
mental.

Si se pensara el tiempo de reacción como simplemente otra respues-


ta, entonces sería suficiente que nuestro modelo computacional calcu-
lara simplemente un valor predicho para este tiempo de reacción, dado
el input apropiado. Pero eso no sería suficiente si se ve la computación
como un modelo literal del proceso cognitivo. Los científicos cogniti-
vos contemporáneos no contemplarían un sistema que generara pares de
cadenas output, interpretadas como la respuesta y un número designan-
do el tiempo empleado. como algo que constituye un modelo adecuado
del proceso subyacente, no importa cuán bien estos output cuadren con
los datos observados. Esto ocurre porque quieren interpretar el modelo
como si computara el output de la misma forma que el sujeto (esto es.
haciendo uso del mismo algoritmo).
Se ha convertido en usual en ciencia cognitiva ver el tiempo de reac-
ción de la misma forma que medidas como la respuesta galvánica de la

64
piel. o registros pletismográficos. o como se ven medidas de distracción
(ver. por ejemplo. Brown 19(2). a saber como un índice, o un correla-
to observable. de alguna propiedad agregada del proceso. En particular
el tiempo de reacción ~e ve frecuentemente como un índice de lo que
llamo complejidad computacional. que normalmente se entiende que
corresponde a propiedades del modelo tales como el número de opera-
ciones llevadas a cabo. Un proceso que meramente computara el tiempo
como un valor de parámetro no explicaría el tiempo de reacción visto de
e~ta manera particular porque el parámetro no expresaría la complejidad
computacional de proceso.
He discutido varios casos en los que es posible decidir. entre dos al-
goritmos diferentes, cuál se está utilizando examinando el número rela-
tivo de pasos primitivos que se han dado cuando se proporcionan inputs
diferentes. Ahora bien, si existe alguna razón para creer que la cantidad
de tiempo (real) que lleva es proporcional a (o al menos una función
monótonamente creciente de) el número de tales pasos primitivos del
algoritmo, entonces las medidas del tiempo relativo tomadas podrían
proporcionar la evidencia requerida para decidir entre los algoritmos
putativos. Pero en este caso necesitamos de una razón independiente
para creer que el tiempo de reacción es un índice válido del número de
pasos primitivos de la arquitectura cognitiva. Estas razones indepen-
dientes son asequibles normalmente, como. por ejemplo, cuando las re-
gularidades inferidas en base al supuesto de que el tiempo de reacción
es un indicador hable de complejidad de procesamiento son corrobora-
das por otros métodos. Cuando tales patrones de consistencia continúan
apareciendo bajo metodologías convergentes, entonces tenemos una ra-
zón prima facie para esperar la validez de esos métodos, permaneciendo
lo demás igual (compárese Posner 197R).
Sin embargo. debería tenerse presente que cuando hacemos inferen-
cias acerca de la naturaleza del algoritmo a partir de los datos, el tiempo
de reacción (o cualquier otra medida fisicas. dependemos siempre de la
validez de hipótesis auxiliares. Tales hipótesis podrían en principio ser
falsas. Hay muchas ...ituacione... en que las medidas de propiedades de
los eventos físicos subyacentes pueden decirnos poco sobre el algoritmo.
Podrían, en su lugar. hablamos bien sobre la forma en la que el proceso
se instancia físicamente (esto e~, neurotisiológicarnente) en alguna oca-
síón particular o en un individuo concreto. bien sobre el conocimiento
tácito de los sujetos o sobre la naturaleza de la propia tarea. Por ejemplo,
he argumentado (Pylyshyn 1981, 1984) que muchos de los fenómenos
de la investigación de imaginería mental (por ejemplo, los a~í llamados
resultados de exploración mental de Kosslyn I <.)gO) son precisamente
de este tipo. En estos casos parece que los patrones concretos de tiempo
de reacción observados son el resultado directo no de propiedades de
la arquitectura sino Jel conocimiento tácito de los sujetos sobre lo que
sucedería en las situaciones imaginadas y su habilidad para duplicar as-
pectos de estas situaciones (por ejemplo, su duración) imaginariamente.
El argumento para esto se basa en el criterio de penetrabilidad cognitiva:
si el patrón de comportamiento puede alterarse de una forma racional
cambiando las creencias de los sujetos acerca de la tarea. entonces po-
seemos evidencia prima facie de que el proceso implica inferencia. Es
más, carecemos de razones para hipotetizar propiedades arquitectónicas
de propósito específico si podemos explicar el patrón de tiempos de re-
acción meramente en términos de las creencias de los sujetos junto con
su habilidad psicofísica para generar los intervalos de tiempo relevantes.
Esto por supuesto no se aplica a casos donde está claro que la actuación
de los sujetos no e~ explicable en términos de sus creencias -como, por
ejemplo. cuando operan al límite de su habilidad. como es el caso de la
mayoría de estudios llevados a cabo en la tradición del procesamiento
de la información, incluidos algunos de los experimentos de manipula-
ción de imaginería, como los que conllevan «rotación mental» (como en
Shepard y Cooper 1982).
Hay otros tipos de casos en los que Jos tiempos de reacción obser-
vados no nos dicen demasiado acerca de la naturaleza de la arquitectura
cognitiva. Por ejemplo, UlIman (1984) ha sugerido que la razón por la
que ciertos tipos de procesos visuales (que él llama rutinas visuales) se
llevan a cabo serialmente no es la naturaleza de la arquitectura cogniti-
va. sino que la naturaleza de la propia tarea lo requiere. En ese caso el
hecho de que el proceso sea serial no puede atribuirse a requisitos im-
puestos por la arquitectura (al menos, no enteramente), aunque muestra
que la arquitectura es capaz de operar serialmcnre.

4. Conclusión: el dominio de la ciencia cognitiva

Lo que hace de un área de estudio un dominio científico natural es el


descubrimiento (no la estipulación) de que algún conjunto relativamente
uniforme de principios puede dar cuenta de los fenómenos en ese domi-
nio. Nunca se da el caso de que podamos estipular a priori precisamen-
te qué caerá dentro ese dominio natural. Tampoco podemos estipular a
priori cuál es la clase de principios que definirá el dominio; la evolución

66
de las fronteras de un dominio científico es un proceso gradual, que re-
quiere de conjeturas provisionales mientras se va avanzando.
La ciencia cognitiva se ha visto como el estudio del dominio natu-
ral de la cognición, donde cognición incluye fenómenos proptotípicos
de percepción, resolución de problemas, razonamiento, aprendizaje.
memoria. y así sucesivamente. En el momento presente la hipótesis de
trabajo parece ser que lo que éstos tienen en común es que conllevan
actividad inteligente en algún sentido general.
Una hipótesis más arriesgada es que la cognición es el dominio de
fenómenos que pueden verse como procesamientos de información na-
turales, lo que en términos actuales significa que son computacionales,
siendo ésta la única noción de información mecanística autónoma que
poseemos. Esto a su vez significa que los fenómenos en este dominio
pueden explicarse al menos en tres niveles diferentes, como sugiere
lo que hemos llamado la visión clásica. De acuerdo con esta hipótesis
(que podemos llamar la visión computacional realista), no podemos
estipular a priori qué fenómenos empíricos resultaran ser cognitivos
en el sentido técnico (significando susceptibles de explicación com-
putacional). Sería al mismo tiempo sorprendente y problemático si de-
masiados de los que pretcóricamente tenemos corno casos claros de
cognición acabaran siendo omitidos en el proceso. Pero tampoco sería
enteramente sorprendente que algunos de nuestros candidatos favori-
tos a fenómenos cognitivos quedara fuera. Por ejemplo, podría resultar
que la consciencia no sea algo de lo que se pueda dar cuenta computa-
cionalmente. De modo similar. ciertos tipos de aprendizaje estadístico,
aspectos del desarrollo ontogenético, el efecto de humores y emocio-
nes. y otros muchos fenómenos imporatnres e interesantes podrían sim-
plemente acabar no siendo susceptibles de explicación computacional.
Componentes sustanciales de tales fenómenos podrían, por ejemplo,
requerir una explicación no computacional. digamos, en términos de
°
bioquímica alguna otra ciencia.
En este respecto podria resultar que ciertos fenómenos no pudie-
ran surgir del procesamiento de símbolos. en contra de las asunciones
previas. En ese caso las afirmaciones conexionistas de que los sistemas
simbólicos no son necesarios (ver, por ejemplo, Rurnelhart, McClelland
et al. 1986) podrían resultar adecuadas para esos fenómenos. Por otro
lado. hay muy buenas razones para mantener que el razonamiento y
otros procesos dependientes del conocimiento o racionales requieren el
procesamiento de símbolos, y además que estos procesos son extrema-

67
damente dominantes en los fenómenos estudiados en ciencia cognitiva.
Sólo el tiempo e investigación ulterior dirá qué fenómenos podrían ex-
plicarse mejor por modelos que no se conforman a las nociones clásicas
de computación.

Notas

Agradezco a Allen Newell por sus extensos comentarios en un bo-


rrador de este manuscrito.
l. Aunque la comunidad de la ciencia cognitiva tiende a usar el tér-
mino conocimiento bastante libremente al discutir principios del nivel
semántico, a veces vale la pena distinguir aquellas entidades semánticas
que son conocimiento de aquéllas que son objetivos, perceptos, planes,
y así sucesivamente. El término más general nivel semántico se emplea
en contextos en Jos que tales distinciones tiene importancia. Los filóso-
fos hablan incluso del nivel «intencional» o de objetos «intencionales»,
pero como el uso de esa terminología tiende a traer consigo una larga
serie de cuestiones antiguas y no enteramente relevantes, aquí rehuímos
ese término.
2. Nótese que aunque no s.e suponen límites a la longitud de las
expresiones. los argumentos presentados son válidos incluso si las ex-
presiones son limitadas - mientras la longitud sea ]0 suficientemente
grande para que las expresiones hayan de tratarse como si no fueran
atómicas, lo cual es cierto en cualquier ordenador útil. Debido a ésto.
IF instancia la expresión por medio de instanciaciones de los símbolos
elementales {) y x y la relación de concatenación. De forma similar, las
operaciones sobre expresiones (tal como la operación #) se definen en
términos de operaciones sobre símbolos individuales.
3. Uso el término arquitectura aquí de una forma un tanto difusa
porque aún no ha sido definida. En una sección posterior se discute esta
noción con mayor detalle porque es una de las ideas computacionales
central es en c ienc ia cogn iti va.
4. Desde luego. hay también entre los estudiosos de la cognición
quienes niegan cualquier preocupación por modelar procesos cognitivos
humanos: quieren únicamente crear sistemas computadores que lleven
a cabo alguna tarea inteligente. Aún así, hay razones para pensar que
esa gente también desarrolla implícitamente teorías de la cognición hu-
mana, en tanto en cuanto se recurre a hechos de la cognición humana

68
como parte de la definición de la tarea (ver la discusión de las restric-
ciones empíricas implícitas en la investigación de inteligencia artificial
en Pylyshyn 197R)
5. Aunque al discutir la distinción entre una leuda computacional y
un algoritmo Marr traza la analogía entre las teorías matemáticas. como
la temía del análisis de Fourier, y algoritmos concretos. como el algo-
ritmo rápido de transformación de Fuurier, los ejempos de su propio
trabajo en la visión no parece que cuadren en la analogía. De hecho, lo
que se llama una «teoría de la computación» (o una teoría tipo 1) es típi-
camente una teoría que liga una función (tal como computar estructura
a partir de movimiento o sombreado) a una historia teleológica. Marr
estaba preocupado por la cuestión de ¿Para qué sirve la computación? o
¿Qué información útil sobre el mundo proporciona al organismo? Esto,
"in embargo, no proporciona una base para una distinción de principio
entre niveles. Es claramente sólo una heurística útil para animar al teó-
rico a buscar motivaciones independientes y unidades funcionales más
amplias al formular una teoría en algún dominio.
6. Podemos lomar esta afirmación como un punto de dcfinción para
los propósitos actuales. aunque hay algunas cuestiones técnicas aquí que
deberían afrentarse en una discusión más detallada. El criterio para ser
el mismo algoritmo está íntimamente ligado a la idea de ejecución direc-
ta. Por ejemplo, podemos cambiar trivialmente un algoritmo (digamos,
añadiendo un número fjo de operaciones redundantes como «no ops~> a
cada operación original), sin embargo para nuestros propósitos podemos
no querer contar con esta variante como un algoritmo distinto - esto es.
podemos querer contar con cualquier máquina que ejecute la variante
como llevando a cabo el mismo proceso que la ejecución de la máquina
original del algoritmo original. Para desarrollar esta idea. podemos ne-
cesitar conceptos como el de descripción canónica de un proceso (por
ejemplo, en la linea de lo que he dibujado en Pylyshyn 1984).
7. Aunque. como he sugerido, la hipótesis de trabajo de la mayor
parte de la ciencia cognitiva es que, sea como sea el aspecto detallado
de la arquitectura funcional. continuará entrando en la clase de arquitec-
turas procesadoras de símbolos o clásicas, tal y como fueron concebidas
por Turing, y es cierta de todos los sistemas que llamamos ordenado-
res digitales hoy. La razón es que para tener tamo suficiente capaci-
dad reprcscntacional corno el tipo correcto de plasticidad conductual
semánticamente coherente, el sistema computacional debe leer. escribir
y transformar expresiones simbólicas estructuradas que tienen propie-

69
dades semánticas combinatorias (estas cuestiones se argumentan con
cierto detalle en Fodor y Pylyshyn 1988).
8. El término conocimiento tácito se emplea aquí del modo usual
para referir al conocimiento real que tienen los sujetos incluso aunque
no sean conscientes de tenerlo y usarlo -una idea no problemática en
la ciencia cognitiva contemporánea, en donde se da por hecho que los
sujetos no necesitan consciencia o «rnetaacceso» a la mayoría de estruc-
turas y procesos cognitivos. El término no tiene nada que ver con el uso
de Polanyi (lY64) de la misma expresión.

9. La razón de que los tiempos de reacción no puedan verse como


medidas de la duración de una operación menta] es simplemente que
cuando uno habla de una cierta operación mental, tal como comparar
un estímulo con un ítem en la memoria, uno no se refiere a ninguna
ocurrencia concreta de esta operación en el cerebro sino en general a
la clase de todas las ocurrencias - todos los eventosejemplares- que
constituirían el mismo evento-tipo -por ejemplo, el evento-tipo--
«compara el estímulo S con el ítem X en 13. memoria». Así. al referirse
a la función CAR en Lisp, uno no se refiere a ninguna ocasión concreta
en la que se evalue esa función. Como distinguimos entre la operación
como un evento computacional y los eventos fisicos particulares que
la llevan a cabo en ocasiones concretas. todas las ocurrencias de un
operador particular no tienen por qué (por definición) tener una du-
ración única asociada a ellos, de la misma manera en que no tienen
por qué tener unos únicos tamaño () localización en el cerebro (o en
un ordenador) asociados. A causa de ésto, uno no habla en general de
la duración de una operación CAR, aunque por supuesto cada evento-
ejemplar particular que constituye la ejecución de una operación CAR
tiene una duración única en cada ocasión. Por alguna razón la idea de
distinguir eventos ejemplares de eventos tipo es ajena a muchos psicó-
logos, de modo que esta cuestión a menudo se olvida (ver. por ejemplo,
Wasserman y Kong 1t)79).

Referencias
ANDER~ON. J .R. (1978): « Argumente conceming rcpresentations for mental
imagery». Psvchologicul Review 85:249-277.
B/\CKUS. J. (19 78): «Can programming be liberatcd frorn the von Neumann
style? A funcrional style and ih algebra of programs». Communications of
the Association Jor Computing machinery 21: 6l3-64].

70
BAYLOR, G.W. (l972i: A treatise 011 the mind's eye: An empirical investigation
01 visual mental imagerv. Ph.D. diss.. Carnegie Mellón University, Pius-
burg, PA. Ann Arbor. MI: University Microfilms. no. 72-12,699.
BRA]\;SFORD. J.D. and JCJHNSON, M.K. (1973): «Considerations ot sorne pro-
blcrns of cornprehenvion». In W. CHASF. (cd.): Visual Infornuuion Prores-
sing, Ncw York: Acadcmic Prcss.
BROlWER, L.E. (( <)64): «Intuuionisrn and forrnalisrn». In P. BENACERRAF and
H. PUTNAM (eds.j: Phvlosophv (d Mathcmatics. Englewood Cliffs, NJ:
Prent ice- Hall.
BRO\V~, li.S. (1<)6<)): Laws ojForm. London: Allen Unwin.
BROWN, ] .D. ( IY62,: «Measuring the "~pace mental capacity" of car drivers by
a subsidiary auditory task». Ergonomics 5: 247-250.
DAVIES, DJ.M. and IsAlw. S.D. (1972): «Utterances as programs», In B. MEL-
TZER and D. MICHIE (eds.): Machine lntelligence 7. Edinburgh: Edinburg
University Pre..;s.
DAV1S. M. (ed.) (1965): The Undecidable: Basic Papers on Undecidable Pro-
positions. Unsolvable Probletns and Computable Functions. Hewlwtt, NY:
Raven Press.
DONDERS, EC. ( 1969): «On the speed 01' mental processes (1868-1869)~>, AClu
Psychologica 30: 412-431.
DUNCKI::.R, K. (1935): «On problem solving», Psychological Monographs 58
(270): 5.
ERMAN, L.D.; HAYES-RoTH, F; LESSER, V.R. and REDDY, D.R. (19RO): ~<The
HEARSAY-lI speech understanding systcrn: Intcgrating knowlcdge ro re-
solve uncertainty». Computing Surveys 12: 213-253.
FARLEY. A. (1974): A. visual imagery and perception system. Ph.O. diss .. Car-
negie mellón University, Pittsburg, PA.
FOlJOR. l.A. (1975): The Language of Thought. New York: Crowell.
FODOR. J.A. and PYLYSHYN, Z. \V. (1988): «Connectioni sm and cogniti ve arch i-
tecture: A critical analysis», Cognition 28: 3- 71.
FORSTER. K.I. (1979): «Levels of processing and the structure of the íanguage pro-
ccssor». In W.E. COOPER and E.c.T. WAL"'ER (eds.): Sentence Processing:
Psycholinguistic Studies Presented ro Merrill Garrett. Hillsdale. NI: Erlbaum.
FRAZIER. L. and FODOR. J .0. (1978): «The sausage machine: A new two-stage
parsing model». Cognition 6: 291-325.
FUNT, B.v. (1980): «Problem-solving with diagrammmic representarions» . .4.1'-
tificial Intelligence 13(3): 201-230.
JUST. M.A. and CARPENTER. P.A. (1976): «Eye fixation ... and cognitive proc~5'­
ses», Cognitive Psvchology 8: 441-4~W.
KNUTH. O.E. (1968): Fundamental Algorithms. The Art nf Computer Pro-
gramming, Vol. l. Reading. MA: Addison-Wesley.
KOHLER. W. í 1947): Gestalt Psvchology, An lntroduction ro New Concepts in
Modern Psychologv, New York: Liveright.

71
KOSSLYN, 5.1,,1. (19~O): Image and Mind. Cambridge. MA: Harvard University
Press.
KO~~L I [\, S.M. and S HWARTZ. S. P. ( 1977): «A data-dri ven simu Iation of visual
irnagery •• , Cognitivo Sciencvc 1: 265-296.
LJNDSAY, P.H. and NORMAN. D.A. (]977): Human lnformation Processing: An
Introduction lO Psvcliolog....·. 2nd ed. New York: Acadcmic Press.
MARR. D. and Por;crn. T ( 1979): A computational theorv 01 human stereo \'i-
sion. Proceedings 01 Royal Societv, London B ~04: 301-328.
MARSU:J\-WILSON, \V', and TVU".R. L.K. (19RO): «The temporal structure of
spoken language understanding... Cognition 8( 1): 1-71,
MCCARTY, 1. and HAYES. P. (1969): «Sorne philosophical problcms frorn the
srandpoint of artificial inrelligence .). In B. MELTLER and O, MrCHIE (eds.):
Machine tntelligence 4. Edinburgh, Edinburgh University Press.
MU.LER. G.A.: GALANTER, E. and PRIBRAM, K.H, (1960): Pland and thc Struc-
turr ofBehavior. New York: Holt, Rinehart and Winston.
MORAN. T. (1973 \: The svmbolic imagerv hvpothesis. A production systctn mo-
del. Ph.D. diss.. Carnegie Mellan Univcrsity, Pinsburgh, PA.
NEWUJ., A. (19f)~): «Sorne problerns of ba..~ic orgnization in problern-solving
progntm~». In r; Yovius, G.T. lACORI ano G.D, GOLDSTE'~ (eds): Self-Or-
ganiting Systems. New York: Spartan.
NEWELL, A. (1(70): «Rernarks on thc relationship betwccn artificial intelli-
gcncc and cognitive psychology». In R. BA[\;ERJl ami M.D. t\,·1ESARO\IO
(eds): Thcoretical Approachcs 10 Non-Numerical Problem Solving, New
York: Sringer-Vcrlag.
NEWI:-JJ .. A. (1973a 1: «Artificial intelligence and thc conccpt of rnind». In
R.e. SCHAf\'K ami". COLB y reds.): Compute¡ Models (d" Thought and /.,¡JJ1-
~lIag{'. San Francisco: \V'. H. Freeman.
N l:.WI::LL. A. (1973b): Production systcms: Models oí" control structures». In
,1

'Jty'. CII'\SE (ed.j: Yisua! Inforntation Processing, New York: Acadcrnic


Press.
NEWELL A. (197Jc): «You can 't play twenty quesrions with nature and win».
In W. C1JA~L led.): Visual Informution Proccssing, New York: Academic
Press.
NJ:.WI::LL, A. (Ilj~(l): I<Phy~il'al xymbol systemv», Cognitivo Science (4): 135-183.
NF-:\\'I-'[ I , A. and SlMON. H.A. (1972): Human Problem Solving, Englewood
Cliff\. NJ.: Prenrice HnlJ.
NICOO.1. (1970,: (;('(11/1('1 r.\ , anil Iuduction. Berkeley: University of California
Pre~c.;.
PnLAI\'Vl, ]\.1. l. I\l64): Persona/ Knowlrdg«, London: Routledge and Kcgan Paul.
POSNER, ~1.l. ( 197~): Chronomctric Explorations (JI" Mind. Hillsdalc. NL ErI-
baum.
PYL) SHYr\./...W. (1978): «Cornputarional modcls and crnpirical constraints».
Behavioral and Brain S( ¡('I/( es 1: 93-99.
PYI.YSHYN, Z.W. (1979a): "Do mental events have durations?» Behavioral and
Brain Scienccs ~(2); 277-278.
PVLY\\HYN, Z.\V. (197gb): «Validating computatinnal models: A critique of
Anderson's indcterrninacy of represcntution clairn», Psychological Rcvirsv
86(4): 383-.N4.
PYLYSHYN, Z.W. (1981): «The irnagcry debar: Analogue media vercus tacit
knowlcdgc», Psvchologicul Rcvicw 88: 16-45.
PVLY<,HVN. Z.W. (1984): Computation and Cognition: Towards 11 Foundation
/01' Cognitive Scicnce. Cambridge, MA: MIT Prc,>s. A Brudford Book.

RUI\IELHART, D.E. and MeO I-I.I.AND, J.L. and thc PDP RESE.'\RCH GROUP
(1986): Parallel Distributed Processing, Cambridge t",fA: MIT Prcss A
Bradford Book.
SHEPARD, R.N. and COOPER, L.A. (1982): Mental lmages and Their Trunsfor-
mations. Cambridge. MA: MIT Pre5.s. A Bradford Book.
SIMüN, H.A. ([ 969): The Science (Jf rfu.' Aruficial, Cambridge. MA: MIT
Press,
SPERLlNG, G. (1967): «Succesive approxirnations 10 a model for short-tcrm
memory". Acr Psych%:5, ira 27: 285-292.
Sn.I{[\·Rf-.RCJ, S. ( 197m: «Mental scanning: Mental procesves rcvcaled by reac-
tion time cxperiments-. In J.S. ANTROBUS (ed.): Cognition and A.llee!. Bos-
ton: Litlc. Brown.
STEVEj\;~, K.A. (llJ81): «Thc visual interpretation of surface conrours». ArtUt-
cial lntelligence 17: 47-74.
TOWNSEND. J.T (1974): « lssues and mode!s concerning the procesxing \)1" a ti-
nite nuniber of inputs». In B.H. K.-\r-.;TOWITL (ed.): Human lnjornuition
Processing: Tutoria!s in Performance and Cognition. Hillsdale. NJ.: ErI-
baurn,
TLRI:-'¡C¡, M.A. (1937): «On computable numbers. with an application to thc
Entscheidungs-problem ". Procccdins 01 London Mathenuitical Socictv 42:
230-265.
Tl'RI:"JG, I\1.A. (1950): «Cornputing machinery and intelligence». In Mind: re-
printed in 19A4 in A.R. A~DER~ON (ed.): Minds and Muchines. Englewood
Clifh. NJ: Prenticc Hall.
ULl.MAN. S. (1979): tt« lnterprctation (~f Visual 1\40tí011. Cambridge, MA:
MIT Press.
ULL:vlAN, S. (1984): «Visual routines». Cognition 18: 97-159.
W ALLACH, H. and Ü'C01'<NElL. D.N. (195.3): ·<The kinctic dcpth effect». Jour-
nal oj Experimental PJYc/¡%~y 45: 205-217.
W AS~ERMAN. G.S. and Kt IN~i, K.L. (1979): -Absolute timing of mental activ ¡-
ties». Behavioral ami B1"(.1;'1 Sciences 2(2): 243-JO~.
YOUNG, R.M. (1973): Children's scriution behovior: A production SYSTl'JII
analvs¡s. Ph.D. diss., Department of Psychology, Carnegie Mellen Univer-
sity, Pittsburgh. PA.

73
EL TEST DE TURING
Donald Davidson

En el número de Mind de octubre de 1950 A. M. Turing predijo que


para el año 2000 sería posible construir un ordenador que tuviera al menos
un treinta por cien de posibilidades de llevar a un interrogante medio a
pensar que eso era una persona.' Dado que Turing permitía a su interro-
gante sólo una entrevista de cinco minutos y dadas las demás condiciones
que ponía al test, probablemente estaba en lo cierto, Pero el interés del
artículo no está en esta predicción; está en el test mismo. puesto que el
test está diseñado para dar luz acerca de la naturaleza del pensamiento,
Propongo en este papel considerar hasta qué punto es bueno el test de Tu-
ring (o, como yo lo llamaré, el Test de Turing). Algunas de las cuestiones
a plantear, pero no todas, fueron discutidas por Turing.
Turing comienza con la pregunta «¿Pueden pensar las máquinas?»,
pero inmediatamente abandona esta pregunta a favor de una pregunta
bastante diferente acerca de si un ordenador digital puede pasar cierto
test. Está completamente claro que Turing no creyó qLIC nada de impor-
tancia filosófica se perdiera con la sustitución. Argumentó que limitar
las máquinas a ordenadores digitales no causaría pérdida de generali-
dad, porque un ordenador digital, con memoria suficiente. puede imitar
cualquier máquina de estado discreto. Dejó de lado la posibilidad de que
una máquina análoga. o parcialmente análoga, pudiera hacerlo mejor y
no consideró el procesamiento en paralelo. Nada de lo que voy a decir
depende de la restricción a ordenadores digitales. excepto el hecho de
que algunos aspectos de su operación pueden ser descritos en términos
puramente formales (el «prograrna»).

I Mind. 59 (1950). p. 442. Todas las referencias posteriores a este artícu!o en el texto
están entre paréntesis,

75
Turing especificó 411~ las máquinas que debían ser testadas debían
ser ordenadores digitales, en parte porque a él le resultaban familiare-, y
creía que un ordenador digital correctamente diseñado podría pasar su
test. Deseaba asimismo evitar un problema al dar una definición general
de máquina. El problema era que él quería permitir a su diseñador que
tuviera mano libre con «las técnicas de ingeniería», pero pensó que esto
podría permitir la producción de un objeto biológico. especialmente si
el equipo de ingeniería incluía a ambos sexos. Incluso con la restricción
de los equipos a un sexo, pensaba que resultaría posible «erigir un in-
dividuo completo a partir de una sola célula de la piel de una persona».
No estaríamos inclinados -dice- a tomar esto como la «construcción
de una máquina pensante». Me parece que debería haberse preocupado
también acerca de la posibilidad de configurar las cosas de modo que el
circuito del sistema nervioso de una persona fuese reproducido en un
ordenador digital. mediante un método que no requiriese ninguna idea
acerca de cómo o por qué el programa resultante del ordenador diese al
ordenador 10 que fuesen o pasasen como pensamientos. Esta posibilidad
(teórica) muestra, creo yo, que Turing no fue muy claro acerca de sus
razones para restringir el test a los ordenadores digitales. Pero esto no
importa en lo que respecta a la evaluación de su test. ya que el Test en sí
mismo puede ser aplicado a cualquier objeto.
El diseño del Test muestra inmediatamente esto. El Test pone un
interrogante ante dos teleimpresora... (o terminales de ordenador), una
conectada a una terminal operada por una mujer, la otra conectada a un
ordenador. Mujer y ordenador están ocultos para el interrogante. Éste
teclea pregunta, dirigidas a los dos objetos con el fin de determinar
quién es quién; la mujer trata de ayudar al interrogante, mientras "lue el
ordenador está programado para tratar de engañarlo. La prueba termina
cuando el interrogante especifica qué terminal cree que está conectada
a la mujer y cuál al ordenador. La puntuación del ordenador C"i el por-
centaje de pruebas en las que el ordenador es tomado como si fuera la
mujer. ~ Está claro lJlIC' a cualquier objeto se le puede apl icar este test.
Incluso un guijarro. conectado de manera que no dé respuesta, podría
conseguir una puntuación (y quizá no baja; podría ser tomado corno una
mujer especialmente malhumorada). Turing no dice qué haría con un

, El te~t reul dé Turim; ce. diferente. En primer Jugar encuentra hasta que punto acier-
ta el interrogante cuando trata de distinguir a la mujer servicial del hombre t"ngarlo~o.
Dcspuc-, pregunta <;i el imerroguntc hace algo mejor cuando escoge entre Id mujer y d
ordenador.

76
ordenador que fuese escogido consistentemente como mujer más que la
mujer; parece que habría tomado esto como un caso de ordenador «ga-
nador». pero también podría ser considerado como un fallo por parte del
ordenador de .1\ imu lar con éxita el pensam lento humano (temen ino).
El aspecto sexista del Test es obviamente adventicio y precisamente
de modo tan obvio puede ser eliminado haciendo la elección entre una
persona y una máquina. Supongamos que este cambio ha sido hecho. No
obstante, subsiste una dificultad. ya que Turing nunca es completamente
explícito acerca de una característica especial de su diseño experimen-
tal: las instrucciones que hay que dar al interrogante. Hagamos que las
instrucciones fuesen leidas a~í: «Uno de estos terminales está conectado
a una persona, el otro a una máquina. Tiene x minutos para interrogarles
a través de estos terminales y decidir qué terminal está conectado a la
persona». Una dificultad consiste en que la respuesta quedará afectada
por lo que quien interroga tome como incluido en la palabra «máquina),
Lo mismo será cierto si «ordenador digital>, viene a sustituir a «rna-
quina». Sería aún peor preguntar cuál de las terminales está conectada
a algo que piense, ya que Turing cree que un ordenador debidamente
construido podría pen~ar.
Dicho con más cuidado: Turing no está seguro de si el uso estándar
u ordinario permite a la palabra «pensar» ser correctamente o incluso
significativamente aplicada a las máquinas: en efecto, dice que la pre-
gunta ,<¿Pueden pensar las máquinas» es en dcrnaxia carente de sentido
para merecer una discusión» (p. 442). El Test de Turing está diseñado
para separar lo que considera aspectos interesantes o significativos del
pensamiento de los menos interesantes. Lo hace negando al interrogante
todo conocimiento de los aspectos "faltos de interés». Turing piensa que
hay otros rasgos que distinguen a la gente de las máquinas y que pueden
afectar al juicio del interrogante. aunque no sean de importancia. rasgos
como tener voz o lucirse en concurso de belleza; el Test retira de la con-
sideración esos rasgos.
E~ difícil no simpatizar con Turing en todo esto; el modo en el que
un objeto es producido y los materiales con los que est:-:í construido. aun-
que no estén sin relación con el modo en el que usamos la palabra «pen-
sar», parecen susci lar cuesti ones que un ti losoto o psicólogo podrían
desear separarlas de asuntos «más profundos». Si yu descubriese que mi
mejor amigo hubiese nacido saliendo de un huevo o que hubiese sido
concebido mediante un proceso que hubiese requerido la colaboración
activa de tres criaturas de diferentes sexos, probablemente ello no influi-

77
ría en mi opinión de que él o ella podría pensar. Y es difícil ver cómo
los materiales podrían tener importancia. Claro. nosotros creemos, con
fundada razón. que sólo las criaturas con cierta constitución biológica
piensan realmente; pero si mi amigo cambiase (tras todos estos años)
a que fuera hecho de silicona. yo modificaría mi parecer acerca de los
materiales con los que una persona puede ser hecha. pero no mi juicio
de que era una persona, Por eso, resulta apropiado. por parte de Turing,
ordenar su test de manera que deje al interrogante con ignorancia de la
rnayor parte de los rasgos físicos del objeto colocado frente a la persona
que va a ser testada.
Desde luego. el interrogante debe saber al menos una cosa sobre los
aspectos Iísicc», de los objetos que está juzgando; el observador debe
saber que son ellos los que son físicamente responsables de las claves de
la observación. Por ello. el interrogante debe saber que cada uno de los
objetos tiene capacidad causal para producir la evidencia disponible.
Esta restricción de la evidencia ha sugerido a algunos críticos que
el Test de Turing asume la validez del conductismo, Si el conductisrno
110 entraña más que el hecho de que la evidencia esté disponible para los
otros, además de para la persona o aparato que va a ser testado, entonces
el Test de Turing es conductista. Turing no insiste en que el pensamiento
(o la «conciencia» como tiende a llamarlo en e~te contexto) debe ser
detectable en principio, pero señala que. a menos que la presencia del
pensamiento pueda ser determinada sobre la base de evidencia externa,
la cuestión de si una máquina puede pensar no tiene especial interés,
ya que la misma cuestión puede ser planteada a cualquier (otro) objeto.
Por eso, a menos que la cuestión sea la del solipsismo, el conductismo
en el más amplio sentido debe ser aceptado. El Test de Turing no es
conductista en ningún otro sentido habitual. No hay ninguna sugerencia
en el sentido de que los términos mentalistas deberían ser eliminados
sobre la base de 10 que es inmediatamente observable: el asunto del Test
es ver si - Y sobre q LIé base - los hombres normales que se forman
juicios son capaces o quieren asignar atributos mentales a las máquinas.
De manera igualmente clara, Turing no especifica en qué términos debe
ser descrita la evidencia. Los terminales despliegan letras (digámoslo
así). Corresponde al interrogador establecer si esto debería ser descrito
como «comportamiento». Mi conclusión es que el Test de Turing no es
conductista en ningún modo que limite su interés.
No se sigue de ello que el Test sea adecuado para determinar la pre-
sencia de pensamiento en un objeto. Si es inadecuado. esto sólo puede

78
ser porque la evidencia ha quedado desprovista de elementos vitales
para la detección del pensamiento.

El Test de Turing elimina la posibilidad de decir si una criatura o


máquina piensa sin determinar qué piensa. En condiciones normales fre-
cuentemente nosotros podemos determinar que un objeto piensa sin ne-
cesidad de descubrir nada en particular de 10 que piensa. Habitualmente
podemos decir que una criatura piensa bastando mirarla para ello 0, si
no podemos verla. por lo que nos cuentan o sabiendo de alguna otra ma-
nera que es un hombre (l una mujer. Estos son modos de conocimiento
falibles, pero cualquier manera de decirlo consiste en esto. Todos cSO~
modos, sin embargo. son eliminados por el Test. Por ello. en el Test toda
evidencia de que el pensamiento se está dando deberá ser evidencia de
que están presentes pensamientos particulares.

Turing ha limitado la información que tiene el interrogante al cono-


cimiento de su propio input (verbal i a cada terminal y al output (mani-
fiestamente resultante, manifiestamente verbal) de cada terminal. output
causado por la persona o el ordenador que se encuentra en el otro extremo.
(Una condición del Test es que el interrogante conozca que el output es
causado así.) Está claro que si la respuesta tiene algún significado lingüís-
tico. entonces debe haber una causa meditada. Pero e~ ordenador es la
causa meditada de una respuesta sólo si él da algún significado mediante
las palabras que produce. El Interrogante puede decir que aquél da algún
significado si él (el interrogante) puede decir lo que significa.

El Test hace que las respuestas verbales significativas sean la marca


esencial del pensamiento. Las condiciones del Test hacen de ello una
marca apropiada y. desde luego, la producción de respuestas verbales
significativas nos satisfaría en el sentido de que estaba presente el pensa-
miento. Podría, no obstante, darse el caso de que hubiera otros criterios
suficientes para el pensamiento. No creo en ello, pero ante la ausencia
de un argumento para esto deberíamos decir que el Test de Turing trata
de descubrir si una condición suficiente para que se dé el pensamiento es
satisfecha: no se pretende que la condición sea necesaria.

Con objeto de estimular nuestras imaginaciones. Turing hace que su


ordenador produzca lo que parecen ser oraciones en inglés. Pero. claro.
el ordenador podría no hablar Inglés. Podrían esas oraciones tener para
el ordenador significados completamente diferentes de los que tienen
en inglés; o podrían carecer de significado. Corresponde al interrogante
descubrirlo. ¿Cómo puede hacerse esto?

79
Llegado a este punto parece acertado suprimir de la consideración el
«control» de Turing. Pedir al interrogante que distinga el ordenador de
la persona puede contribuir i.l un mejor diseño experimental. pero aparta
del problema subyacente de varias maneras. En primer lugar. concede
un énfasis indebido a la estrategia: a corto plazo todo tipo de trucos pue-
den engañar incluso al interrogante más astuto. En segundo lugar, derna-
siado queda dependiente de cuán inteligente o informada es la persona.
Pero -y esto es 10 imponante- lo que nos interesa es la naturaleza del
pensamiento y nosotros podríamos tomar 11 un objeto como pensante
incluso si fuera fácilmente distinguible de una persona. Si simplificu-
mos el Test tornando un solo objeto para estudiarlo, ello contribuirá a
la mejora de nuestra capacidad para centramos en la cuestión del pen-
samiento: al interrogante le será solicitado ahora que decida si el objeto
piensa () no. Debe reconocerse inmediatamente que esto no es el mismo
test que el de Turing. E~ un test mejor si lo que queremos saber es cuáles
son los criterios (del interrogante) para determinar el pensamiento. No
es tan bueno si lo que (lueremos saber es hasta qué punto puede un or-
denador dado imitar las respuestas verbales de una persona. Puesto que
estoy aquí interesado en la primera cuestión, en lo sucesivo considerar¿
d Test MoJificado en vez del Test de Turing.
Supongamos que el objeto testado produce lo que parecen ser ora-
ciones en inglés en respuesta a preguntas expresadas en lnglé:"l. ¡,Cómo
puede el interrogante decir que el objeto entiende inglés, esto es, que
esní «hablando» en inglés? Un tipo de evidencia consiste simplemen-
te en que las respuestas se parecen exactamente a oraciones en inglés:
tienen la sintaxis correcta. Otro tipo de evidencia radica en que la« re-
laciones entre las preguntas y las respuestas y entre las respuestas entre
sí parecen apropiadas; las respuestas muestran un conocimiento claro
del mundo. Sería excesivo suponer que lodo esto es accidental. El cono-
cimiento del inglés y del mundo deben ser los responsables de IJS pro-
ducciones del objeto. Sería inadecuado quejarse de que esta conclusión
no está obligada por la evidencia; no tendríamos mejor evidencia si el
objeto fuese una persona hablante del inglés.
Aceptaríamos. entonces. que hay una razón adecuada para suponer
que el pensamiento es el responsable de las contestaciones del objeto. Lo
que e~ incierto es si el objeto piensa. No sería el caso. por ejemplo, sí una
persona supervisara las preguntas del interrogante y después escribiera
las contestaciones en los circuitos de una máquina. Esta posibilidad puede
~t:'r descartada informando (de veras) JI interrogante de que el objeto es
autónomo: las respuestas no est..'í.n mediadas por ninguna persona.
Supongamos que el objeto bajo test produce lo que parecen ser ora-
ciones en inglés, en respuesta a preguntas hechas en inglés. ¿Cómo pue-
de el interrogante decir que el objeto entiende el inglés, esto es, que está
«hablando» inglés? Un tipo de evidencia es sencillamente que las res-
puestas se parecen exactamente a oraciones en inglés: tienen la sintaxis
correcta. Otro tipo de evidencia es que las relaciones entre las preguntas
y respuestas y entre las respuestas parecen apropiadas; las respuestas
muestran un manifiesto conocimiento del mundo. Sería excesivo supo-
ner que todo esto es accidental. El conocimiento del inglés y del mundo
debe ser el responsable de las producciones del objeto. Sería inapropia-
do quejarse de que esta conclusión no es obligada por la evidencia; no
podríamos tener mejor evidencia si el objeto fuese una persona hablante
del inglés.
Dcberfamos aceptar, por tanto, que hay razón suficiente para supo-
ner que el pensamiento es el responsable de las respuestas del objeto. Lo
que es incierto es si el objeto está pensando. No lo estaría, por ejemplo.
~i una persona estuviese controlando las preguntas del interrogante y
luego tecleando las respuesta" en ]01\ circuitos de una máquina. Esta po-
sibilidad puede ser descartada informando (con verdad) al interrogante
de que el objeto es autónomo: las respuestas no se dan mediante una
persona.
El interrogante no puede aún decir si el objeto piensa: en otras pala-
bras. no puede decir lo que el objeto da a significar mediante cualquier
cosa que cause lo que sea presentado al interrogante. La razón por la que
el interrogante no puede decirlo es sencilla: no tiene ningún indicio de
la semántica del objeto. No hay ninguna manera para poder determinar
la conexión entre las palabras que aparecen en la pantalla del objeto y
los sucesos y cosas del mundo. Tiene que haber, desde Juego, alguna
conexión: no \uy otro modo para dar cuenta de la inteligibilidad del
inglés del objeto. Lo que está en duda es la naturaleza de la conexión.
Es perfectamente posible que la conexión entre palabras y cosas fuera
establecida por alguien que programó el objeto y luego le proporcionó
conexiones puramente sintácticas entre las palabras para que las mane-
jara. En este caso es el programador quien ha suministrado la semántica,
quien ha entendido el inglés y quien ha dado significado a las palabras
producidas por el objeto. El interrogante hace completamente bien al
tomar las producciones del objeto como dotadas de significado, pero el
objeto no da a significar nada y no hay ninguna razón para considerarlo
como pensante.

81
Con el fin de descubrir si el objeto tiene alguna semántica. el inte-
rrogante debe saber más sobre las conexiones entre el output del objeto
y el mundo. El Test, sea el test de Turing original o sea el Test Modifi-
cado, impide al interrogante obtener la información que necesita acerca
de esas conexiones semánticas. En el curso normal de las cosas tenemos
dos maneras de saber lo que la gente da a significar por medio de lo que
dice. Simplemente observando que se trata de gente, podemos (legíti-
mamente inferir) que han aprendido su lengua a través de los procesos
normales de condicionamiento, que conectan cosas y sucesos con pala-
bras. Desde luego, las conexiones son, en definitiva, causales. Sabiendo
la lengua de la persona, sabemos (por lo general. indirectamente) la na-
turaleza general de las conexiones entre las palabras de la persona y el
mundo. O podemos descubrir esas conexiones directamente a través de
la observación de las interacciones causales relevantes entre el hablante.
el mundo y la audiencia del hablante. Si para empezar no entendemos la
lengua del hablante y no tenemos acceso a ningún traductor, entonces el
método directo es el único de que disponemos.
El Test de Turing y su versión modificada son, por tanto, inapro-
piados para descubrir si un objeto autónomo piensa o no. La razón de
eso -dehería ser resaltada- no es porque el Test restrinja la evidencia
disponible a lo que puede ser observado desde fuera, sino porque no
permite que sea observado suficientemente lo que está fuera. El Test
es inadecuado porque el interrogante no puede dar por sentado lo que
el objeto da a significar (si da algo) y no hay disponibilidad de ningún
traductor.
Lo que se necesita es evidencia de que el objeto usa sus palabras
para referir cosas del mundo, de que sus predicados son verdaderos en
relación a cosas del mundo, de que conoce las condiciones de verdad
de sus oraciones. La evidencia para eso sólo puede venir de un conoci-
miento más profundo de la naturaleza del objeto. de un conocimiento
de cómo algunas de sus respuestas verbales están ligadas a sucesos y
aspectos del mundo, sucesos y aspectos conocidos también por el inte-
rrogante. El modo más fácil para disponer de esta información es per-
mitir que el interrogante observe al objeto interactuando con el mundo.
El interrogante quiere saber no sólo como responde el objeto a sus pre-
guntas. sino también cómo esas respuestas dependen de los sucesos.
cambios y objetos.
Está claro, pues, que las cnrncterísticas físicas del objeto tendrán gran
importancia. Ya hemos señalado que una característica física era esencial:

82
el objeto debía ser causalmente responsable de los «mensajes» observa-
dos por el interrogante. Pero ahora vemos que el «cuerpo» del objeto tiene
importancia por razones que van más allá, ya que el objeto debe ser capaz
de ser sensible a muchos de los mismos rasgos del mundo que pueden ser
tomados en cuenta por el interrogante y deber ser posible que éste vea o, si
no, sepa que el objeto está siendo sensible a esos rasgos. Para que el objeto
tenga una semántica debe operar en el mundo de una cierta manera y para
que algún otro comprenda esa semántica tiene que haber una interacción a
tres bandas entre objeto. interrogante y mundo compartido. No está claro
hasta qué punto un objeto debe parecerse a una persona para ser inteligible
-para tener pensamientos; realmente tiene el mayor sentido pensar que lo
propio del pensamiento es una cuestión de grado. como con certeza acune
en el desarrollo del niño, Demasiada diferencia en lo que puede ser perci-
bido pondrá límites a la posibilidad de comunicación y de pensamiento, así
como grandes diferencias en movilidad, tamaño yen la capacidad de reve-
lar emociones y pensamientos mediante el movimiento y la expresión. Pero
la capacidad de percibir cosas no depende de los detalles de los órganos
sensoriales (el ciego puede percibir las mismas cosas que percibe el de vista
normal) y las emociones pueden ser expresadas de muchas maneras.
Ahora es evidente que el Test de Turing es radicalmente defectuoso: no
puede proporcionar a un interrogante suficiente información para decidir
lo que un objeto da a significar o piensa y, por tanto, si piensa o no. Tu-
ring quería que su test trazara « ••• una línea completamente fuerte entre las
capacidades físicas y las intelectuales del hombre» (p. 434). No existe tal
línea. Turing continuaba: «Ningún ingeniero o químico dice ser capaz de
producir una materia que sea indistinguible de la piel humana. Es posible
que dentro de algún tiempo eso pudiera hacerse, pero suponiendo incluso
que este invento estuviese disponible nos daríamos cuenta de que avanza-
ríamos poco intentando hacer una «máquina pensante» más humana re-
vistiéndola con tal superficie artificial» (p. 434). Turing puede estar en lo
cierto acerca de la piel; pero hay más en la cuestión que lo que el pensó.
El Test debe ser modificado una vez más. El objeto debe ser sacado
a relucir, de manera que sus conexiones causales con el resto del mundo,
así como con el interrogante, puedan ser observadas por éste, (Sí parece
deseable restaurar el aspecto comparativo con el «juego de imitación»
de Turing, entonces el objeto debe ser hecho indistinguible de la persona
desde el punto de vista del interrogantc.)
¿Puede el interrogante ahora decir lo que piensa el objeto? La res-
puesta es que depende de cuánto puede preguntar y observar al objeto.

8 -~. .
Supongamos que el interrogante da con que el objeto usa las palabras
como el mismo lo hace: las conexiones con el mundo son, hasta lo que él
puede decir, ]0 que exige la semántica del inglés. Infiere el interrogante
(supongamos que correctamente) que las disposiciones lingüísticas del
objeto son similares a las suyas en modos relevantes.' En el caso de una
persona el interrogante estaría justificado al asumir que esas disposicio-
nes fueron adquiridas de modo normal: en los casos básicos mediante
relaciones causales pasadas con cosas y circunstancias del tipo al que la
persona está ahora dispuesta responder. Asumimos justificadamente que
una persona que csrú ahora dispuesta para sostener que «es un perro»
es verdadero aplicado a los perros llegó a tal disposición a través de las
experiencias con los perros. Pero la suposición no está justificada en
el caso de un ordenador: puede haber sido provisto de un programa y
de mecanismos sensoriales que le causen responder «Eso es un perro»,
cuando le es preguntado y hay un perro a su alcance. En algún punto de
In historia del ordenador (es una suposición sin riesgo) el conocimiento
de los perros desempeñó un papel, pero ese papel no puede justificar la
idea de que el ordenador conoce algo acerca de lo-, perros o da a signifl-
car algo cuando produce la oración «Eso es un perro».
A veces el tema se hace ver imaginando a una persona que dice «Esto
es un perro» cuando está enfrente de un perro. no debido a que la persona
alguna vez haya visto perros u oído hablar de ellos, sino porque ha tenido
experiencia de animales que no son perros, pero que les son similares en
todos los aspectos. Llamemos a esos animales «terros». El hablante, si bien
sus disposiciones lingüísticas son las mismas que (as de alguien que da a
significar lo que nosotros damos con la palabra «perro», no da a signifi-
car lo que nosotros damos con tal palabra, Su palabra «perro- ~e aplica a
«terros». no a perros. Se equivocó llamando <'perro,> :1 un perro.' El orde-
nador, que nunca ha tenido la experiencia de lo que es un perro y no tiene
memoria acerca de los perros, no puede dar a significar perro mediante
el uso de la palabra «perro»; no ha) razón para pensar que dé a significar
algo, sea 10 que sea, El pensamiento y el significado requieren una historia
de tipo especial. Sabemos mucho, en general. acerca de las historias de la

Esto no quiere decir que el objeto y d interrogante deben estar di-puc-to-, para pro-
ferir Id" mixrnas palabras bajo lít~ misllla~ condiciones, ')II\O que están dispuestos para
sostener que las mismas oraciones con verdaderas bajo las micmas condiciones.
J Este argumento c-ui en H il;lry Putnam. «Thc Meaning of "Mcaning" en Phi/f)-

sophica! Papers», Vol. 11: Mind. l.anguag«. and Realit«. Cambridge University Prc «.
147'..

84
gente (claro, podemos estar equivocados en ello), pero a menos que se nos
diga o podamos observarlo actuando en el tiempo. no tenemos bases para
conjeturar cómo un ordenador llegó a tener las disposiciones que tiene.
No está claro exactamente qué tipo de historia es necesaria para los
varios tipos de pensamiento o significado. lo mismo que había incerti-
dumbre sobre el tipo de interacción causal necesaria para suministrar
evidencia actual de la semántica de un objeto. Pero nuestras intuicio-
nes son suficientemente claras en muchos casos. No puedes recordar la
Guerra Civil si naciste mucho después de que terminara, independien-
temente de cuánto hayas oído hablar acerca de ella. No conoces a una
persona que nunca has visto o hablado o estado en correspondencia con
ella; y no entiendes una lengua si no hay numerosas conexiones entre tu
uso de las palabras y experiencias como las de conocer y recordar.
Puede parecer que. al final, las mentes son inescrutables si ninguna
observación actual de su operación puede revelar lo quc cstán pensando.
Pero no e~ ésta la consecuencia, desde luego. En el caso de la gente, una
observación actual muy pequeña nos dice mucho sobre su historia; en el
caso de un artefacto. esto no puede ser verdadero. Pero incluso la mente
de un artefacto puede ser entendida, si es que la tiene; sólo que requiere
más tiempo. el suficiente para que alguna historia sea observada. ya que
no puede ser inferida.
En estas reflexiones nada sugiere que un artefacto, un ordenador por
ejemplo, no podría pensar. Pero, si estoy en lo cierto, sólo piensa si su
pensamiento puede ser comprendido por un intérprete humano y esto es
posible sólo si el artefacto se parece físicamente a una persona en as-
pectos importantes y tiene una historia apropiada.' El Test de Turing es
inadecuado porque priva al interrogante humano - al intérprete- del
conocimiento que debe tener para decidir ]0 que el objeto piensa y da a
significar. Tras esta inadecuación subyace el pensamiento equivocado
de que la realización física de un programa tiene muy poco que ver con
sus facultades mentales. Por otro lado, Turing, en mi opinión. estaba en
lo cierto al considerar como único test de la presencia de pensamiento y
significado las facultades interpretativas y las capacidades de un intér-
prete humano.

" Turing considera la idea de programar un ordenador como <;1 fuera dar a la mente
de un niño los órganos sensoriales adecuados y dejar al ordenador que aprenda como lo
hace un niño (pp . .t54-60). Pero él concibe esto simplemente como una forma económica
de producir un mecanismo con pensamientos maduros; no lo ve como una forma única.

85
ARQUITECTIJRAS SI~IBÓLICAS
PARA LA COGNICIÓN
ABen Newell, Paul S. Roscnbloorn and John E. Laird

En este capítulo estudiamos la estructura fija que proporciona el


marco dentro del cual tiene lugar el procesamiento cognitivo en la
mente. Esta estructura se conoce como la arquitectura. Nuestra tarea
va a ser indicar qué es una arquitectura y cómo forma parte de las
teorías cognitivas de la mente. La existencia de otros capítulos en este
libro pone algunos límites a éste. No vamos a estudiar los fundamen-
tos básicos del enfoque computacional de la mente que es central en
la ciencia cognitiva. sino que asumiremos el enfoque presentado por
Pylyshyn en el capítulo [2]. Además de ocuparse de las bases, Py-
Iyshyn también trata diversos aspectos de la arquitectura. [El capítulo [1 J,
la visión de conjunto de Simon y Kaplan.] también menciona de paso la
arquitectura en varios momentos, y también en beneficio de la pano-
rámica general. Ambos tratamientos son consistentes con el nuestro y
proporcionan una útil redundancia.
Este capítulo examina únicamente arquitecturas simbolicas y, más
en particular, arquitecturas cuya estructura se encuentra razonablemente
cerca de la que se analiza en informática. No existe una buena com-
prensión del espacio de todas las arquitecturas, y es objeto de disputa
en qué medida y sentido deban ser simbólicas todas ellas. El capítulo de
Rumelhart len esta antología] expone las arquitecturas no simbólicas o,
de modo más preciso. la especie concreta que investigan I()~ conexio-
nistas.
En primer lugar, vamos a esbozar el papel que juega la arquitectura
en ciencia cognitiva. Segundo, describiremos los requisitos que debe
cumplir la arquitectura cognitiva. Tercero, examinaremos en detalle la
naturaleza de la arquitectura cognitiva. Cuarto, ilustraremos los concep-
tos con dos arquitecturas cognitivas: Act y Soar, Quinto, indicaremos

87
brevemente qué tienen que ver las teorías sobre la arquitectura con otros
estudios en ciencia cognitiva. Concluiremos con algunas cuestiones
abiertas

l. El papel de la arquitectura en ciencia cognitiva

La imagen del mundo como algo constituido por sistemas de meca-


nismos cuya condurta observarnos es parte del aparato conceptual común
de la ciencia. Cuando :-.e trata de sistemas de ingeniería o teleológicos, ha-
blarnos de estructura vfuncián: un sistema de determinada estructura que
ocasiona una conducta que realiza una determinada función en el sistema
que la abarca. El término arquitectura se lisa para indicar que la estructura
en cuestión tiene algún tipo de carácter primario, permanente u originario.
En este sentido se puede hablar de la arquitectura de la mente o de parte
de la mente de un modo general y descriptivo: la arquitectura del sistema
visual, una arquitectura para el sistema conceptual, cte.
En ciencia cognitiva, la noción de arquitectura ha llegado a asumir
un significado bastante técnico y específico, que se deriva de la infor-
mática. En ésta el término ~e refiere a la estructura de hardware yue
origina un sistema yue puede programarse. Es el diseño de una máqui-
na que admite Ia di stinc ión entre hardware (soporte fí sico) y software
(soporte lógico).' El concepto de arquitectura para la ciencia cognitiva
es, entonces, la generalización y abstracción apropiada del concepto de
arquitectura computacional aplicada a la cognición humana: el sistema
fijo de mecanismos que ocasiona y subyace a la conducta cognitiva. Así,
un punto de arranque apropiado será la descripción de una arquitectura
computacional corriente.

Lo arquitectura de los ordenadores

Consideremos un ordenador digital simple (uniprocesador). La parte


superior de la figura [3.1] muestra la configuración física más general del

I Este usu técnico del término a menudo 1>e extiende para incluir combinaciones de

software y hardware que producen un sistema que puede programarse. Este uso amplio
se ve alentado por el hecho de 105. sistemas de software <'1 menudo presentan una estruc-
tura que xc pretende que :-oca nju. de modo que el ordenador con el ,10/;\ 1'are opera tal y
como ~i [constituyera] el hardware. En este capítulo. sin embargo. -iernpre tornamos
arquitectura en el sentido técnico má<; estrecho.
Pr'.x€sador - - - - - - - MemOria primaria

Memoria secundarla
(diSCO)
Input - - - -

4--+---- Output - - - -

(bus)
PROCESADOR MEMORIA PRIMARIA

Programa A
Re';llstrildores
[cargar I ;:]81
IRecjl'..H ador general! [añadir I 632J
IRegls1 rador general] ,...... [test>O 12310J
IReglstrador general! [guardar I 800J

Programa B
[Registrador de drreccrón]

[leer 1100)
Interpretador
[guardar 18101
!
[Reqrstr ado r I nstruCClon~.L~
Unidad de -datos Programa e
_._-

-------- -- ~ [guardar 1810]


j~~ullilr 11OJ
I

FIGURA 3.1
Estructura de un ordenador digital simple

sistema. Hay un conjunto de componentes. un procesador, una memoria


principal. etc. unidos por enlaces de comunicación (el enlace que co-
necta prácticamente todo se conoce como bus). A lo largo de los enlaces
fluyen corrientes de bits. Un vistazo dentro del procesador (en la parte
inferior izquierda de la figura) nos revela más detalles anatómicos de los
componentes conectados por enlaces: varias memorias de registro: una
unidad de datos para llevar a cabo diversas operaciones como la adi-
ción, intersección. desplazamiento y demás; y una unidad de intérprete
para llevar a cabo las instrucciones del programa. La memoria principal
contiene unas cuantas instrucciones de un programa. La dirección en
el registro de direcciones del programa apunta a una de ellas. que se
lleva al registro de programa y se descodifica. La parte izquierda de
la instrucción se usa para seleccionar una de las operaciones básicas
del ordenador y la parte derecha se usa para acceder a una celda de
la memoria principal. cuyo contenido se recupera y se convierte en un
argumento para la operación. Los actos repetidos de extraer la siguiente
instrucción. interpretarla y realizar la operación sobre el argumento se
conocen como el ciclo de e.araccuin-ejerucion.
La figura l3.l J especifica la arquitectura de un ordenador digital (con
cierta licencia literaria). Describe un sistema mecánico que se comporta
de un modo determinado, El lenguaje que se ha usado para describirlo
da rnucho por sentado. al referirse a registros, enlaces, descodificadores,
etc, Se precisa una mayor especificación acerca de estos componentes
y de cómo operan, para decir cómo pueden realizarse en tecnología de
circuitos y finalmente en tísica electrónica, todo lo cual puede darse aquí
por sentado.
La conducta de esta máquina depende del programa y de los datos
almacenados en la memoria. La máquina, en efecto, puede exhihir esen-
cialmente cualquier conducta según el contenido. A estas alturas todos
estamos al corriente de la extraordinaria variedad de tales programas:
calcular estadísticas. llevar inventarios, jugar. editar originales, ejecutar
herramientas de máquina, etc. así como transformar la interacción de la
máquina con el entorno para que tenga lugar por medio de una amplia
variedad de lenguajes, dispositivos gráficos y demás. Todo esto sucede
debido a la conjunción de tres factores: la arquitectura del ordenador.
que permite la interpretación de programas; la flexibilidad de los progra-
mas para especificar la conducta, tanto para el consumo externo como
para crear programas adicionales que se usen en el futuro; y un mon-
tón de memoria para mantener un montón de programas junto con sus
correspondientes datos de modo que pueda darse una amplia variedad
de conducta.
La figura l3.] J es sólo la punta del iceberg de las arquitecturas com-
putacionales, Sin embargo. contiene las ideas esenciales y sirve para
presentarlas de fonna concreta.

La arquitectura de la "(Ignición

La figura [3.)} compendia la invención del ordenador, un mecanismo


que puede exhibir conducta indefinidamente flexible. compleja, reactiva
y orientada a la tarea. En los humanos se puede observar conducta flexi-
ble y adaptativa de una abundancia y variedad sin límites aparentes. Una
hipótesis natural es que sistemas como los de la figura [3.11 revelan los
mecanismos básicos del 1110do en que los humanos conviguen su propia
flexibilidad y. por tanto. del modo en que funciona la mente.
Es una responsabilidad capital del capítulo r21 [(y un tema del capí-
tulo [1]) 1 mostrar de qué modo se ha transformado esta observación en
uno de los fundamentos principales de la ciencia cognitiva. La base em-
pírica para esta transformación ha provenido de la inmensa diversidad
de tareas que se han efectuado con los ordenadores incluyendo, aunque
sin limitarse a ella, la corriente de sistemas de inteligencia artificial (l A),
Se ha impelido una fuerza irresistible a esta transformación a partir de la
teoría de mecanismos computacionales (Hopcroít & UlIman 1979), que
prescinde de mucho de lo que parece especial en la figura [3.11 y mues-
tra la suficiencia y la necesidad de los mecanismos computacionales, así
como el modo en que tales mecanismos se relacionan con sistemas que
tienen representaciones de su mundo externo (esto es, que tienen se-
mántica). Las arquitecturas que resultan de esta teoría se conocen como
arquitecturas simbólicas.
Tal y como se expuso en el capítulo l1J. podemos describir lo huma-
no en diferentes niveles de sistema. En la parte superior se encuentra el
nivel del conocimiento, que describe a la persona como alguien que tiene
metas y que conoce cosas acerca del mundo y en la cual el conocimiento
se pone al servicio de sus metas (por el principio de racionalidad). La
persona puede operar en el nivel del conocimiento sólo porque es así
mismo un sistema de nivel simbálico, que es un sistema que opera en
términos de representaciones y operaciones de procesamiento de infor-
mación realizadas sobre estas representaciones. El nivel simbólico debe
realizarse también en términos de algún sustrato, y la arquitectura es ese
sustrato definido en un lenguaje descriptivo apropiado, En los ordena-
dores éste resulta ser el nivel de transferencia entre registros, en el que
se transportan los vectores de bits desde una unidad funcional (como un
sumador) hasta otra, sujetos al paso por puertas lógicas al cargo de bits
de control. En los humanos se trata del nivel de circuitos neuronales.
que en el momento actual parece correctamente descrito corno redes de
conexiones inhibidoras y excitadoras, interconectadas y sumamente pa-
ralelas, que procesan un medio de señales continuas. Por debajo de éste
existen, por supuesto. otros niveles de descripción: neuronas, orgánulos.
macrornoléculas. y así descendenternenre.
Esta disposición de niveles de sistema parece muy especial: después
de todo, es el ojo de la aguja a través del que han de pasar los sistemas
para poder ser inteligentes. No obstante, existe una inmensa variedad de
arquitecturas y una inmensa variedad de sustratos físicos en los que im-
plementarlas. No existe aún una estimación real de esta doble variedad
o de sus consecuencias, excepto que son sumamente vastas y diversas.
Resulta relativamente fácil entender una arquitectura dada cuando se
nos presenta. aunque puede haber una buena cantidad de detalles por los

91
que navegar. Sin embargo. resulta difícil percibir las consecuencias con-
ductuales de una arquitectura. porque se encuentra muy recubierta por
los programas que ejecuta. Y es extremadamente difícil comparar dife-
rentes arquitecturas, puesto que cada una presenta su propio marco total
que puede dividir el mundo de manera radicalmente distinta. A pesar de
estas dificultades, la ciencia cognitiva precisa determinar la arquitectura
que subyace a la cognición humana y la sostiene.
La arquitectura no determina por sí misma la conducta. Los restantes
colaboradores principales son: la meta que intenta conseguir la persona,
el entorno de tarea en el que ésta está actuando y el conocimiento que
tiene. La primera no es solamente el conocimiento de las condiciones
o situación deseadas. sino también el compromiso de dirigir la conduc-
ta para alcanzar tales condiciones. El segundo es la situación objetiva.
junto con las restricciones objetivas sobre el modo en que la persona
puede interactuar con la situación. El tercero es la situación subjetiva de
la pc-rsona en relación a la tarea. El conocimiento implicado para llevar
a cabo una tarea cualquiera es variado y extenso, y deriva de múltiples
fuentes. Estas fuente" incluyen el enunciado o las indicaciones con que
se presenta la tarea, la interacción inmediatamente anterior con la situa-
ción de la tarea, la experiencia a largo plazo con situaciones análogas o
sirni lares. la educación previa, incluyendo la adquisición de destrezas, y
la socialización y culturización que proporcionan la orientación general.
Todas estas fuentes de conocimiento efectúan su contribución.
La meta, la tarea y. por supuesto. el conocimiento constituyen la
caracterización de una persona en el nivel del conocimiento. El papel
principal de la arquitectura es hacer esto posible al sostener el procesa-
miento de representaciones simbólicas que portan el conocimiento. Si lo
hiciera de modo perfecto, la arquitectura no aparecería como un factor
independiente para determinar la conducta, lo mismo que no lo hacen
la acetilcolina o los átomos de azufre. Sería simp1cmente el andamiaje
que explica cómo se realizan en nuestro mundo físico los determinantes
efectivos (tarea y conocimiento).
Pero la caracterización del nivel del conocimiento dista de ser perfec-
ta. Como acostumbraban a decir los lingüistas, puede haber una gran dis-
tancia entre la competencia y la actuación. La arquitectura se transparenta
de muchas maneras, tanto grandes como pequeñas. Sin duda, buena parte
de la psicología cognitiva consiste en calcular esas maneras: velocidad de
procesamiento, errores de memoria, lapsus lingüísticos, ilusiones percep-
tivas. fallos de racionalidad en la toma de decisiones, efectos de interfe-

92
rencia del material aprendido. etc, etc. Estos factores se basan en parte en
la arquitectura. Algunos aspectos de la conducta pueden también tener su
origen en mecanismos y estructuras definidos a niveles inferiores: funcio-
namiento neuronal, propiedades de los músculos. imperfecciones en la
lente de la córnea. la estructura macromolecular de las drogas. los efectos
del ascenso de la temperatura, etc. Sin embargo. cuando la arquitectura no
logra sostener adecuadamente una conducta orientada a metas basada en
el conocimiento da lugar. por lo general, a características que considera-
mos psicológicas. Visto de este modo, buena parte de la psicología supone
la investigación de la arquitectura.
Lo que suministra la noción de arquitectura e~ el concepto de sistema ((J-
tal de mecanismos que se requieren para conseguir una conducta inteligente
flexible. Normalmente las investigaciones psicológicas operan aisladamente
aunque con una sensación justiticada de que los mecanismos que se inves-
tigan (memoria, aprendizaje, recuperación de la memoria o lo que sea) son
necesarios e importantes. La arquitectura añade el contexto de sistema total
dentro del cual operan tales mecanismos separados. proporcionando res-
tricciones adicionales que determinan la conducta. La arquitectura también
trae a primer plano mecanismos adicionales que deben estar implicados y
que han recibido menos atención en psicología experimental, por ejemplo,
las operaciones elementales y el control. Este requisito de integración no es
simplemente un condimento agradable. Toda actuación humana comple-
ta recurre a muchas de las funciones psicológicas que investigamos pieza
por pieza: percepción. codificación. recuperación, memoria. composición
y selección de respuestas simbólicas, toma de decisiones, órdenes motoras
y respuestas motoras efectivas. En la teoría y experimentación psicológica
se h311 corrido riesgos considerables al concentrarse en una porción de con-
ducta, mientras se deja el resto como fondo inarticulado.
Una teoría de la arquitectura es una propuesta de un mecanismo
cognitivo total, más que de un único aspecto del mecanismo. Una en-
carnación que Se proponga para una arquitectura, como un sistema de
simulación, pretende ser un mecanismo completo para la cognición hu-
mana. La forma de su memoria encama una hipótesis sobre la forma de
las especificaciones simbólicas humanas para la acción; el modo en que
se crean () modifican sus programas encama una hipótesis sobre el modo
en que se crean o modifican las especificaciones de la acción humana; y
así suces i varnente (Newe 11 1487),
Para resumir, el papel de la arquitectura en ciencia cognitiva es el
de ser el elemento central en una teoría de la cognición humana. No es

93
el determinante único. ni siquiera el predominante, de la conducta de
la persona, pero es el determinante de lo que hace a 13 conducta p,:,i-
cológica, antes que un reflejo de las metas de la persona a la luz de su
conocimiento. Tener una teoría de la cognición es tener una teoría de la
arq u i tectu ra.

2. Requisitos de la arquitectura cognitiva

¿Por qué debería ser la arquitectura cognitiva de un modo o de otro?


Toda arquitectura proporciona programabilidad. que produce conducta
indefinidamente flexible. ¿Por qué no daría lo mismo una arquitectu-
ra que otra? Tenemos que abordar esta cuestión como preliminar a la
discusión de la naturaleza de la arquitectura cognitiva. Tenemos que
comprender los requisitos que moldean la cognición humana, especial-
mente aparte de la necesidad de computación universal. La arquitectura
cognitiva debe proporcionar el soporte necesario para todos estos re-
quisitos, La siguiente es una lista de requisitos que podrían moldear la
arquitectura (adaptada de Newell 1980):
1. Comportarse flexiblemente en función del entorno.
2. Exhibir conducta adaptativa (racional. orientada a metas),
3. Operar en tiempo real.
4. Operar en un entorno detallado, rico y complejo:
a. percibir una inmensa cantidad de detalles cambiantes.
b. usur enormes cantidades de conocimiento,
c. controlar un sistema motor de muchos grados de libertad.
5. Usar símbolos y abstracciones.
6. Usar un lenguaje. tanto natural como artificial.
7. Aprender del entorno y de la experiencia.
8. Adquirir capacidades durante el desarrollo.
9. Vivir autónornamente dentro de una comunidad social.
10. Exhibir autoconciencia y un sentido del yo.
Estos requisitos expresan nuestro conocimiento común, pero cien-
tíficamente informado. acerca de los seres humanos en su hábitat. No
hay modo de saber hasta qué punto está completa la lista, pero sin duda
i nclu ye muchos requisitos re 1evantcs.
( 1) Listamos en primer lugar el requisito de comportarse flexible-
mente en función del entorno, puesto que es la capacidad central que
proporcionan las arquitecturas. Si un sistema no puede obligarse a res-

94
ponder de la manera que se precise, a duras penas puede ser inteligente.
La única finalidad de esta lista, desde luego. es ir más allá del primer
ítem, (2) La flexibilidad por sí misma es tan sólo un medio: debe estar
al servicio de metas y relacionada racionalmente con la obtención de
los objetos y condiciones que permiten que el organismo sobreviva y se
propague. (3) La cognición debe operar en tiempo real. Esta exigencia
del entorno es a la vez importante y omnipresente. Choca directamente
con el requisito de flexibilidad, donde el tiempo de computación es un
recurso esencial, (4) El entorno en el que hahitan los humanos tiene
importantes caracterfsticas. aparte de ser dinámico: es rico en combi-
naciones y detallado, cambia simultáneamente en muchos frentes, pero
con muchas regularidades en cada escala temporal. Esto afecta al sis-
tema cognitivo de varias maneras. (a) Debe haber múltiples sistemas
perceptivos que exploten los múltiples aspectos dinámicos; todos ellos
deben operar de modo concurrente y dinámico, y algunos deben tener
un ancho de banda elevado. (b) Deben existir memorias muy extensas
puesto que el entorno proporciona la oportunidad de conocer muchas
cosas relevantes, y en un mundo en evolución, y por tanto competitivo,
las oportunidades que el mundo ofrece a algunos origina requisitos para
lodos. Ce) Un sistema motor que se desplace e influya en un mundo com-
plejo requiere una determinación continua de muchos grados de libertad
a un ritmo dictado por el entorno.
(5) La cognición humana es capaz de usar símbolos y abstracciones,
(6) También es capaz de usar un lenguaje, tanto natural como artificial.
Estos dos requisitos podrían venir a ser la misma cosa, o bien podrían
imponer exigencias un tanto distintas. Ambos se encuentran íntimamen-
te relacionados con el requisito de flexibilidad y podrían ser redundantes
respecto a éste. Pero podrían existir aspectos adicionales de importancia
en cada uno de ellos. No es preciso resolver todo esto para la lista, que
trata de conseguir cobertura más que parsimonia o independencia.
(7) Los humanos deben aprender del entorno, no de modo ocasional
sino continuamente y no un poco sino bastante. Esto también proviene
de la multitud de regularidades a diversas escalas temporales que se
encuentran disponibles para el aprendizaje. (8) Es más, muchas de nues-
tras capacidades se adquieren durante el desarrollo. Cuando el neonato
aparece por vez primera se encuentra, ciertamente. carente de muchas
capacidades, pero éstas parecen ser exactamente las capacidades de alto
nivel necesarias para adquirir las capacidades adicionales que necesita.
Asf que se da una restricción de «la gallina y el huevo», que hace alu-
sión a una especialización ~igniflcatjva que haga posible el desarrollo.

95
Al igual que con los requisitos de símbolos y lenguaje, la relación entre
aprendizaje y desarrollo es oscura. Cualquier cosa que ésta resulte ser,
ambos requisitos tienen su puesto en la lista.
(g) Los humanos deben vivir de modo autónomo dentro de una co-
munidad social. Este requisito combina dos aspectos. Un aspecto de la
autonomía es la capacidad para verse libre de las dependencias del en-
torno. En relación a la autonomía de los ordenadores y robots actuales.
esto implica que necesitamos capacidades substancialmente incremen-
tadas. Por otra parte. mucho de lo que hemos aprendido de la erologia
y de la teoría social habla a favor de la dependencia de los individuos
hacia las comunidades en la, que se han criado y residen (von Cranach,
Foppa. Lcpinies & Ploog 1979). Las capacidades adicionales para una
autonomía de bajo nivel no invalidan la amplia necesidad de sociali-
zación y de inserción en una estructura social de apoyo. Si los huma-
nos abandonan sus comunidades. se vuelven ineptos y disfuncionales
en muchos respectos, (10) El requisito de autoconciencia e~ un tanto
oscuro. Ciertamente tenernos un sentido del yo. Pero no resulta evidente
qué papel funcional juega la autoconciencia en la organización total de
la mente. La investigación ha subrayado la importancia de la metacog-
nición, teniendo en cuenta las capacidades del yo en relación al entorno
de tarea. Pero el vínculo entre la rnctacognición y la noción completa de
un sentido del yo permanece oscuro.
Se puede considerar la cognición humana como un sistema de pro-
cesamiento de información que constituye una solución para todos los
requisitos de la lista y quizás para otros de los que aún no tenemos cono-
cimiento. La flexibilidad. el fundamento para afirmar que la cognición
humana está construida sobre una arquitectura. es sin duda un punto
destacado, pero dista de ser el único. Cada uno de los otros juega algún
papel para hacer de (a cognición humana lo que es.
El problema de este capítulo no es qué forma toma la cognición en
conjunto en respuesta a estos requisitos. ése es el problema de la ciencia
cognitiva en conjunto. Nuestro problema es qué es lo que implica la lista
para la forma de la arquitectura. Para cada requisito existe un corpus de
conocimiento científico y general. más o menos bien desarrollado. Pero
la cognición es siempre el resultado de la arquitectura más el contenido
de las memorias, combinados bajo el distintivo de ser adaptativo. Esto
tiende a ocultar la estructura interna y revela sólo la conducta del nivel
del conocimiento. Así pues, extraer las implicaciones para la arquitectu-
ra requiere un análivis,

96
Hay distintos enfoques posibles para tales análisis, aunque aquí sólo
podemos mencionarlos brevemente. El más importante es el de acer-
carse a la arquitectura en el plano temporal; si la conducta programada
cuenta con poco tiempo para actuar entonces hay una posibilidad de
que la arquitectura se trasluzca. Un buen ejemplo es la exploración de
la conducta de respuesta inmediata que ha establecido un terreno de
conducta automática, como algo distinto del terreno de la conducta con-
trolada, más deliberada (Schneider & Shiffrin 1977, Shiffrin & Schnei-
der 1977). Otro enfoque es el de buscar regularidades universales. Si se
transparenta alguna regularidad a pesar de todos los tipos de variación,
puede que refleje algún aspecto de la arquitectura. Un buen ejemplo es
la ley potencia de la práctica, según la cual el tiempo que lleva realizar
una tarea repetida, sin que importe casi qué tarea, mejora de acuerdo a
una ley potencia del número de intentos (Newell & Rosenbloorn 1981).
Se han hipotetizado mecanismos de arquitectura para dar cuenta de ella.
(Rosenbloom & Newell 1986). Aún otro enfoque es el de construir ar-
quitecturas experimentales que sostengan algunos de los requisitos de
la lista. Estas ayudan a generar potenciales mecanismos que cumplan
varios requisitos, pero también revelan la auténtica naturaleza del requi-
sito. Muchos de los esfuerzos en lA y en el desarrollo de herramientas
y entornos de software para lA encajan en este molde (una conferencia
reciente (VanLehn 1989) proporciona una buena muestra).
Los requisitos funcionales no son las únicas fuentes de conocimien-
to acerca de la arquitectura cognitiva. Sabemos que la arquitectura cog-
nitiva se encuentra realizada sobre tecnología neuronal y que fue creada
por la evolución. Ambos factores tienen efectos Importantes sobre la
arquitectura. Tampoco los vamos a estudiar. [Otros capítulo" de este vo-
lumen tratan sobre las consecuencias de la estructura neuronal del cere-
bro], y las consecuencias de la evolución, aunque seductoras. resultan
difíciles de discernir.

3. La naturaleza de la arquitectura

Describiremos ahora la naturaleza de la arquitectura cognitiva. Da-


remos ésta en términos de funciones, en vez de estructuras o mecanis-
mos. Esto es en parte porque la arquitectura se define en términos de
lo que hace para la cognición. Pero también porque, tal y como nos
ha descubierto la informática, hay una variedad sumamente amplia de
estructuras y de mecanismos que han resultado capaces de proporcio-

97
nur las funciones centrales. Así que no ha surgido ningún conjunto de
estructuras y mecanismos que sean 10 bastante necesarios para llegar a
ser los rasgos de criterio. El carácter puramente funcional de las arqui-
tecturas es especialmente importante cuando nox movemos desde los
ordenadores digitales actuales hacia la cognición humana. Aquí. la tec-
nología del sistema subyacente (circuitos neuronales) y la tecnología
de construcción (evolución) son muy diferentes, de modo que podemos
esperar encontrarnos con que las funciones se realizan de modo bien
distinto al de (a tecnología digital actual.

En general. la arquitectura proporciona el soporte para una función


dada más que proporcionar la función entera. Corno la arquitectura pro-
porciona un modo en el que el software (esto C~. el contenido) puede
guiar la conducta de manera flexible, el .w~ft\Vllre puede proporcionar
esencialmente todas las funciones intelectuales o de control. Tan sólo en
diversas condiciones restrictivas, de velocidad, fiabilidad, acceso a los
propios mecanismo- de la arquitectura y demás, es necesario ejecutar la
totalidad de ciertas funciones directamente sobre la arquitectura. Desde
luego, puede resultar eficiente ejecutar sobre la arquitectura funciones
que también el software podría proporcionar. Desde tina perspectiva
biológica o de ingeniería no existe una razón intrínseca para preferir un
modo de llevar a cabo una función antes que otro. Confluyen cuestiones
de eficiencia, modificabilidad. construibilidad, coste de recursos. y dis-
ponibilidad de recursos para determinar qué mecanismos se usarán para
realizar una función y cómo se repartirán entre el soporte de arquitectura
y el programa más los datos.

La siguiente lista ofrece algunas funciones conocidas de la arqui-


tectura:

1, Memoria:
J. Contiene estructuras que contienen ejemplares (tokens) de
símbolos.
b. Modificable de modo independiente a Lilgún nivel de detalle.
c. Memoria suficiente.
2. Símbolos:
él.Patrones que proporcionan acceso a estructuras simbólicas
distales.
b. Un ejemplar de un símbolo es la aparición de un patrón en una
e",truct ura.
c. Símbolos suficientes,

98
.3. Operaciones:
a. Procesos que toman estructuras simbólicas como entrada y
producen estructuras simbólicas como salida.
b. Cornposicionalidad completa,
-+. Interpretación:
a. Proceso" que tornan estructuras simbólicas como entrada y
producen conducta al ejecutar operaciones.
b. Interpretabilidad completa.
5. Interacción con el mundo externo:
u. Interfaces perceptivos y motores.
b. Memoria intermedia e interruptores.
c. Exigencias de acción en tiempo real.
d. Adquisición continua de conocimiento,
Resaltamos que estas funciones son sólo las que se conocen en la
actualidad. Especialmente con sistemas naturales como la cognición hu-
mana, pero incluso con sistemas artificiales, no conocemos [Odas la~
funciones que ~e realizan." Las fuentes básicas de nuestro conocimiento
de las funciones de la arquitectura es precisamente lo que "C ha omitido
en el apartado anterior, esto es, la evolución de las arquitecturas de los
ordenadores digitales y la correspondiente teoría abstracta de máquinas
que se ha desarrollado en informática. No vamos a fundamentar la lista
detalladamente en estos antecedentes. pero quien pretenda trabajar se-
riamente en arquitecturas cognirivas debería estar al corriente de ellos
(Minsky 1967, Bell & Newell J 971. Hopcroft & Ullman 1979, Siewio-
rek, Bell & Newell 1981, Agrawal 1996. Fernández & Lang 19Ró, Gajs-
ki, Milutinovic. Siegel & Furth 1987). A continuación nos ocuparemos
de los elementos de esta lista.

Sistemas simbólicos

La función central de la arquitectura es sostener un sistema con ca-


pacidad de computación universal. Por tanto las funciones iniciales de
nuestra lista son aquellas que se requieren para proporcionar esta capa-
cidad. Deberíamos poder generar la lista simplemente mediante un aná-

~ Esto e~ en parte porque las funciones ...on elementos concepruale... en un análisis


de los sistemas naturales, y por tanto qué funciones existan dependerá del esquema de
an.ílisis,

99
lisis de las máquinas universales existentes. Sin embargo, hay muchas
variedades de sistemas universales. En efecto. un rasgo notable de la
historia de la investigación de la computación universal ha sido la crea-
ción de muchas formulaciones alternativas e independientes de la uni-
versalidad, que han resultado ser todas equivalentes. Máquinas de Tu-
ringo algoritmos de Markov, máquinas de registro, funciones recursivas,
redes neuronales de Pitts-Mcf.ulloch, producciones de Post. sistemas de
etiquetas, además de todo tipo de organizaciones de ordenadores digi-
tales: todas ellas encierran un modo de formular una máquina univer-
sal. Estas máquinas universales son todas equivalentes en flexibilidad y
pueden simularse mutuamente. Pero al igual que las arquitecturas (y por
las mismas razones) cada formulación es por sí misma un marco, y a
menudo presentan un diseño bastante específico e idiosincrático, como
la cinta. la cabeza lectora y el formato de instrucciones por quíntuplas
de una máquina de Turing. Aunque no le falte cierto encanto (¡cspecial
pero muy generll.Jl), esto tiende a oscurecer las funciones generales que
se requieren. La formulación que hemos elegido es el sistema simbáli-
cu:: (Ncwcll 1980), que es equivalente a todas las demás. Sin embargo,
el papel destacado que otorga a los símbolos ha resultado útil en las dis-
cusiones sobre la cognición humana y, al evitar los detalles específicos
de operación, resulta menos idiosincrática que otras formulaciones.
Los cuatro primeros elementos de la lista de funciones proporcionan
la capacidad para ser un sistema simbólico: memoria. simbolos, operacio-
JU'S e interpretación. Sin embargo, ninguna de estas funciones (ni siquiera
los símbolos) es la función de representación del mundo externo. Cier-
tamente los símbolos, proporcionan una función de representación inter-
na. pero la representación del mundo externo es una función del sistema
computacional en conjunto, de modo que la arquitectura sostiene esa re-
presentación, pero por 'lí misma no la propore iona. (Véase el capítulo f2]
para comprender cómo es posible esto, y cómo nos movemos del nivel del
conocimiento, que se refiere al mundo externo. hacia el nivel simbólico,
que contiene los mecanismos que proporcionan la capacidad de referencia
taboumesss.
Memoria y estructuras de memoria. El primer requisito es memoria,
es decir, estructuras yue persistan a lo largo del tiempo. En los ordena-

\ Se les ha llamado sistemas simbolicos fisicos (Ncwcll & Sirnon \976) para enfa-
tizar que su noción de símholo deriva de la infórmatica y de la inteligencia artificial.
por coruraposición con la noción de símbolo en las artes y humanidades. que puede que
resulte o no la misma. AqUÍ nos bastará con la expresión abreviada.

lOO
dores hay una jerarquía de memoria que se extiende desde los registros
de trabajo del procesador central (como el registro de direcciones), a los
registros usados para estados temporales (como un acumulador o una
pila de operandos, a la memoria primaria (que es de acceso aleatorio y
que contiene los programas y datos activos), a la memoria secundaria
(discos), a la memoria terciaria (cintas magnéticas). Esta jerarquía se
caracteriza por sus constantes temporales (velocidad de acceso. velo-
cidad de escritura y tiempo estimado de residencia) y por su capacidad
de memoria, en relación inversa: cuanto más lenta sea la memoria, más
cantidad disponible de ella habrá. La memoria más rápida es una parte
esencial de la dinámica operacional del sistema y ha de considerarse
conjuntamente con él. La memoria a largo plazo, de mayor capacidad.
satisface la exigencia de gran cantidad de memoria que se precisa para
la cognición humana.
La memoria se compone de estructuras, llamadas estructuras sim-
bólicas porque contienen ejemplares de símbolos. En los ordenadores
todas las memorias contienen los mismos tipos de estructuras. esto es.
vectores de bits (bytes y palabras). aunque ocasionalmente se encuentran
múltiplos mayores de tales unidades (bloques y registros). A un nivel de
detalle Jo bastante grande. las estructuras de memoria deben poder mo-
dificarse de modo independiente. Hay dos razones para esto. En primer
lugar. la variedad del mundo externo es combinatoria: comprende mu-
chas dimensiones independientes. con múltiples valores, situadas (e ite-
radas) por todo el espacio y el tiempo. Sólo una estructura de memoria
combinatoria puede mantener información acerca de un mundo seme-
jante. En segundo lugar, las dependencias predefinidas en la estructura
de memoria. al tiempo que facilitan ciertas computaciones, tienen que
dificultar finalmente la habilidad del sistema para computar de acuerdo
a los dictados del entorno. Al no reaccionar a las dependencias del en-
torno, las dependencias de la memoria se convierten en un estorbo. aun
cuando quizá sea posible compensarlo mediante computación adicional.
Desde luego. dentro de ciertos límites (que aquí llamamos el nivel de
detalle) las estructuras pueden exhibir diversas dependencias, lo cual
puede resultar útil."
Símbolos y ejemplares de símbolos. Los ejemplares de símbolos son
patrones en las estructuras simbólicas que proporcionan acceso a csrruc-

J Nótese, sin embargo. que en 10$ ordenadores que existen ha demostrado ser funcio-

nal llevar la independencia tan abajo como sea posible. hasta el bit.

101
turas de memoria distales, esto es, a estructuras que se encuentran en
otra parte de la memoria.' En las arquitecturas de ordenador estándar un
símbolo e~ una dirección de memoria y un ejemplar de un símbolo es una
cadena concreta de bits en una palabra concreta que se puede usar como
una dirección (transportándola hasta el registro de dirección de memoria.
como en la figura [3.1 J). La necesidad de símbolos'' se plantea debido a
que no es posible que toda la estructura implicada en una computación
sea ensamblada anticipadamente en el espacio físico de la computación.
Así que es necesario desplazarse a otras partes (distales) de la memoria
para conseguir la estructura adicional. En términos del nivel del cono-
cimiento esto e~ lo que se requiere para hacer que tollo el conocimien-
to del sistema ~e involucre en el logro de una meta. No es posible, en
general, conocer de antemano todo el conocimiento que va a usarse en
una computación (pues esto implicaría que la computación ya ha sido
llevada a cabo). Por tanto los ingredientes para un mecanismo simbólico
son algún patrón dentro de las estructuras qLle se están procesando (el
ejemplar) que puede usarse para abrir una ruta de acceso a una estructura
distal (y que puede suponer una búsqueda en la memoria) y una ruta de
recuperación por medio de la cual se puede comunicar con la estructura
distal para que informe el espacio local de la computación."
Operaciones. El sistema e~ capaz de realizar operaciones sobre es-
tructuras simbólicas para componer nuevas estructuras simbólicas. Hay
muchas variaciones de tales operaciones en cuanto a aquello que hagan
cuando construyen estructuras nuevas o cuando modifican estructuras
viejas, y en cuanto al modo en que dependen de otras estructuras de
símbolos. La forma que toman tales operaciones en los ordenadores es-
tándar es la aplicación de un operador a un conjunto de operandos. tal
y como ~e especifica en un formato fijo de instrucción (véase la figu-

~ Las estructura ... de acceso pueden estar consuuidas (y lo están en abundancia) den-
tro del softwar« M un ~i . . rema; nosotros estudi.rmos la capacidad básica de la arquircc-
tura que so-..Iiene tales mecanismos de software.
" Nótese que el término 5(ml'4>{0 se usa aquí para un tipo de estructura y de mcca-
nismo dentro de un sistema simbólico y 110. corno en simbolizar, corno un sinónimo
para ~i1go que representa. Esta noción de simbolo. sin embargo. requiere al menos repre-
-entación interna: las direcciones designan estructuras de memoria, los estímulos de entrada
deben proyectarse a e ...tructuras internas tijiJ. y los códigos de operador designan opera-
l,

c ronc-;
7 E~ concebible que esto pueda extenderse para incluir el mundo externo como un

nivel distal en la jerarquía de memoria del sistema (má~ allá dd nivel terciario), Los
ejemplares de símbolo'> especificarían direcciones en el mundo externo. y las rutas de
acceso y recuperación implicanan actos perceptivos y motores.

102
fa r3.l l). Los lenguajes de programación de alto nivel generalizan esto
a todo el alcance de un tormalivmo aplicativo. donde (F xl' x.?' .... x)
ordena al sistema que aplique la función F a los operandos x/' .... x" para
producir una estructura 11l1Cva.
Interpretación. Algunas estructuras (no todas) tienen la propiedad
de determinar que se produzca una secuencia de operaciones simbólicas
en estructuras Simbólicas específicas. Estas estructuras se conocen de
diversos modos. como codigos, programas, procedimientos, rutinas o
planes. El proceso de aplicación de las operaciones ~e conoce como
interpretación de la estructura simbólica. En los ordenadores estándar
esto se produce por medio del ciclo de extracción-ejecución (compárese
con la figura r3.ll l, mediante el cual se accede a cada instrucción. sus
operandos se descodifican y se distribuyen en diversos registros. y se
ejecuta la operación. La simplicidad de este esquema corresponde a la
simplicidad del lenguaje máquina y viene dictada por la complejidad de
aquello que pueda realizarse de modo eficiente y fiable directamente so-
bre el hardware. Se pueden compilar lenguajes procedimentales (de alto
nivel) más complejos en un programa elaborado en un lenguaje máquina
más simple, o se pueden ejecutar sobre la marcha (esto es, interpreta-
tivamente) por el microcódigo de un subcomputador simple. Hay otras
alternativas posibles, por ejemplo, construir una máquina específica de
propósito especial que incorpore las operaciones del programa y activar
entonces la máquina. Todas ellas vienen a ser lo mismo: la capacidad
para convertir estructuras simbólicas en conducta.
El sistema integrado. Tenemos ya todos los ingredientes de un sistema
simbólico, Estos son suficientes para producir conducta indefinidamente
flexible (requisito 1 de la lista). La figura [3.2] muestra la interacción
básica. Las operaciones pueden construir estructuras simbólicas que se
pueden interpretar para especificar nuevas operaciones que construyan
aún más estructuras simbólicas. Este bucle asegura la construcción de
conducta arbitraria en función de otras exigencias. Los únicos requi-
sitos adicionales son ciertas propiedades de suficiencia y complctud.
Sin suficiente memoria y suficientes símbolos el sistema será incapaz
de realizar tareas que exijan datos y referencias intermedias lo bastante
voluminosas, simplemente porque se quedará sin recursos. Sin comple-
tud en ~I bucle no se podrán producir ciertas secuencias de conducta.
Esto tiene dos caras: una composicionalidad completa. de modo que los
operadores puedan construir cualquier estructura de símbolos, e inter-
pretabilidad completa, de modo que sea posible que haya estructuras de
símbolos interpretables para cualquier disposición de las operaciones.

(03
Memoria

Eslru -:.11) rel Est ruet lJ ra [structura


simbohca sunbohra ~Imbóll(;:¡

\ t
\ /
\ /
\\// \ /
Operaciones \
\ /
/
01-l'H Juones Op12r,;¡cIUlltoS

FIGURA 3.2
El bucle básico de interpretación y construcción

Bajo la cornpletud deberíamos incluir la fiabilidad: si los mecanismos


no operan como se haya postulado (incluyendo la memoria). entonces no
tienen por qué seguirse los resultados.
La universalidad es un modo simple y elegante de exponer lo que
supone ser flexible. al llevar la flexibilidad hasta el límite. g Los fallos
en suficiencia y cornpletud no amenazan necesariamente a la flexibili-
dad de modo crítico. En un mundo finito lodos Jos recursos son finitos,
pero también lo es la estancia del organismo sobre la tierra. Los fallos
en la cornpletud son un poco m,15 difíciles de evaluar porque el modo
en que se satisfaga puede ser extremadamente enrevesado e indirecto
(incluyendo el uso de mecanismos de detección y corrección de errores
para ocuparse de la fiabilidad finita). Pero en general hay un efecto de
continuo en términos reales respecto a la gravedad y la extensión del
fallo. Sin embargo, no hay ninguna teoría disponible que nos informe
acerca de las aproximaciones a la universalidad.
Además de proporcionar flexibilidad, los sistemas simbólicos pro-
porcionan un apoyo importante para varios de los otros requisitos de la

x Corno han mostrado los famosos resultados de Turing. Church y otros. este límite
no incluye toda posible dependencia funcional sino sólo una extensa subclase dc ellas,
conocida como funciones computables.

]04
primera lista. Para la adaptabilidad (requisito 2) proporcionan la habili-
dad de representar metas y de hacer que la acción se condicione a ellas.
Para el empleo de enormes cantidades de conocimiento (requisito 4.b),
proporcionan estructuras simbólicas en las que se puede codificar el co-
nocimiento, así como memorias arbitrariamente extensas con la habili-
dad añadida de acceder al conocimiento distal cuando se precise. Para
los símbolos. abstracciones y lenguaje (requisitos 5 y 6) proporcionan
la habilidad de manipular representaciones. Para el aprendizaje (requi-
sito 7) proporcionan la habilidad de crear estructuras simbólicas a largo
plazo.

Interacción con el mundo externo

Los sistemas de símbolos son componentes subsumidos en un sis-


tema mayor que vive en un mundo dinámico real, y su función global
~s la de crear interacciones apropiadas de este sistema mayor con ese
mundo. Los interfaces del sistema mayor con el mundo son dispositivos
sensoriales y motores. Exactamente dónde cobre sentido decir que ter-
mina la arquitectura y que empiezan los distintos subsistemas de entra--
da/salida dependerá del sistema en particular. Todo el procesamiento de
información hasta los mismos transductores de energía en la piel podría
estar construido sobre un diseño común y formar parte de una única
arquitectura, o podrían existir múltiples arquitecturas periféricas de dis-
tinto diseño. o podrían existir múltiples sistemas especializados para la
transducción y la comunicación que no fueran arquitecturas según nues-
tra definición. A pesar de esta variabilidad, podemos identificar varias
funciones comunes: La primera es relativamente obvia, la arquitectura
tiene que proporcionar los interfaces que conectan los dispositivos sen-
soriales y motores con el sistema simbólico. Qué hagan exactamente
estos interfaces y dónde se localicen es función del modo en que se trace
la frontera entre el sistema cognitivo central (el sistema simbólico) y los
sistemas periféricos.
La segunda surge de la asincronía entre los mundos interno y exter-
no. Los sistemas simbólicos son un medio ambiente interior, protegido
del mundo externo, en el que puede tener lugar un procesamiento de in-
formación al servicio del organismo. Una consecuencia es que el mundo
externo y el mundo simbólico interno funcionan asincrónicamente. Así
pues, debe haber un almacenamiento intermedio (bufferin~) de informa-
ción entre los dos en ambas direcciones. Cuántas memorias intermedias

105
y de qué caracterfsticas dependeré de las constantes temporales y de las
tasas de las múltiples entradas y salidas. Si los transductores son mucho
más lentos que el procesamiento interno el mismo transductor, por su-
puesto, se conviene en una memoria lo bastante precisa. Ademas deben
existir mecanismos de interrupcion para hacer frente a la transferencia
de procesamiento entre múltiples fuentes de información asíncronas.
La tercera función surge del carácter de las exigencias en tiempo
real del mundo externo (requisito 3 de la primera lista). El ambiente
proporciona un caleidoscopio de oportunidades y amenazas que cam-
bia continuamente, con ~us propias constantes temporales. Una conse-
cuencia pam la arquitectura es que haya capacidad de interrupción, de
modo que el procesamiento pueda cambiar a tiempo para las nuevas
exigencias. Ya ~e ha postulado la mecánica de la interrupción, pero las
exigencia." en tiempo real dejan igualmente claro un requisito de eva-
luación prccognitiva, esto es. de evaluación que tenga lugar antes de la
evaluación por parte del sistema cognitivo. Una exigencia que es más
difícil de especificar con exactitud. pero que no obstante e:-; real, es que
el procesamiento se oriente hacia una obtención rápida de respuestas.
Esta no puede ser una exigencia incondicional, si consideramos fijas
las constantes temporales de la tecnología de implementación (para la
cognición humana I()~ circuitos neuronales), puesto que computar más
rápido algunas cosas implica computar más lentamente otras y, más en
general. ex istcn complejidades computacionales intrínsecas. Aún así, se
recomiendan las arquitecturas que proporcionan una computación efec-
tiva con límites de tiempo.
La cuarta función surge como consecuencia de un entorno cambian-
te: el sistema no puede conocer de antemano todo lo que precisa saber
sobre un entorno semejante. Por tanto, el sistema debe adquirir conti-
nuamente conocimiento del entorno (parte del requisito 7) y debe hacer-
lo en constantes temporales dictadas por el enlomo (una forma menos
obvia del requisito 3). Los sistemas <imbólicos tienen la capacidad de
adquirir conocimiento. así que al menos en este respecto no está invo-
lucrada ninguna función nueva de la arquitectura. Sin embargo, el co-
nocimiento que se va a adquirir entra desde el entorno en tiempo real y
no bajo el control del sivtema. Se sigue que el aprendizaje también debe
acontecer esencialmente en tiempo real. Esto es en parte simplemente
la dinámica de la bañera: por término medio la cantidad de agua que
entra a una bañera (aquí. la experiencia codificada) debe ser igual a la
cantidad que ~e desagua (aquí. la experiencia procesada para convertirse
en conocimiento). Pero a esto se asocia el hecho de que el agua nunca

IOh
cesa de fluir al interior. a,í que no hay ocasión para que se procese en
los ratos libres.

Resumen

Hemos intentado listar las funciones de la arquitectura cognitiva,


que va a proporcionar el soporte de la cognición humana. tal y como se
caracterizo en la lista de requisitos para moldear la arquitectura. Toma-
dos conjuntamente. el sistema simbólico y las funciones en tiempo real
cubren una gran parte de la funcionalidad primitiva que se necesita para
los requisitos )-7. No aseguran que los requisitos vayan a cumplirse.
pero proporcionan el soporte necesario.
Por ahora hay pcx:o que decir acerca del soporte de la arquitectura
respecto al desarrollo (req uisito 8). La dificuItad estriba en nuestro co-
nocimiento mínimo de los mecanismos implicados en hacer posibles las
transiciones del desarrollo. incluso en un nivel psicológico (Klahr 1989).
Hay una diferencia significativa en que el de.. . arrollo OCUlTa a través del
tipo de aprendizaje general que sostienen los sistemas simbólicos, esto es,
la creación de estructuras de sunbolos a largo plazo. o en que 10 haga por
mecanismos distintos. Incluso si el desarrollo fuera una parte del apren-
dizaje general después de los primeros anos, podría requerir mecanismos
de arquitectura especiales al comienzo de la vida. Tales requisitos podrían
moldear la arquitectura de muchas otras maneras.
La autonomía en un entorno social es otro requisito (número <} en la
lista) en el que no podemos aún concretar funciones adicionales que haya
de sostener la arquitectura. No obstante, respecto al tema más general de la
autonomía. algunas cuestiones que han resultado ser importantes en arqui-
tectura de ordenadores incluyen la protección. la asignación de recursos y
el manejo de las excepciones. La protección permite que múltiples corn-
ponentes de un sistema se comporten de modo concurrente sin estorbarse
mutuamente. La asignación de recursos permite que un sistema trabaje con
sus recursos f nitos de tiempo y memoria. reciclando recursos a medida que
van quedando libres. El manejo de las excepciones permite que un sistema
se recupere de las situaciones de error que en caso contrario requerirían la
intervención de un programador (por ejemplo. una división entre cero o la
detección de una inconsistencia en una base de datos lógica).
Las cuestiones de autoconciencia (requisito 10) han sido reciente-
mente un tópico de investigación activa en informática. bajo el estan-

107
darte de la arquitectura de metanivel y de la reflexión (los artículos en
Maes & Nardi 1988 proporcionan una buena muestra). Las funcionali-
dades estudiadas incluyen cómo puede un sistema modelarse, controlar-
se, modificarse y razonar sobre sí mismo. Las técnicas para el manejo de
excepciones resultan ser un caso especial de la habilidad de un sistema
para razonar sobre sí mismo y modificarse. En el aspecto psicológico el
trabajo sobre metacognición nos ha hecho conscientes del modo en que
afecta a la actuación el conocimiento (o desconocimiento) de las propias
capacidades de una persona (Brown 1978). Hasta ahora. este trabajo no
parece tener claras consecuencias para la arquitectura, dado que está en-
focado en el desarrollo y uso de estrategias adaptativas que no parecen
requerir un acceso especial al estado de ejecución instantáneo del siste-
ma, que es obviamente la cuestión del soporte de arquitectura.

4. Ejemplo de arquitecturas: Act" )' Soar

Tenemos ahora un análisis de las funciones de la arquitectura cogni-


tiva y el modo general en que ésta responde a los requisitos de nuestra
primera lista. Para concretar este análisis vamos a examinar dos arqui-
tecturas cognit; vas, Act' (Anderson 1983) Y Soar (Laird. Newcll & Ro-
senbloom 1987). Act' es la primera teoría de la arq uitectu ra cognitiva
con suficiente detalle y completud que merezca ese nombre. Es fruto de
un largo desarrollo (Anderson & Bower 1973. Anderson 1976) y han
tenido lugar nuevos desarrollos desde que se escribió el libro definitivo
(Anderson 1986, Anderson & Thornpson 1988). Soar ha hecho una apa-
rición más reciente como teoría cognitiva (Newell 1987, Polk & Newell
1988. Rosenbloom, Laird & Newcll 1988l. Su historia inmediatamente
anterior e.., como arquitectura de IA (Laird. Rosenbloom & Ncwell 1986,
Steir et al. 1987), pero hunde sus raíces en trabajos psicológicos previos
(Newell & Simon 1972, Newell 1973. Rosenbloom & NewelI 1988). El
usar dos arquitecturas proporciona cierta variedad para ayudar a clari-
ficar las cuestiones y además permite cierto grado de comparación. Sin
embargo, nuestro propósito es poner en claro la naturaleza de la arquitec-
tura cognitiva, más que emitir un juicio entre ambas arquitecturas.

Visión general

Comenzaremos con un rápido vistazo general a los dos sistemas y a


continuación procederemos a recorrer iterativamente las funciones de la

108
segunda lista. La figura l3.3] nos da la estructura básica de Act, Hay una
memoria declarativa a largo plazo en forma de red semántica. Hay una me-
maria procedimental a largo plazo en forma de producciones. Se asocian
fuerzas a cada elemento de la memoria a largo plazo (tanto en Jos nodos
de la red como en las producciones) en función de su uso. Cada produc-
ción tiene un conjunto de condiciones que examinan los elementos de
una memoria de trabajo y un conjunto de acciones que crean nuevas es-
tructuras en la memoria de trabajo. La memoria de trabajo está basada
en la activación: contiene la porción activada de la memoria declarativa
y estructuras declarativas generadas por el disparo de las producciones y
por la percepción." La activación se propaga automáticamente (en fun-
ción de la fuerza del nodo) a través de la memoria de trabajo y de ahí a
otros nodos conectados en la memoria declarativa. La memoria de tra-
bajo puede contener meta:' que sirven como importantes fuentes de ac-
tivación. La activación. junto con la fuerza de la producción, determina
la rapidez con que se desarrolla el emparejamiento de producciones. La
selección de las producciones que se dispararán es un proceso competi-
tivo entre las producciones que encajan con los mismos datos. Se crean
nuevas producciones al compilar los efectos de una secuencia de dis-
paros de producciones y de recuperaciones de la memoria declarativa.
de modo que las nuevas producciones puedan ir directamente desde las
situaciones iniciales a los resultados finales. 10 Cada vez que se crea un
nuevo elemento en la memoria de trabajo. hay una probabilidad tija de
que se almacene en la memoria declarativa.
La figura (3.4] ofrece la correspondiente visión general de Soar, Hay
una única memoria a largo plazo. un sistema de producciones, que se
usa tanto para el conocimiento declarativo como para el procedimen-
tal. Hay una memoria de trabajo que contiene una jerarquía de metas,
información asociada con la jerarquía de metas, preferencias acerca de
lo que debe hacerse, información perceptiva y órdenes motoras. La inte-
racción con el mundo exterior se produce a través de interfaces entre la

9 Otra manera de ver la relación entre la memoria de trabajo y la memoria declarativa


a largo plazo es como dos manifestaciones de una sola memoria declarativa -ubyacente.
Cada elemento de esta memoria subyacente tiene dos bits ajustables de modo indepen-
diente asociados con él: si el elemento está activo (que determina ~i está en la memoria
de trabajo) y si es permanente (que determina si está en \¡J memoria declarativa a largo
plazo).
10 En Anderson IYS3 se describe Aci" de forma que tiene dos métodos adicionales
para crear nuevas producciones, la generalización y la di ..criminación, pero más adelante
~e mostró que eran innecesari o, (A nderson 1l)~ 6).

109
4.pllUlClón

M~ml,r¡a ¡\1f:'II1QTta
dpc arativa productiva

-------

Alm;¡cenóje Encaje

t\llemorld
ReclIpe raoon dé trabajo Ejecución

- ~
r r;
Actuaciones

t'.'1undo E:xlerno

FlfilIR.'\ ~.~

Vista general de la arquitectura cognitiva Act" (Anderson 1983)

I
I
l
Tlol eo

s .,ten-,ilS
11
)\S~éfílr\1)

percepuvGS .notores

'----- ~
I ~ \1 sculo"

¡Mundo externo !
FICil ;RA :3.4
Vista general de la arquitectura cognitiva Soar

110
memoria de trabajo y uno o más. sistemas perceptivos y motores. Todas
las tareas se formulan como búsquedas en espacios de problemas, esto
es, se parte desde algún estado inicial en un espacio y se encuentra un
estado deseado aplicando operadores que abarcan el espacio. En vez de
tornar decisiones acerca de qué producción ejecutar - todas las produc-
cienes yue se emparejan con éxito se disparan en paralelo- se toman
decisiones acerca de qué espacios de problemas, estados y operadores se
utilizan. Estas decisiones están basadas en preferencias recuperadas en
la memoria de trabajo desde la memoria de producciones. Cuando una
decisión resulta ser problemática (porque el conocimiento es incomple-
to o inconsistente). la arquitectura crea automáticamente una submcta y
la solución de problemas se torna la tarea de resolver el impasse en la
toma de decisiones. Esto genera una jerarquía de metas y, por tanto, de
espacios de problemas, Se crean continuamente nuevas producciones a
partir ele las huellas de la experiencia de Soar con la solución de proble-
mas basada en metas (un proceso llamado troceo (chunkingí);

Memoria

La memoria se identificará al preguntarse qué es lo que persiste en


el tiempo que pueda ser creado y modificado por el sistema. Tanto Ace
COITIO Soar tienen jerarquías de memorias que varían tanto en constantes
temporales como en volumen. En el extremo pequeño y rápido, ambas
tienen memorias de trabajo. La memoria de trabajo es una memoria tran-
sitoria que no puede mantener los datos durante un tiempo prolongado.
En Act esto e~ evidente porque la memoria de trabajo es un subconjun-
to activado de 13 memoria declarativa y por tanto crece y mengua con el
procesamiento de la activación. En Soar la memoria de trabajo aparece
como una memoria distinta. Su carácter a corto plazo deriva de que está
vinculada ::.1 metas y sus espacios de problemas. de modo que desaparece
automáticamente a medida que se resuelven estas metas.
Aparte de la memoria de trabajo ambas arquitecturas tienen me-
morras permanentes de tamaño ilimitado. tal y como precisa la univer-
salidad. Act- tiene dos de estas memorias. la memoria declarativa y la
memoria de producciones, con fuerzas asociadas a cada elemento de
cada memoria. La ruta normal que toma el conocimiento nuevo en Act
es desde la memoria de trabajo hacia la memoria declarativa y de aquí a
la memoria de producciones. La memoria declarativa viene antes que la
memoria de producciones en la jerarquía porque tiene tiempos menores

111
de almacenamiento y de acceso (aunque no puede conducir directamente
a la acción). Soar tiene sólo una memoria permanente de tamaño ilimita-
do. la memoria de producciones. que se usa tanto para el conocimiento
declarativo como para el procedimental. Soar no utiliza fuerzas.
La imagen expuesta es que Act' tiene dos memorias totalmente
distintas y que Soar tiene una que es similar a una de las memorias de
Act": Sin embargo, esta descripción superficial típica oculta algunos
aspectos importantes. Uno es que las producciones de Act" y Soar no
funcionan del mismo modo en sus sistemas respectivos (a pesar de que
tengan esencialmente la misma forma condición-acción). Las produc-
ciones de Act ' corresponden a operadores de solución de problemas.
Este es esencialmente el modo en que se usan las producciones en el
mundo de la lA y de los sistemas expertos. Las producciones de Soar
operan como una memoria asociativa. La parte de la acción de una
producción contiene las estructuras de símbolos que se mantienen en
la memoria: la parte de la condición proporciona la ruta de acceso a
estas estructuras ximbólicus. El disparo de una producción de Soar
es el acto de recuperar sus estructuras simbólicas. Los operadores se
implementan en Soar por medio de colecciones de producciones (o
búsqueda en las submetas). Otro rasgo oculto e~ que la memoria de
producciones de Act" se realiza como una estructura de red similar
en muchos aspectos a su red semántica. El efecto principal es que
la activación gobierna el ritmo de emparejamiento de producciones
del mismo modo en que la activación se propaga a 10 largo de la red
declarativa. Así que estas dos memorias no son tan distintas como
podría parecer.
Tanto en Act como en Soar el nivel de detalle de la memoria a largo
plazo (la unidad modificable de modo independiente) es relativamente
lino. al tratarse de la producción individual y, para la memoria declara-
tiva de Act", del nodo y la conexión. Esta es una unidad mucho mayor
que la palabra en ordenadores convencionales (en unos dos órdenes de
magnitud) pero mucho menor que el marco o el esquema (de nuevo en
unos dos órdenes de magnitud). Esla una característica importante de la
arquitectura. El marco y el esquema se han introducido bajo la hipótesis
de que la unidad de organización de la memoria tiene que ser relati-
vamente grande para expresar el carácter organizado del pensamien-
to humano (Minsky 1975). No es fácil hacer comparaciones de tamaño
entre unidades de organización de la memoria porque este es un punto
en el que se pone especialmente de manifiesto la naturaleza de cosmo-
visión idiosincrática que tienen las arquitecturas, y toda organización

112
de memoria tiene diversas unidades jerárquicas mayores y menores. No
obstante, tanto Act" como Soar se encuentran del lado del nivel fino de
detalle.
Las estructuras de memoria de Act" y Soar son las estructuras sim-
bólicas discretas familiares a partir de sistemas como Lisp. Existen di-
ferencias de detalle. Soar tiene una disposición uniforme de objetos con
conjuntos de atributos y valores. Act" tiene varias estructuras de datos
primitivas: atributos y valores (que se consideran el código proposicio-
nal abstracto), cadenas (que se consideran el código temporal) y matri-
ces tarravs) métricas <que se consideran el código espacial). El requisito
primario de una estructura de datos es et de variabilidad combinatoria
y todas estas estructuras 10 poseen. Las consideraciones secundarias se
refieren a las operaciones que se requieren para leer y manipular las
estructuras de datos, de acuerdo a lo que vengan a representar las estruc-
turas. Así pues. los ordenadores estándar tienen invariablemente rnülti-
pies estructuras de datos. cada una de ellas con operaciones primitivas
asociadas, por ejemplo. para la aritmética o el procesamiento de textos.
Acr' se inspira aquí en esta práctica estándar.

Símbolos

Los símbolos se identificarán al encontrar mecanismos que propor-


cionen acceso distal a estructuras de memoria que no estén ya involucra-
das en el procesamiento. Para Act' y Soar éste será el emparejamiento
de patrones del sistema de producciones, que es un proceso que co-
mienza con estructuras simbólicas en la memoria de trabajo y que de-
termina el disparo de una producción en cualquier lugar de la memoria
a largo plazo. Aquí los ejemplares de símbolos son las combinaciones
de elementos de la memoria de trabajo que encajan con las condiciones
de la producción. Cada parte de la izquierda de una producción es un
símbolo.
Para Soar este es el único mecanismo para el acceso distal (pues la
memoria de trabajo es esencialmente local). Para Act" hay además un
mecanismo para el acceso distal a su memoria declarativa, de hecho
una combinación de dos mecanismos. Primero, cada ejemplar que se
trae a la memoria de trabajo por el disparo de una producción (o por la
percepción) contacta con su nodo correspondiente en la red semántica
declarativa. Segundo. In propagación de activación opera entonces para
proporcionar acceso a los nodos asociados.

113
Resul ta útil identificar el par de características que dan MI sabor particu-
lar al acceso simbólico en los sistemas de producción. La primera caracte-
rística es el carácter dependiente del contexto que tiene el emparejamiento
de producciones. Las direcciones de máquina simples actúan como símbo-
10S independientes del contexto. No importa qué otras estructuras existan.
la dirección hace qll~ la información se recupere de la misma posición, I I
En un sistema de producciones un patrón particular puede ser un símbolo
que da como resultado un acceso independiente del contexto a las estructu-
ras de memoria, o (de modo más típico) puede conjugarse con patrones de
contexto adicionales para formar un símbolo más complejo que rr-stringe el
acceso parn que se produzca sólo cuando está presente el contexto.
El segundo rasgo e~ el carácter de reconocimiento que tiene el cmpa-
rejamicmo de producciones. Los ordenadores tradicionales acceden a la
memoria bien a través de punteros de posiciones de memoria arbitrarias
(de acceso aleatorio), bien por el acceso secuencial a posiciones adyacen-
tes (grandes almacenes secundarios]. En los sistemas de producciones los
símbolos se construyen con el mismo material que se procesa para la tarea,
de modo que el acceso a la memoria tiene un carácter de reconocimien-
to. asociativo o accedido por el contenido. Todas los esquemas pueden
sostener la universalidad; sin embargo, el esquema de reconocimiento
responde a J.o~ requisitos cognitivos adicionales. Primero. el acceso en
(aproximadamente) tiempo constante a la totalidad de la memoria respon-
de al requisito de tiempo real. Esto incluye acceso aleatorio y memorias
de reconocimiento. pero excluye a los sistemas de acceso secuencial tales
como las máquinas de Turing. Pero deben construirse esquemas de acceso
espectficos relevantes para la tarea. o el sistema quedará condenado a ope-
rar por generación y prueba (y lo mismo podría <cr una máquina de cinta).
Las memorias J~ reconocimiento construyen las rutas de acceso a partir de
los ingredientes de la tarea y por consiguiente evitan los actos deliberados
de construcción, que son precisos para 10S esquemas de posición-puntero.
Este puede ser en realidad un requisito esencial para un sistema de aprendí-
zajc que tenga LJue desarrollarse enteramente por sí mismo. La programa-
ción estándar implica programadores inteligentes que inventen esquemas
de acceso específicos basados en un análisis profundo de una tarea.!"

11 El direccionamiento virtual t virtual addressing) c\ un mecanismo que introduce

una cantidad fija de contexto, por ejemplo. una dirección de ba-,e.


12 Como -iernprc. sin embargo, existen contrapartidns. Los e-quemas de recono-
cunicnto xun mcuos tle xiblcs comparndos con los e-quemas de po... ición-puntcro. que
son un medio genuinamente independiente de la larca para construir esquelllJs de acce-,o
y. por con ... iguientc. pueden adaptarse por completo a la turea correvpondicntc.

114
Operaciones

Las operaciones se identificarán al preguntar cómo se construyen nue-


vas estructuras y cómo se establecen en la memoria a largo plazo. En los
sistemas de ordenador estándar la forma en la que se dan las operaciones
viene dictada por las necesidades de interpretación, esto es. por la estructura
de1lenguaje de programación. De modo típico, todo se ajusta dentro de una
estructura de operación-operando y hay un único conjunto heterogéneo de
todos los códigos de operación primitivos: cargar, almacenar. sumar. restar.
y. o, bifurcarse en cero (branch-on-teroí: ejecutar, etc. Algunas de éstas son
operaciones que producen nuevas estructuras simbólicas en la memoria.
pero otras afectan al controlo se ocupan de las entradas y salidas.
Los sistemas de producciones, en su definición clásica, operan tam-
bién de este modo. Las acciones de la derecha son estructuras operación-
operando que pueden especificar procedimientos generales. aunque hay
un conjunto estándar de operaciones predefinidas (crear. reemplazar.
borrar. escribir...). En algunos es posible ejecutar en la derecha una pro-
ducción o sistema de producciones especificado, y de este modo propor-
ciona un control sustancial a la parte derecha. Pero Act y Soar usan un
esquema bastante distinto.
La acción de la derecha se convierte esencialmente en la operación
de crear estructuras en la memoria de trabajo. Esta operación combina
focaliznción. modificación y creación: trae las estructuras que existan a la
memoria de trabajo. crea estructuras de memoria de trabajo que relacio-
nan estructuras existentes y crea estructuras nuevas si es que no existen.
Esta operación es coextenxiva con la recuperación de conocimiento de la
memoria a largo plazo (disparo de producciones). La dependencia de
la operación respecto L1 estructuras existentes (es decir, sus entradas) se
produce al emparejar las condiciones de la producción. Es este empareja-
miento con lo que )3 se encuentre en la memoria de trabajo el que permite
que ~e distingan las múltiples funciones de focalización, modificación y
creación y el que \e produzcan automáticamente. por así decirlo, en las
circunstancias apropiadas. De acuerdo con esto el acto de recuperación
desde la memoria a largo plazo (hacia la memoria de trabajo) no sucede
como una operación distinta que reproduzca el contenido de la memoria
a largo plazo en la memoria de trabajo. Más bien cada recuperación es un
acto de computación (de hecho la computación tiene lugar tan sólo con-
juntamente con tales recuperaciones), de modo que la memoria de trabajo
no es nunca la misma que la memoria almacenada y siempre es en alguna
medida una adaptación del pasado al presente.

115
En Act' y Soar el almacenamiento de información en la memoria a
largo plazo está separado del acto de computación en la memoria de tra-
bajo. Viene incorporado en forma de aprendizaje de nuevas produccio-
nes, que se llama compilación de producciones en Act" y troceo en Soar
pero que son. no obstante. operacíones similares. El contexto de adqui-
sición de producciones es la ocasión en que se da satisfacción o término
a una meta. y la producción que se construye abarca desde las condi-
ciones que se daban antes de la n.. eta hasta las acciones que provocaron
la resolución tinal. La producción se añade simplemente a la memoria
de producciones a largo plazo y resulta indistinguible de cualquier otra
producción. Esta producción es funcional y produce en un paso lo que
originalmente precisaba muchos pasos. También constituye una forma
imp lícita de general ización en tanto que sus condiciones se e xtraen del
contexto total de la memoria de trabajo en el momento del aprendizaje,
y así pueden ser evocadas en situaciones que pueden ser arbitrariamente
distintas de forma irrelevante para estas condiciones. La compilación
de producciones y el troceo van bastante más lejos del soporte mínimo
para el aprendizaje a partir de la experiencia que proporciona un sistema
simbólico estándar. Sin que medie un esfuerzo o elección deliberados.
adquieren automáticamente conocimiento nuevo que está en función de
su experiencia respectiva.
Act' tiene otras formas de memoria aparte de las producciones y debe
tener necesariamente operaciones de almacenamiento en cada una de ellas.
Todas ellas son operaciones automáticas que no se producen bajo el control
deliberado del sistema. Una es la fuerza de las producciones. que gobierna
la rapidez en que se procesan y. por consiguiente. si se volvenin activas en
una situación concreta. Cada disparo con éxito de una producción aumenta
un poco su fuerza y, pur tanto. aumenta la probabilidad de que se dispare si
es que es satisfecha (otra forma de aprendizaje de la experiencia). La segun-
da e~ el almacenamiento en la memoria declarativa. Aquí hay simplemente
una probabilidad constante de que un elemento recién creado se convierta
en parte pennancnte de la memoria declarativa. El aprendizaje declarativo
responde al requisito de aprendizaje del contexto. En Soar el troceo realiza
esta función además de su función de aprendizaje de la experiencia.

interpretación

La interpretación se identificará al encontrar en qué punto la con-


ducta del sistema se hace dependiente de las estructuras simbólicas en

11 (l
su memoria a largo plazo, en particular, de las estructuras que el propio
sistema creó anteriormente. Un modo aparentemente equivalente es en-
contrar qué estructuras de memoria corresponden al programa en los
sistemas de ordenador típicos, es decir. las estructuras simbólicas que
especifican una secuencia de operaciones: haz esto, después haz lo otro,
después haz aquello, aunque también admite condicionales y llamadas a
subprocedimientos. Esto e" s.e buscan estructuras de símbolos compac-
tas que controlen la conducta a 10 largo de un intervalo prolongado.
Buscaremos en vano estructuras de símbolos semejantes en las des-
cripciones básicas de las arquitecturas de Act' y Soar, (Por supuesto,
pueden existir estructuras de programa, pero requieren intérpretes del
software). Sin embargo, se produce claramente conducta dependiente de
la memoria y se deriva de múltiples fuentes: sistemas de producciones.
conocimiento de control para la solución de problemas y estructuras de
metas.
La primera fuente es en ambos sistemas la forma de la interpretación
inherente a los sistemas de producciones. Un sistema de producciones
desmenuza el control en trozos (chunks) independientes (las produccio-
nes indi v iduales) diseminados por toda la memoria de producciones, y
a cada ciclo entran elementos de datos de la memoria de trabajo. Este
régimen de contra] a menudo se conoce como dirigido por los da/mi.
por contraste con el dirigido por las metas, pero esta caracterización
pasa por alto algunos aspectos importantes. Otro modo de enfocarlo
es como un ciclo rcconocitniento-acciún por contraste con el clásico
ciclo extraccion-eiecucion que caracteriza a los ordenadores estándar.
De acuerdo con e~te enfoque, una dimensión importante de la inter-
pretación es la cantidad de toma de decisión que tiene lugar entre los
pasos. El ciclo extracción-ejecución tiene básicamente un solo puntero
en un plan y tiene que dar pasos deliberados (realizando pruebas y rami-
ficaciones) para conseguir alguna condicionalidad en absoluto. El ciclo
reconocimiento-acción abre la interpretación en cada momento a todo
aquello que la actual memoria de trabajo pueda sugerir. Esto sitúa al
emparejamiento de producciones dentro del ciclo de interpretación.
La segunda fuente e~ el conocimiento de control que se usa para
seleccionar operadores de solución de problemas. En Act' las produc-
ciones son los operadores de solución de problemas. Como se ha des-
crito en el párrafo anterior, la selección de producciones está en función
del emparejamiento entre los elementos de la memoria de trabajo y las
condiciones de la producción. Sin embargo. también entran en juego al-

117
gunos factores adicionales para determinar el ritmo de emparejamiento
y, por tanto. el que una producción se seleccione para su ejecución. Un
primer factor e~ la activación de los elementos de la memoria de trabajo
que se emparejan. Un segundo factor es la fuerza de la producción que
se empareja. Un tercer factor es la competición entre producciones que
encajan con los mismos elementos de la memoria de trabajo de maneras
diterentcs.
En Soar los operadores de solución de problemas se seleccionan
a través de un ciclo de decisión de dos fases. Primero, durante la fase
de elaboración se accede a la memoria de producciones a largo plazo
repetidamente (las recuperaciones iniciales pueden evocar recuperacio-
nes adicionales) y en paralelo (no hay resolución de conflictos). hasta
alcanzar la aquiescencia. Puede recuperarse cualquier elemento. pero
entre éstos hay preferencias que dicen qué operadores son aceptables.
rechazahles o preferibles a otros. Cuando se ha acumulado toda la in-
formación posible. el procedimícnto de decisión criba las preferencias
disponibles y toma la siguiente decisión, que así conduce al sistema ni
siguiente ciclo.
En realidad Soar usa ~ste mismo intérprete básico para algo más
que la mera selección del operador a ejecutar. Siempre está tratando de
tomar la decisión precisa para operar en un espacio de problemas: para
decidir qué espacio Je problemas usar. qué estado usar en ese espacio
de problemas. qué operador usar en ese estado y qué estado usar como
resultado del operador. Esto es lo que obliga él que toda la actividad
tenga lugar en los espacios de problemas. Esto contrasta con el ordena-
dor estándar. que asume que toda la actividad se produce al seguir un
programa arbitrario.
La tercera fuente de conducta dependiente de la memoria es el uso
de estructuras de meta. AcC proporciona un soporte especial de arqui-
tectura para una jerarquía de metas en su memoria de trabajo. La meta
actual es una fuente importante de activación que opera. por tanto. cen-
trando la atención al hacer destacar las producciones que la tienen entre
sus condicione". La arquitectura se encarga de las tareas de guardar las
submetas completadas con éxito y de mover el foco hacia subsiguien-
tes submetas, proporcionando un recorrido de búsqueda en profundidad
por la jerarquía de metas. Así pues. caracterizar el procesamiento como
dirigido por los datos vs dirigido por las metas es un tanto erróneo. Act"
es un ejemplo paradigmático de un sistema de lA que usa metas y mé-
todos para lograr la adaptabilidad (requisito 2 de la primera lista). Las

118
tareas complejas se controlan por medio de producciones que constru-
yen la jerarquía de metas al añadir conjunciones de metas que hay quc
lograr en el futuro.
Soar usa una e...trategia mucho menos deliberada para la generación
de metas. Cuando el procedimiento de decisión no puede producir una
única decisión a partir de la colección de preferencias que vengan a acu-
mularse (porque. por ejemplo, no quedan opciones aceptables o quedan
varias opciones indistinguibles) se alcanza un impasse. Soar asume que
esto indica una carencia de conocimiento: con conocimiento adicional
de sus preferencias se habría alcanzado una decisión. P(1r tanto, crea
una subrneta para resolver este impasse. lJ n impasse se resuelve en el
momento en que se generan preferencias, de cualquier naturaleza. que
conducen a una decisión de un nivel superior. Así pues. Soar genera sus
propias subrnetas a partir de los impusses que pueda detectar la arqui-
tectura, en contraste con Act, que genera sus sub metas a través de la
acción deliberada de sus producciones. El efecto de las submeras delibe-
radas se logra en Soar por la combinación de un operador, que S~ genera
y selecciona deliberadamente, y un impasse que se produce si no existen
producciones que implementen el operador. En la submeta para este im-
passe el operador actúa corno la cspcciticación de una meta a alcanzar.

lnteraccion con el mundo externo

Act. como es típico en muchas teorías de la cognición, se concentra


en la arquitectura central. Se asume que la percepción y la conducta
motora tienen lugar en sistemas de procesamiento adicionales fuera del
escenario central. La entrada llega a la memoria de trabajo, que de este
modo actúa como una memoria intermedia entre el flujo impredecible de
sucesos ambientales y el sistema cognitivo. Sin embargo, aparte de esto
la arquitectura sencillamente no se ha elaborado en estas direcciones,
Soar comienza a ser una arquitectura completa, que incrusta 1i:J ar-
quitectura central dentro de una estructura para interactuar con el mundo
externo. Como ~e muestra en 1<-1 figura [3.4]. Soar se considera como el
controlador de un sistema dinámico que inatcractúa con un entorno ex-
terno dinámico (situado en la parte inferior de la figura). Hay procesos
que transducen la energía del entorno en señales para el sistema. Se co-
nocen colectivamente como percepcion, aunque se encuentran ligados
tan sólo en 1a vertiente sensori al (1 a rransducción desde el entorno). De
modo similar. hay procesos que afectan al entorno. Se conocen colee-

119
tivamente como sistema motor, aunque se encuentran ligados tan sólo
en la vertiente de la acción física. Como en Act", la memoria de trabajo
sirve como memoria intermedia entre el entorno y la cognición central.
El sistema total consiste en algo más que ir de la percepción a la
cognición central y de aquí al sistema motor. Hay producciones. cono-
cidas como producciones de codificacion y producciones de dcscodi-
ficacion. Son idénticas en estructura y forma a las producciones de la
cognición central. Difieren sólo en su independencia del ciclo de deci-
sión: sencillamente van por libre. En el aspecto de la entrada, i:l medida
4ue los elementos llegan autónomarnente desde el sistema perceptual,
las producciones de codificación proporcionan lo que podríamos llamar
un análisis sintáctico tparsing) perceptivo. que deja los elementos en
una forma que la cognición central pueda considerar. En el aspecto de
la salida, las producciones de descodificación proporcionan In que' po-
dríamos llamar la descodificación en un programa motor de las órdenes
emitidas por el sistema cognitivo en la forma que use el sistema motor.
El propio sistema motor puede devolver elementos a la memoria de tra-
bajo (posiblemente analizados por las producciones de codificación),
permitiendo que sean monitorizados y ajustados.
Toda esta actividad no está bajo control: estas producciones recono-
cen y ejecutan a voluntad, de modo concurrente entre sí y con la cognición
central. El control e~ ejercido por la cognición central, que ahora podernos
ver que consta básicamente de la arquitectura del mecanismo de decisión.
del cual fluye el ciclo de decisión. los irnpasses, la pila de metas y la or-
ganización del espacio de problemas. Además, la cognición central opera
esencialmente como una forma de control supervisor localizado que se
ejerce sobre las actividades autónomas y continuas de la memoria de tra-
bajo generadas por los sistemas perceptivos. los sistemas motores, y sus
producciones de codificación y descodificación asociadas.
Esto permite comprender una cuestión de arquitectura que ha con-
sumido mucha atención. a saber. ¡.dónde reside el carácter serial de la
cognición? La cognición central es sin duda serial. que es a lo que obliga
el mecanismo de decisión, y por tanto sólo puede tomar en considera-
ción parte de lo que suceda en la memoria de trabajo. El sistema serial
se encuentra i 111 puesto sobre L1n mar de acti vidad paralela autónoma para
asumir el control. esto es, para que el sistema pueda evitar que ocurran
acciones que no son de su interés. Así pues, la serialidad es un rasgo de
diseño del sistema. La scrialidad puede producirse también por otras ra-
zones. que se pueden resumir en líneas generales como restricciones de

120
recursos o embudos. Tales embudos pueden provenir de la naturaleza de
la tecnología subyacente y ser por tanto una limitación del sistema.
Las capacidades de interrupción se identificarán al hallar dónde pue-
de cambiar la conducta de una línea a otra que es radicalmente diferente.
En Act" el cambio ocurre por medio de la propiedad básica de selección
máxima que tiene un mecanismo de activación: el proceso que pueda
ofrecer la mayor activación puede hacerse con el control de la conducta.
En Soar el cambio se produce por medio del ciclo de decisión: podrá
controlar la conducta aquello que pueda poner en orden las preferencias
convenientes comparadas con las alternativas que compiten. El cambio
puede así producirse en un nivel fino de detalle. Tanto para Act" como
para Soar su mecanismo básico de cambio es también un mecanismo de
interrupción. puesto que las alternativas procedentes de todo el sistema
compiten en pie de igualdad. Esto surge del carácter abierto de los sis-
temas de producciones que contactan con la totalidad de la memoria a
cada ciclo. Así que a cada instante pueden producirse cambios radica-
les de rumbo. Esto contrasta con los ordenadores estándar. Aunque es
posible que haya cambios arbitrarios a cadu instrucción (por ejemplo,
bifurcarse en cero a un programa arbitrario), tales cambios deben deter-
minarse deliberadamente y por medio del programa (preconstruido) que
ya tiene el control. Por tanto. la cuestión para el ordenador estándar es
cómo interrumpirse. mientras que la cuestión para Soar y Act" (y presu-
miblemente para la cognición humana) es cómo mantenerse enfocado.
El aprendizaje a partir del ambiente conlleva el almacenamiento a
largo plazo de estructuras que están basadas en las entradas al siste-
ma. Act" almacena nuevas entradas en la memoria declarativa con una
probabilidad fija, a partir de la cual las entradas pueden ingresar en la
memoria de producciones por medio de la compilación, un proceso LJue
debería poder ir al ritmo de las exigencias de un entorno cambiante.
Soar almacena nuevas entradas en la memoria de producciones a través
del troceo. Esto implica que una entrada debe usarse en una submeta
para llegar a almacenarse y que el ancho de banda del entorno hacia la
memoria a largo plazo evtará en función del ritmo al que puedan usarse
las entradas del entorno.

Resumen

Acabamos de instanciar las funciones de la arquitectura cognitiva


para dos arquitecturas, Soar y Act", usando sus puntos comunes y sus di-

121
ferencias para evidenciar cómo realizan estas funciones sus estructuras.
L("\~ puntos comunes de Act y Soar son considerables, principalmente
porque ambas están construidas alrededor de sistemas de producciones.
Hemos visto que lo." sistemas de producciones o. de modo más general,
las arquitecturas basadas en el reconocimiento son una especie de ar-
quitectura que responde al requisito de tiempo real, que es claramente
uno de los que moldean más poderosamente la arquitectura, aparte de la
necesidad básica de computación simbólica.
El paso hacía los sistemas de producciones es, sin embargo. sólo el
primero de tres avances importantes que han desplazado a Act ' y Soar
conjuntamente hacia una parte del espacio de arquitecturas muy dife-
rente de la de todos los ordenadores clásicos, El segundo avance es el
abandono del formalismo de aplicación que supone aplicar operaciones
a los operandos. Este abandono no es una parte intrínseca de los sis-
temas de producciones, como lo evidencia el uso casi universal de la
aplicación en la parte de la acción de las producciones. Este segundo
avance encierra las operaciones realizadas sobre estructuras simbólicas
dentro de los actos de recuperación de la memoria. El tercer avance es la
separac ión del ac to de almacenar estructuras sim bó Iiras en la memoria a
largo plazo, los mecanismos de aprendizaje de Act ' y Soar, de los actos
deliberados de realizar tareas.
Hay algunas diferencias de arquitectura entre Act y Soar, aunque
no todas parecen ser diferencias substanciales cuando se las examina
cuidadosamente. Un ejemplo es la memoria dual declarativa y proce-
dimental de Act" frente a la memoria única de producciones de Soar.
Otra es el uso de la activación en Act" frente al uso de ejecuciones de
producción acumuladas (la fase de elaboración) de Soar, Una tercera es
el compromiso con espacios de problemas múltiples y el mecanismo
de impasse de Soar frente al entorno de espacio único con submetas
deliberadas de Act". Así pues. estas arquitecturas difieren lo bastante al
explorar una región del espacio de arquitecturas.
La desventaja de usar para la exposición dos arquitecturas estre-
chamente relacionadas es que 110 conseguirnos hacer que se aprecie lo
variado y rico en alternativas que es el espacio de arquitecturas. For-
zando un poco podríamos afirmar que hemos tocado tres puntos en el
espacio de arquitecturas: arquitecturas clásicas (von Neurnann). sis-
temas clásicos de producciones y Act" y Soar, Pero podríamos haber
examinado de modo provechoso lenguajes de aplicación (por ejemplo,
Lisp; cf. Steele 1984), lenguajes de programación lógica (por ejemplo,

122
Prolog; cf. Clocksin & Mcllish 1984), sistemas de marcos (o de esque-
mas) (por ejemplo. KLONE; cf. Brachman 1979). arquitecturas de pizarra
(por ejemplo. SS 1: cf. Hayes-Roth 1985), y también otras. Así mismo,
podríamos haber explorado el efecto del paralelismo. que tiene por sí
mismo muchas dimensiones relativas a la arquitectura. Esto ultimo se
ha excluido porque viene motivado principalmente por la necesidad de
explotar o compensar la tecnología de implementación. aunque (como
se ha señalado muchas veces) puede servir también como respuesta al
requisito de tiempo real.

5. La utilidad de las arquitecturas

Dado que la arquitectura e~ un componente del sistema cognitivo


humano. no es preciso justificar el que se invierta esfuerzo científico en
ella. Comprender la arquitectura es un proyecto científico por derecho
propio. La arquitectura. no obstante. en cuanto marco en que se realiza
todo el procesamiento y en cuanto locus de restricciones estructurales
sobre la cognición humana. se presentaría como el elemento central de
una teoría de la cognición. Esto parecería implicar que la arquitectura
toma parte en todos los aspectos de la cognición. Lo que mantiene a esta
implicación a raya es el hecho (señalado ya repetidas veces) de que las
arquitecturas se ocultan bajo el nivel del conocimiento. Para muchos
aspectos de la vida cognitiva humana lo que CUenta son las metas. la si-
tuación de la tarea y el conocimiento general (Incluyendo la educación,
socialización. y culturización), Por tanto la arquitectura puede ser crítica
para la cognición, lo mismo que 10 e~ la bioquímica, pero con conse-
cuencias sólo circunscritas para In conducta en curso y su estudio.
¿Cómo S~ usa entonces una teoría detallada de la arquitectura en
ciencia cognitiva. aparte de para llenar su propio hueco del cuadro? Hay
cuatro respuestas parciales a esta cuestión, de las que nos ocuparemos
segu idarnente.

Establecimiento de parámetros generales

La primera respuesta presupone que la arquitectura tiene grandes


efectos sobre la cognición. pero que estos efectos se pueden resumir en
un pequeño conjunto de parámetros muy generales. La siguiente lista
reúne un conjunto de estos parámetros, que son familiares a todos los

123
científicos cognitivos: el tamaño de la memoria a corto plazo, el tiempo
que precisa una operación elemental, el tiempo para realizar un mo-
vimiento en un espacio de problemas y el ritmo de adquisición de la
memoria a largo plazo:

1. Unidad de memoria: ] trozo compuesto por 3 subtrozos.


2. Tamaño de la memoria a corto plazo: ~ trozos más 4 trozos de la
memoria a largo plazo.
~. Tiempo para cada operación elemental: 100 ms.
4. Tiempo para cada paso en un espacio de problemas: 2 seg.
5. Tiempo para aprender material nuevo: I trozo cada 2 seg.

No es posible razonar sólo desde los parámetros. Los parámetros


siempre implican un modelo de fondo. Incluso para completar la lista
es necesario definir una unidad de memoria (el trozo) que entonces ya
implica una estructura de memoria jerárquica. Igualmente, juntar una
secuencia de operaciones elementales y sumar sus tiempos ya es definir
una estructura de procesamiento funcionalmente serial.

Los diagrama" de bloques que han sido un distintivo estándar de la


psicología cognitiva desde mediados de los 50 (Broadbent 1954) expre-
san el tipo de estructura mínima de arquitectura implicada. En su mayoría
son demasiado esquemáticos. en concreto, proporcionan tan sólo una ima-
gen de las memorias y de sus rutas de transferencia. En la figura 13.:<'] se
muestra una versión algo más completa, llamada el procesador hUJ11ll1'w
modelo (Card. Moran & Newell 1983), que indica no sólo las memorias
sino una estructura de procesador con tres procesadores paralelos: percep-
tivo, cognitivo y motor. Los sistemas perceptivo y motor suponen múlti-
ples procesadores concurrentes para diferentes modalidades y sistemas
musculares, pero sólo hay un único procesador cognitivo. Los parámetros
de ambas figuras tienen mucho en común. Por supuesto. la figura I ~.5 J C~
un imagen estática. Su misma carencia de detalle da a entender una estruc-
tura de procesamiento de lo más simple. De hecho se puede suplementar
con algunos principios generale~ de operación moderadamente explícitos
(Card, Moran & Newe11 19R~), como el que 1a incertidumbre siempre
incrementa el tiempo de procesamiento. Estos principios son de alguna
ayuda al usarla. pero están lejos de hacer del esquema una arquitectura
completa. En particular, las operaciones elementales y los detalles de in-
terpretación pemlanecen esencialmente sin definir.

Si el modo en que la arquitectura influencia la conducta se puede


resumir en un pequeño conjunto de parámetros más un simple modelo
.," -.-
...... ----
_'4U- U I_
"..,..~ "'1-""'"
~tll'lJU_
'..JI-" '111)'_1_
'-I'-I-'It-)OI_
L--"'----'-_ _.......... '-=---'----,-_---' .~ _ .... ,,_

FIGURA ~.5

Diagrama de bloque del modelo del procesador humano


(Card, Moran.y Newe1l1983)

abstracto de fondo. entonces la contribución del estudio de la arquitec-


tura es doble. En primer lugar, dado un esquema establecido como el de
la figura [3.5]. hay que concretar los parámetros, comprender su varia-
bilidad, descubrir su mutabilidad, evaluar los límites de su uso. etc. En
segundo Jugar, el modelo general de procesamiento puede estar equivo-
cado. no por ser una aproximación muy general (que está presupuesto)
sino por ser el tipo equivocado de formulación. Si se reemplazara por un
tipo diferente de formulación, entonces las inferencias podrían ser más
fáciles, quizás fuera posible un conjunto más amplio de inferencias, etc.
Un ejemplo semejante de los años 70 es la sustitución del modelo de la
memoria como almacenes múltiples por un modelo que contiene una

125
única memoria dentro de la cual se distingue la información sólo por la
profundidad en la que se ha procesado (Craik & Lockhart 1972).

Lajorma de la conducta cognitiva simple

Realizar una tarea compleja conlleva efectuar una secuencia de


operaciones básicas en un orden condicionado u los datos de entrada.
Hay muchas cosas de interés psicológico que dependen de que se co-
nozca la secuencia de operaciones que realizan Jos humanos en una
tarea dada y se ha concentrado mucho esfuerzo en psicología, experi-
mental y teórica. para encontrar tales secuencias. Esto resulta especial-
mente cierto de tareas que son principalmente cognirivas. en las que
las operaciones percepti vas y motoras sólo juegan un pequeño papel
en la secuencia total.
La arquitectura dicta tanto las operaciones básicas como la forma
en las que se especifican los ordenamientos de las operaciones. esto
es. el modo en que se codifican simbólicamente las especificaciones
de la arquitectura. Por tanto la arquitectura juega algún papel para
determinar tale" secuencias. Sin embargo, para tareas de cualquier
complejidad es posible realizar 1;] conducta con éxito de maneras muy
distintas. En el fondo esto es simplemente el hecho bruto de que exis-
ten métodos o algoritmos diferentes para una tarea dada, como cuando
podemos buscar con un espacio en profundidad. o en amplitud o prime-
ro el mejor (best-first). o sumar una columna de números empezando
por arriba o por ahajo. Así pues, anotar la secuencia de operaciones
que sigue un sujeto para una tarea compleja. dada únicamente la arqui-
tectura y la tarea. es casi imposible. Está demasiado subdctcrminado
y los otros factores, que resumimos como el conocimiento del sujeto,
son todos ellos importantes,
A medida que disminuye el tiempo para realizar una tarea, sin em-
bargo, disminuyen las opciones respecto a qué secuencias podrían rca-
lizar una tarea. En efecto. supongamos que la constante temporal de las
aperne iones de datos pri m it ivas de la arq u ¡tectura es de unos 100 ms
y que solicitamos que se realice una tarea en unos 0.1 rns, entonces la
respuesta es clara sin más que añadir: no puede realizarse. La simpli-
cidad de la tarea no representa ninguna diferencia (por ejemplo. ¿.~on
idénticos dos nombres"). Supongamos que la tarea tiene que realizarse
en unos 100 ms. Entonces un examen minucioso de los procesos básicos
de la arquitectura revelará lo que puede hacerse en un solo periodo de

126
operación. Si la actuación es posible en absoluto, probablemente será
única: hay un solo modo de comprobar la identidad de nombres en una
única operación básica. aunque es concebible que una arquitectura pu-
diera ofrecer un número finito de alternativas. A medida que aumenta el
tiempo disponible, aumenta lo que puede llevarse a cabo y aumenta el
número de modos de real izar una determinada tarea. Si se dispone de
100 scg. entonces hay probablemente varios modos de determinar si dos
nombres son idénticos. No obstante, la restricción vuelve a darse si las
exigencias de actuación aumentan deprisa.
Por tanto, hay una región en la que conocer la arquitectura posi-
bilita plantear conjeturas plausibles acerca de las secuencias de ope-
ración que usarán los humanos en una tarea. Consideremos la tarea
de búsqueda en la memoria explorada pur Sternberg y [discutida por
Bower & Clapper en el capítulo [7]] en relación a la metodología de
factores aditivos. El sujeto ve en primer lugar un conjunto de irerns H,
p YZ y después un ítem de prueba Q y debe decir lo más rápido posible
si el Ítem de prueba era uno de los de la secuencia. Hay tres regulari-
dades que hicieron famoso a este experimento. Primero, el tiempo de
respuesta es lineal respecto al tamaño del conjunto inicial (tiempo de
respuesta = 400 + 3 . 40 = 520 ms para el caso de arriba). ]0 cual su-
giere poderosamente el empleo de búsqueda (y prueba) serial a 40 ms
por ítem. Segundo, se mantiene la misma relación lineal con la misma
pendiente de 40 ms por Ítem tanto si el Ítem está en la lista como si no.
Esto contradice la estrategia obvia de finalizar la búsqueda cuando ~e
encuentre un ítem que coincide con el de prueba, lo cual conduciría a
una aparente tasa media de búsqueda para items de prueba positivos
que fuera la mitad que la de los items negativos: por término medio
se examinaría sólo la mitad de la lista para un ítem de prueba positivo
antes de encontrarlo. Tercero. la tasa de búsqueda (40 ms por ítem) es
muy rápida: los humanos emplean más de 100 ms por letra para decirse
el alfabeto a sí mismos.
reamo nos informan Bower & Clapper [capítulo 7J,J esta situación
experimental se ha explorado de muchas maneras diferentes y ha dado
lugar a un importante método experimental (el dcfactores aditivosv para
evaluar cómo toman parle los diferentes factores en los fenómenos. Para
nosotros el foco se centra en la velocidad a la que parecen suceder las
cosas. Los acelerados tiempos de reacción de unos 400 ms se acercan
ya a la arquitectura. y los fenómenos que suceden un orden de magni-
tud más rápido (40 ms por ítem) deben acercarse al límite inferior de
la arquitectura. Esto es especialmente patente cuando se considera que

[27
las neuronas son esencialmente dispositivos de l-rns, de modo que los
circuitos neuronales son dispositivos de ID-rus.

Con sólo los fenómenos de Sternberg, incluyendo estos límites ajus-


lados, no se pueden inferir los mecanismos que los realizan. De hecho
la situación de Sternberg se ha estudiado para mostrar que no se puede
siquiera inferir si la «búsqueda» tiene Jugar en serie o en paralelo. Con
una arquitectura dada, sin embargo, las cosas se vuelven muy distintas.
Por ejemplo, con Act.Jas constantes temporales implican que a las pro-
ducciones les lleva un tiempo relativamente largo disparar, del orden
de los 100 ms. Así, el efecto Stemberg no puede ser debido a disparos
múltiples de producciones. Por consiguiente. debe tratarse de un fenó-
meno de propagación de la activación. De hecho la explicación ofrecida
por Anderson para el efecto Sternberg se basa en la propagación de la
activación (Anderson 1983, pp. 119-120). Hay dos producciones, una
para decir sí si el Ítem de prueba está allí y otra para decir no si no lo
está, que definen el modo en que el sujeto realiza la tarea, y después un
cálculo basado en el flujo de activación muestra que éste se aproxima al
efecto. El aspecto importante para nosotros es que las dos producciones
son el modo obvio de especificar la tarea en Act" y hay pocas altcmati-
vas si las hay.

Si pasamos a Soar, hay un análisis análogo. Primero, las restric-


ciones generales de tiempo suponen que las producciones deben ser
mecanismos de lü-ms, de modo que el ciclo de decisión es básica-
mente un mecanismo de ]Oü-ms. aunque las tareas aceleradas le obli-
garían a reducir el tiempo (Newell 1987). Por tanto, la elección y
ejecución de operadores llevarán demasiado tiempo para usarlas en
la búsqueda y procesamiento de los items del conjunto (a 40 rns cada
uno). Por consiguiente, el efecto Sternberg debe ocurrir dentro de un
único Licio de decisión y el procesamiento del conjunto debe ocurrir
al ejecutar un pequeño número de producciones (de una a tres) para
cada ítem. El hecho de que el ciclo de decisión tienda a la aquiescen-
cia parecería estar relacionado con el que se procesen todos los items
del conjunto, tanto si el ítem coincide como sí no. Estas restricciones
no concretan el programa exacto para la tarea de búsqueda en la me-
moria de modo tan completo como en Act", pero especifican muchas
de sus caracrerísticas. Nuevamente el punto importante aquí es que
cuanto más cerca de la arquitectura esté la tarea, podremos predecir
mejor a partir de la estructura de la arquitectura el programa real que
usan los humanos.

128
Conexiones ocultas

Una arquitectura proporciona una forma de unificación para la


ciencia cognitiva. que surge. como hemos visto, de que todos los hu-
manos lleven a cabo todas las actividades por medio del mismo con-
junto de mecanismos. Como también hemos visto, estos mecanismos
comunes trabajan mediante el contenido (esto es, el conocimiento L
que varía según personas, tareas, ocasiones e historia. Por tanto, hay
una inmensa variabilidad de conducta y muchos fenómenos de la vida
cognitiva se deben a estas otras fuentes.

Un papel potencial importante para los estudios de la arquitec-


tura es el de revelar las conexiones ocultas entre actividades que en
base al contenido y la situación parecen bastante distantes entre sí.
Las conexiones surgen. por supuesto, debido a que se basan en los
mismos mecanismos de la arquitectura. de modo que, una vez dada
la arquitectura, puede que no sean sutiles ni oscuras. Un ejemplo de
esto es el modo en que el troceo ha venido a jugar un papel central
en muchas formas de aprendizaje diferentes. como la adquisición de
macro-operadores, la adquisición de heurísticos de búsqueda-control,
la adquisición de conocimiento nuevo, la compilación de restriccio-
nes, el aprendizaje a partir de indicaciones externas, etc, e incluso en
conductas que tradicionalmente no se consideran de aprendizaje como
la creación de planes abstractos t Steier et al. 1987). Anteriormente se
desarrollaban mecanismos de propósito especial para estas diversas
acti vidades.
Además del deleite que procede directamente del dexcubrirniento
de la causa de cualquier regularidad científica, revelar las conexiones
distales es útil pues se suma a la restricción que está disponible al descu-
brir la explicación de los fenómenos. Un ejemplo, otra vez del dominio
de Soar, es el modo en que el troceo, cuya ruta en Soar era a través de
un modelo de la práctica humana, ha proporcionado el comienzo de un
modelo muy restringido del aprendizaje verbal (Rosenbloom, Laird &
N ewel1 I yg8). Usar el troceo como la base de I aprendizaje verbal le
obliga a proceder de modo reconstructivo -aprender a recuperar un
ítem que se ha presentado requiere la construcción de una representa-
ción interna del ítem a partir de estructuras que ya era posible recupe-
rar-- y está conduciendo al modelo. por razones funcionales. a un punto
en que tiene muchas similitudes con el modelo EPAM de aprendizaje
verbal (Feigenbaum & Simon 1984).

129
Eliminación de! grados teóricos de libertad

Uno de los pruritos de Jos científicos cognitivos desde los primeros


días de la simulación computacional de la cognición es que para hacer que
funcione una simulación es necesario especificar muchos procedimientos
y estructuras de datos que no tienen justificación psicológica. No hay nada
en la estructura del programa de simulación que indique qué procedimien-
tos (o en general qué aspectos) pretenden ser psicológicos y cuáles no.
Un resultado pequeño pero real de las arquitecturas completas es pro-
porcionar alivio para este prurito. Una propuesta de arquitectura es una
propuesta de un sistema operacional completo. No se requieren procesos
adicionales y ni siquiera son posibles. Así. cuando se produce una simula-
ción dentro de una arquitectura tal, todos los aspectos del sistema poseen
pretensiones empíricas. Esto puede verse en el caso de Soar: o;;e afirma que
cI ciclo de decisión es el modo en el que los humanos efectúan elecciones
sobre qué hacer y que los impasses son reales y conducen al troceo. Se
afirma que toda producción es psicológicamente real y que corresponde a
un bit accesible de conocimiento humano. Y las afirmaciones continúan. Se
puede hacer un conjunto similar de afirmaciones para Act, Muchas de estas
afirmaciones (para Act o Soar) pueden ser, y sin duda lo son, falsas. Este es
meramente el destino de las teorías inadecuadas e incorrectas que no consi-
guen corresponder a la realidad. Pero no hay un estatus especial para aque-
llos aspectos que no se cree que representen lo que sucede en la mente.
Todo lo que e~to hace es eliminar el estatus especial un tanto peculiar
de las teorías basadas en la simulación y devolver estas teorías al terreno
ocupado por todas las demás teorías científicas. Haya menudo aspectos
de la arquitectura que son desconocidos y que se encuentran cubiertos
por supuestos explícitos, que están sujetos a análisis. A menudo se pos-
tulan sin más aspectos importantes de una teoría total. como el que los
contenidos iniciales de la mente resulten del aprendizaje previo y de las
condiciones externas, y la conducta es de modo invariable sumamente
sensible a esto. El análisis hace frente lo mejor que puede a tales incerti-
dumbres y el problema no es diferente con las arquitecturas.

6. Conclusiones

Un modo apropiado de terminar este capítulo es planteando algunas


cuestiones que revelan algunos pasos importantes adicionales que se
requieren para aspirar a conseguir una teoría adecuada de la arquitectura

130
cognitiva. Estas cuestiones tienen sus raíces en aspectos más generales
de la ciencia cognitiva. pero nuestra atención ~e Centra en las consecuen-
cías para la arquitectura cognitiva.
La lista de requisitos que podrían moldear la arquitectura contiene
algunos elementos cuyos efectos sobre la arquitectura no conocemos
aún, en particular las cuestiones de adquirir capacidades durante el de-
sarrollo, de vivir autónornamcntc en una comunidad social y de exhibir
autoconciencia y un sentido del yo (requisitos g-l O).
Otra cuestión es el efecto sobre la arquitectura del hecho de ser una
creación de la evolución biológica que se originó a partir de estructuras
previas moldeadas por los requisitos de la función previa. Así pues, es-
peraríamos que la arquitectura estuviera acusadarnente moldeada por la
estructura de los sistemas perceptivo y motor. De hecho, sabernos por
los estudios anatómicos y fisiológicos que extensas cantidades del ce-
rebro y la médula espinal están dedicadas a estos aspectos. La cuestión
L~ qué tipo de arquitectura se desarrolla !'li evoluciona a partir de los
sistemas perceptivo y motor de Jos mamíferos. que existen como contro-
ladores sofisticados pero incapaces aún de la flexibilidad que proviene
de la programabilidad completa. Por debajo del nivel de la organización
de los sistemas perceptivo y motor. por supuesto, está su realización en
grandes circuitos neuronales densamente interconectados. Aquí. con los
esfuerzos conexionistas (capítulo [41) se está intentando vigorosamente
comprender cuales son las consecuencias para la arquitectura.
Una cuestión análoga es la relación de la emoción, el sentimiento y
el afecto con la cognición. A pesar del interés recientemente despena-
do y de una larga historia en la psicología (Frijda 1986 L no existe aún
una integración satisfactoria de estos fenómenos en la ciencia cognitiva.
Pero el sistema mamífero está claramente construido como un sistema
emocional, y necesitarnos entender de qué modo moldea esto la arqui-
tectura, si es que lo hace en absoluto.)}
Concluimos indicando que la mayor cuestión abierta con respecto a la
arquitectura en ciencia cognitiva no reside en todos estos fenómenos cuyo
impacto en la arquitectura sigue siendo oscuro. Más bien es nuestra falta
casi total de experiencia en trahajar con arquitecturas cognitivas comple-
las. Nuestras teorías cuantitativas y razonablemente precisas han sido es-

l' Los sentimientos y emociones pueden tratarse como análogos a las sensaciones
de modo que pudieran afectar al contenido del sistema cognitivo. incluyendo incluvo
...eñalcs insistentes. pero sin afectar de todos modos él la forma de la arquitectura.

131
trechas; nuestras teorías generales han sido amplias y vagas. Incluso donde
nos hemos aproximado a una arquitectura razonablemente comprehensiva
(Act' es el ejemplo principal). trabajar con ella ha sido lo bastante arcano y
difícil para que no hayan emergido comunidades de científicos cualificados
en su arte. Así que sabemos poco acerca de qué rasgos de una arquitectura
dan cuenta de qué fenómenos, qué aspectos de una arquitectura conectan
qué fenómenos con otros, y cómo son de sensibles a las variaciones en la
arquitectura las diversas explicaciones. Prácticamente la única experiencia
que tenemos con los usos de las arquitecturas descritos en la sección [51 es
el análisis con parámetros generales.
Estos tipos de comprensión no emergen de un solo estudio o de
muchos estudios realizados por un único investigador. Provienen de que
haya mucha gente que explora y ajusta la arquitectura para muchos pro-
pósitos diferentes hasta que las derivaciones de los diversos fenómenos
de la arquitectura se hacen estándar y se comprenden. Provienen. como
con tantos aspectos de la vida. de vivirlos.

Referencias

AGRAWAL, D. P. 1986. Advanced Computa Architecture. Washington, OC:


Computer Society Press.
ANDE:.RSON.1. R. 1976. Language, Memory and Thought. Hillsdale, NJ: Erlbaum.
ANDERSON, 1. R. 19R~. The Architecture ot Cognition. Cambridge, MA: Har-
vard University Press.
ANDERSON, J. R. 1Y86. «Knowledge cornpilation: The generallcaming mecha-
nisms». In R. S. Michalski, J. G. Carbonell, and T. Mitchell, eds. Machine
Learning: An Artificial Inteltigence Approach. Vol. 2. Los Altos, CA: Mor-
gan Kaufrnann Publishers, Ine.
ANDERSON, J. R., and BOWER, G. 1973. Human Associative Memory, Washing-
ton, OC: \Vinston.
ANDERSON, 1. R.. and THO~lPSON, R. 1988. "<Use of analogy in a production
systern architecture». In S. Vosniadou and A. Ortony, cds, Similarity and
Analogical Reasoning. New York: Cambridge University Press.
BELL. C. G., and Ncwell, A. 1971. Computa Structures: Readings and Exam-
ples. Ncw York: MeGraw-Hill.
BRACHMAN, R. J. 1979. «On the episternological status of semantic networks».
In N. V. FrNDLf:.R. ed. Associative Networks: Represcntation and Use of
Knowledge b» Computers. New York: Academic Press.
BROADBENT. D. E. 1954. «A mechanical model for human attention and imme-
diate memory». Psvchologicol Review 64: 205.

132
BROWN. A. L 1978. «Knowing when, where, and how to rernember: A problem
in metacognition». In R. Glaser, ed. Advances in Instructional Psvcholoey.
Hillsdale, NJ: Erlbaum.
CARD, S., MORAN. T. P., and Nr-.WELL. A. 1983. The Psychologv of HU11ILlII-
Computa lnteraction. Hillsdale. NJ: Erlbaum.
CLOCKSLN, W. F., and MCLLlSH, C. S. 19~4. Programming in Prolog. 2nd ed.
New York: Springer- Verlag.
CRAIK, E I. M., and LocKHART. R. S. [(H2. «Levcls of processing: A framework for
memory research». Journal of verbal Learning and Verbal Behavior 11: 671-
684.
FUGENB;\l'M, E. A .. and SIMON, H. A. 1984. «El'Alvl-like models ofrecognition
and learning-. Cognitive Science ~: 305-336.
FERNANDEZ. E. B.. and LAN<i, T. 1986. Software- Orirnted Computer Architec-
ture. Washington, DC: Computcr Society Press.
FRIJDA\ N. H. 198h The Emotions. Cambridge, Engl.: Cambridge University Prcss.
GAJ5¡":1. D. D.. MILUTINOVIC, V. M" SIEGEL, H. J., and FURHT. B. P. 1987. Com-
puter Architecturc, Washington, DC: Computer Society Press.
HAYES-RoTH, B. 1985. «A blackboard architecture for control». Artificial Inte-
lligence 26: 251-321.
HOPCROFf. J. E., and U LLMAN . J. D. 1979. lntroduction to Automata Theorv,
Languages and Computution. Reading. MA: Addison-Wesley.
KLAHR. D. 1989. «lnformation processing approaches to cognitive develop-
ment». In R. Vasta. ed. Annals of Child Development. Greenwich. CT: JAl
Prcss, pp. 131-183.
LAIRD, J. E., NEWELL, A .. and ROSENBLOOM. P. S. 1987. Soar: «An architecture
for general intelligence», Artificial lntelligence 33(1): }-64.
L~IR(). J. E., ROSENBLOOM, P. S., and NEWELL, A. 1986. «Chunking in Soar: The
anatorny of a general learning rnechanism». Machine Learning 1: 11-46.
MAE~, P., and NARDI, D .. eds, 1988. Meta-Leve! Architectures and Reflection.
Arnsterdarn: North-Holland.
MIN~KY. M. 19(,7. Computation: Finite and infinite machines. Englewood
Clirf~. NJ: Prentice-Hall.
MINSKY, M. I Q75. «A framework for the reprcscntation of knowledge». In P.
Winston. ed. The Psvchology of Computer Visiono New York: McGraw-HilL
NEWELL, A. 1973. «Production systcrns: Models uf control structures». In W. e.
Chase, ed. Visual Information Processing, New York: Acadcmic Prcss.
NEWELL, A. 19xO. «Physicaí syrnbol systems», Cognitivo Science 4: 135-183.
NEWELL, A. 1987 (Spring). Un ified theories of cognition. The William James
lectures. Available in videocassette, Psychology Departrnent, Harvard Uni-
versity, Cambridge. MA.
NEWELL A .. and ROSENBLOOM. P. S. (Q81. «Mechanisrns of skill acquisition
and the law of practico». In J. R. Anderson, ed. Cognitive Skills and Their
Acquisition. Hillsdalc. NJ: Erlbaum.

133
NI-:WI-JL A.. and SIMON, H. A_ 1972. Human Problcm Solving, Englewood
CJiff~. NJ: Prcnlice-Hall.
NEWELL, A., and SI\lOl\, H. A. 1976. «Computer sciencc as cmpirical enquiry:
Symbols and -carch-: Communications (~I tlic ACM 19(3): 113-126.
Pnl K, T. A.. and NE\\/I-J .1.. A. 1988 (August). -Modeling human syllogistic rea-
soning in Soar». ln Prorc__ -cdings Cognitivc Sciencc Annual Conjcrence- J 988.
Cognitivo Science Socicty, pp. 181- un.
RnsENBLoOM. P. S.. and Nl:Wl:LL. A. 1986, «Thc chunking of goal hicrarchies:
A generali/cd modcl of practice». In R. S. Michalski, J. G. Carbonell. and
T. M. Mitche!l. cd. Machine Leurning : ..111 Artificial lntelltgencc Approach,
Vol. .2. Los Altos. CA: Margan Kaufrnann Puhlishers. Inc.
ROSENRLOOM, P. S.. and NFwcLL. A. 1988. «An iniegratcd computational model uf
stirnulus-response rornpatibility and practice». In G. H. Bowcr, ed. Tite Psv-
cholog.-I,' of Learning 1I1lJ Motivation. Vol. 21. New York: Acadernic Press.
R()~t.NULOO~. P. S. L.o\JRD. J. E .. and NEWELL. A. 198R. «The chunking of skill
und knowledgc». In H. Bouma and B. A. G. E1sendoorn. eds. l-l.'orkillg Mo-
deis ot Human Pcrception. London: Acadernic Prcss, pp. 391--+-+0.
SCHr-.;ElDER. W.. ano SIIIlTRl:\. R. M. 1977_ «Controlled and automatic human
informa/ion processing: 1. Detection. search and artention». Psvchological
Rel'Ú'H' 8-k 1-66.
SH IFFR IN. R. M., anJ SCH1\l--ll)l,~. Vi. 1977. «Controllcd and autornatic human
inforrnation processing: 11. Perceptual Icuming. autorn atic attending. and á
general theory». Ps.....clwloJ.:iclIl Review ~4: 127---190.
SIL \\IOREK. D.. BELI.. G.. and NEWEU .• A. 1981. Computa Structures: Principles
í/1IlI Examples. Ne\V York: McGraw-HilJ.
STEELL G. L.. JI'.. ed .. wirh contributors FAHLMAN. S. E., GABRIl:L. R. P., MüON.
D. A.. and Wi::.lf\,'REB. D. L. 1994. C0J111110/l Lisp: Tite Languugc. Marlboro,
MA: Digital Pres~.
STEII--.R, D. E.. LAIRD. J. E.. Nl:WtLL. A.. ROSENBLOOM. P. S .. FLYt-:N. R. A.. GOL-
D1NG. A .. POLK, T. A .. SHIVERS. O. G.. UNRUH, A., and Yos'i. G. R. 1987
(June,. «Varieties of learning in Soar: 1987~~. In Proi eedings of the Fourth
lntrrnational WorkshoIJ 0/1 Maclune Lcarning, Los Altos, CA: Morgan Kau-
frnann.
V-\NLEHN. K., ed. 1989. Architccturesfor lntelligcncr. Hillsdale, NJ: Erlbaurn.
VON CI<¡\l\¡\CII. M .. Foppa. K., Lepinies. \Y., and Plogg, D., eds, 1979. Human
Etltologv: Claims and Liniits ola NeH' Discipline. Cambridge. Engl.: Cam-
bridge Univcrstiv Press.

]34
LA ARQUITECTURA DE LO MENTAL:
UN ENFOQUE CONEXIONISTA
David E. Rurnelhurt

la ciencia cognitiva tiene una antigua y muy significati ...'a relación


con el ordenador. Este ha proporcionado el instrumento por medio del
cual hemos sido capaces de expresar nuestras teorías acerca de la acti-
vidad mental; ha sido UI111 importante fuente de metáforas a través de
las cuales hemos llegado a comprender y valorar cómo es posible que
aparezcan las actividades mentales a partir de operaciones de elementos
de procesamiento de componentes simples.

Recuerdo vivamente una clase que yo impartí hace unos quince años
donde expuse la noción de s istcrna cognitivo entonces vigente. Un estu-
diante particularmente escéptico desafió mi descripción, que se apoyaba
en conceptos extraídos de las ciencias de la computación e inteligen-
cia artificial. preguntando mi opinión acerca de si mis teorías hubieran
sido diferentes en el caso de que los computadores fuesen paralelos en
lugar de seriales. En mi respuesta, recuerdo, concedí que nuestras teo-
rías bien pudieran haber sido diferentes, pero añadiendo que ello no
supondría nada malo. Señalé que la inspiración para nuestras teorías y
para nuestra comprensión de los fenómenos abstractos siempre se hava
en la experiencia con la tecnología de cada época. Aristóteles concebía
la memoria como una tabla de cera; Leibniz contemplaba el universo
corno un sistema de relojeria; Freud usó un modelo hidráulico para el
flujo de la libido a través del sistema, e incluso el modelo de inteligencia
como una centralita telefónica ha desempeñado un importante papel.
La teorías propuestas por las generaciones anteriores habían sido útiles
- sugerí- a pesar de haberse basado en las metáforas de su tiempo. Por
consiguiente. argumenté. era natural que nuestra generación -la gene-
ración del ordenador serial- se hubiese inspirado a partir de analogías
con los desarrollos tecnológicos más avanzados de nuestro tiempo. No

135
recuerdo ahora sí mi respuesta dejó satisfecho al estudiante, pero no
me cabe duda de lo mucho que hemos ganado con el uso de conceptos
extraídos de nuestra experiencia con Jos ordenadores.
En adición a su valor como fuente de metáforas. el ordenador tie-
ne notables diferencias con respecto a anteriores tecnologías: puede ser
utilizado para simular sistemas cuyas operaciones son muy diferentes a
los ordenadores en los que se realizan tales simulaciones. De este modo.
podemos utilizar ordenadores para simular sistemas con los cuales de-
seamos experimentar. proporcionando de ese modo una ruente de expe-
riencia que puede ser aprovechada para dotarnos de nuevas metáforas
acerca de cómo pueden llevarse a cabo lal:¡ operaciones mentales. Este es
el uso que los concxionistas hemos hecho del ordenador. La arquitectura
que exploramos no ~e basa en la arquitectura von Neumann de nuestra
actual generación de ordenadores. es más bien una arquitectura basada
en consideraciones acerca de corno podrían funcionar Jos propios cere-
bros, PUl' consiguiente, nuestra estrategia consiste en ofrecer un modelo
abstracto y general de la arquitectura computacional de los cerebros.
desarrollar algoritmos y procedimientos. adecuados a tal arquitectura.
simular dicha arquitectura y tales procedimientos en ordenadores, y
examinarlos como hipótesis acerca de la naturaleza del sistema de pro-
cesamiento de información humano. Decimos que estos modelos están
inspirados neuronalmentr, y denominados a la computación que tiene
lugar en tales sistemas computación de estilo cerebral. En dos palabras.
nuestro objetivo es reemplazar la metáfora del ordenador por la metá-
fora del cerebro.

l. ¿Por qué computación de estilo cerebral'?

¿Por qué habría de ser un ordenador de estilo cerebral una fuente de


inspiración especialmente interesante? En la adopción de la metáfora
del ordenador se encuentra implícito un supuesto acerca del nivel de
explicación adecuado en ciencia cognitiva. Este supuesto es que debe-
ríamos buscar cxpl icaciones al nivel funcional o de programa, en lugar
de hacerlo a nivel de implementación. A este respecto se aduce con fre-
cuencia que podemos aprender muy poco acerca de la clase de programa
que está ejecutando un ordenador a base de examinar sus circuitos elec-
trónicos. Si conocemos el programa. conoceremos cómo se comportará
el sistema en cualquier situación. Con independencia de si utilizamos
tubos al vado o transistores. o si trabajamos con un ordenador IBM

136
o Apple. estaremos usando ordenadores de idéntico diseño general. Si
consideramos una arquitectura esencialmente diferente, veremos que la
arquitectura supone una diferencia importante. La arquitectura deterrni-
na qué clase de algoritmos pueden ser ejecutados más fácilmente en la
máquina en cuestión. La arquitectura es la que determina la naturaleza
esencial del programa mismo. Por consiguiente, resulta razonable co-
menzar por preguntarnos qué conocemos acerca de la arquitectura del
cerebro y cómo ésta podría configurar los algoritmos subyacentes a la
inteligencia biológica y a la vida mental humana.
La estrategia fundamental del enfoque concxionista es adoptar como
unidad básica de procesamiento algo parecido a una neurona abstracta.
Imaginarnos que la computación se lleva a cabo a través de interaccio-
nes simples entre dichas unidades de procesamiento. La idea consiste
esencialmente en que esos elementos de procesamiento Se comunican
enviando números a través de las líneas que los conectan entre sí. Esta
identificación proporciona ya algunas restricciones interesantes sobre la
clase de algoritmos que podrían subyacer a 11.} inteligencia humana.
Así pues. las operaciones en nuestros modelos pueden '1er caracte-
rizada~ mucho mejor como «inspiradas neuronalmentc». ¿.C6mo afecta
a nuestra concepción la sustitución de la metáfora del ordenador por la
del cerebro como modelo de lo mental? Este cambio de orientación nos
conduce a una serie de consideraciones que informarán y restringirán
nuestros esfuerzos modelistas, Quizá el más importante es el tiempo. Las
neuronas son notablemente lentas si las comparamos con los componen-
tes de los ordenadores modernos. Las neuronas operan en una escala de
milisegundos. en cambio, los componentes de los ordenadores operan
en la escala de nanosegundos -es decir, un factor l O" más rápido. Esto
significa que los procesos humanos que consumen aproximadamente
un segundo o menos sólo pueden emplear cien pasos o menos. Dado
que la gran mayoría de los procesos que hemos estudiado -percep-
ción, recuperación de memoria. procesamiento del habla, comprensión
de oraciones. etc ... - consumen más O menos un segundo, tiene sentido
imponer lo que Feldman (1985) denomina la restricción del «programa
a ]00 pasos». Es decir. buscamos explicaciones para aquellos fenóme-
nos mentales que no requieren más de cien operaciones secuenciales
elementales aproximadamente. Dado que los procesos que intentamos
caracterizar son con frecuencia tremendamente complejos y pueden
requerir dar cuenta de un gran número de restricciones simultáneas.
nuestros algoritmos tienen que incluir un paralelismo considerable. Por
tanto, aunque pudiera diseñarse un ordenador serial a partir de los com-

137
ponentes representados por nuestras unidades, tal implementación vio-
laría seguramente la restricción del programa a 100 pasos incluso en el
caso de los procesos más simples. Alguien podría argumentar que, aun-
que resulta obvio que el paralelismo se encuentra presente en la mayoría
de 1()~ procesos de información humanos. tal hecho por sí mismo no
tendría por qué modificar demasiado nuestra concepción. Pero ésto es
poco probable. La velocidad de los componentes supone una restricción
crítica para el diseño. Aunque el cerebro tiene componentes lentos, tie-
ne muchisimos. El cerebro humano contiene miles de millones de tales
elementos de procesamiento. En lugar de organizar la computación con
muchos. muchísimos pasos seriales, como hacemos con lov sistemas
cuyos paso~ -on muy rápidos. el cerebro tiene que desarrollar muchí-
"irnos elementos de procesarnicnto que funcionan coopcrativamcntc
y en paralelo para llevar a cabo su actividad. Entre otras cosas. estas
caractensticas de diseño conducen. en mi opinión, a una organización
general de la computación que difiere- de forma drástica de aquélla a la
que estamos acostumbrados.
Una consideración adicional establece diferencias entre nuestros rno-
delos y los inspirados en la metáfora del ordenador -a saber. el hecho de
que todo el conocimiento reside en/as conexiones. Por nuestra experien-
cia con los ordenadores programables convencionales estamos acostum-
brados a pensar acerca del conocimiento como almacenado en el estado
de determinadas unidades en el sistema. En nuestros sisterna« suponemos
que solamente puede darse en los estados de las unidades un almacena-
miento a muy corto plazo; el almacenamiento a largo plazo tiene lugar
en las conexiones entre la~ unidades. En realidad. son las conexiones -o
quizás las reg las para fonnarl as mediante l a ex periencia - lo que disti11-
gue fundamentalmente un tipo y otro de modelos. Se [rata de una pro-
funda diferencia entre nuestro enfoque y los más convencionales, pue~
supone que casi todo el conocimiento se encuentra implicito en la estruc-
tura del sistema que ejecuta la tarea, en lugar de hallarse explícito en los
estados de las propias unidades. El conocimiento no resulta accesible
directamente para su interpretación por parte de algún procesador sepa-
rado, sino que está construido dentro del procesador mismo y determina
directamente el curso del procesamiento. Se adquiere mediante el ajuste
de las conexiones a medida que éstas se emplean en el procesamiento, en
lugar de estar formuladas y almacenadas como hechos declarativos.
Estas y otras hipótesis de trabajo inspiradas ncuralmente han ccns-
tituido una importante fuente de hipótesis subyacentes al programa de
investigación conexionista. No han sido éstas las únicas consideraciones.

138
A partir de nuestras creencias acerca de la naturaleza del procesamiento
humano de información considerado a un nivel más abstracto. computa-
cional, surge un segundo tipo de restricciones. Consideramos los fenó-
menos que hemos estado investigando como productos de una clase de
procedimiento de satisfacción de restricciones en el que un gran número
de restricciones actúan ximultáneamente para producir la conducta, Así
pues, vemos la mayor parte de la conducta. no como el producto de un
componente del sistema cognitivo sólo. separado, sino como el producto
de un enorme conjunto de componentes interactivos. que se restringen
mútuarnente. contribuyendo cada uno en su medida a la conducta global
observable del sistema. Es [HUY difícil utilizar algoritmos seriales para
implementar esta concepción. y sin embargo, resulta natural utilizar al-
goritmr», de elevado paralelismo. Estos problemas pueden ser caracteri-
zados frecuentemente como problemas de optimiracián (best-motchs. Tal
y como Minsky y Papert (1969) señalaron, resulta muy difícil solucionar
los problemas de optimización de forma serial. Sin embargo. éste es pre-
cisarnente el tipo de problemas yue se implementa fácilmente utilizando
algoritmos de gran paralelismo como los que investigarnos nosotros.
Así pues. el uso de sistemas de estilo cerebral brinda buenas pers-
pectivas, no sólo para caracterizar cómo los cerebros llevan a cabo real-
mente ciertas tareas de procesamiento de información. sino que ofrecen
soluciones a los problemas computacionales que parecen tener una di-
fícil solución en los sistemas computacionales tradicionales. El valor
último de los sistema.. concxionistas debe ser juzgado precisamente u
este respecto.
Hemos comenzado este capítulo con un esbozo más o menos formal
del marco computacional de los modelos conex ionistas, continuando
con una discusión general acerca de los tipos de problemas cornpuracio-
nales que los modelos conexionistas ~e encuentran especialmente bien
preparados para abordar. Por último, vamos a describir brevemente la
situación actual en la modelización conexionista.

El marco conexionista

Todo sistema conexionista tiene siete componentes principales:

un conjunto de unidades de procesamiento;


un estado de activacuin definido sobre las unidades de procesa-
miento;

I.N
- una función output para cada unidad que aplica su estado de ac-
tivación en un output;
- un patrán de conectividad entre las unidades;
una regla de activación para combinar los inputs que llegan a
una unidad con su estado en ese momento para producir un nue-
vo nivel de activación en la unidad;
una regla de aprendizaje según la que los patrones de actividad
resultan modificados por la experiencia;
un entorno dentro del cual el sistema tiene que funcionar.
La figura 4.1 ilustra los aspectos básicos de estos sistemas. Hay un
conjunto de unidades de procesamiento, indicado normalmente en los
diagramas mediante círculos; en todo momento cada unidad 1I¡ tiene un
valor de activación. señalado en el diagrama como a, (1); este valor de
activación produce un valor output 0i (1) a través de una función t. El
valor output puede verse como pasando a través de un conjunto de co-
ncx iones unidireccionales (indicadas mediante líneas o flechas en los
diagramas) hacia las demás unidades del sistema. Cada conexión va
asociada a un número real, habitualmente denominado peso o fuerza de
la conexión, que se designa mediante \-\·11' que determina el efecto de la
primera unidad sobre la segunda. Así pues, todos los inputs tienen que
combinarse, y los inputs combinados con una unidad (normalmente de-
nominada la red input para la unidad), junto con su valor de activación
en ese momento, determinan su nuevo valor de activación mediante una
función F. Estos sistemas se consideran plásticos en el sentido de que
el patrón de interconexiones no se encuentra fijado para todo momento:
al contrario. los pesos ~e modifican en función de la experiencia. De
este modo, el sistema evoluciona. Lo que representa cada unidad puede
cambiar con la experiencia, y el sistema llega a comportarse en formas
subs tanci al mente di terentes.

Un conjunto de unidades de procesamiento. Todo sistema conexio-


nista comienza con un conjunto de unidades de procesamiento. La tarea
de especificar el conjunto de unidades de procesamiento y lo que re-
presentan constituye habitualmente el primer paso en la caracterización
de un modelo conexionista. En algunos sistemas estas unidades pueden
representar objetos conceptuales particulares tales como aspectos, le-
tras, palabras o conceptos; en otros casos se trata simplemente de ele-
mentos abstractos sobre los que pueden definirse patrones significati-
vos. Cuando hablamos de representación distribuida nos referimos a una
representación en la que las unidades representan pequeñas entidades,

140
()

I".{~J
-11\ O' .Ift
':[l]
..... o
nn::llhald Chup\I¡ 11#1. - l",,"}!')
FII..et;" Sipo.d ~c,i_¡a"
r"'C'f'iGft

FIGURA 4.1
Los componentes básicos de un sistema de procesamiento
distribuido en paralelo

de tipo aspectual, que denominamos microaspectos. En tal caso. es el


patrón como un todo el que constituye el nivel de análisis significativo.
Conviene diferenciar estos modelos de los sistemas represcntacionales
una-unidad-un-concepto o modelos locales, donde las unidades simples
representan conceptos completos, o bien otras entidades significativas
amplias.
En los sistemas conexionistas, todo el procesamiento se lleva a cabo
por estas unidades. No existe un ejecutor u otro tipo de supervisor. Sola-
mente hay unidades relativamente simples, haciendo cada una su relati-
vamente simple trabajo. Este consiste en recibir inputs de sus vecinas y.
en función de lo recibido. computar un valor output. que a su vez envía a
sus \ erinas. El sistema es intrínsecamente paralelo en el sentido de que
muchas unidades llevan a cabo su trabajo de forma simultánea.
Resulta conveniente distinguir, dentro de cada sistema, tres clases de
unidades: input. output y ocultas (hiddenv. Las primeras reciben input.'>

141
de fuentes exteriores al sistema bajo estudio. Estos pueden ser inputs
sensoriales, o bien inputs procedentes de otras partes del sistema de pro-
ccsam icnto en e I que está incluido el modelo. Las unidades O1l1¡>1I1 envían
seilaks fuera del sistema. Pueden afectar directamente a los sistemas mo-
tores. o simplemente influir en otros sistemas externos a aquéllos que nos
encontramos modelando. Las unidades ocultas son aquéllas cuyos inputs
y outputs se encuentran dentro del vistcrna bajo modelización. No resul-
tan «visibles» para los sistemas externos.

El estado de activucián. Además del conjunto de unidades. necesi-


tamos una representación del estado del sistema en cada instante f. Esta
queda básicamente especificada mediante un vector a(l) que representa
el patrón de activación sobre el conjunto de las unidades de procesa-
miento. Cada elemento del vector denota la activación de una de las
unidades. El patrón de activación . . obre el conjunto de unidades nos da
lo que el sistema está representando a cada instante. E~ conveniente con-
templar el procesamiento en el sistema como la evolución. a través del
tiempo. de un patrón de actividad sobre el conjunto de las unidades.
L()~ diferentes modelos adoptan diversos supuestos acerca de lo~ va-
lores de activación Liue a una unidad le está permitidu tomar. Los valores
de activación pueden ser continuos o discretos. Si son continuos. pueden
estar acotados o no. Si son discretos. pueden tomar valores binanos. o
bien uno de entre un pequeño conjunto de valores. Así pues. en alguno . .
modelos la... unidades son continuas y pueden tomar cualquier número
real como valor de activación. En otros casos pueden tomar cualquier
valor real entre un mínimo y un máximo, como por ejemplo. el intervalo
[0, 11. Cuando existe la restricción de que los valores de activación de-
ben ser discretos, en la mayor parte de los casos son binarios. Algunas
veces están limitados a los valores O y L considerándose habitualmente
que el valor I significa yue la unidad "le encuentra activa. mientras que
está inactiva en el caso de O.

El output de las unidades. Las unidades interaccionan transmitiendo


señales a sus vecinas. La fuerza de ~us xcñalcx y. por consiguiente, el grado
en el que afectan a sus vecinas. viene determinado por su grado de acti-
vación. Existe una función output f{a,(/) asociada a cada unidad ", 4ue
asigna su estado actual de activación a una señal output o/T). En algunos
de nuestros modelos el nivel output equivale exactamente al nivel de ac-
tivación de la unidad. En tal c3so,/es una función de identidadji.vi = .r.
Algunas vcces.] es una función umbral tal que una unidad no tiene efecto

142
sobre otra a no ser que su activación supere detcnninado valor. Otras veces
se supone que la función/es una función estocástica en la tIue el output de
la unidad depende de sus valores de activación de forma probabilística.

El patrón de conectividad. Las unidades se hallan conectadas unas


con otras. Este patrón de conectividad constituye lo que conoce el sis-
tema y determina corno responderá ante un input arbitrario. La tarea
de especificar el sistema procesador y el conocimiento codificado en
él consiste, en un modelo conexionista, en especificar este patrón de
conectividad entre las unidades de procesamiento.
Con frecuencia suponemos que cada unidad realiza una contribución
aditiva al input de las unidades a las que está conectada. En estos casos,
el input total es simplemente la suma ponderada de los inputs separados
de cada una de las unidades individuales. Es decir, los inputs de todas las
unidades entrantes son simplemente multiplicados por un peso y sumados
para obtener el input completo para esa unidad. Siendo esto así, el patrón
total de conectividad puede representarse simplemente especificando los
pesos de cada una de las conexiones en el sistema. Un peso positivo repre-
senta un input excitatorio, e inhibitorio si es negativo. Habitualmente es
conveniente representar dicho patrón de conectividad mediante una ma-
triz de peso W. donde la entrada H'.~ representa la fuerza -y el sentido de la
conexión de la unidad II I a la unidad u!.. El peso w I} es un número positivo
si la unidad lf} excita a la unidad 11 1 ; será negativo si la unidad u¡ inhibe a la
unidad II 1 ; "'v será O si la unidad u} no tiene conexión directa con la unidad
u. El valor absoluto h'1
I
especifica
1 "
la tuerza de la conexión.
El patrón de conectividad es muy importante. Determina lo que re-
presenta cada unidad. Un aspecto importante capaz de determinar cuánta
información puede ser almacenada y cuánto procesamiento serial tiene
que ejecutar la red es el fan-in y el fan-out de una unidad. El [an-in es
el número de elementos que excitan o bien inhiben una unidad determi-
nada. EI'/llll-out de una unidad es el número de unidades afectadas di-
rectamente por ella. Conviene tener en cuenta en el cerebro los números
anteriores son relativamente grandes. El fan-in y el jan-out llegan a la
cantidad de 100.000 en algunas partes del cerebro. Parece probable que
estos jan-in)' [un-out tan grandes propician un tipo de operaciones con
un carácter estadístico. más que corno un circuito fijo.

Regla de activacián. También necesitamos una regla por la que los


inputs que llegan a una unidad particular se combinen entre sí y con el

143
estado de la unidad en ese momento para producir un nuevo estado de
activación. Se necesita una función E YUC' toma a(t) y los inputs de la
red, net I = L. \1' 11out J\.1 produce un nuevo estado de activación. En los
I

casos más simples. cuando F es la función de identidad. tenemos a(t+ 1)


= Wo(r) = net(t). A veces F es una función umbral, de modo que el input
de la red tiene que sobrepasar algún valor para poder contribuir a la
producción de un nuevo estado de acti vación. Con frecuencia, el nuevo
estado de activación depende del estado anterior y del input actual. Lo
que denominamos regla de activación es la propia función F. Normal-
mente ~e ~upone que la función es determinista. Así, por ejemplo, si
existe un umbral puede ocurrir que a/t) = 1, si el input total sobrepasa
CiCl10 umbral, o bien O en caso contrario. Otras veces se supone que Fes
estocástica, En ocasiones se supone que la activación se va reduciendo
lentamente con el tiempo. de modo que incluso en ausencia de input
externo simplemente se irá reduciendo hasta llegar directamente a cero.
Cuando (J¡(f) toma valores continuos es habitual considerar F como un
tipo de función sigmoidea, En tal caso una unidad individual puede sa-
turarse y alcanzar un valor de activación mínimo o máximo.

La modificacion de los patrones de conectividad en función de la


experiencia. Los cambios en el procesamiento o en la estructura de co-
nocimiento de un sistema concxionista suponen la modificación de los
patrones de interconectividad. En principio, esto puede conllevar tres
tipos de modificaciones:
I desarrollo de nuevas conexiones:
2. pérdida de conexiones existentes;
3. modificación de las fuerzas de las conexiones previamente exis-
tentes.
Muy poco trabajo se ha desarrollado sobre (1) y (2). No obstante,
esto'. aspectos podrían ser considerados. en una primera aproximación.
como un caso especial de (3). Siempre que se cambia la fuerza de la co-
nexión de cero hacia un valor positivo o negativo. tiene el mismo efecto
que cuando se desarrolla una nueva conexión. Siempre que la fuerza
de la conexión se cambia a cero, tiene el mismo efecto que cuando se
pierde una conexión previamente existente. Así pues, nos hemos con-
centrado en reglas por las que las fuerzas de las conexiones se modifican
a través de la experiencia.
Virtualmente. todas las reglas de aprendizaje para modelos de este
tipo pueden ser consideradas como variantes de la regla Hebhiana de

144
aprendizaje sugerida por Hcbb (1949) en su libro ya clásico Organiza-
tion of Behavior. La idea básica de Hebb es la siguiente: si una unidad
u, recibe un input de parte de otra unidad uJ' entonces, si ambas se en-
cuentran muy• activas, el peso w 'J dc uJ a u debería reforzarse. Esta idea
J

ha sido ampliada y modificada de forma que puede establecerse más


generalmente como

bH"J = g (a/t), ft(t)h(o/t),w),


donde f¡(t) es una especie de input supervisor (teachings para ul. En po-
cas palabras, esta ecuación afirma que el cambio en la conexión de 11 1
a /1, viene dado por el producto de una función g( ) de activación de 11,
y su input supervisor t, y de otra función h( ) del valor output de II y la
fuerza de la conexión wij' En las versiones más simples del aprendizaje
hebbiano no existe supervisor. y las funciones g y h son simplemente
proporcionales a sus primeros argumentos. Así pues. tenemos
()~. =::EOO
tJ I J'

donde E es la constante de proporcionalidad que representa el porcenta-


je de aprendizaje. Otra variación frecuente es una regla en la que h(o,(t),w¡/)
=:: u(t). y e (a.(r). t(r) = E (t(t) -u.(1». Esta se denomina habitualmente
J ." J I ' I

regla Widrmv-H(~jj: ya que fué formulada originalmente por Widrow y


Hoff ( 1960), o también la regla delta, porque la cantidad de aprendizaje
es proporcional a la diferencia (o delta) entre la activación real obtenida
y el objetivo de activación propuesto por el supervisor. En este caso
tenemos
ba: i ¡ =E (f¡(t) - (J,(t))rJ}1)

Esta es una generalización de la regla de aprendizaje del perceptron


para la que ha sido demostrado el famoso teorema de convergencia de
la percepción. Todavía otra variación más
chv IJ = E (J
'
(1)0 (1) - W )
J '1

Esta es una regla utilizada por Grossberg (1976) y otros para el es-
tudio del aprendizaje competitivo. En este caso habitualmente sólo a las
unidades con mayor fuerza de activación les está permitido aprender.

Representación del entorno. En el desarrollo de todo modelo, re-


sulta crucial disponer de una representación clara del entorno en el que
el modelo va él existir. En los modelos conexionistas representamos el
entorno como una función estocástica que varía con el tiempo sobre

145
el espacio de patrones input. Es decir. suponemos que en cada instante
temporal existe alguna probabilidad de que cualquiera de los posibles
conjuntos de patrones input se encuentre afectando a las unidades input.
Esta función de probabilidad dependerá. en general, de la historia de los
inputs del sistema así como de sus outputs. En la práctica, la gran mayo-
ría de los modelos conexionistas admite una caracterización del entorno
mucho más simple. Típicamente. el entorno es caracterizado mediante
una distribución cstanle de probabilidad sobre el conjunto de los patro-
nes input posibles con independencia de los inputs anteriores y de las
correspondientes respuestas dadas por el sistema. En este caso podemos
imaginarnos haciendo un listado del conjunto de inputs posibles para el
sistema y enumerándolos de 1 a M. Entonces el entorno se caracteriza
mediante el conjunto de probabilidades P, para i = 1, ... , ~1. Dado que
cada patrón input puede ser considerado como un vector. a veces resul-
ta úti] caracterizar estos patrones con probabilidades distintas de cero
como constituyendo conjuntos de vectores ortogonales \.1 linealmente
independientes.
En resumen. el marco concxionista no sólo consiste ~n un lenguaje
formal. sino también en una perspectiva acerca de nuestros modelos.
Otras consideraciones cualitativas y cuantitativas que surgen a partir
de nuestra comprensión del procesamiento cerebral y de la conducta
humana se combinan con el sistema formal para ofrecer lo que podría
ser contemplado como una estética para nuestra empresa de con ..truir
modelos.

Aspectos rornpuuuionules de los modelos conexionistus

Además del hecho de que ltlS sistemas conexionistas son capace~ de


explotar el paralelismo y de mimetizar una computación de estilo ccre-
bral. estos sistemas tienen importancia porque aportan buenas soluciones
a una cantidad de problemas computacionales realmente difíciles que apa-
recen con frecuencia en los modelos cognitivos. En particular, funcionan
muy bien en la solución de problemas de satisfacción de restricciones,
implementación de sistemas de almacenamiento de memoria etiqueta-
dos por el contenido y la implementación de la optimización: permiten la
implementación automática de generalizaciones basadas en similaridad:
exhiben degradación natural u dulce igraceful¡ cuando sufren daños o
sobrecarga de información; y son mecanismos de aprendizaje simples.
generales, que permiten a estos sistemas adaptarse al entorno.

146
Satisfaccián de restricciones. Buena parte de los problemas de la
ciencia cognitiva son conccptualizados con frecuencia como problemas
de satisfacción de restricciones. donde la solución viene dada por me-
dio de la satisfacción de un gran número de restricciones mutuamente
mteractivas. El problema es dar con un algoritmo computacional capaz
de implementar un sistema de este tipo de forma eficiente. Los sistemas
I....onexionistas son óptimos para la implementación de un sistema tal de

sausfaccion de restricciones. El truco para hacer que las redes conexio-


nistas resuelvan problemas difíciles consiste normalmente en caracte-
rizar el problema como un problema de satisfacción de restricciones.
En tales casos se conceptualiza la red conexionista como una red de
restricciones donde cada unidad representa una hipótesis de algún tipo
i por ejemplo que se encuentran presentes en el input determinado as-

pecto semántico. o un aspecto visual o acústico). y donde cada conexión


representa restricciones entre las hipótesis. Así. por ejemplo. si se espera
que el aspecto B estará presente siempre que lo esté el aspecto A. deberá
haber una conexión positiva desde la unidad correspondiente a la hipó-
tesis de que A está presente :l la unidad que representa que la hipótesis B
está presente. Del mismo modo, ~i existe la restricción de que siempre
lIue A está presente, se espera que B no lo esté. entonces deberá haber
una conexión negativa de A a B. Sí las restricciones son débiles. los
pesos deberán ser pequeños. Si las restricciones son fuertes. entonces
los pesos deberán ser grandes. Igualmente. los inputs en una reo de este
tipo deben ser considerados como restricciones. Un input positivo hacia
una unidad particular indica que ex iste evidencia desde fuera de que se
encuentra presente el aspecto relevante. Un input negativo indica que
existe evidencia desde fuera de que el aspecto no ~e encuentra presente,
Cuanto mayor sea el input, mayor sed la evidencia. Si se hace funcionar
a la red. eventualmente llegará a un estado localmente óptimo donde se
satisfacen el mayor número po ... ible de restricciones. dando prioridad
a las más fuertes. (En realidad, estos sistemas hallan la mejor solución
localmente para ese problema de satisfacción de restricciones. Los óp-
timos globales Mm mucho más difíciles de encontrar.) El procedimiento
por el cual el sistema llega a tal estado se denomina relajacion. Decimos
que el sistema 5{) relaja hacia una solución. Así, una amplia gama de
sistemas conexionistas contiene modelos de satisfacción de restriccio-
nes que llegan a soluciones localmente óptimas mediante el proceso de
relajación.
La figura 4.2. muestra un ejemplo de una red de restricciones sim-
ple compuesta de 16 unidades. Cada unidad en la red representa una

147
hipótesis acerca de un vértice en una línea de un cubo de Necker. La red
está compuesta de dos subredes interconectadas -correspondientes a
cada una de las dos interpretaciones globales de un cubo de Necker. Se
supone que en cada una de las redes cada unidad recibe sus inputs de la
región de la figura input -el cubo- correspondiendo a SLl localización
en la red. Cada unidad en la figura 4.2. es etiquetada con una secuencia
de tres letras que indica si su vértice se concibe como estando delante o
detrás (F o B), arriba o abajo (U o L), y a la derecha o a la izquierda (R
o L). As], por ejemplo. se supone que la unidad más baja a la Izquierda
de cada subred recibe su input del vértice izquierdo más bajo de la fi-
gura input. La unidad en la red izquierda representa la hipótesis de está
recibiendo inputs del vértice izquierdo más bajo de la superficie frontal
del cubo (por eso es etiquetada FLL), mientras la unidad en la red dere-
cha representa la hipótesis de que está recibiendo inputs del vértice iz-
quierdo más bajo de la superficie trasera del cubo (BLL). Como existe
la restricción de que cada vértice sólo tiene una interpretación. las dos
unidades anteriores están conectadas por una conexión negativa fuerte.
Dado que la interpretación de cualquier vértice se halla restringida por
las interpretaciones de sus vecinos. cada unidad en una subred se co-
necta positivamente con cada una de sus vecinas en la red. Finalmente,
existe la restricción de que sólo puede haber un vértice de una clase
individual (por ejemplo, sólamcntc puede haber un vértice izquierdo
abajo en el plano frontal FLL). Existe una conexión negativa fuerte en-
tre aquellas unidades que representan la misma etiqueta en cada subred.
Por tanto cada unidad tiene tres vecinas conectadas positivamente, dos
competidoras conectadas negativamente, y un input positivo a partir
del estímulo. Para este ejemplo las fuerzas de las conexiones han sido
dispuestas de tal forma que dos inputs negativos equilibran exactamen-
te tres inputs positivos. Además se supone que cada unidad recibe un
inpnt excitatorio a partir del patrón estímulo ambiguo, y que cada una
de esas influencias excitatorias es relativamente pequeña. Por consi-
guiente. si las tres vecinas de una unidad se encuentran activadas y
sus competidoras también. sus efectos se cancelarán completamente
el uno al otro; y si se diese un input pequeño desde fuera, la unidad
tendría tendencia a activarse. Por otra parte, si se activan menos de tres
vecinas y las dos competidoras también lo hacen. la unidad tenderá a
desactivarse, incluso en presencia de un input exciratorio proveniente
del patrón estímulo.
En el párrafo anterior nos hemos concentrado en las unidades indi-
viduales de la red. No obstante. con frecuencia resulta útil prestar aten-

148
FIGURA 4.2
Una red simple que representa algunas restricciones implicadas
en la percepción de un cubo de Necker

ción no ya a las unidades, sino al estado completo de la red. Cuando se


trata de unidades binarias (activada-desactivada. o 1-0) hay un total de
2 1ó estados posibles en que puede hallarse el sistema. Es decir, en prin-
cipio cada una de las 16 unidades puede tener el valor O. o bien 1. En el
caso de unidades continuas, donde cada unidad puede tomar cualquier
valor entre O y l , el sistema puede, en principio, tomar uno cualquiera
de un número infinito de estados. Sin embargo. debido a las restriccio-
nes establecidas en la red. sólamente hay unos pocos de esos estados
que la red puede adoptar. Para ver ésto. consideremos un caso en el que
las unidades son actualizadas asincrónicamente. una cada vez. Durante
cada intervalo de tiempo una de las unidades es elegida para ser actua-
lizada. Si su input red supera O. su valor será empujado hacia 1; en caso
contrario, su valor será empujado hacia O.
Imaginemos que el sistema comienza con todas sus unidades desac-
tivadas. Entonces, se escoge una unidad al azar para actualizarla. Dado
que recibe un ligero input positivo a partir del estímulo y no otros inputs,
se le dará un valor de acti yac ión positi vo. Después se escoge otra unidad

149
para su actualización. A no ser que se encuentre en competición directa
con la primera unidad. también se activará. Eventualmente se activará
una coalición de unidades vecinas. Estas unidades tenderán a activar
más unidades entre sus vecinas en la misma subred y a desactivar a sus
competidoras en la otra subred. El sistema terminará (en la mayor parte
de los casos) en una situación en la que todas las unidades en una ."L1-
bred se encuentren completamente activadas y no lo esté ninguna de las
unidades pertenecientes a la otra subred. Es decir. el sistema terminará
interpretando el cubo de Necker desde la perspectiva izquierda. o bien
desde 1;) derecha. Cuando el sistema alcanza un estado y pennanece en
él, hablamos de estado estable o de puntofijo de la red. Las restricciones
implícitas en el patrón de conexiones entre las unidades determinan el
conjunto de los estados estables posibles del sistema, y por consiguien-
te. el conjunto de interpretaciones posibles de los input..,.
Hoptield (] 9~2) ha mostrado que resulta posible dar cuenta de modo
gener<ll de la conducta de sistemas como el anterior (con pesos simérri-
cos y actualización asincrónica). Concretamente, Hopfield ha dernostru-
do que tale, sistemas pueden ser conceptualizados como minimizando
una medida global. que él denomina la energia del sistema. mediante
un método de descenso de gradiente (gradient descentv. 0, de modo
análogo, maximizar las restricciones satisfechas mediante el método de
subir la cuesta ihil! climbingv. En particular. Hopfield ha hecho ver que
el sistema opera de forma tal que siempre se mueve de un estado que
satisface pocas restricciones a otro que satisface m.is. la medida de ~a­
risfacción de restricciones viene dada por

Off) = LLW
II
a (l)a I (t) + ~input
'1 / I
u) a.tt¡
l· I •

En esencia, la ecuación dice que la excelencia completa del encaje


viene dada por la suma de lo.. . grados en que cada par de unidades contri-
buye a ella, más el grado en el que las unidades satisfacen las restricciones
del input. La contribución de un par de unidades viene dada por el produc-
to de sus valores de activación y los pesos que las conectan. Por tanto, si
el peso e~ positivo. cada unidad tiende a estar lo rntis activa posible -e~
decir, los valores de activación para esas dos unidades deberían tender
hacia 1, Si el peso es negativo. entonces al menos una de las unidades
tendría que ser O para maximizar la excelencia del par. De modo análogo,
si la restricción del input para una unidad dalia es positiva. entonces su
contribución a la excelencia completa del encaje se maximiza elevando 1<.1
activación de esta unidad hacia su valor máximo. Si es negativo, el valor

150
de activación debería decrecer hacia O. Por supuesto, las restricciones no
serán totalmente consistentes por lo general. A veces una unidad deter-
minada puede tener que ser activada con el fin de incrementar la función
en algunos aspectos y sin embargo disminuirla en otros. Lo importante es
4u~ es la suma de todas esas contribuciones individuales lo que el sistema
trata de maximizar, Por consiguiente. para cada estado del sistema -todo
patrón posible de activación sobre las unidades- el patrón de los inputs
y la matriz \V de conectividad determinan un valor de la función de ex-
celencia de encaje. El sistema proc6a su input subiendo de un estado al
adyacente hasta que alcanza un estado de excelencia máxima. Cuando al-
canza tal estado estable o punto .fijo, permanecerá en éL y entonces puede
decirse que ha «encontrado» una solución al problema de satisfacción de
restricciones. o alternativamente, en nuestro ejemplo, ha «encontrado una
interpretación» para el input.
Es importante ver entonces que operaciones computacionales com-
pletamente locales. en las que cada unidad ajusta su activación hacia
arriba o hacía abajo sobre la base de su input, sirven para permitir a la
red la convergencia hacia estados yuc maximizan una medida de exce-
lencia global o grado de satisfacción de restricciones. La contribución
más relevante de Hoptield a este análisis fué señalar este punto básico
acerca de la conducta de las redes con conexiones simétricas y actuali-
zación asincrónica de las activaciones.
En resumen, existe un subconjunto muy amplio de modelos co-
nexionistas que pueden considerarse como modelos de satisfacción de
restricciones. Estas redes pueden ser descritas como ejecutando su pro-
cesamiento de información mediante el ascenso a estados de satisfac-
ción máxima de las restricciones implícitas en la red. Un concepto muy
útil que' aparece alcontemplar las redes de este modo, es que podemos
describir su conducta no sólo en términos de la conducta de las unida-
des individuales. sino también en términos de las propiedades de la red
misma. Un concepto básico para comprender las propiedades de esas
redes es el de horizonte de excelencia de encaje sobre el que se mue-
ve el sistema. Una vez descrito correctamente este horizonte, habremos
descrito las propiedades operacionales del sistema - procesara infor-
mación ascendiendo hacia la máxima excelencia. El máximo particular
que hallará el sistema viene determinado por su inicio y por las distor-
siones del espacio inducidas por el input. Uno de los más importantes
descriptores del horizonte de excelencia es el conjunto de máximos qu~
puede encontrar el sistema, el tamaño de la región que contribuye a cada
máximo, y la altura del propio máximo. Los estados mismos correspon-

151
den a posibles interpretaciones, los picos en el espacio corresponden a
las mejores interpretaciones, la medida de las laderas o falda alrededor
de un pico particular determinan la probahilidad de hallar la cima. y la
altura del pico corresponde a los grados en que las restricciones de la
red son realmente satisfechas. o alternativamente, a la excelencia de
la interpretación asociada con el estado correspondiente.

Procesamiento interactivo. Uno de los problemas difíciles en cien-


cia cognitiva es construir sistemas capaces de permitir que un número
amplio de fuentes de conocimiento interaccione en la solución de un
problema. Así, en el procesamiento del lenguaje. nos interesa que fuen-
tes de conocimiento sintácticas, fonológicas, semánticas y pragnuiticas.
interaccionen en la construcción del significado de un input, Rcddy y sus
colegas (1973) han cosechado algunos éxitos en el caso de la percepción
del habla con el sistema Hearsay porque trabajaban en el dominio alta-
mente estructurado del lenguaje. Otros dominios menos estructurados
se han mostrado muy difíciles de organizar. Los modelos conexionis-
tas, conceptualizados como redes de satisfacción de restricciones. están
idealmente preparados para mezclar conocimiento de fuentes múltiples.
Cada tipo de conocimiento es simplemente una restricción más. y el
sistema encontrará. en paralelo. aquellas configuraciones de valores que
mejor satisfacen todas las restricciones provenientes de todas las fuentes
de conocimiento. La uniformidad de representación y la común circula-
ción de interacciones (valores de activación) convierten él 101\ sistemas
conexionisias en especialmente poderosos para este dominio.

Satisfaccián rápida de patrones, búsqueda de optimiracion. memo-


ria accesible por el contenido. Todos los anteriores constituyen variantes
del problema general de la optimización (compárese Minsky & Papen
1969). Los prob lemas de opti mi 7 ación resu It:.m especial mente difíci les
para los algoritmos computacionales seriales (suponen una búsqueda
exhaustiva), pero como acabamos de indicar, los sistemas concxionistas
pueden ser usados fácilmente para hallar la interpretación que mejor
satisface un conjunto de restricciones, Del mismo modo pueden ser uti-
lizados para encontrar aquellos datos almacenados que mejor satisfacen
determinado objetivo. En estos casos resulta útil imaginar la red como
compuesta de dos tipos de unidades, las visibles. que corresponden al
contenido almacenado en la red. y las restantes, las unidades ocultas, se
usan para ayudar a almacenar Jos patrones. Cada unidad visible corres-
ponde a la hipótesis de que algún aspecto particular se encuentra pre-
sente en el patrón almacenado. Así pues, concebimos el contenido de los

152
datos almacenados como consistiendo en colecciones de aspectos. Cada
unidad oculta corresponde a una hipótesis relativa a la configuracián de
aspectos presente en un patrón almacenado. La hipótesis a la que co-
rresponde una unidad oculta concreta viene determinada por [a regla de
aprendizaje exacta utilizada para almacenar el input y las características
del conjunto de patrones almacenados. La recuperación en una red de
este tipo equivale a activar algunas de las unidades visibles (un intento
de recuperación) y a dejar que el sistema obtenga la mejor interpreta-
ción a partir del input. Este es un tipo de cornplección de patrones. Los
detalles no son demasiado importantes en este caso debido a que una
variedad de reglas de aprendizaje dotan a 1:1" redes de las importantes
propiedades que siguen:

- Cuando un patrón previamente almacenado (es decir, conocido)


entra en la memoria del sistema, es amplificado, y el sistema
responde con una versión más fuerte del patrón input. Este es un
tipo de respuesta de reconocimiento.
- Cuando un patrón desconocido entra en la memoria del sistema.
es amortiguado, y la actividad del sistema de memoria se apaga.
Esta es una clase de respuesta a lo no familiar.
- Cuando es presentada una parte de un patrón conocido. el sis-
tcma responde «completando» ifilling in) la." partes que faltan.
Este es un tipo de paradigma de recuerdo en el que la parte cons-
tituye la pista de la recuperación. y la complección es una clase
de proceso de reconstrucción de memoria. Esto es un sistema de
memoria accesible por el contenido.
-- Cuando le es presentado al sistema un patrón similar a otro ya
almacenado, éste responde distorsionando el patrón input en di-
rección al patrón almacenado. Se trata de un tipo de respuesta de
asimilación en donde inputs similares son asimilados a aconteci-
mientos parecidos.
Finalmente. si ha sido almacenado un número de patrones pa-
recidos, el sistema responderá decididamente en dirección a la
tendencia central de [os patrones almacenados, aun en el caso de
que esta tendencia central no haya sido nunca almacenada. Así
pues. este tipo de sistema de memoria responde a prototipos de
forma automática incluso cuando no se haya visto un prototipo.

Estas propiedades corresponden de forma muy cercana a las carac-


tensticas de la memoria humana, y yo creo que son exactamente el tipo
de propiedades que buscarnos en toda teoría de la memoria.

153
Generalitacián automática .v representación directa de similaridad.
Uno de los mayor~s reproches en contra de los programas de Inteligencia
Artificial es su «fragilidad». Habitualmente los programas funcionan muy
bien en aquello para lo que han sido programados. pero responden de for-
ma no inteligente o extraña cuando deben enfrentarse a situaciones nuevas.
Aparentemente, hayal menos dos motivos para esta fragilidad. En los siste-
mas simbólicos convencionales la similaridad es representada de forma in-
directa. En consecuencia. normalmente son incapaces de generalizar. Ade-
más la mayoría de los prograrnas de lA no pueden auto-modificarse, por ]0
que no son capaces de adaptarse a su entorno. Por el contrario. en nuestros
sistemas conexionistas el contenido es representado directamente en el pa-
trón. y los patrones parecidos tienen efectos similares -por consiguiente,
la generalización es una propiedad automática de los modelos conexionis-
taso Debe tenerse en cuenta que el grado de similaridad entre patrones viene
dado, aproximadamente. por el producto de los vectores que representan
los patrones. Así pues, las dimensiones de generalización vienen dadas por
las dimensiones del espacio de representaciones. Habitualmente ello lleva-
rá a las generalizaciones correctas. Hay situaciones en las que este proce-
so conduce a generalizaciones inapropiadas. En tales casos tenemos que
permitir al sistema aprender su representación apropiada. En la siguiente
sección se describe como puede aprenderse la representación adecuada de
modo que se realicen automáticamente generalizaciones correctas.

Aprendizaje. Una ventaja fundamental de Jos sistemas concxionistas


reside en el hecho de que en dios pueden definirse sistemas simples. y sin
embargo, poderosos. que les capacitan para adaptarse a su entorno. Fue
el trabajo sobre los aspectos del aprendizaje de estos modelos inspirados
neurológicarnentc lo que atrajo en primer lugar el interés sobre 10~ mismos
(va Rosenblat, 1962), y fué también la demostración de que jamás podrían
desarrollarse procedimientos de aprendizaje para redes complejas lo que
contribu yó el la pérd ida de interés e n ellos (ver Minsky & Papert, 1969).
Aunque el procedimiento de convergencia del perceptrán y sus varian-
tes estuvieron circulando durante algún tiempo, estos procedimientos de
aprendizaje estaban limitados a redes simples de una capa que sólamente
contenían unidades input y output. No tenían unidades ocultas y tampoco
representaciones internas. La codificación proporcionada por el mundo ex-
terno debra ser suficiente. A pesar de todo, estas redes han demostrado ser
útiles para una amplia variedad de aplicaciones. Quizás el carácter esencial
de estas redes estriba en que hacen corresponder patrones input similares
con patrones output similares. Esto es lo que permite a estas redes rea-

154
TABLA 4.1
Problema XOR

Patrones input Patrones output

00 o
01 1
10 1
ti ()

TABLA 4.2
XOR con un tercer hit redundante

Patrones input Parrones OUlPUI

000 ----7 O
010 ----7 I
100 ----7 1
111 ~ O

lizar generalizaciones adecuadas y comportarse de forma razonable ante


patrones que no les han sido presentados previamente. La similaridad de
los patrones en el sistema conexionista viene determinada por su solapa-
miento. El solapamiento en tales redes es determinado fuera del sistema
de aprendizaje mismo -por aquello que produce los patrones.
La restricción de que patrones input similares producen outputs si-
milares puede conllevar una falta de habilidad del sistema para aprender
determinadas aplicaciones del input al output. Cuando la representación
proporcionada por el mundo externo es tal que la estructura de sirnila-
ridad de los patrones input y output es muy diferente. una red sin repre-
sentaciones internas (es decir, una red que no posea unidades ocultas)
será incapaz de rea1izar las aplicaciones necesarias. Un ejemplo clásico
de ésto es el problema de la disyunción exclusiva (XOR) ilustrado en la
tabla 4.]. Aquí vemos que aquellos patrones que menos se solapan son
los que se ~upone que generan valores output idénticos. Este problema
'j otros muchos del mismo tipo no pueden ser resueltos con redes que
carecen de unidades ocultas con las que crear sus propias representa-
ciones internas de los patrones input. Es interesante observar que si los
patrones input Incluyesen un tercer input con valor 1 cuando los dos

155
primeros valores también tienen 1, un sistema de dos capas sena capaz
de resolver el problema. tal y como se muestra en la figura 4.2.
Minsky y Papen (l969) nos dejaron un análisis cuidadoso de las con-
diciones bajo las que estos sistemas son capaces de llevar a cabo las (0-
rrespondencias adecuadas. Mostraron que las redes de este tipo son inca-
paces de resolver problemas en muchos casos interesantes. Por otra parte,
como estos mismos autores también observaron, la existencia de una capa
de unidades ocultas del simple tipo del perceptrón, tal y como se muestra
en la figura 4.3, con la que podría aumentarse el patrón input original, per-
mitiría siempre realizar una recodificación (es decir, una representación
interna) de los patrones input en las unidades ocultas, donde la similaridad
de los patrones entre las unidades ocultas admite cualquier corresponden-
cia requerida de las unidades input a las unidades OUlpW. Por consiguiente,
si disponemos de las conexiones conectas desde las unidades input a un
conjunto suficientemente grande de unidades ocultas, siempre podremos
encontrar una representación que ejecutará cualquier correspondencia del
input al output a través de las unidades ocultas. En el caso del problema
de la disyunción exclusiva, la adición de un aspecto que detecta la con-
junción de las unidades input modifica la estructura de similaridad de los
patrones lo suficiente corno para posibilitar que la solución sea aprendida.
Como se muestra en la figura 4.4, ello puede hacerse simplemente con una
unidad oculta. Los números de las flechas representan las fuerzas de las
conexiones entre las unidades. Los números escritos dentro de los círculos
representan los umbrales de las unidades. El valor + 1.5 para el umbral de
la unidad oculta garantiza que sólo se activará en el caso de que las dos
unidades input están activadas. El valor 0.5 de la unidad output asegura
que se activará sólamente cuando reciba un input positivo neto mayor que
0.5. El peso de - 2 de la unidad oculta a la unidad output garantiza que
ésta unidad no se activará cuando las dos unidades input se encuentran ac-
tivadas. Debe observarse que, desde el punto de vista de la unidad output.
la unidad oculta es tratada simplemente como otra unidad input. Es como
si los patrones input consistieran en tres unidades, en lugar de dos.
La existencia de redes como la anterior ilustra el poder potencial
de las unidades ocultas y las representaciones internas. El problema es,
como observaron Minsky & Papert, que así como tenemos garantizada
una regla de aprendizaje muy simple para todos los problemas que pue-
den ser resueltos sin unidades ocultas. por ejemplo, el procedimiento
de convergencia de I perceptrón (o la variante propuesta originalmente
por Widrow & Hoff. 1960), no contamos con una regla de aprendizaje
igualmente poderosa para las redes multicapa.

l56
Oulpul p,ltema

Intern"
Rept.. enl~OI'I
UIIJI.

Inpul Patlema

FIGURA 4.3
Una red multicapa en donde los patrones input son recodificados
por unidades de representación internas

Hldden Unll

Inpul Unll.

FIGURA 4.4
Una red simple XOR con una unidad oculta

Está claro que si aspiramos a utilizar estas redes conexionistas con


propósitos de computación general, debemos contar con un esquema de
aprendizaje capaz de aprender sus propias representaciones internas. Esto
es precisamente lo que nosotros (Rumelhart, Hinton y Williams, 1986) he-

157
mm. hecho. Hemos desarrollado una generalización del procedimiento de
aprendizaje del perceptrón denominado la regla delta generalizada, que
capacita 31 ... isterna para aprender a computar funciones arbitrarias. Las.
restricciones aplicables a las redes sin representaciones internas automo-
diticadoras ya no resultan aplicables. El procedimiento básico de apren-
dizaje consiste en un proceso a dos pasos. En primer lugar, se aplica un
input a la red; entonces. después de que el sistema haya estado procesando
durante algún tiempo, determinada... unidades de la red son informadas
de los valores que debieran tener en ese momento. Si han obtenido los
valores deseados. los pesos no se modifican. Si difieren de dichos valores.
entonces se modifican los pesos de acuerdo con la diferencia entre el valor
real obtenido por las unidades y los valores a obtener. Esta diferencia se
convierte en una señal de error. Esta señal de error tiene que ser remitida
entonces a las unidades que contactan ron las unidades output. Cada una
de estas unidades recibe una medida de error que es igual al error de todas
las unidades con las que conecta por el peso de la conexión con la unidad
output. Entonces, sobre la base de la señal de error. se modifican los pe-
sos de las unidades dentro de esa «segunda capa», después de lo cual la
señal de error es remitida a otra capa. Este proceso continúa hasta que
la señal de error llega a las unidades input, o hasta que es retro-pasada
un número fijo de veces. Entonces se presenta un patrón il1¡>1I1 nuevo ~
el proceso se repite. A pesar de que este proceso puede parecer difícil.
es realmente muy simple y fácil de implementar en estas redes. Como se
muestra en Rumel han, Hinton y Wi11 iams. 1986. este proceso siempre
modificará los pesos de tal forma que la diferencia entre los valores output
reales y los deseados irá reduciéndose. Además se puede demostrar que
este sistema funciona en cualquier red.

Minsky y Papen (1t.)69. pp. 231-232), en su pesimista discusión acer-


ca de los perceptrones. tratan las máquinas multicapa. Ellos afirman que

El pcrccptrón ha acreditado ser merecedor de estudio. a pesar de (e


incluso debido al) sus serias limitaciones. Posee muchas características
que atraen la Mención: su linealidad: su atractivo teorema de aprendi-
zaje; su clara y paradigmática simplicidad como una clase de compu-
tación paralelo. No hay razón para suponer que cualquiera de estas vir-
tudes no se da en \<.1 versión multicapa. No obstante, consideramos LJUC
es un problema importante a investigar la clarificación (o el rechazo) de
nuestra estimación intuitiva en el sentido de que la extensión es estéril.
Quizá llegue a descubrirse algún teorema de convergencia poderoso, o
puede que se encuentre alguna razón profunda del fracaso en dar con un
«teorema de aprendizaje» interesante para la máquina multicapa,

158
Aunque nuestros resultados sobre el aprendizaje no garantizan que
vayamos a encontrar una solución para todos los problemas resolubles,
nuestros análisis y resultados de simulación han demostrado que, en la
práctica, este esquema de propagación de error alcanza soluciones en
virtualmente cualquier caso. En dos palabras, creemos haber respon-
dido al desafío de Minsky y Papert y hemos dado con un resultado de
aprendizaje lo suficientemente poderoso como para demostrar que su
pesimismo acerca del aprendizaje en las máquinas multicapa estaba
eq uivocado,
Una forma de considerar el procedimiento anteriormente descrito es
como un computador paralelo al que. habiéndole sido mostrados ejem-
plares adecuados inputloutput especificando alguna función, se progra-
ma a ~í mismo para computar dicha función en general. Es bien conoci-
do que los computadores paralelos son muy difíciles de programar. Aquí
tenemos un mecanismo del que no necesitamos conocer de hecho cómo
escribir el programa que permita al sistema hacerlo.

Degradación dulce. Finalmente. los modelos concxionistas son can-


didatos interesantes para los modelos de ciencia cognitiva debido a su
propiedad de degradación dulce en presencia de daño o de sobrecarga
de información. La habilidad de nuestras redes para aprender lleva a la
promesa de ordenadores que literalmente pueden aprender su modo de
comportarse entre componentes defectuosos. debido a que cada unidad
participa en el almacenamiento de muchos patrones, y como cada patrón
incluye muchas unidades diferentes, la pérdida de unos pocos compo-
nentes podrá degradar la información almacenada, pero no la perderá.
Por la misma razón. estas memorias no debieran conceptualizarse como
poseyendo determinada capacidad fija. Más bien. se da simplemente
más y más interferencia de almacenamiento y mezcla de piezas de in-
formación similares a medida que la memoria se va sobrecargando. Esta
propiedad de degradación dulce imita la respuesta humana en muchos
aspectos. y constituye una de las razones por las que estimamos que es-
tos modelos de procesamiento de información humana son plausibles.

, El estado de la cuestión

Los últimos años han contemplado una explosión virtual de la in-


vestigación en el campo conexionista. El trabajo ha sido particularmente
interdisciplinar. desarrollado por psicólogos. físicos, expertos en corn-

159
putación. ingenieros. neurocientíficos y otros científicos cognitivos. Se
han organizado numerosos congresos nacionales e internacionales que
se reúnen cada año. En estas circunstancias resulta difícil dar cuenta de
un campo que se desarrolla tan rápidamente. Aún así. la lectura de la
producción reciente indica unos pocos ternas en esta actividad. Estos
temas incluyen el estudio del aprendizaje y la generalización (especial-
mente el uso del procedimiento de aprendizaje de retro-propagación).
aplicaciones a la neurociencia. propiedades matemática", de las redes
-tanto en términos de aprendizaje como en relación con el problema de
las relaciones entre el estilo conexionista de computación y los paradig-
mas de computación más convencionales- y finalmente, el desarrollo
de una base implementacional para la realización física de los sistemas
conexionistas de computación. especialmente en los campos de la óptica
y la VSLI analógica.
Aunque existen otros muchos desarrollos interesantes e importan-
tes, voy a concluir con un breve resumen del trabajo al que yo mismo
me he dedicado fundamentalmente durante los últimos años. es decir, el
estudio del aprendizaje y la generalización en las redes rnulticapa. Aún
cuando este resumen debe ser necesariamente selectivo, debería servir
como ejemplo de buena parte del trabajo actual en el campo.

Aprendizaje y generalización

El procedimiento de aprendizaje por retro-propagación ha llegado a


ser posiblemente el método más popular para entrenar redes. Este proce-
dimiento ha sido utilizado para entrenar redes sobre dominios de pro-
blemas que incluyen el reconocimiento de caracteres, el reconocimiento
del habla, detección por sonar, establecimiento de correspondencias en-
tre deletreo y sonidos, control motor. análisis de estructuras molecu-
lares, diagnostico de enfermedades oculares, predicción de funciones
caóticas, jugar al backgammon, realizar parsing' de oraciones simples,
y muchas, muchísimas otras áreas de aplicación. Quizá el aspecto más
importante de estos ejemplos es el rango tan cnonnc de problemas a los
que puede aplicarse con provecho el procedimiento de aprendizaje por
retro-propagación. A pesar de esta impresionante amplitud de lemas y

I Nota lid traductor: Parstng signiñca analizar las oraciones en sus componentes
simples. Puesto que esta palabra. aunque es inglesa. es de uso corriente en los dominios
de ciencia cognitiva y lenguaje. hemos optado por dejarla tal cual en la traducción.

160
del éxito de algunas de sus aplicaciones, queda un buen número de im-
portantes problemas abiertos. Los problemas teóricos de interés básico
pertenecen a tres áreas principales: (1) El problema de la arquitectura
- ¿Existen arquitecturas útiles más allá de las redes habituales de tres
capas que se usan en la mayor parte de estas áreas, adecuadas para
determinadas áreas de aplicación? (2) El problema del escalamiento
(scaling)- ¿Cómo podemos reducir el abundante tiempo de aprendi-
zaje que parece necesitarse en las áreas de aplicación más difíciles e
interesantes? (3) El problema de la generalización - ¿Cómo podemos
estar seguros de que una red entrenada sobre la base de un subcon-
junto de un conjunto de ejemplos va a generalizar correctamente a un
conjunto completo de ejemplares?

Una arquitectura

A pesar de que la mayor parte de las aplicaciones han utilizado la


simple red de retro-propagación de tres capas con una capa input, una
capa de unidades ocultas, y una capa de unidades output, se ha propuesto
un gran número de arquitecturas interesantes -cada una de ellas para
solucionar algún problema de interés particular. Por ejemplo, existe una
serie de arquitecturas (especiales» que han sido propuestas para mode-
lar fenómenos secuenciales tales como el control motor. Quizá la más
importante de ellas es la propuesta por Mike lordan (1986) para la pro-
ducción de secuencias de fonemas. La estructura básica de esta red viene
ilustrada en la figura 4.5. Está compuesta de cuatro grupos de unidades:
Unidades plan. que dicen a la red qué secuencia se e~tá produciendo.
Estas unidades son fijadas al comienzo de una secuencia y no cambian.
Unidades contexto: recuerdan dónde se encuentra el sistema en la se-
cuencia, reciben inputs a partir de las unidades output de los sistemas y
también de sí mismas. constituyendo una memoria de la secuencia pro-
ducida hasta entonces. Unidades ocultas: combinan la información de las
unidades plan con la de la" unidades contexto para determinar qué output
debe ser producido a continuación. Unidades output: producen los valo-
res output deseados. Esta estructura básica, con numerosas variaciones,
ha sido utilizada con éxito en la producción de secuencias de fonemas
(Jordán, 1986). secuencias de movimientos (Jordan, 1989), secuencias
de notas en una melodía (Todd, 1989), secuencias de giros en un bar-
co simulado (M i yata, 1987), Y para otras muchas aplicaciones. Una red
para el reconocimiento de secuencias parecida ha sido usada por Elman
(1988) con el fin de procesar oraciones una por una, y Mozer (] 988)

161
PLAN

FIGURA 45
Una red recurrente del tipo de las de-sarrolladas por Jordán (1986)
para aprender a ejecutar secuencias

ha desarrollado e investigado otra variante. La arquitectura utilizada por


Elman queda ilustrada en la figura 4.6. Esta red también posee tres con-
juntos de unidades: unidades input, donde la secuencia a reconocer es
presentada elemento por elemento; un conjunto de unidades contexto,
que reciben de, y envían inputs a las unidades ocultas. constituyendo así
una memoria para acontecimientos recientes; un conjunto de unidades
ocultas, que combinan el input que reciben con su memoria de inputs an-
teriores, bien para nombrar la secuencia, bien para predecir el siguiente
elemento de la secuencia. o para ambas cosas.
Otro tipo de arquitectura que ha recibido atención fué sugerida por
Hinton y utilizada por Elman y Zipser (1987), Cotrell, Munro y Zipser
( 19R7) Yotros muchos. Esta arquitectura ha llegado a convertirse en par-
te del instrumental (too/kit) habitual de la retro-propagación. Se trata del
denominado método de autocodificación del conjunto patrón. En este
caso, la arquitectura básica está compuesta por tres capas de unidades
como en los Lasos convencionales: no obstante, las capas input y output
son idénticas, La idea consiste en pasar el input a través de un pequeño
número de unidades ocultas y reproducirlo sobre las unidades output.
Esto requiere que las unidades ocultas realicen un tipo de análisis de
componentes de los patrones input de principio no lineal. En este caso,
ello corresponde a un tipo de extracción de aspectos críticos. En muchas

162
aplicaciones sucede que estos aspectos proporcionan una descripción
compacta de los patrones. Se han investigado otras muchas arquitec-
turas. El espacio de arquitecturas útiles e interesantes es amplio y su
investigación continuará durante muchos años.

El problema del escalamiento

El problema del escalamiento ha recibido algo menos de atención,


aunque ha emergido claramente como un problema central de los proce-
dimientos de aprendizaje de tipo retro-propagación, El punto hasico es
que los problemas difíciles necesitan muchos intentos de aprendizaje. Por
ejemplo. no es infrecuente necesitar decenas, o incluso cientos de miles de
presentaciones de patrón para aprender problemas moderadamente difíci-
les -es decir. problemas cuya solución requiere desde decenas o millares
hasta cientos de miles de conexiones. Estos problemas necesitan compu-
tadores grandes y rápidos, y llegan a ser impractic.-ables aquellos proble-
mas que necesitan más de unos pocos cientos de miles de conexiones. Por
consiguiente. es un asunto de importancia averiguar cómo hacer más rá-
pido el aprendizaje de modo que resulte posible aprender problemas más
difíciles con un número de exposiciones. más razonable. Las soluciones
propuestas entran en dos categorías básicas Una línea de ataque es me-
jorar el procedimiento de aprendizaje mediante la optimización dinámica
de los parámetros (e~ decir, modificar el porcentaje de aprendizaje siste-
máticamente durante el proceso). o bien utilizar más información en el
procedimiento de cambio de pesos (es decir. el denominado procedimien-
to de retro-propagación de segundo orden donde las segundas derivadas
también son computadas). A pesar de que se han conseguido algunas
mejoras mediante el uso de estos métodos. persiste todavía el problema
del escalamiento en determinados dominios de problemas. Parece que la
dificultad fundamental es que los problemas difíciles requieren un número
muy grande de ejemplares. independientemente de la eficiencia con la
que se utilice cada ejemplar. La otra línea se ha desarrollado Lt partir de
la consideración del aprendizaje y la evolucion como continuos entre sí.
Según esta concepción. el hecho de que las redes empleen mucho tiempo
en aprender es algo que cabe esperar. ya que tendemos a comparar su con-
ducta con la de organismos que cuentan con largas historias evolutivas.
Desde este punto de vista, la solución es arrancar el sistema en el momento
más apropiado posible para que pueda aprender el dominio de problemas.
Shepherd ( 1989) ha argumentado que este enfoque resulta crítico para una
comprensión cabal de los fenómenos que se están modelando.

163
OUtpul Unlta

r
I
I
I
Hldden Unfts
I
I
I
I
t:fJ
Input Unlta ContextUntts

FIGURA 4.6

Una red recurrente del tipo de las desarrolladas por Elman (1988)
para aprender a reconocer secuencias

Un ultimo abordaje del problema del escalamiento es a través de


la modularidad. Resulta posible dividir el problema en subproblemas
más pequeños y entrenar subredes con esos subproblemas. Así, las redes
pueden ser agrupadas al final para resolver el problema completo des-
pués de que todos los módulos han sido entrenados. A este respecto, una
ventaja del enfoque conexionista es que el entrenamiento inicial sólo
necesita ser correcto aproximadamente. Puede utilizarse una vuelta final
de entrenamiento para aprender las interfaces entre los módulos.

El problema de la generalización

Un último aspecto del aprendizaje que ha sido considerado es la na-


turaleza de la generalización. Es evidente que la propiedad más impor-
tante de las redes no es que aprenden un conjunto de correspondencias.
sino que aprenden la función implícita de los ejemplares bajo estudio.
de tal forma que responden con propiedad a aquellos casos que no han
sido observados todavía. Aunque existen muchos casos de generaliza-
ción exitosa (ver el aprendizaje de las correspondencias entre el deletreo
y los fonemas en el Nettalk de Sejnowski y Rosenbcrg. 1987), existe
una cierta cantidad de casos en los que las redes no generalizan correc-
tamente (ver Denker el al. 1987). Una forma fácil de entender ésto es

1M
observar que para la mayor parte de los problemas existen suficientes
grados de libertad en la red como para que se de un ámplio número
de soluciones a los problemas. todas genuinamente diferentes, y cada
solución constituye una forma diferente de generalizar los patrones no
vistos. Es evidente que no todas ellas pueden ser correctas. Yo he pro-
puesto una hipótesis que desvela ciertas esperanzas de promover una
generalización mejor (Rumclhart, 1988). La idea básica es la siguiente:
el problema de la generalización es esencialmente el problema de la
inducción. Dado un conjunto de observaciones. cuál es el principio ade-
cuado para aplicar a todos los casos. Debe notarse que la red puede ser
contemplada en cualquier intervalo temporal como una especificación
de la hipótesis inductiva. He propuesto que sigamos una versión de la
navaja de Occam y seleccionemos la red más simple y más robusta que
resulte consistente con las observaciones realizadas. El supuesto de la
robustez es simplemente la plasmación de un tipo de hipótesis de conti-
nuidad en el sentido de que las variaciones pequeñas en los patrones in-
put deberían tener poco efecto en el output yen la conducta del sistema.
El supuesto de simplicidad consiste únicamente en escoger -de entre
todas las redes que dan cuenta correctamente de los datos input- la red
con menos unidades ocultas. menos conexiones. más simetrías entre los
pesos, y así sucesivamente. He formalizado este procedimiento y modi-
ficado el procedimiento de aprendizaje por retro-propagación de forma
que prefiere las redes simples y robustas, y en igualdad de condiciones,
seleccionará dichas redes. En muchos casos sucede que esas redes son
precisamente las que mejor realizan el trabajo de generalizar.

Referencias

COlTRELL, G. W.. MUNRO. P. W. & Z¡PSER, D. (1987) «Learning intcrnal re-


presentations from grcy-scalc imagcs. An example of extensional program-
ming--. En Proceedings o} the Ninth Annual Mretini; ofthe Cognitive Scien-
ce Societv. Hillsdale. NL Erlbaum.
OENKER. J.. SCHWARTZ. D., WIITNER. B. SOLLA. S. HOPFIELD.l., HOWARD. R., &
JACKEL. L. (19~n) Autornatic lcarning, rule extraction, and generalization.
Complex Svstems 1:K77-922.
ELMAN, J. (1988) Findint; 51ructure in Time. CRL Tech. Report 88-01. Center
for Research in Language. Un i vers i ty of California, San Diego.
ELMAN. J. & ZIPSER, D. (1987) Learnlng the hidden structure of Speech. Rep.
No. 870 l. 1nstitute for Cogniti ve Science, Univcrsi ty of California, San
Diego.

16)
FELDMAN. 1. A. (1935) Connectionist rnodels and thcir applications. Introduc-
tion, Cognitive Scicnce, 9: 1-2.
GROSSRFRG, S. (1C)76) «Adaptive pattern classification and universal recoding:
Part 1. Parallel development and coding of neural fe atu re detectors». Biolo-
gical Cvbernctics 23: 121-134.
HERR. 0.0. "19'+9) The organizution oi Belutvior, New York: Wiley,
HIN"JON. G. E.. & SEJNOSWKI. T. (1986) «Leaming and relearning in Boltzmann
machines». In D. E. Rumelhart, J. L. Mcf lelland. and ihe PDP Research
Group. Parallel Distributed Proccssing: Explorations in the Microstruc-
tura o] Cognition. volume 1: Foundations. Cambridge, MA: MIT Press, A
Bradford Book.
HOPrI[LD. J. J. (1982) «Neural Nctworks and physical systems with cmcrgent
collective cornputaiional abi Iiries», Proceedings ofthe National Academv of
Sciences. USA 79:255~-2558,
J ORDAN. M. 1. (1986) «A ttractor d ynam ics and parallel i sm í n a connectioni . \t
sequential machinc». Proccedings ofthe Eighth Annual Meeting ofthr Cog-
nitive Science Socictv, Hilh,d<}le: NL Erlbaum.
J ORDAN. M. 1. (1986) (1 9~9) S upefv ised Leaming and systerns \\0' ith excess
N

dcgrccs of frccdorn», D. Touretzky, G. Hinton .md T. Sejnowski. Eds. Con-


nectionlst Mod('/~. San Mateo. CA.: Morgan Kaufman.
MINSKY. M. & PAPERT, S. (1969) Perceptrons. Cambridge Mass: MIT Press,
MIYATA. Y. (1987) The Learning and Planning ofActions. Ph. D. Thcsis Univer-
sity of California, San Diego.
MCCLELLAND.1. L.. RUMELHART. D. E .. and the PDP Research Group (1986)
Parallcl Distributed Proce.. . sing : Explorations in the Microstructure of
Cognitirm. Vo/ume :!: Psychological and Biological Models, Ca.bridge MA:
MIT Press, A Bradford Book.
MOLeR, M.e. (1988) Afocuscd book-propagation algorithm for temporal pat-
tern recognition. Rep. no. R8-3. Departrnents of Psychology and Computer
Scicncc. University oí"Toronto. Toronro. Onrario.
REDDY, D. R., ERtvlA.N. L. D., FENNEI L. R. D. And NJ:::l::.LY. R. B. (1973) «The
Hearsay speech undertanding system. An e xarnplc of thc recognirion pro-
cess». En Procecdings o/ tire lnternationul Conference Ot1 Artificial lntelli-
gcnce, pp. 185-194.
RO<\ENBlxn, F. (1962) Principies ofNeurodynamics. Ncw York: Spartan.
RllMELH -\RT. D. (19~8): Gcneralization and the Learning ojMinimal Networks
by Backpropagcuion. En preparación.
RUMl::.LHi\RT. D. HINTON. G. & \VILLlAMS, R. (1986) «Leurning interna! rcpre-
sentations by error propagation». en Rumelhart & Mcclelland. J. & POP
Research Group í 1986) Paralle! Distributed Processing : Explorations in
the Microstructure (i Cognition, Vol. 1: Foundations. Cambridge. Mass:
MIT Prexs. A Bradford Book.

166
RL'\1ELH,\RT & MCCLEr .LAND. J. & PDP Research Group (1986): Parallel Distri-
buted Processing: Explorations in the Microstructure of Cognition, Vol. 1:
Foundations. Cambridge, Mass: MJT.
SEJ'JOWSKI. T. And ROSENBERG. C. (1987) «Parallel Nctworks that Icarn no pro-
nounce Eng 1i~h text», Complex Systems 1: 145-168.
SHEPHERD, R. N. (1989) «Intcrnal representation of universal regularities: A
Challenge for conncctionism». En L Nadel, L A. Cooper, P. Calicover, and
R. M. Harnixh, cds. Neural Connections, Menta! Computation. Cambridge,
MA: MIT Pró~. A Bradford Book.
S\tOLENSKY. P. r lqR6) «Inforrnation processing in dynarnical systems: Foun-
dations of the harmony theory», En Rumelhart & Mcclelland. J. & PDP
Research Group (1986) Parallel Distributed Processing: Explorotions in
the Microstructure (JI Cognition, Vol. 1: Foundations. Cambridge. Mass:
MIT Press. A Bradford Book.
TODO. P. (1989) <.A sequential network design for musical applications»,
D. Tourctzky. G. Hinton and T. Sejnowski, Eds. Connectionist Models. San
Mateo. CA.: Morgan Kaufrnan.
WIDROW. G. And HOFF, M. E. (1960) u Adaptive swirching circuits». En lnstitu-
te oj Radio Engeeneers, We.Hern Electronic 5/10)1' ami Convention Record.
Pan 4, pp. 96-104.

167
MOTIVOSI, lVIECANIS~IOS y El\fOCIONES
Aaron S loman

l. Introducción

El lenguaje ordinario hace ricas y sutiles distinciones entre diferen-


tes tipos de estados y procesos mentales tales como el estado de ánimo,
la emoción, la actitud, los sentimientos, el carácter. la personalidad, y
otro.. más. En la medida que nuestras palabras y conceptos han ido per-
filándose a lo largo de los siglos bajo la presión de las necesidades reales.
para dar respuesta a las vicisitudes de la vida cotidiana. éxtox nos han
ido proporcionando datos sustanciales acerca de la mente humana.
No obstante su uso actual es inconsistente, y nuestra capacidad para
articular las distinciones que captamos y usamos intuitivamente es tan
limitada como nuestra capacidad para recitar reglas de la sintaxis del
castellano. Palabras como «motivo» y «emoción» son usadas de modos
ambiguos e inconsistentes. La misma persona te dirá que el amor es una
emoción, que ama a sus hijos profundamente, pero que sin embargo
no se encuentra en un estado emocional, Muchas de las inconsistencias
podrían ser desveladas si reformulárarnos las afirmaciones mediante un
uso cuidadoso de los términos definidos. En tanto que científicos necesi-

1 Nota del traductor: El contexto en el que se utiliza el termino inglés «motive>' pa-
rece ser de más amplio alcance que el correspondiente al uso ordinario del termino cas-
tellano <' motivo». Por ejemplo. cuando en inglés se dice «the motive has heen violated».
por lo general ~e hace referencia ,1 un <cntimicnto. y de este modo dcbcrtamos traducirlo
al castellano por '<el sentimiento ha sido violado» No obvtantc. el autor uti liva dicho
término de forma casi general para referirse a sentumentos en tanto que motivadores de
acciones. por lo que en todos esto- CJ~O~ hemos JeciJiJn traducir «motive» ptlr mativ»,
Dicho en otras palabras. cuando en el texto ori g.lIla 1 el término inglés «motive- hace
referencia a un sentimiento motor que impele a la JCC1Ón lo traduc irnos inequívocamente
por 111Otj\'O.

169
tamos ampliar el1enguaje coloquial mediante una terminología con ba-
ses teóricas que pueda ser usada para establecer distinciones y describir
posibilidades normalmente no comprendidas por la gente corriente. Por
ejemplo, veremos que el amor es una actitud, no una emoción. aunque
el amor profundo pueda fácilmente desencadenar estados emocionales.
En la jerga de los filósofos (Ryle 1949), las actitudes son disposiciones.
las emociones episodios. si bien con elementos dispositivos.
Para una completa explicación de estos episodios y disposiciones
necesitamos una teoría acerca del modo en que los estados mentales son
generados y controlados, y del modo en que conducen a la acción -una
teoría acerca de los mecanismos de la mente. La teoría deberla explicar
cómo deberían ser construidas, almacenadas. comparadas, y usadas las re-
presentaciones internas para hacer inferencias. formular planes, o controlar
acciones. Las líneas maestras de la teoría son expuestas a continuación. En
primer lugar se señalan las restricciones de diseño para animales o máqui-
nas inteligentes, a continuación las soluciones para el diseño son puestas
en relación a la estructura de las emociones humanas y los mecanismos
computacionales subyacentes a los estados emocionales habituales.
Las emociones son analizadas como estados en los que motivos po-
derosos responden a las creencias relevantes desencadenando los meca-
nismos que precisan los sistemas inteligentes con limitación de recursos.
Los nuevos pensamientos y motivos pasan a través de varios filtros y
tienden a entorpecer otras actividades ya en marcha. Los efectos pueden
entrar en conflicto con otros procesos físicos y mentales, o modificar la
operación de los mismos. unas veces con éxito y otras no. Estos estados
resultantes son producto de los cambios. Los cambios fisiológicos no
necesitan ser tenidos en cuenta. Las emociones contrastan de manera su-
til con otros estados y procesos relacionados tales como la sensación. el
impulso. el estado de ánimo. la actitud, el temperamento; sin embargo no
hay espacio suficiente para una discusión completa del tema aquí,
Bajo este punto de vista no necesitamos proponer subsistemas es-
peciales para explicar las emociones puesto que los mecanismos sub-
yacentes a la inteligencia son suticientes (cf. Oatley y Johnson-Laird
1985). Si los estados emocionales surgen a partir de los mecanismos
precisos para enfrentarse de manera inteligente a un mundo complejo
y rápidamente cambiante, esto pone en entredicho la distinción común
entre la emoción y la cognición. Esto se aplica igualmente tanto a los
seres humanos como al resto de los animales. o a las máquinas inteli-
gentes venideras.

170
2. Restricciones de diseño para una mente

La enorme variedad de conductas animales indica que hay diferen-


tes modos de diseñar agentes que recojan información del entorno y
sean capaces de actuar tanto individual como coopcrativamente. Los ~e­
res humanos tan sólo ocupan un «apartado» de este «espacio d~ mentes
posibles». En otro lugar he señalado las restricciones que determinan la:-.
soluciones de diseño incorporadas en la mente humana. Sólo tengo e~­
paria para resumir los resultados claves relevantes para las emociones.
Las restricciones incluyen: una multitud de fuentes internas y exter-
nas para la motivación (a veces inconsistente), limitaciones de veloci-
dad. lagunas (mentales) insalvables y errores en las creencias sobre el
entorno. así como grados de urgencia variantes asociados con los moti-
vos. La limitación de recursos y la urgencia hacen inevitable el uso de
estrategias denominadas rules oj thumb potencialmente poco fiables. Lo
impredecible de la nueva información y los nuevos objetivos implican
una necesaria capacidad para interrumpir. modificar, suspender, o abor-
tar actividades en marcha, tanto internas como externas. Esto incluye
cosas tales como acciones «reflejas» de tipo hardware y software. algu-
nas de las cuales deberían ser modificadas ti I;} luz de la experiencia.
Los reflejos son inherentemente de acción rápida pero estúpidos.
Estos deben ser parcialmente controlados por filtros sensibles al con-
texto que utilicen rules uf thumb para asignar prioridades rápidamen-
te y permitan que actividades en marcha extremadamente importantes,
urgentes, () peligrosas prosigan sin disturbio permitiendo al mismo
tiempo que nuevos motivos, especialmente importantes, o urgentes. las
interrumpan. (La «insistencia» de un motivo se define más adelante en
térm i no" de su capacidad para pasar tales ti ltros) Una concl usion funda-
mental es que los sistemas inteligentes tendrán subsistemas rápidos pero
estúpidos. incluyendo filtros para nuevos motivos. Filtros rápidos del
tipo «dumb- los convertirán en ocasiones en indeseables.
La información incompleta y la necesidad de hacer frente a cambios
a largo plazo en los entornos físicos o sociales exigen recursos de alto
nivel para la acción que permitan ~I aprendizaje: no sólo generadores y
comparadores de motivos, sino también generadores y comparadores
para los propios comparadores y generadores.
Aunque varios subsistemas independientes pueden ejecutar planes
en paralelo, como comer o andar. los conflictos entre requisitos pueden
generar objetivos incompatibles, para los cuajes es necesario un rneca-

171
lIisID> de toma de decisiones. Las dos opciones principales son un esque-
ma de votación «democrática». y un tomador de decisiones centralizado.
Si no todos los subsistemas tienen acceso a la totalidad de la información
almacenada disponible o no todos tienen capacidades semejantes para el
razonamiento. una organización «democrática» puede ser peligrosa. En
su lugar, un mecanismo central especializado se hace necesario para las
decisiones más importantes (Slornan 1978: caps. 6 y 10). Este parece ser
el modo en el yue están organizadas las mentes humanas normales,
Restricciones semejantes determinan el diseño de artefactos inte-
ligentes. Las limitaciones físicas de los equipos computacionales sean
biológicos o artificiales exigen repartos importantes de las funciones,
que incluyen la asignación del control de más alto nivel a una parte con
acceso a la totalidad de la información ya la mayoría de los mecanismos
inferenciales. Sin embargo, una necesidad ocasional urgente de llevar
a cabo una acción drástica exige reflejos de tipo hardware o software
complementarios que operen independientemente del control de alto ni-
vel --un mecanismo que permita los procesos emocionales descrito en
los apartados siguientes.

Los Generadores de Objetivos

Muchos tipos de motivadores se obtienen a partir de palabras de uso


corriente y oraciones tales como:
aspiraciones, actitudes, deseos, inapetencias, objetivos. esperanzas,
ideales, amores, preferencias, principios, atracción. divertimento. amar-
gura, aburrimiento, encanto. júbilo. depresión, preocupación.
Hay muchos más. Estos establecen distinciones sutiles entre las di-
ferentes .... lases de acciones y los distintos modos en los que las cosas nos
afectan. El análisis conceptual trae consigo sus presuposiciones (SI0-
man 1978: cap. 4). Un concepto clave es e I de lene r un obje tivo.
En una primera aproximación, tener un objetivo es usar una es-
tructura simbólica, representada en algún formalismo. para describir
un estado de cosas que tiene que ser producido, preservado. o preveni-
do. Los símbolos no necesitan ser estructuras físicas: los formalismos
virtuales servirán igualmente (Slornan 1984). Los objetivos pueden
usar exactamente el mismo mecanismo descriptivo que las creencias
y las hipótesis. La diferencia reside solamente en los papeles que de-
sempeñan.

172
Una representación de un estado de cosas funciona como un objeti-
vo ~í tiende (sometido a muchas cualificuciones) a producir una conduc-
ta que cambie la realidad conforme con la representación.
Una representación funciona como una creencia si ésta es producida
o modificada por procesos perceptivos o de razonamiento que tienden
(sometidos también a muchas cualificaciones) a alterar las representa-
ciones conforme con la realidad.
(Lo que «conformar» quiere decir aquí no puede ser explicado sin
una digresión en profundidad.) Las mismas representaciones pueden ser
usadas también para otras funciones. como instrucciones. situaciones
hipotéticas, reglas, etc.
Algunos objetivos nuevos subsirven a un objetivo anterior y son
generados por procesos de planificación. Algunos son respuestas a la
nueva información, tales como querer saber cuál fue la causa del fuerte
ruido procedente de la esquina. Los objetivos no son desencadenados
sólo a través de sucesos externos: un pensamiento. una inferencia, o un
recuerdo pueden tener el mismo efecto.
¿Cómo puede ser producido un objetivo a partir de una creencia o
un pensamiento? Si los objetivos conllevan estructuras simbólicas, una
explicación computacional podría ser que una regla del tipo condición-
acción «generadora de objetivo» hubiera sido utilizada. Por ejemplo,
una regla benevolente podría ser: «Si X está preocupado generar el ob-
jetivo (X no está preocupado»). Un generador de un objetivo retribu-
tivo que subyaciera a un estado de ira podría ser «Si X me hace daño
generar el objetivo (X sufre)». Un análisis completo debería describir
varios «generadores de objetivos», «generadores de generadores de ob-
jetivos», y así sucesivamente. Un sistema con capacidad para aprender
produciría nuevos generadores de objetivos a la luz de la experiencia.
usando generadores de generadores.

Los Comparadores de Objetivos

Los generadores no siempre producen objetivos consistentes. Las


distintas constricciones de diseño llevan a la coexistencia de diferen-
tes generadores de objetivos. Los animales sociales o las máquinas
necesitan generadores de objetivos que produzcan objetivos para el
beneficio de los otros, y éstos pueden entrar en conflicto con los pro-
pios objetivos y las necesidades del individuo. Los comparadores de

173
objetivos son en consecuencia necesario!'! para la selección entre los
diferentes fines.
Algunos comparadores aplican la restricción entre objetivos en pla-
nificación, por ejemplo usando una regla de «minimización de costes»
para seleccionar el menos costoso de entre dos sub-objetivos. Otros di-
rectamente ordenan fines, por ejemplo una regla según la cual salvar la
vida es siempre más importante que ningún otro fin, pero no porque haya
una medida aplicable a ambos, Así como hay fuentes de motivación in-
conmensurables diferentes y diferentes bases para la comparación, no
existe la necesidad de que haya una resolución óptima de un conflicto.

Los Motivadores de Alfo-Nivel

A pesar de las posiblemente confundentes connotaciones coloquiales,


el término general «motivación» es usado para referirse a los mecanis-
mos y representaciones que tienden a producir, o modificar, o seleccio-
nar entre acciones, a la luz de las creencias. Los motivadores incluyen
recursivamente generadores y comparadores de motivadores. Algunos
motivadores son transitorios, como el objetivo de coger un trozo parti-
cular de pastel, mientras que otros lo 'ion a largo plazo. como la ambi-
ción de ser bien parecido.
Los motivadores no deberían ser estáticos -los generadores de mo-
tivadores son necesarios para la producción tlexible de nuevos objetivos.
Además la inteligencia superior implica la habilidad para aprender de la ex-
periencia y modificar los generadores. Así la necesidad de generadores es
recursiva. Lo mismo se aplica a los comparadores: Si dos generado-
res regularmente entran en conflicto al generar objetivos conflictivos, en-
tonces puede ser necesario suprimir o modificar alguno de ellos. Esto exige
un comparador de generadores. Generadores de comparadores y compara-
dores de comparadores son también necesarios. Los generadores y compa-
radores de alto nivel dan cuenta de algunas diferencias de personalidad. Sus
efectos explican parte de las sub-especies de los estados emocionales.
La investigación teórica es necesaria para diseñar en general gene-
radores y comparadores de alto nivel que sean útiles. La investigación
teórica es necesaria para establecer qué mecanismos están presentes en
las personas. ¡.Hay un límite en el número de niveles de comparadores y
generadores o nuevos niveles pueden ser generados recursivamente de
manera indefinida?

174
Las Variedades de Motivadores

Podemos distinguir entre moti vadores «dcrivati vos» y «no-deri vati-


vos». Dicho vagamente, un motivador es derivativo si éste es explícita-
mente derivado a partir de otro motivador mediante un análisis del tipo
medios-fines y este origen queda guardado para desempeñar un papel
en el proceso subsiguiente. Un deseo de beber cuando se está sediento
sería no derivativo, mientras que un deseo de tener dinero para comprar
la bebida sería derivativo. Un motivo puede ser parcialmente derivativo,
parcialmente no-derivativo, como un deseo de apagar la sed con whisky
para impresionar a otros. Se intentará mostrar el modo en que los moti-
vadores no-derivativos son centrales para los estados emocionales.
La distinción anterior tiene implicaciones para la conducta. Los ob-
jetivos derivativos son más rápidamente abandonados y su abandono
tiene un número menor de efectos colaterales, es decir. si parece que son
inalcanzables o si los objetivos de los que son derivados son satisfechos
o abandonados. Un objetivo derivativo nada prometedor puede ser fá-
cilmente reemplazado por otro si éste sirve también para lograr el super-
objetivo. Si un objetivo no-derivativo es abandonado porque está en
conflicto con algo que es visto como más importante puede no obstante
continuar demandando atención - una fuente de emociones.
Los objetivos no-derivativos humanos incluyen necesidades corpo-
rales como el deseo de aprobación, la curiosidad. los deseos estéticos. y
el deseo de tener éxito en la tarea asumida. Puesto que estos objetivos
sirven a propósitos biológicos más generales algunos teóricos los con-
sideran como derivativos. Sin embargo. los mecanismos que generan
un objetivo no necesitan estar asociados explícitamente con objetivos
de alto nivel, sino que basta con darles el poder causal para producir
planificación y acción, por ejemplo. a través de la simple inserción de
una representación del objetivo en una base de datos cuyos contenidos
gobiernen el sistema. A peliar de su función implícita un objetivo seme-
jante e~ no-derivativo para el individuo.

Las Dimensiones Cuuntitativas de la Variación

Los moti vos pueden ser comparados sobre la base de dimensiones


diferentes, definibles en términos de los mecanismos señalados ante-
rionnente. La insistencia de un motivo es su nivel de prioridad para
interrumpir. Los deseos, pánicos. miedos. etc. insistentes son aquellos

175
que pasan más fácilmente a través de los filtros de interrupción. depen-
diendo del conjunto de probabilidades relacionado con las actividades
ordinarias.
Los objetivos que pasan a través de los filtros no necesitan ser com-
parados para evaluar su importancia relativa. Este orden (a veces par-
cial) es determinado por la" creencias y los comparadores, y puede cam-
biar si ellos lo hacen. En estos casos pueden ser necesarias inferencias
complejas. La importancia de un objetivo deliberativo está relacionada
con la~ creencias acerca de 10\\ efectos para alcanzarlo o no alcanzarlo.
La insistencia está ligada a la probabilidad con la que un objetivo debe
pasar a través del filtro de interrupción de cara a que sea tenido en cuen-
ta, mientras que la importancia tiene que ver con la probabilidad con la
que éste debe ser adoptado para que algo sea alcanzado si es tenido en
cuenta. La insistencia debe ser evaluada muy rápidamente, y en ocacio-
nes debe estar correlacionada con la importancia pero en ocasiones no.
Un mal filtro asignará prioridades bajas a los objetivos de importancia.
y viceversa. Un deseo de estornudar no se va al trastre sólo porque el si-
lencio sea esencial para la supervivencia. (No todos los animales tienen
sistemas motivacionalcs tan complejos.)
La urgencia es una medida de la cantidad de tiempo que se puede
dejar pasar antes de que sea demasiado tarde. Esto no es lo mismo que
la insistencia o la importancia: algo no demasiado deseado puede bien
ser urgente, y viceversa.
La intensidad de un objetivo determina en qué medida de actividad
o vigorosidad éste debe ser perseguido ~i es adoptado. Está relacionada
de modo parcial con la importancia y la urgencia, y es parcialmente in-
dependiente de ellas. Los obstáculos para un objetivo tienden a ser trata-
dos más como un reto que como una razón para su abandono. A menudo
un objetivo importante a largo plazo saldrá perdedor frente a otro menos
importante pero más intenso-e-la edad avanzada produce conflictos en-
tre el deseo y la obligación. Idealmente la insistencia. la intensidad, y la
importancia deberían estar correlacionadas, pero una relación semejante
puede verse influida por interacciones urgentes y por la manera en que
las asignaciones de insistencia o intensidad relativas a los reflejos se
derivan de las experiencias anteriores o de los ongenes evolutivos.
Otro modo de medir (la fuerza de) un motivo es calcular el grado de
preocupación o interrupción que supone su consecución. Otra cosa di-
ferente es calcular el grado de satisfacción derivado de su consecución.

176
Este puede ser evaluado en función del grado de esfuerzo que supone la
preservación del estado de cumplimiento. o del hecho de volver a alcan-
zarlo más adelante. Ambos son normalmente expresados como el grado
de «preocupación» de alguien y están relacionados con el potencial para
generar estados emocionales tal y como son descritos más adelante.

Todos estos tipos diferentes de «fuerza» de los motivos juegan un


papel en el funcionamiento cognitivo y pueden ser necesarios en robots
sofisticados. Pueden tener correlatos subjetivos en un sistema auto-mo-
nitorizado. si bien la auto-monitorización no resulta siempre fiable. Ob-
jetivamente están derinidos en términos de disposiciones para producir
efectos o resistir cambios de varios tipos, internos o externos. Las dis-
tintas combinaciones de fuerzas afectarán a lo que vaya a suceder en los
sucesivos estadios en la evolución de un objetivo. desde su concepción
inicial hasta su logro. abandono, o fracaso.

3. Sumario de los procesos que involucran motivos

Hasta el momento los procesos intermedios señalados a través de


los cuales pueden operar los motivos son los siguientes:

1. La iniciación-mediante un monitor corporal, un generador de


motivos. o un planificador que cree un nuevo sub-objetivo.
2. La priorización del reflejo de un nuevo objetivo-asignación de
in sistenc ia.
3. La supresión o transmisión mediante el filtro de interrupción .
.t El desencadenamiento de un acto reflejo (interno o externo.
hardware o software).
5. La evaluación de la importancia relativa. usando comparadores.
6. La adopción, desestimación. o consideración aplazada - 3 los
motivos adoptados normalmente se les llama «intenciones»
Los deseos pueden persistir en tanto que deseos, si bien pueden
no ser adoptados para la acción.
7. La planificación -la planificación ~< intrínseca» tiene que ver
con el modo en que se alcanza el objetivo, la planificación «ex-
trínseca>, con cuándo, y cómo relacionarlo con otras activida-
des, por ejemplo, ¿debería ser postpuesto (el objetivo)?
8. La acti va vión - comenzar a alcanzar el motivo. o rcacti var tem-
poralmente motivos en suspenso.
9. La ejecución del plan.

177
10. Las interrupciones -abandono o suspensión.
11. La comparación con los nuevos objetivos,
12. La modificación del pi an o de Ia acción a la luz de la nueva in-
formación o de los objetivos, incluyendo cambios de velocidad,
estilo, o sub-objetivos.
13. La satisfacción (completa o parcial).
14. La frustración o violación.
15. La monitorización interna (autoconocimiento).
16. El aprendizaje - modificación de los generadores y comparado-
res a la luz de la experiencia.
Estos son los procesos computacionales, que pueden ser expresados
en términos de la manipulación gobernada por reglas de las represen-
taciones de varios tipos. si bien completar los detalles no es tarea fácil.
Ahora trataré de indicar cómo se relacionan con las emociones. La his-
toria completa es muy compleja.
Un Ejemplo: la ira. Qué se quiere decir mediante «X está enojado
con y». Esto implica que X cree que hay algo que Y hizo o no hizo y
como resultado de lo cual uno de los motivos de X ha sido violado. Esta
combinación entre la creencia y el motivo no es suficiente para (expli-
car) el estado de ira, puesto que X podría "implemente lamentarse de ]0
sucedido o no estar de acuerdo con Y. sin estar por ello iracundo. La ira
exige también un nuevo motivo en X: el deseo de hacer daño o herir a Y.
La mayoría de la gente y de los animales parecen tener generadores de
motivos retributivos que reaccionan de esa manera. lamentablemente.
El nuevo motivo no es seleccionado para la acción por intenso que pu-
diera ser: el miedo a las consecuencias y los comparadores apropiados
pueden mantenerlo inoperativo.
Ni tan siquiera la producción de un nuevo deseo es suficiente para
explicar la ira. X puede tener el deseo. aunque puede bien quitárselo de
la cabeza y volver tranquilamente sobre alguna otra cosa: En este caso
no está iracundo. De modo alternativo, el deseo de X de hacer algo que
resulte desagradable para Y puede ser del todo derivativo: nada más que
una medida práctica para reducir la probabilidad de que vuelva a ocurrir
en el futuro, sin ningún sentimiento negativo hacia Y. Entonces si de al-
gún modo se le asegura a X que no va a haber reiteración, el sentimiento
desaparecerá. Eso no es la ira.
La ira implica un deseo no-derivan vo intenso e insistente de hacer
algo que haga sufrir a Y. La alta insistencia SIgnifica que el deseo fre-
cuentemente pasa a través de los filtros de X para «reclamar su aten-

178
ción» por parte de los procesos de «toma de decisión» de X. Así incluso
después de ser rechazado por los comparadores. el deseo frecuentemen-
te vuelve a los pensamientos de X. haciendo difícil su concentración
en otras actividades. Los filtros de velocidad diseñados pueden ser de-
masiado estúpidos para rechazar motivos ya eliminados en los niveles
altos. Además. el deseo debe ser no derivativo. de tal manera que ~ea un
sub-objeti vo lo que desaparezca si un super-objetivo es cambiado. En
agentes socialmente sorixticados. la ira puede incluir una creencia segun
la cual la acción de Y no tendría justificación social o ética.
De este modo las emociones son estados producidos por los motiva-
dores. y entrañan la producción de nuevos motivadores.
La violación del motivo original. y la insistencia del nuevo motivo,
pueden estar asociados con efectos secundarios adicionales. Por ejem-
plo. si X sabe que está iracundo esto le puede hacer sentirse mal consigo
mismo. Si otra persona percibe su estado, esto también puede afectar a
la naturaleza de la emoción. El episodio puede hacer revivir recuerdos
de otras situaciones que provoquen la ira.
Algunas veces. en los seres humanos. los estados emocionales tam-
bién producen disturbios fisiológicos, probablemente como resultado de
la operación de reflejos físicos y químicos dirigido':' por estrategias 113-
madas rules-of-thumb, como ya fue sugerido más arriba. Sin embargo.
si X satisfizo en número suficiente otras condiciones podría ser adecua-
damente descrito como muy furioso o iracundo, incluso sin ningún tipo
de síntomas físicos. La ira fuerte puede existir sin ningún tipo de efectos
colaterales en la medida en que ésta se entromete constantemente con
los pensamientos y decisiones de X. y en la medida en que aquél desea
con insistencia que Y sufra, y sufra lo suyo. Aunque la ira de carácter
no-físico podría ser denominada como «rrta». conserva sin embargo to-
dos los aspectos socialmente relevantes de la ira.
La ira es parcialmente disposicional en tanto que de lucho no ne-
cesita entrar en interferencia con los otros sentimientos: por ejemplo. si
se acula sobre la base del nuevo motivo de castigar a Y. no se necesita
que haya más perturbación. Sin embargo, la ira tiene el potencial para
perturbar otras actividades si el nuevo motivo es de insistencia alta.
La ira es en ocasiones sentida, como resultado de la auto-monito-
rización. Sin embargo, es posible estar iracundo, o estar en otros esta-
dos emocionales, sin ser conocedor del hecho. Por ejemplo, sospecho
que los perros y niños de muy corta edad no son conocedores de su ira

179
(aunque sí mucho más conocedores de cualquier cosa que la pudiera
provocar).
Las emociones como la ira pueden variar a lo largo de diferentes
dimensiones cuantitativas y cualitativas, tales como: cuánto de seguro
está X acerca de lo quc Y ha hecho. cuánto de preocupado está X acerca
de esto (es decir, cuánto de importante y de intenso es el sentimiento
violado); cuánto daño quiere X hacer a Y: cuánta es la importancia de
este nuevo deseo, cuánto de intenso es, cuánto de insistente, cuánto de du-
radero; cuánto es el disturbio mental producido en X; cuánto de distur-
bio fisiológico hay: de qué aspectos del estado es X conocedor; cuántos
motivos y acciones secundarias son generadas. Dimensiones diferentes
serán apropiadas para emociones diferentes.
Las variaciones en los diferentes estadios del escenario se corres-
ponden con los diferentes estados. algunos de los cuales no son emocio-
nales. Cuando no hay deseo de hacer daño a Y.la emoción se parece más
a la exasperación que a la ira. Si no hay atribución de responsabilidad.
entonces la emoción es simplemente alguna forma de enfado. y si el sen-
timiento que es violado es muy importante. y no puede ser rápidamente
satisfecho por alguno alternativo, entonces la emoción se convierte en
decaimiento. Puesto que pueden estar implicados lln número arbitraria-
mente elevado de motivos. creencias, y generadores de motivos, con
nuevas reacciones desencadenadas por los efectos de otras viejas, el
abanico de variantes cubierto por esta teoría está condicionado a ser
más rico que el conjunto de usos habituales en el lenguaje ordinario.
También será más rico que el abanico de las respuestas fisiológicas.

4. Hacia una gramática generativa de las emociones

El análisis de la ira y de otras emociones a la luz de los mecanismos


señalados anteriormente, sugiere los siguientes componentes de los es-
tados emocionales:
l. Hayal menos un motivo inicial, M l. con un alto nivel de impor-
tancia e intensidad.
2. Una creencia. B 1, acerca de la satisfacción o violación real o
imaginada o esperada de NII desencadena generadores de va-
rios tipos. a menudo produciendo nuevos motivos.
3. Los diferentes tipos de casos dependen de: (a) si M] tiene que ver
con algo deseado o no deseado; (b) si Bies una creencia acerca

180
de si Ml es satisfecho o violado; (e) si B 1 tiene que ver con el pa-
sado. presente, o futuro: (d) si B 1 implica incertidumbre o no; (e)
si el agente es conocedor de su emoción o no; (f) si se considera
que otros agentes están implicados o no (cf. Roseman 1979).
4. En situaciones más complejas algunos motivos interactúan con
las creencias, es decir, una situación donde B 1 implica que mo-
tivos importantes M 1(a) y !VII (b) son inconsistentes, es decir,
constituyen dilemas.
5. Algunas veces !vII y B l ponen en marcha un generador que
produce un motivo secundario, M2, por ejemplo un deseo de
arreglar las cosas, preservar un capricho, castigar a un tirano,
o informar a otros. Este a su vez puede interactuar con otras
creencias, entorpecer, interrumpir, o afectar de otra manera a los
procesos cognitivos. Este sería un estado emocional de «nivel-
dos», Son posibles distintos niveles.
6. En ocasiones M I Y B 1 desencadenan algunos generadores de
motivos simultáneamente. Las interacciones resultantes pueden
ser muy complejas especialmente cuando nuevos motivos están
en conrlicto. por ejemplo un deseo de deshacer el daño y atrapar
al culpable.
7. En ocasiones los motivos recientemente generados entran en
contlicto con los ya existentes.
8. Los nuevos motivos con alta insistencia pasan a través de los fil-
tros de interrupción y tienden a producir (aunque no necesitan de
hecho producirlo) un disturbio, es decir, interrumpiendo de ma-
nera continuada los pensamientos y las decisiones. e influyendo
sobre las percepciones y los criterios en la toma de decisiones.
9. Los pensamientos al igual que los motivos tienen capacidad
para interrumpir. Incluso sin ningún motivo nuevo pueden sin
más incidir sobre 1\1) y B 1. Esto es especialmente cierto en
emociones como el dolor, que implican lo que no puede desha-
cerse. Una incidencia compulsiva semejante podría derivarse
del desencadenamiento de mecanismos de aprendizaje automá-
ticos relativos a los generadores de re-programación.
10. Los nuevos motivos no necesitan ser seleccionados para la ac-
ción. :M2 puede ser considerada y desestimada como sin impor-
tancia, aunque continúe pasando a través de filtros de interrup-
ción si la insistencia es alta.
11. En algunos estados emocionales, como el susto, M2 desencade-
na un acción refleja, pasando por encima de la deliberación y la
planificación, e interrumpiendo otras acciones (Slornan 1978:

181
cap. 6). Los «reflejos del software» se denominan acciones «im-
pulsivas». Los reflejos hacen posible llevar a cabo acciones de
solución muy rápidas o aprovechar oportunidades repentinas.
En ocasiones resultan desastrosos, sin embargo. Algunos refle-
jos son puramente mentales: una barrera completa de pensa-
mientos y sentimientos puede ser desencadenada,
12. Algunos estados emocionales surgen de los propios pensamien-
tos o acciones de los individuos, por ejemplo, el miedo gene-
rado por la contemplación de posibles errores. Los motivos se-
cundarios pueden ser generados para extremar las precauciones,
cte. Estos motivos pueden generar tanto disturbio que pueden
conducir al desastre.
13. Algunas emociones implican la interrupción y rcdirccción de
muchos procesos en marcha. por ejemplo, procesos de control
de las diferentes partes del cuerpo en la recuperación del equili-
brio. Si los detectores sensoriales guardan los cambios locales,
la percepción del sistema de su propio estado sed. alterada.
14. Los procesos de auto-monitorización pueden o no detectar el
nuevo estado interno. Si no, X no será consciente de. o no sen-
tirá, la emoción. L~ monitorización interna no necesita producir
reconocimiento, es decir, esquemas relevantes podrían no haber
sido aprendidos (S loman 1978: Cap. lG). Las personas tienen que
aprender a discriminar y reconocer estados internos complejos.
mediante el uso de procesos visuales no menos complejos que el
reconocimiento de una cara o una máquina de escribir.
15. El reconocimiento de una emoción puede producir efectos pos-
teriores. es decir. \i el estado interno satisface o viola algún
motivo. Este puede activar motivos o generadores de motivos
adormecidos y posiblemente conducir de modo sucesivo a emo-
cienes de más alto nivel (escalamiento recursivo).
Las interrupciones, lo'> disturbios. y las desviaciones de la racio-
nalidad que caracterizan a algunas emociones son una consecuencia
natural de los tipos de mecanismos que surgen de las constricciones de
diseño de los sistemas inteligentes, especialmente la inevitable estupi-
dez de los filtros ele interrupción con limitación de recursos que tienen
que actuar rápidamente. Un robot con un ordenador infinitamente rá-
pido y conocimiento perfecto y poder predictivo no necesitaría tales
mecanismos. Sin embargo. no todas las emociones son disfuncionales:
al caminar sobre un borde estrecho es importante no olvidarse de los
nesgos.

182
Estos mecanismos permiten tantos sub-procesos diferentes en situa-
cienes diferentes que ninguna tabla simple de tipos de emociones puede
hacer justicia a su variedad. La misma rica variación podría caracterizar
la detallada fenomenología de las emociones en robots inteligentes con
habilidades para la auto-monitorización.
Una completa explicación de cómo las personas usualmente sien-
ten ira. júbilo, miedo. etc. debería de incluir conocimientos corporales.
Aunque lo que convierte a muchas emociones en importantes en nues-
tras vida no es esta suerte de detalle, sino la estructura cognitiva más
global. La ira es importante porque puede producir acciones que causan
dolor al que odia y al odiado. no porque haya tensión física y sudor.
El dolor es importante porque se ha perdido al hijo querido. no porque
tengamos un nuevo sentimiento en el vientre. De este modo sería razo-
nable para nosotros usar términos como «temeroso». «decepcionado»,
«estático». o «afligido por el dolor» para describir el estado mental de
un alienígena, o incluso de un robot lo suficientemente sofisticado. sin
las respuestas fisiológicas (contrastar con Lyons ]980).

5. Estados de ánimo, actitudes y personalidad

Un estado de ánimo es parcialmente como una emoción: entraña


algún tipo de perturbación de los procesos mentales o bien una dispo-
sición a su perturbación, Sin embargo. no necesita incluir ningún tipo
de creencias, deseos. inclinaciones específicos para actuar. etc. En los
humanos. los estados de ánimo pueden ser inducidos por factores quí-
micos o cognitivos. por ejemplo, el beber o escuchar buenas () malas
noticias. Un estado de ánimo puede dar color al modo en que uno per-
cibe las cosas, interpreta las acciones de los otros. predice el resultado
de las acciones, hace planes, etc. Como con un estado emocional, un
estado de ánimo puede o no puede ser percibido y clasificado por el
individuo en cuestión. Una teoría más detallada tendría que distinguír
diferentes mecanismos, por ejemplo. los cambios de velocidad globales
«inducidos por el hardware» y los cambios globales «inducidos por el
software» en las prioridades relativas de los motivos o de las estrategias
de inferencia.
Una actitud, tal como el amor o la admiración, es una colección de
creencias. motivos. generadores de motivos. y comparadores centrada
sobre algún individuo. objeto, o idea. Las personas que quieren a sus
hijos adquirirán nuevos objetivos cuando detecten peligros o situaciones

183
que pudieran afectar a su bienestar. La fuerza del cariño determina la
importancia e interrumpe niveles de prioridad asignados a tales obje-
tivos. El egoísmo es una actitud parecida hacia uno mismo. En comu-
nidades de sistemas inteligentes. capaces de pensar y preocuparse por
los estados mentales de 10-; otros, la riqueza y variedad de las actitudes
los hace un tópico inagotable para el estudio de los poetas, novelistas, y
científicos sociales. Las actitudes se confunden a menudo con las emo-
ciones. E~ posible amar. compadecerse de alguien, admirar u odiar a una
persona sin estar en ningún caso en un estado emocional. Las actitudes
son expresadas como tendencias a la hora de realizar ciertas elecciones
cuando las oportunidades surgen. pero no necesitan incluir un continuo
disturbio de pensamientos y decisiones. Uno puede amar a sus hijos sin
tenerlos constantemente en mente, aunque noticias de peligro acerca de
los seres queridos pueden desencadenar emociones.
El carácter y la personalidad incluyen actitudes a largo plazo. La ge-
nerosidad, por ejemplo. no es un objetivo sino un racimo de generadores
de objetivos que produce nuevos objetivos en respuesta a la información
acerca de las necesidades de otro y de comparadores que los seleccio-
nan sobre objetivos más auto-centrados. El hipócrita produce objetivos
parecidos pero nunca los adopta para la acción. Una personalidad o ca-
rácter es. una vasta colección de disposiciones generales desenfocadas
para producir cienos objetivos en situaciones especfficas. El conjunto de
tales colecciones es demasiado rico para los adjetivos ordinarios. Toda
una novela puede ser necesaria para retratar una personalidad compleja.
Más generalmente, el espacio de los posibles estados y procesos menta-
les es demasiado rico y complejo como para que etiquetas coloquiales
tales como «actitud». «emoción>', «estado de ánimo» sobrevivan en una
teoría cientítica adecuada.
Hay muchos tipos de experiencias profundas y motivadoras que des-
cribimos como emociones, a falta de un vocabulario más rico. más reti-
nado: por ejemplo, el disfrutar de un paisaje, el leer poesía. el escuchar
música, el estar absorto con una película o un problema. Estos entra-
ñan interacciones poderosas entre la percepción y un amplio número de
procesos adicionales. tanto físicos como mentales. El escuchar música
puede producir una tendencia al movimiento físico y también una gran
cantidad de «movimiento» mental: recuerdos. percepciones, murmullos
por asociación. todo controlado por la música. Tales proceso'> podrían
ser explicados en términos de los aspectos del diseño de los sistemas
inteligentes no discutido aquí, tales como la necesidad de memoria aso-
ciativa y de formas sutiles de integración y sincronización en el control

lR4
de los movimientos físicos. La sincronización es necesaria tanto en un
individuo como entre los individuos involucrados en tareas cooperati-
vas. La música parece tener control sobre algunos de esos procesos.
Conjeturo que los mecanismos señalados aquí son capaces de gene-
rar estados que generalmente describimos como emocionales -el mie-
do, la ira, la frustración. la excitación, el decaimiento, el dolor. el júbilo.
etc. Estos mecanismos son generativos en el sentido que los motivos.
las creencias. los planes. y los contextos sociales relevantes pueden ser
j ndefi TIidamente cornple jos y variados (Abe lson 1973; Dyer 1981; Le h-
nert, Black y Reiser 1981). Esto significa que ninguna taxonomía simple
y limitada de los estados emocionales puede comenzar a captar la varie-
dad de las oraciones del inglés (cf. Roseman 1979).

¿Necesita una Teoria Cientifu:a de la Mente Conceptos Parecidos?

Se ha sugerido algunas veces que aunque conceptos como «creen-


cía», «deseo), «emoción» juegan un papel importante en los pensamien-
tos de los individuos acerca de otras personas, éstos no son necesarios
para una teoría científica de la mente completamente desarrollada. En
su forma extrema esto da lugar al reduccionismo materialista, pero esto
es tan implausible para la psicología como la sugerencia de que los con-
ceptos para el diseño del software pueden ser reemplazados por concep-
tos sólo relacionados con el hardware computacional.
Una sugerencia más sutil (S. Rosenschein, SRI. en comunicación
personal) es que una colección completamente nueva de conceptos de
«nivel intermedio», no relacionados con las creencias, los deseos. y las
intenciones, etc.. será suficiente' para una teoría científica predictiva y
explicativamente exitosa de cómo las personas y otros organismos in-
teligentes funcionan. Puesto que es improbable que se pueda prescindir
de los conceptos ordinarios de manera total cuando expresamos genera-
lizaciones significativas acerca de la conducta humana (Pylyshyn 1986)
he tomado una posición más débil: en lugar de reemplazar totalmente
los conceptos ordinarios lo que necesitamos es ampliarlos y refinarlos,
mostrando cómo se relacionan con una especificación de diseño que
funcione.
Incluso si este tipo de teoría es errónea. ésta puede tener profundas
implicaciones sobre los conceptos de la semántica del lenguaje natural
relativos a los estados mentales y las acciones humanos. Si así ocurrie-

185
ra, una máquina capaz de entender el lenguaje ordinario y simular (a
comunicación humana necesitará al menos una comprensión implícita
de la teoría.

Implicaciones

No todos estos mecanismos pueden encontrarse en todos los anima-


les. En algunas criaturas menos inteligentes, la selección de un motivo
podría ser inseparable de los procesos para la iniciación de la acción:
los motivos operativos podrían no estar adormecidos. En animales o
máquinas semejantes la falta de los mecanismos requeridos para la fle-
xibilidad en un entorno complejo, las emociones en el sentido descrito
aquí serfan imposibles.
Es también improbable que toda esta riqueza exista en los niños de
corta edad. Mediante la investigación del desarrollo de los mecanismos
cognitivos y computacionales en los niños, incluyendo los mecanismos
motivacionales, cabe esperar una mejor comprensión acerca de sus esta-
dos emocionales. En particular, parece que muchos generadores y com-
paradores de más alto nivel no se encuentran en los menores, y que los
filtros de interrupción son de lejos menos selectivos que en la mayoría
de los adultos, lo que no es sorprendente si los filtros del software son el
resultado del aprendizaje.
La gran complejidad de los mecanismos descritos deja un amplio
margen para las situaciones «indeseables». Los generadores y compa-
radores de motivos podrían producir deseos y preferencias desafortuna-
dos. La interrupción de las prioridades puede ser asignada de tal manera
que no se correlacione bien con los juicios reflexivos de importancia.
Los umbrales para las interrupciones pueden estar situados demasiado
arriba o demasiado abajo. Los procesos de aprendizaje que modifican
a los generadores y comparadores pueden ser demasiado rápidos para
cambiar las cosas sobre evidencia endeble. Dada la inevitable estupidez
de algunos de los filtros y reflejos más rápidos, podemos esperar algu-
nos tipos de disfunciones de generadores y comparadores que conduz-
can a emociones intensas que interfieran con el normal funcionamiento
cognitivo o social. Las reacciones a los motivos no satisfechos pueden
ser demasiado fuertes. o demasiado débiles para el bienestar a largo
plazo del individuo o de sus asociados. La importancia relativa asignada
a los diferentes tipos de motivos por los procedimientos de evaluación
de objetivos puede producir una tendencia a seleccionar objetivos que

186
son inalcanzables o sólo alcanzables a un enorme coste, Los motivos
adormecidos, o remporalmente suspendidos pueden ser desatendidos
demasiado a menudo porque los procesos de monitorización fallen al
detectar oportunidades, quizás debido al uso de índices inadecuados. La
permisibilidad de las «rules ofthumb» para enfrentarse con información
Inadecuada. la limitación de recursos, y la necesidad de velocidad. pro-
porcionan un amplio margen para el mal funcionamiento del sistema. El
escalamiento recursivo de las emociones podría explicar algunos de los
estados catatónicos.
La ínevitabilidad de los tipos familiares de falibilidad debería cons-
tituir un foco de atención para aquellos que desean que las decisiones
importantes puedan ser tomadas muy rápidamente por máquinas en un
futuro no demasiado lejano.
De hecho. si las personas son tan complejas e intrincadas como he-
mos sugerido. es sorprendente que tantas sean estables y civilizadas.
Quizás esta teoría revele tipos de disturbio que previamente no podía-
mos reconocer.
La teoría implica que procesos de aprendizaje y desarrollo cogniti-
vo, tienen lugar en un marco de una colección de motivadores compleja
y frecuentemente cambiante. Estos y los procesos que generan deben
tener una profunda influencia sobre lo que es aprendido y cuándo es
aprendido, y es de prever que haya enormes variaciones entre los in-
dividuos. Las implicaciones para los educadores tiene que ser todavía
explorada.

6. Conclusión

Una teoría general de este tipo es una teoría computacional de la


mente. Las computaciones pueden tener lugar en una máquina virtual
implementada en máquinas de bajo nivel, a modo de cerebro u ordena-
dor: no necesitan ser implementadas directamente en procesos físicos.
Así. la teoría es neutra entre las representaciones físicamente explícitas
tal y como se encuentran en los niveles bajos en los ordenadores con-
vencionales y las representaciones implícitas o distribuidas estudiadas
en los modelos de red neural.

La prueba para este enfoque será el poder explicativo de las teorías


basadas en él. Necesitamos tanto una explicación sistemática de todo el
abanico de posibilidades que encontramos en la conducta humana como

187
una explicación del modo en el que las personas difieren entre sí y res-
pecto a otros sistemas de comportamiento reales o posibles. (En relación
a la explicación de las posibilidades. ver Sloman t 978: cap. 2)
La comprensión de los mecanismos computacionales detrás de los
procesos mentales familiares puede permitirnos reducir el sufrimien-
to derivado de los disturbios emocionales, de las incapacidades para el
aprendizaje, y de una amplia variedad de inadecuaciones sociales. Algu-
nos problemas pueden ser debidos a daños cerebrales o 3. disfunciones
neurales. Otros problemas parecen semejarse más a lo fallos del soft-
ware en un ordenador. Conjeturo que muchas personas emocionalmente
enajenadas experimentan esos «desaguisados» del software.
El análisis todavía presenta muchas lagunas. En concreto, la falta de
una explicación para el placer y el dolor. y tampoco estoy en condicio-
nes de ofrecer un análisis aceptable de lo que debe ser encontrar algo
divertido, Hay estados como disfrutar de la alta velocidad. ponerse me-
lancólico por una puesta de sol. echar a llorar mientras se lee un libro o
se ve una película, que necesitan un análisis más en profundidad. No he
discutido los muchos aspectos de la vida emocional humana que surge
contingentemente de nuestra historia evolutiva y que no debería encon-
trarse necesariamente en robots bien diseñados. Así que queda todavía
mucho por hacer. Sin embargo, la teoría proporciona un marco para
pensar acerca de un abanico de tipos posibles de si...temas inteligentes.
naturales y artificiales -- parte de nuestro estudio general del espacio de
las mentes posibles. Al tratar de probar las ideas en simulaciones por
ordenador que funcionen seguramente se descubrirán lagunas y puntos
débiles.

Referencias

ABELSON, R. A. (1973). «The Structure of Belief Systcrns». In R. C. Schank


and K. M. Colby (eds. L Computa !vlodels (~f Thouf!,ht and Language,
pp. 2R7-340. San Francisco: Feeman.
AUSTlf",1. L. (1Cló I J. .(,A Pie a for Excuses», In Philosophlcal Papers. Repr. in
A. R. White (ed.). Philosophy ofAction, pp. 19-42. Oxford: Oxford Univer-
sity Press.
BODEN, M. (1972). Purpositive Explana/ion in Psychology, Cambridge. Mass.:
Harvard University Press.
-, (977). Artificial lntelligence and Natural Man. Hassocks, Sussex: Harves-
ter Press.

188
CROUCHER, M. (1985). «A Computational Approach to Emotions», Unpublihed
thesis. LJ niversity of Sussex.
DENNEET. D. e. (1985). Brainstorms. Hassocks, Sussex: Harvestcr Press.
DYER. M. G. (1981), «Thc Role ofTAUs in Narratives». Proceedings Cognitive
Science C onference, pp. 225-7. Berke ley. Cal.
EDELSON, T. ( 19&6l...Can a System to Be 1ntelligent if It Never Gi ves a Damn ',1"
Proc. 5th Nat. Con! A1 (AAAI-8l\). pp. 298-302. Philadelphia,
HEIDER. F. (1958). The Psvchologv ofInterpresonal Relations. New York: \Vi-
ley.
LEHNERT. W. G., RLAC'K, 1. B.. and REISER, B.l. (1981.1. «Summarising Narrati-
ves». Proc, 71h /JeA/ Conterence, pp. 184-9. Vancouver. Be.
LYONS. W. (1980). Emotion. Cambridge: Cambridge University Press.
OATLEY. K. and JOHNSON-LAIRD, P. N. (19~5). «Sketch for a Cognitive Theory
of Emotions». Cognitive Science Research Paper No. CSRPJJ.IS. Universiry
01' Sussex, Cognitive Studies.
Pv LYSHYN. Z. W. (19~6 l. Computation and C ognition: Toward a Foundation
for Cognitive Science. Cambridge, Mass.: MIT Press.
RúsEMAN. 1. (1979i, «Cognitivo Aspects of Ernotions and Emotional Beha-
viour». Paper presented to the l".7th Annual Convention 011he American
Psyrhologica! Association.
RYLE, G. (19-.+9). The Concept ofMind. London: Hutchinson.
SI_~fON, H_ A. (1979). «Motivational and Emotional Controls of Cognition».
In H. A. Simon. Models of Thoughi, pp. 23-28. New Haven, Conn.: Yale
Univcrsity Press.
SI OMA~. A. (1969), « How to Derive «Better» from «Is»?». American Philoso-
phical Quaterlv 6: 43~52.
- . ( 1978). The Computer Revol ution in Ph ilosophy: Phi losophy. Se iencc, and
Modcls of Mind. Hassocks. Sussex: Harvester Press.
-. (1981). «Skills, Learning, and Parallel isrn». Proceedings Cognitive Science
Conference, pp. 2g4-S. Berkeley, Ca1if.
-. (1984). «Why 'A;e Need Many Knowledge Representation Forrnalisms». In
M. Bramer (ed.). Reseach and Development in Expert Svstems. pp. 163-183.
Cambridge: Cambridge University Press.
-. ()985). «Real-Time Mulriple-Morive Ex.pert Systerns». In M. Merry (ed.),
Expert Svstems R5. pp. 213-24. Cambridge: Cambridge University Prcss.
-, and Croucher. M. (1981). «Why Robots Will Have Emotions». Proc. Zth
IJCAU Conference, pp. IQ7-202. Vancouver, Be.

IR9
l\'IODELOS MENTALES
P.N. Johnson-Laird

La formulación moderna del concepto de modelo mental es debi-


da a Kenneth Craik ( 1943). En su libro extraordinariamente presciente,
The Nature 01 Explanation, defendió que los seres humanos convierten
los hechos externos en modelos internos y razonan mediante la mani-
pulación de estas representaciones simbólicas. Estos pueden volver a
convertir los símbolos resultantes en acciones o reconocer una corres-
pondencia entre éstos y los hechos externos. Aunque Craik murió con
anterioridad a la invención del ordenador digital programable, éste ha-
bría reconocido (el argumento de) la metáfora del ordenador. Defendió
que el sustrato físico del cerebro es menos pertinente que el modo en el
que funciona. Escribió lo siguiente" (Craik 1943, p. 51), '<Por un modelo
entendemos cualquier sistema físico o químico que tiene una estructura
relacional parecida a aquélla de los procesos a los que imita. Por «es-
tructura relacional» no me refiero a ninguna entidad física oscura que
asiste al modelo, sino al hecho de que es un modelo que funciona físi-
camente y que trabaja del mismo modo que los procesos que simula. en
los aspectos bajo consideración en cualquier momento ... ». Por lo tanto
para Craik un modelo mental era preeminentemente una representación
dinámica o simulación del mundo. Si bien tuvo poco que decir acerca de
la forma de tales representaciones o acerca de los procesos que se sirven
de ellas, no obstante. fue lo suficientemente atrevido como para postular
representaciones cuando el conductismo se encontraba en su apogeo.

Muchos cicnuficos cognitivos han adoptado el principio básico se-


gún el cual la mente es un sistema simbólico (ver, por ejemplo, Miller,
Galanter y Pribram 19óO, Newell y Simon 1976). y a lo largo de los
años ochenta ha hahido un enorme crecimiento de los estudios sobre los
modelos mentales. Sin embargo, estos estudios son de una diversidad

191
tan extraordinaria que parecen tener poco en común si exceptuamos la
mera referencia a representaciones simbólicas de algún tipo. Así las ex-
plicaciones sobre la percepción visual. la comprensión del discurso, el
razonamiento. y la representación del conocimiento y de las habilidades
han hecho referencia todas ellas a versiones de la hipótesis de los mode-
los mentales. Mi propósito en este capítulo es poner algún orden entre
tanta diversidad. Aunque muchos escritores se han empeñado en esta-
blecer distinciones entre conceptos alternativos de modelos mentales,
las teorías pueden diferir más de lo que sería conveniente porque al fin
y al cabo todas ellas se ocupan poco mas o menos de la misma realidad
subyacente. Es algo así como si los exploradores siguieran informan-
do de la existencia de un animal desconocido hasta Ia fecha. pero sus
avistamientos fragmentarios del mismo les convencieran de que están
observando diferentes criaturas.
Comienzo señalando el papel (que juegan) los modelos en la per-
cepción y el discurso. Luego examino el razonamiento como un proce-
so en el que se manipulan modelos y después sus roles en cuanto que
representaciones del conocimiento. Finalmente presento una crítica de
la teoría de los modelos mentales y perfilo algunos de los problemas
principales en su desarrollo.

l. La Percepción como una Fuente de los Modelos Mentales

Una fuente primaria para las representaciones mentales es la per-


cepción. Tal y como defiendo en mi libro sobre los modelos mentales
(Johnson-Laird 1983), las criaturas más simples, tales como los organis-
mos unicelulares, meramente reaccionan de un modo físico a su entorno
inmediato. Por ejemplo. cuando los paramecios chocan contra un obs-
táculo. se producen unos cambios químicos que causan que sus cilios
se replieguen en la dirección opuesta. Pero la evolución ha producido
criaturas con un sistema nervioso que detecta la energía que proviene de
objetos distantes y que directamente modula la actividad de las neuronas
que controlan las respuestas estereotípicas. Criaturas aun mas complejas
usan la información que afecta a los sentidos para computar una repre-
sentación mental que a su vez es usada en los procesos que controlan
la acción. Estas representaciones internas pueden codificar de forma
aproximada características superficiales del mundo. El sistema visual
de la mosca común, por ejemplo, controla su patrón de vuelo por medio
de una representación que probablemente hace sólo explícitas ciertas

192
características del campo visual, como por ejemplo una expansión rápi-
da según la mosca se acerca a una superficie (ver Rcichardt y Poggio).
La visión humana. tal y como han destacado David Marr y sus colegas,
depende de la construcción de una serie de representaciones simbólicas
que culminan en un modelo tridimensional de las relaciones espaciales
entre los objetos (ver Marr 1982). Este modelo hace explícito el qué (es
lo que está) y el dónde (se encuentra) para nuestros procesos conscientes
de juicio, permitiéndonos de ese modo seguir nuestro camino a través
del mundo al tiempo que eliminamos obstáculos e imprevistos.
Nuestros modelos necesitan integrar la información procedente desde
todos estos sentidos y desde el conocimiento general -los signos. soni-
dos. olores, y las posibilidades que el mundo ofrece. Nuestra capacidad
para prever diferentes situaciones no parece tener límite, no obstante el
cerebro no puede contener un número infinito de episodios. La larga va-
riedad de modelos mentales debe ser construida sobre la base de medios
finitos -sobre los sfrnbolos primitivos y los procesos básicos que operan
sobre ellos. En el caso de la visión, los procesos cognitivos llevados a cabo
por el cerebro convierten la respuesta de la retina a la luz en un modelo de
los objetos que reflejan esa luz, y estos procesos incorporan restricciones
basadas sobre la naturaleza del mundo (Marr 1982). Nuestra experiencia
fcnomenológicu del mundo es un éxito de la selección natural. Parece
que percibimos el mundo directamente, no una representación del mismo.
Aunque esta fenomenología es ilusoria: lo que percibimos depende tanto
de lo que hay en el mundo como de lo que hay en nuestras cabezas -de
10 que la evolución ha «instalado- en nuestros sistemas nerviosos y de 10
que conocemos como resultado de la experiencia. Los límites de nuestros
modelos son los límites de nuestro mundo.

2. l\lodelos Mentales del Discurso

Wittgenstein (1922, sección 4.0]) en su famosa teoría «marco» del


significado escribió, «La proposición es un modelo de la realidad tal y
como la imaginamos». Cuando te digo, por ejemplo. que hay una mesa
enfrente de la estufa en mi cocina, puedes imaginar el escenario aunque
no puedas verlo. De este modo una función principal del lenguaje es
permitimos experimentar el mundo por aproximación, puesto que po-
demos anticipar cómo es éste sobre la base de una descripción verbal.
La aserción «Una mesa está enfrente de la estufa» establece una rela-
ción entre dos entidades. Consiguientemente su modelo contiene dos

193
«instancias» mentales. correspondientes a la mesa y a la estufa. inte-
rrelacionadas de tal modo que se corresponden con la relación espacial
entre e IIas. Dicho brevemente, los rnode los mentales de I discurso hacen
explícita la estructura /10 de los enunciados sino de las situaciones tal y
como las percibimos o imaginamos (Johnson-Laird 1983. p. 419).
Una razón para creer que la gente construye modelos es que la hipó-
tesis explica un rasgo característico central para la comprensión. El con-
tenido implícito de un discurso es usualmente sólo un diagrama de un
estado de cosas: le corresponde al lector o al oyente dar con los detalles
que faltan. Este tipo de inferencias «puente» son rápidas y automáticas.
y las personas rara vez son conscientes de ellas aunque pueden hacerse
presentes al ser llamadas en el discurso (ver Clark 1977). Estas infcren-
cias en ocasiones dependen del conocimiento general, tal y como algu-
nos científicos de la computación han defendido (por ejemplo, Schank y
Abelson 1977. Sanford y Garrod 198]). Pero el hecho clave e~ que llegan
a explicaciones de un tipo que sólo serían explícitas en los modelos de las
situaciones, Bransford y sus colegas han demostrado este fenómeno en
una serie de estudios. Por ejemplo. Bransford, Barclay, y Franks ( 1972)
observaron que cuando a los sujetos se les presentaba el enunciado

Tres tortugas descansaban sobre un tronco flotante y un pez nada-


ba por debajo de ellas.

llegaban a confundirlo con

Tres tortugas descansaban sobre un tronco flotante y un p~z nada-


ba por debajo de él.

Si los sujetos hubieran imaginado la situación descrita en el enun-


ciado original. construyendo un modelo en el que las tortugas están so-
hre el tronco y el pez nada por debajo de él. entonces el modelo repre-
sentaría también al pez nadando por debajo del tronco. Esta explicación
es corroborada por la falta de un error semejante cuando el enunciado
original no produce tal modelo:

Tres tortugas descansaban junto al tronco y un pez nadaba por


debajo de ellas.

También hay una evidencia clara de que la coherencia del discurso


depende en parte del grado de dificultad para construir un modelo men-
tal simple de éste (ver Garnharn. Oakhill, y Johnson-Laird 1982. Ehrlich

194
y Johnson-Laird 1982, Oakhill y Garnham 1985l. Kannan Mani y yo
hemos mostrado en términos similares que los pasajes que exigen un
modelo simple de composición espacial son más fáciles de recordar que
las descripciones indeterminadas que son consistentes con más de una
composición (Mani y Johnson-Laird 1982). Así la descripción

La cuchara evtá a la izquierda del cuchillo.


El plato está a la derecha del cuchillo.
El tenedor está enfrente de la cuchara.
La taza está enfrente del cuchillo.

describe la siguiente disposición de objetos:

cuchara cuchillo plato


tenedor taza

Pero un cambio de una palabra en el segundo enunciado.

El plato esui a la derecha de la cuchara.

da lugar a una descripción indeterminada que consiste de dos composi-


ciones diferentes:

cuchara cuchi 110 plato cuchara plato cuchillo


tenedor taza cuchillo taza

Después de que nuestros sujetos hubieran clasificado una serie de


descripciones determinadas e indeterminadas de los diagramas de las
composiciones como verdaderas o falsas. se les dio un test de recono-
cimiento inesperado acerca de la memorización de las descripciones.
Retuvieron 10 esencial de las descripciones determinadas mucho mejor
que lo esencial de las descripciones indeterminadas. No obstante fueron
mejore, en el reconocimiento de detalles palabra por palabra de las des-
cripciones indeterminadas. Esta muestra de resultados confirma nuestra
hipótesis de que los sujetos consrruirían un modelo de una descripción
determinada para compararlo con un diagrama. pero intentarían recor-
dar una descripción independiente más que construir sus posibles mo-
delos alternativos. Es difícil ver cómo los sujetos podrían incluso ser
sensibles a las diferencias entre los dos tipos de descripciones a no "el'
que intentaran construir modelos de los mismos.

La existencia de Jos formas de representación -las representacio-


nes lingüística" y los modelos del discurso- ha sido corroborada en

1\j5
otros experimentos. Así cuando dos expresiones con diferentes signifi-
cados. tales como

el hombre con un martini


el hombre asomado :1 la ventana

tienen lugar en contextos en los que se refieren al mismo individuo,


entonces tal y como Garnham (1987) ha mostrado, los sujetos confun-
den fácilmente los dos en un test de reconocimiento inesperado del
pasaje. Pero los sujetos que están atentos al test de reconocimiento re-
tienen en su memoria las expresiones particulares usadas para referirse
a los individuos. Tal y como Garnham pone de manifiesto, el resultado
de este experimento es opuesto a la idea de que el discurso está codifi-
cado solamente en una red semántica o en cualquier otro formato que
represente meramente el significado de las expresiones. Los referentes
y en especial las instancias correspondientes :1 los individuos, deben
ser independientemente representados en un modelo discursivo basa-
do sobre los significados de la-, expresiones, el conocimiento general,
y el contexto previo establecido en el modelo.
La distinción entre las representaciones lingüísticas y los modelos
del discurso da cuenta de una variedad de fenómenos lingüísticos, espe-
cialmente la referencia anafórica (ver Sag y Hankamer 19t{4 y capítu-
lo 11 ). Las representaciones lingüfsticas son expresiones en un lenguaje
mental (Kintsh 1974, Kintsh y van Dijk 1978, Fodor 1975), que hace
frente a esas anáforas que dependen de los signiricados o las formas de
las palabras. Por ejemplo, en el discurso

Los gatos atacaron a los perro ..,


Las pulgas también lo hicieron.

la interpretación del segundo enunciado elíptico exige acceder a la


forma superficial del enunciado previo. (Compárese su interpretación
con la que ocurriría si el enunciado previo tuviera una forma super-
ficial diferente: <, Los perros estaban siendo atacados por lo~ perros».
Al menos que el oyente haya retenido una representación lingüística,
estos tipos de anáfora son realmente difíciles de entender (ver Garn-
ham y Oakhi I1 19~7). Otras expresiones anafóricas, sin embargo, se
refieren a entidades que han sido introducidas con anterioridad en el
discurso (O mediante un medio extralingüfstico, como por ejemplo un
gesto)

196
Hay una mesa grande de madera enfrente de la estufa.
Esta tiene cuatro sillas, una a cada lado.

el pronombre «ésta» hace mención, no a alguna forma de las palabras


sino a un referente particular que ha sido introducido con anterioridad.
Hay en consecuencia una necesidad de ir más allá de la representación
lingüística del discurso y pasar a un modelo de la situación.

Una razón mayor para postular los modelos discursivos tiene que
ver con la manida cuestión de la verdad. Las teorías basadas sólamente
sobre representaciones lingüísticas no dicen nada acerca de cómo las pa-
labras se relacionan con el mundo (Johnson - Laird, Herrrnann, y Chaf-
fin 1984). Hasta que tales relaciones sean establecidas, la cuestión de si
una descripción es verdadera o falsa no puede tener lugar. Los modelos
mentales son estructuras simbólicas, y la relación de un modelo con el
mundo no puede simplemente ser leída de un tirón a partir del modelo.
¿Cómo es pues juzgada la verdad o falsedad de una aserción con respec-
to al mundo? La respuesta es que un discurso será juzgado como vcrda-
dero si su modelo mental puede ser incluido en el modelo del mundo.
Así. por ejemplo. juzgarás mi comentario sobre la mesa yue está enfren-
te de la estufa como verdadero si se corresponde con tu percepción del
mundo, esto es, un modelo basado sobre la aserción puede ser incluido
dentro de un modelo perceptivo de la situación (J ohnson - Laird 1983.
pp. 247. 441), Por tanto cuando juzgas una aserción como verdadera,
o bien has relacionado su representación lingüística inicial, o bien un
modelo basado sobre esta representación. con un modelo del mundo.
Y. lo que es más importante. sabes que es verdadera: eres conocedor de
haber hecho una comparación, y ese conocimiento a su vez depende del
modelo de tu propia realización.

Por supuesto gran parte del lenguaje va más allá de lo perceptible.


Algunas ex.pre ...iones se refieren directamente a los estados mentales,
procesos, y sentimientos; hay vocabulario para referirse directamente a
10:-; estados mentales de nuestro propio medio Interno. Otras expresiones
se refieren a materias abstractas tales como la povibilidad, la permisibi-
lidad, y la causalidad (~1il1er y Johnson-Laird 1(76). Estos conceptos
abstractos se relacionan con escenarios, esto es, modelos de un curso de
acontecimientos hipotéticos o futuros (Tversky y Kahneman 1973: Joh-
son - Lai rd 1983. pp. 4] () y si g LI ien tes). y con convenc iones que regulan
las interacciones entre los miembros de una sociedad (Johnson - Laird
1983, pp. 415 Y ,'iiguicntcs).

197
El caso para los modelos mentales ya ha sido tratado en semántica for-
mal (Kamp 1981, Spencer-i-Smith 1987), en lingüística (Karttunen 1976,
Re ichgelr 1981, Shadbolt 1983, Fauconnier 1985), en inteligenc ia arti tI-
cial (\Vebher 1978. Wilks y Bien 1979), y en psicolingüística (Stenning
1978, Johson-Laírd y Gamham 1980. Garnham 1981, 1987, Garnham
y Oakhill 1989, van Dijk y Kintsch 1983. Glenberg. Meyer, y Lindern
1987). Pero hay un problema serio para las teorías psicológicas. Una aser-
ción tal como «Una mesa está enfrente de la estufa» puede ser verdadera
para un número infinito de situaciones posibles diferentes. Por tanto en se-
mántica formal los teóricos postulan que una aserción tiene un número in-
finito de modelos. o «mundos posibles». en los que podría ser verdadera.
Dejando por sentado que la mente tiene sólo una capacidad finita, enton-
ces un número infinito de modelos. como ha observado Partee (1979). no
puede quedar fijado en la cabeza de nadie. Un3 solución a este problema
es asumir que la representación lingüística inicial de una aserción es usada
para construir nada más que un modelo (Johnson - Laird 1983, cap. 11),
pudiendo este modelo servir como muestra representativa y provisional
para el conjunto infinito de todos los modelos posibles de la aserción.
Este puede sustituir al modelo correcto, asumiendo que el hablante tiene
un estado específico de cosas en la mente, puesto que puede ser revisado
a la luz del discurso subsiguiente. Describiré en la sección siguiente cómo
podría funcionar el proceso inferencial para tales revisiones.
En resumen la teoría de los modelos discursivos está basada sobre
tres ideas principales:
l . Un modelo mental representa la referencia de un discurso, esto
es. la situación que el discurso describe.
2. La representación lingüística inicial de un discurso. junto con la
maquinaria para construir y revisar rnodelo- discursivos a partir
de ella, recoge el significado del discurso. esto es, el conjunto de
todas las situaciones posibles tlue podría describir.
3. Un discurso es juzgado como verdadero ~i hayal menos un modelo
del mismo que puede ser incluido en un modelo del mundo real.

3. El Razonamiento y Los Modelos Mentales

Tres Teorías dei Razonamiento

La inferencia e~ un proceso sistemático de pensamiento que lleva


de un conjunto de proposiciones a otro. Dejando por sentado que las

198
premisas puedan estar mentalmente representadas en forma de mode-
lo. es natural preguntarse cómo podrían los modelos tomar parte en los
procesos inferenciales. La naturaleza de estos procesos. sin embargo, es
altamente controvertida tanto en inteligencia artificial como en psicolo-
gía cognitiva. Si bien los argumentos dados en las dos disciplinas son
ampliamente independientes entre sí, no obstante corren en paralelo en
un grado notable. Aquí también tenemos los mismos tres puntos de vista
principales.
La primera clase de teorías asume que el razonamiento depende de
reglas formales de inferencia. semejantes a las de un cálculo lógico. El
uso de la lógica en inteligencia artificial ha sido defendido por Hayes
(1977), Y una serie de sistemas formales han sido implementados (ver,
por ejemplo. Robinson 197':>. Reiter 1973). El lenguaje de programa-
ción Prolog está basado sobre la misma filosofía (Kowalski 1979). En
psicología también hay muchas teorías del razonamiento que postulan
una «lógica mental» que consiste en reglas formales de inferencia (ver.
por ejernplo.Tnhelder y Piaget 1958, Osherson 1975. Braine 1978. Rips
1983). Las reglas formales trabajan de un modo puramente sintáctico,
y en este sentido son ciegas en cuanto al contenido de una premisa,
que depende sólamente de su llamada forma lógica - una noción que
también es LJ sada en 1a teoría 1i ngü í stic a (ver Chornsky 1977, Homstein
1986). A diferencia de tales reglas, sin embargo, las personas son alta-
mente sensibles al contenido de las premisas cuando hace inferencias.
Tales efectos sobre las inferencias de la vida cotidiana han sido descu-
biertos de fonna independiente por investigadores tanto en inteligencia
artificial como en psicología cognitiva.
Por un lado los psicólogos han encontrado que la dificultad de un
problema deductivo, y la naturaleza de las respuestas al mismo. pueden
verse profundamente afectadas por su contenido (ver, por ejemplo, Wa-
son y Johnson- Laird 1972. Evans 1982). Por otro lado existe un hiato
entre lo que es válido en lógica y en la vida cotidiana. La lógica. por
ejemplo, garantiza la inferencia desde

Si los pacientes tienen cistiti«, entonces hay que suministrarles


penicilina.

a la conclusión

Si los pacientes tienen cistitis y son alérgicos a la penicilina. en-


ronces hay que suministrarles penicilina.

199
10 que es claramente una inferencia que va en contra del sentido común.
En lógica, sin embargo, un condicional es considerado como verdadero
siempre que su antecedente sea falso (o su consecuente sea verdadero),
y de este modo si la premisa aquí es verdadera. la conclusión debe ser
verdadera. La lógica es en efecto «monótona» dado que la validez de
una inferencia no se ve afectada por cualesquiera que sean las premisas
adicionales añadidas. Varios intentos han sido realizados para formular
lógicas «no-monótonas» que se correspondan con la inferencia de la
vida cotidiana (ver, por ejemplo, rvlcDermott y Doylc 19XO). No obs-
tante, el problema surge usualmente a partir del contenido de las pre-
misas, no de su forma lógica, por lo que es improbable que pueda ser
subsanado mediante un remedio formal (Davis 1990). Lo que es peor,
muchas inferencias verbales en la vida cotidiana no son en modo alguno
derivables dentro de un cálculo lógico. Algunas dependen de la situa-
ción particular a la que hacen referencia las premisas (Johnson-Laird
198~. pp. 2-l0. 261 ): otras son plausibles sobre la base de conocimiento
general. pero pueden ser desbaratadas por información específica que
afirme lo contrario (ver Minsky 1975, Schank y Abelson 1977): algunas
derivan de premisas que no pueden nunca hacerse lo suficientemente
completas como para asegurar la validez (Johnson - Laird 1987); y al-
gu nas son ¡nd ucc iones (ver cap ítulo 13). El hecho de que una gran parte
del razonamiento no sea deductivo ha llevado a un anterior defensor de
las reglas formales a abandonarlas (McDennott 1986).
La segunda clase de teorías reconoce directamente la importancia
del contenido. Postulan reglas de inferencia de contenido especifico.
Uno de los orígenes de tales teorías descansa en los lenguajes de pro-
gramación, tales como PLANNER (Hewitt 1(71). Y los sistemas de
producción (Newell 1973) que permiten que las aserciones generales
sean expresadas bajo la forma de reglas condicionales. tales como

Si x es un perro, entonces x es un animal.

Si alguien asevera que Fido es un perro, entonces esta regla será


puesta en marcha puesto que la aserción encaja con su antecedente, y
servirá de resorte para hacer la posterior aserción de que Fido es un
animal. Puede formularse otra regla según la cual dado el objetivo de
mostrar que Fido es un animal, produce el subobjetivo de mostrar que
Fido e, un perro. Tales reglas son cosa corriente en la representación
del conocimiento usada en los denominados sistemas expertos. Estos
son programas de cómputo que incorporan conocimientos técnicos y

200
que son diseñados para ayudar a sus usuarios en la toma de decisiones
correctas acerca de cuestiones tales como el diagnóstico médico, el aná-
lisis químico, o dónde perforar para encontrar minerales. Los sistemas
expertos están basados sobre una gran base de reglas de conocimiento
que han sido obtenidas mediante la consulta a expertos humanos y a par-
tir de procedimientos que usan estas reglas para hacer inferencias acerca
de casos específicos (ver. por ejemplo, Buchanan y Feigenbaum 1978,
Michie 1979, Davis y Lenat 1982, Feigcnbaum y l\t1cCorduck 1984).
La idea de basar teorías psicológicas del razonamiento sobre re-
gl as de contenido específico fue discutida por J ohnson - La i rd y Wa-
son ( ] 977), y, varios tipos de tales teorías han sido propuestos ~ ver. por
ejemplo. Anderson 1983, E. R. Smith 1984. Chcng y Holoyoak 1985,
y Holand, Holoyoak, Nisbert, y Thagard 1986). Una idea afín es que
el razonamiento depende de la acumulación de ejemplos específicos
dentro de un marco conexionista, donde la diferencia entre inferencia y
llamada es borrosa.
La cuestión más importante en cuanto a las reglas formales es que
explican cómo en principio la gente puede razonar acerca de cualquier
cosa sin atender a su comen ido, incluyendo dominios desconocidos y
abstractos. Pero por supuesto es necesario explicar tanto estos fenóme-
nos. como también las inferencias no-deductivas. siendo aquí la más
relevante la tercera clase de teorías - aquéllas basadas sobre modelos
mentales. Estas no emplean reglas de inferencia de ningún tipo, ni for-
males ni de contenido específico, sino que asumen en su lugar que el
razonamiento depende de la manipulación de modelo, mentales.
Esta clase de teorías han sido formuladas para distintos dominios
(ver, por ejemplo, de Klee r y Brown 198 L Kahnernan y Tversky 1982,
JohnsonLaird 1983). Algunos individuos poco corrientes parecen haber
desarrollado una estrategia consciente basada sobre esta técnica. Tal y
como ]0 explicó recientemente Richard Feynman (Feynrnan y Leighton
1985).
Tenía un esquema. que todavía lI~O cuando alguien explica algo que
trato de entender: Sigo construyendo ejemplos. Pongamos el caso de
que los matemáticos se estuvieran enfrentando a un terrorífico teorema,
y que todos estuvieran excitados. Según me dicen las condiciones del
teorema, construyo algo que cumple todas las condiciones. Ya sabes,
tienes un conjunto (una bola) -disjunto (dos bolas). Entonces. según
van introduciendo más condiciones, en mi cabeza las bolas cambian de
color. les crece pelo, o cualquier otra cosa. Finalmente establecen el teo-

201
rema, que es algo extraño acerca de mi bola. que no es verdadero para
mi bola de pelo verde, así que digo, [Falso!»
La misma idea sirve para las teorías del razonamiento basadas sobre
modelos mentales, que ilustro en primer lugar en términos de inferencia
silogística.

Los Modelos Mentales en el Razonamiento Silogístico

Algunos silogismos son tan fáciles que incluso un niño de nueve


años puede derivar las conclusiones correctas a partir de éstos. Así da-
das las premisas

Ninguno de los atletas es vago.


Todos los dependientes son vagos.

la mayor parte de la gcntc deduce correctamente la conclusión

Ninguno de los atletas es dependiente.

o su conversa igual mente vál ida. Otros silogismos, sin embargo, son
mucho más difíciles - tan difíciles de hecho que la mayoría de los adul-
tos falla al derivar conclusiones correctas. Dadas las premisas

Ninguno de los atletas es vago.


Alguno de los dependientes es vago.

la mayor parte de la gente da una de las siguientes respuestas erróneas:

Ninguno de los atletas es dependiente.


Ninguno de los dependientes es atleta.

No hay conclusión válida.


Sólo unos pocos derivan la conclusión válida

Algunos de los dependientes no son atletas.

La teoría de los modelos mentales propone que la primera tarea de


los razonadores es comprender las premisas y en particular construir un
modelo de las mismas. Varias han sido las propuestas realizadas acer-
ca de la estructura de tales modelos. Algunos teóricos asumen que hay

202
círculos de Euler, donde los conjuntos son representados por círculos
que pueden o no superponerse (ver Erickson 1974. Guyote & Stenberg
1981). Un rasgo distintivo de esta propuesta es que no hay necesidad
de introducir un símbolo especial para la negación. Otros teóricos con-
vienen en que las nociones abstractas tale- corno la negación deberían
ser sólo codificadas en representaciones lingüísticas (1 nder 1987, J ac-
kendoff 1987). Los círculox de Euler, sin embargo. no pueden repre-
sentar aserciones que contengan más de un cuantificador. por ejemplo,
'<Algunos de los atletas conocen a todos los artistas», y pueden llegar a
la explosión combinatoria porque muchas premisas exigen algunas re-
presentaciones separadas. Además hay una objeción determinante a Jos
modelos que carecen de elementos abstractos. Estos modelos no pueden
representar aserciones tales como «Ben sabe que sus regalos no fueron
dejados por Santa Claus». puesto que tales «actitudes proposicionales»
como muestra el ejemplo a menudo tienen un contenido negativo. Otra
versión de la teoría de los modelos mentales hace la importante asun-
ción de qu~ cualquier actitud proposicional puede ser ella misma repre-
sentada por su componente correspondiente dentro del modelo mental
(Johnson - Laird 1983). Para representar una proposición negativa. por
ejemplo. un símbolo especial para la negación es introducido directa-
mente en el modelo. No hay nada impropio en cuanto a una maniobra
semejante puesto que las rutinas para evaluar la verdad de los modelos
tienen un procedimiento adecuado para el símbolo (ver Kamp 1981;
Iohnson - Laird 1983, pp. 423-442), Ciertamente los diagramas de
Venn son una notación tradicional que explota precisamente un instru-
mento parecido. es decir, los espacios entre tres círculos superpuestos se
ensombrecen para representar la inexistencia de cienos conjuntos (ver
Newell 1981 para un algoritmo para el razonamiento con diagramas de
Venn, y Polk y Newell 1988 para la defensa de modelos que contienen
elementos proposicionales).
Mis colegas y yo hemos defendido que los modelos usados en el
razonamiento no son ni círculos de Euler ni diagramas de Verm, porque
están muy lejos de representar las situaciones de las estructuras percibi-
das. Asumimos que los modelos son en su lugar los modelos discursivos
discutidos en la sección previa. La premisa

Ninguno de los atletas es vago.

es representada por un modelo que contiene un número arbitrario de


instancias para los atletas y un número arbitrario de instancias para los

203
vagos que son mentalmente etiquetados de algún modo para indicar que
son disjuntos, por ejemplo,

atleta
atleta

vago
vago
vago

donde la línea discontinua separa los dos conjuntos de instancias. (Una


alternativa y quizás una representación igualmente plausible etiquetaría
a cada atleta individual como a un no vago, y viceversa). La informa-
ción de la premisa

Todos los dependientes son vagos.

puede ser directamente añadida al modelo

atleta
atleta

v'Ugll =: dependiente
vugo > dependierne
(vag.o)

donde el vago que no es dependiente ha sido puesto entre paréntesis


para representar la posible existencia de tales individuos.

El segundo estadio del proceso es la formulación de una conclusión


putativa: el modelo es escrutado para determinar qué relación, si alguna,
sostiene lo que no está explícitamente establecido en las premisas. En el
caso presente el procedimiento rápidamente e ... tablece la conclusión

Ninguno de los atletas es vago.

o SLI conversa. dependiendo de qué parte del modelo sea escrutada.

El tercer estadio consiste en la búsqueda de un contraejemplo para la


conclusión putativa. Una inferencia es válida si su conclusión no puede
ser falsa. dado que sus premisas son verdaderas. Por consiguiente la va-
lidez puede ser probada mediante la búsqueda de contraejemplos -un
procedimiento que ha sido explotado en lógica (ver, por ejemplo. Beth

204
1971 j. No hay necesidad de manipular algunos de los individuos por sí
mismos en tanto que no tienen incidencia sobre la conclusión. El modelo
sólo tiene un número finito de instancias, y sólo hay un número finito de
reformulacioncs posibles de éstas. Al no existir un modo de establecer
identidades entre los atletas y los dependientes que también viole las pre-
misas, la presente conclusión es válida. De hecho incluso si no se llevara a
cabo ningún intento de prueba. la respuesta seguiría siendo correcta.
Las cosas son muy distintas en el CLlSO del problema en el que la
segunda premisa es

Algunos de los dependientes son vagos.

Si la información en las premisas es añadida al modelo del modo


siguiente:

atleta
atleta

vago == dependiente
vago > dependiente
(vago)

entonces el modelo soporta las conclusiones erróneas

Ninguno de los atletas es dependiente.


Ninguno de los dependientes es atleta.

que la mayoría de los sujetos derivan. La búsqueda de un contraejemplo


puede producir el modelo siguiente:

atleta = (dependiente)
atleta = (dependiente)

vago = dependiente
vago::: dependiente
(vago) (dependiente)

Los sujetos que tuvieron éxito en su construcción pueden sin em-


bargo errar al decidir que las premisas fallan como soporte de cualquier
conclusión definitiva.

Algunos (al menos) de los dependientes no son atletas.

105
¿Podemos estar seguros de que los sujetos siguen tales principios
en el razonamiento? Los procesos cognitivos de más alto nivel tienden
a ocurrir de maneras! muy diferentes, y algunos individuos pueden cons-
truir un modelo inicialmente erróneo y después revisarlo, mientras que
otros pueden apreciar la existencia de modelos posibles diferentes desde
el mismo comienzo. Una cosa es cierta: sin un entrenamiento en lógi-
ca. los individuos corrientes no disponen de un procedimiento sencillo
estándar para hacer frente a Jos silogismos. Por tanto aquellas premi-
sas que llevan sólo a un modelo simple son claramente más fáciles que
aquellas que ofrecen una elección entre modelos. El número preciso de
modelos diferentes que un sujeto construye en cada ocasión es incierto.
!VEs colegas y yo hemos desarrollado algunos programas de cómputo
que modelan el razonamiento silogístico y que discrepan en este punto
(ver. por ejemplo. los dos programas descritos en Johnson-Laird y Bara
19"4). No obstante. podemos estar seguros de que muchos sujetos cons-
truyen inicialmente modelos erróneos -derivan conclusiones inválidas.
Asimismo cuando se les da a los sujetos la posibilidaJ de pensar (k llue-
vo tras un breve intervalo de tiempo (10 segundos) en los que formular
la conclusión, a menudo éstos cambian de opinión (Johson-Laird y Bara
1984). Un experimento no publicado llevado a cabo por Ruth Byrne y
yo mismo es de relevancia aquí: cuando se les da a los sujetos un test de
reconocimiento inesperado de las conclusiones que han derivado para
una serie de silogismos, un error común es seleccionar Ja conclusión
pronosticada por el modelo inicial en lugar de la conclusión más recien-
te (y correcta) de los sujetos. Este error es por supuesto pronosticado si
los sujetos derivan una conclusión inicial de acuerdo con un modelo,
que entonces revisan después de que hayan construido otro modelo.
No hay duda de que las personas son capaces de buscar contrae-
jemplos a las conclusiones, pero los procesos se ven afectados por la
carga cognitiva de la tarea (ver Oakhill y Johnson-Laird 1985). Lo que
es más difícil de identificar son los procesos reales mediante lo" cuales
tales modelos son construidos. Allen Newell en sus clases sobre Willian
James en la Universidad de Harvard en 1987 defendió que los modelos
mentales pueden ser tratados como representaciones mentales dentro
del espacio de un problema. Así cuando alguien resuelve, digamos. el
problema de los misioneros y los canibales, él o ella aplican una serie
de operaciones para transformar un modelo del estado inicial de cosas
a través de una sucesión de modelos que representan estados interme-
dios hasta que el objetivo es alcanzado. Esta formulación es útil en la
caracterización de la secuencia de estados conscientes de los que un in-

206
dividuo es conocedor al resolver un problema. Una de las singularidades
del razonamiento deductivo, no obstante, es que la gente apenas puede
acceder de modo consciente al proceso de cómo llega a una conclusión.
A no ser que usen imágenes visuales, no tienen acceso consciente a los
propios modelos - una deficiencia introspectiva que los críticos de los
modelos mentales citan como contraria a la teoría (Martín Braine. en
comunicación personal, 1988). Puesto que la representación de los indi-
viduos a los que la referencia anafórica puede ser hecha es igualmente
inaccesible -tiene que existir una representación semejante- no pien-
so que la inaccesibilidad cuente decisivamente en contra de la teoría. Lo
que queda claro. no obstante. es que poco se sabe acerca de la naturaleza
de los procesos que generan contraejemplos. Algunos de los procesos
pueden ocurrir en paralelo y de este modo violar un análisis directo en
términos del espacio del problema de Newell. que asume que sólo ope-
raciones sencillas llevan de un estado al siguiente dentro del espacio.
La cruz es si una conclusión válida llama a más de un modelo para
que sea construido. Siempre que hay una elección entre modelos. los
individuos corrientes están en serio peligro de caer en un error, puesto
que carecen de un procedimiento inferencia! sistemático.

Modelos y Otras Formas de Razonamiento

Tal y como fue mostrado en la sub-sección previa, el razonamiento


basado en modelos mentales depende de tres procedimientos semánti-
cos:
l. La construcción de un modelo mental del estado de cosas descrito
en las premisas, teniendo en cuenta cualquier conocimiento re-
levante general y especfrico, Este procedimiento se corresponde
con la comprensión ordinaria del discurso.
2. La formulación de una conclusión nueva basada sobre el modelo,
al menos que por supuesto una conclusión esté ya presente para
ser evaluada. Este procedimiento corresponde a la descripción de
un estado de cosas con la salvedad de que la descripción debería
establecer una relación no explícitamente establecida en las pre-
misas.
3. Una búsqueda de modelos alternativos que refute la conclusión
putativa. Sólo esta búsqueda de contraejemplo", es propia del pro-
ceso de inferencia. Si no existe tal modelo entonces la conclusión
es válida. Si existe tal modelo, entonces el razonador debe vol-

207
ver al segundo pa~o y tratar de construir una nueva conclusión
verdadera para todos los modelos construidos hasta entonces. Si
no está clara la existencia de un modelo semejante, entonces la
conclusión puede ser aceptada provisionalmente o expresada me-
diante alguna calificación modal o probabilista (ver Kahneman y
Tversky 198~). aunque puede estar sujeta a revisión a la luz de la
información subsiguiente.
La búsqueda de contraejemplos resuelve el rornpecabezns de cómo
un modelo puede servir P;l[d un número infinito de situaciones posibles
diferentes. Siempre que una aserción es interpretada puede ser necesario
hacer una asunción arbitraria para construir un modelo simple. Si una
aserción subsiguiente es falsa relativa a este modelo. entonces puede ser
falsa al entrar en conflicto con algo que depende de la aserción arbitra-
ria. En consecuencia puede hacerse un intento de revisión del modelo de
modo que sea consistente con la nueva aserción mientras sigue siendo
un modelo adecuado Jel discurso previo. De esta manera las asunciones
arbitrarias anteriores pueden ser corregidas. o bien. la revisión debería
ser imposible, al detectarse una contradicción entre la última aserción y
el discurso previo. Este procedimiento está por supuesto estrechamen-
te relacíonado con la búsqueda de contraejemplos en el razonamiento
deductivo: allí el propósito consiste en hacer falsa una aserción ordi-
nariamente verdadera para comprobar su validez; aquí el propósito es
hacer verdadera una aserción ordinariamente falsa para comprobar su
consistencia. El mismo mecanismo puede ser usado para razonar no-
monótonamente. Si una asunción es incorporada al modelo sobre la base
de información por defecto o prototípica, por ejemplo. «mi perro tiene
tres patas». En este caso hay un intento de revisión del modelo. Tales
rev isiones pueden deshacer asunciones por defecto (tanto como las de
carácter arbitrario), pero no pueden deshacer aquellas condiciones que
son necesarias para un concepto.
La teoría de la inferencia basada sobre modelos mentales ha sido
explorada en varios dominios. Ciertamente el estudio de problemas de
series de tres términos. tales como

Alicia es más alta qUL' Bil!.


Bill es más alto que Carlos.
Por tanto Alicia C~ más alta que Carlos,

llevan a una de las primeras Versiones de la teoría. Varios investigado-


res, notab Jeme nte Hu tte nioc he r ( 1968), propusieron que los razona-

208
dores forman una cornpoxtcron mental de los individuos en el orden
serial adecuado. Otra investigación reveló una imagen más complicada,
Así Clark (]969) mostró que un adjetivo comparativo como «más alto)
es más fácil de entender que sus converso «más bajo), porque el prime-
ro es esencialmente neutro y afirmativo en tono, mientras que el último
es contrastivo y negativo en tono. Una complicación adicional es que
los sujetos parecen desarrollar diferentes estrategia" para enfrentarse
con tareas experi menta les (comparar con Sternberg y \Veil 1980. Egan
y Grines-Farrow 1982).
El razonamiento espacial depende de relaciones más complejas que
los problemas de series de tres términos. Considérese, por ejemplo, la
siguiente inferencia:

La bola negra esni justamente detráv de la bola de salida.


La bola verde está a la derecha de la bola de salida, y hay una bola
roja entre ellas.
Por tanto si me muevo de modo que la bola roja esté entre la bola
negra y yo, entonces la bola de salida estará 3 la izquierda (de mi
línea visual).

Las reglas de inferencia para esto último serían complicadas, y pa-


rece probable que éstas sean derivadas mediante la manipulación de un
modelo de la composición espacial (ver Johson-Laird 1983, cap. JI.
para la descripción de un programa dc razonamiento espacial basado
sobre modelos).
Un punto central que hay que dejar claro es que las propiedades ló-
gicas de un término son propiedades emergentes de su significado más
que una parte explícita de ese significado. Por ejemplo, la relación «ser
más grande que» tiene la propiedad lógica de la transitividad, es decir,
cualquier inferencia de la forma

x> y e y > z. por tanto x > z

e~ válida. Aunque no hay necesidad de postular una lógica mental que


contenga una regla semejante. Dado por supuesto el concepto de suce-
sor de un número, por ejemplo, el sucesor de 2 es 3, la relación puede
ser definida recursi vamente (ver Rogers 1Q67) .

.x > y si x es el sucesor de y. o hay algún número z tal que x es el


sucesor de z ~ z es mas grande que y.

209
Se sigue de esta definición que, digamos. 4 > 2, porque hay un nú-
mero 3, tal que 4 es su sucesor y 3 > 2 (porque 3 es el sucesor de 2). El
principio de transitividad no es claramente parte de la definición. pero
cualquier modelo basado sobre el significado de las premisas a > b y
b > e da la conclusión a> c.
La emergencia de las propiedades lógicas de los significados es un
principio general. Esto se aplica a las relaciones que tienen lugar entre
proposiciones, incluyendo relaciones simples tales corno «y» y «o», y
relaciones causales y condicionales más complicadas. Como en la nega-
ción la clave para la representación de estas relaciones abstractas es la
introducción de procedimientos apropiados para interpretar elementos
especiales dentro de los modelos. Un discurso puede describir una si-
tuación real, una situación posible. o una situación ficticia o hipotética.
Debe haber por tanto algún modo de representar el status de un discur-
so y simbolizarlo dentro de un modelo. Una aserción condicional, tal
como

Si Juan está aquí. entonces María se ha marchado.

por consiguiente requiere un modelo en el cual la situación antecedente


sea representada como un estado posible de estados de cosas en los que
Ia situación con secuente se sigue (ver J ohnson - Laird 1986).
Resultados recientes sugieren que el razonamiento condicional pue-
de requerir una búsqueda de contraejemplos más que la manipulación
de representaciones lingüísticas de acuerdo con reglas formales de in-
ferencia. Es bien conocido que las personas tienden a cometer ciertas
falacias. Así dadas las premisas

Si llueve. ella se moja.


No llueve.

concluyen falazmente Ella JlO se moja. ¿Por qué no postular una regla
formal que se corresponda con la falacia? Porque, dicen los defensores
de la lógica de la mente. la inferencia puede ser suprimida propor-
cionando una premisa adicional adecuada que sugiera que hay otros
modos de mojarse, por ejemplo, si nieva. ella se moja (Rurnain, Con-
nell y Braine 19R3). Byrne (1989) ha mostrado, sin embargo. que una
premisa adicional puede también suprimir el uso de la regla central
de la lógica formal, el modus ponens. Así dado el siguiente conjunto de
premisas:

210
Sí llueve, ella se moja.
Si ella sale fuera. se moja.
Llueve.

hay una disminución considerable del porcentaje en que las personas


concluyen Ello se moja. La explicación, argumenta Byrne, es que las
personas construyen un modelo de la situación descrita por las premisas,
teniendo en cuenta el conocimiento general. De esta manera, pueden
rápidamente encontrar un contraejemplo para la conclusión putativa de
que ella se moja, es decir, asumen que ella no sale fuera. En el me-
jor de los casos consideran el condicional original, «Si llueve, ella se
muja }', como una descripción elíptica del estado de cosas.

Cualquier forma de razonamiento deductivo en un dominio finito


puede estar basado sobre procedimientos semánticos para construir, in-
terpretar, y manipular modelos mentales. Esto:' procedimientos serán
obviamente sensibles al contenido de las premisas. Asimismo el stress.
las emociones, el prejuicio, o una psicopatologfa manifiesta pueden lle-
var a cometer errores en el momento de enfrentarse a contraejemplos.
Por un lado la teoría en principio torna en consideración la racionalidad.
-la actuación completa y correcta de todos los procedimientos; por
otro lado proporciona una explicación natural de los errores.

4. Modelos como la Representación del Conocimiento

Siempre que entiendes algún fenómeno, por ejemplo cómo funciona


una calculadora electrónica, cómo se detona una bomba de hidrógeno,
cómo es el teorema de Gódel. tienes una representación mental del mis-
mo como un modelo que funciona. La pericia consiste en un conoci-
miento semejante, y los científicos cognitivos han llevado a cabo una
investigación en gran escala acerca de los sistemas para la representa-
ción del conocimiento y de su recuperación cuando éste es necesario. Ha
habido estudios de los modelos mentales en muchos dominios, que in-
cluyen el movimiento de los objetos (de Kleer 1977, de Kleer & Brown
1981, Forbus 1983), los circuitos eléctricos (Gentner y Gentner 1983,
de Kleer 1(85), los sistemas de propulsión (Willians. Hollan y Stcvens
1983), el diagnóstico médico (Meycr, Leventhal y Gutmann 1985), la
navegación (ver, por ejemplo, Oatley 1977, Hutehins 1983), y, sobre
todo, los sistemas de cómputo (ver, por ejemplo, Du Boulay, OvShea y
Monk 1981, Soloway, Ehrchich, Bonar y Grecnspan ]982).

211
Los teóricos han usado el término «modelo mental» en estos con-
textos para referirse primariamente al contenido de una representación
mental. Pero. aunque los modelos mentales pueden diferenciarse nota-
blemente en cuanto a su contenido, no hay evidencia que ~ugiera que di-
fieran en su formato represcntacional o en los procesos de construcción
y manipulación. Lo que constituye una cuestión importante es cómo los
sujetos desarrollan esos modelos según un individuo pasa de ser un no-
vato a ser un experto. y si hay alguna ventaja pedagógica en proporcio-
nar a los sujetos modelos para las tareas que están intentando aprender.

El Desarrollo de las Habilidades

En el estudio del desarrollo intelectual ha habido un cambio radical


desde el énfasis tradicional piagetiano acerca del cambio en las estruc-
turas y procesos hacía el punto de vista según el cual lo que realmente
cambia es el contenido del conocimiento (ver. por ejemplo. Carey 1985.
Keil 1979, I Y~9). De manera parecida. según los adultos se hacen m..ls
competentes en un dominio particular, éstos desarrollan un modelo más
rico de ese dominio. Corno ha defendido Young (1983), tu modelo de
una calculadora electrónica puede meramente representar un vínculo
causal simple cntre el pulsar ciertas teclas y la ejecución de ciertas fun-
ciones matemáticas:
Tecleas una expresión. La máquina la examina. la analiza. y calcula
la respuesta de acuerdo con las reglas de la aritmética.
Pero para explotar la calculadora completamente. necesitas un
modelo bastante más rico que establezca una función entre las espe-
cificaciones de tareas aritméticas particulares y las especificaciones de
secuencias de acciones particulares - un modelo denominado de tarea-
acc ión (Moran 19!H. Young 198-', Grcen, Schie le y Pa yne 1988). Es
más el modelo que necesitas para diagnosticar un funcionamiento de-
fecruoso será incluso diferente. quizás incorporando ]'J noción de suma-
dores binarios. puertas lógicas, y así sucesivamente.
Una diferencia importante entre el modo en que un novato y un ex-
pe110 razonan acerca de una situación Iísica es que el modelo del novato
representa objetos en el mundo y simula procesos que ocurren en tiempo
real. mientras que el científico adiestrado puede construir un modelo que
representa relaciones y propiedades altamente abstractas, tules como fuer-
zas y momentos (Larkin 1983). El novato razona cual i tativamente porque

112
el razonamiento cuantitativo apropiado exige el modelo más abstracto.
Una moraleja parecida puede sacarse del trabajo de Tversky y Kahne-
man acerca de 10;; juicios probabilistas. Los individuos inexpertos razo-
nan sobre la base de simulaciones mentales que exigen la construcción
de modelos que representen secuencias típicas de hechos (Kahneman y
Tversky 1982); el razonamiento cuantitativo apropiado exige un modelo
más abstracto que recoja factores tajes como las probabilidades a priori de
los eventos, las variancias de las distribuciones, y así sucesivamente.
Un modelo de un dominio puede ser incompleto e inadecuado, y sin
embargo resultar todavía útil (Norman 1983; Johson - Laird 1983, cap. 1)
-del mismo modo que un reloj puede ser útil incluso sin ser del todo
exacto ni constituir una representación completa de la rotación de la tierra.
Un modelo erróneo puede obviamente llevar a conclusiones erróneas y dar
por ciertas ilusiones cognitivas persistentes. Así, por ejemplo, mucha gente
cree que si giramos una moneda de aniba abajo alrededor del borde de
otra moneda que está fija, la primera acabará invertida (ver diSessa 1983).
Muchos estudiantes creen que si se hace dar vueltas a un objeto colocado
al final de una cadena, y la cadena se rompe, entonces la trayectoria del
ohjeto (ignorando la gravedad) es una espiral (ver Mcf.loskey, Caramazza
y Green 1980). No obstante los modelos erróneos no son siempre fuen-
tes de error y en ocasiones pueden ser una mejor guía que otros modelos
más sofisticados. Kernpton (1986) señala que hay dos modelos comunes
de termostatos. Uno de los modelos asume que un termostato se comporta
como un aparato de retroalimentación que mide la temperatura y enciende
o apaga el calentador para mantener una temperatura dada. El otro mode-
lo. más primitivo. considera al termostato como una válvula que controla
directamente el calor al modo del mando giratorio de una cocina de gas.
Un modelo de «retroalimentación) puede conducir a error al dejar el ter-
mostato a bajo nivel durante la noche. si esto implica que el ahorro de fuel
queda compensado por el gasto extra que se produce al recalentar la casa
por la mañana. Este error no se produce con el modelo de «válvula» dado
que dejar el termostato a bajo nivel siempre reduce el uso del calentador.
La fuente de error en un modelo puede ser mera ignorancia, como
en muchas concepciones equivocadas acerca de la fuerza en los sistemas
físicos. En ocasiones. sin embargo, el error surge de un fallo al apreciar
la situación adecuadamente o al tener en mente varias posibilidades. de
manera particular en inferencias deductivas difíciles. Un buen ejemplo
del fallo en la apreciación de una situación ha sido descrito por Hinton
~ 1q79L La tarea consiste en imaginarse un cubo en equilibrio sobre uno
de los vértices con el otro vértice diametralmente opuesto en posición

213
vertical sobre él y entonces indicar los lugares de los otros vértices del
cubo. La realización correcta es inusual sin una experiencia previa COI1-
siderable con cubos. Mucha gente considera que sólo hay otros cuatro
vértices que descansan sobre el mismo plano horizontal.

Pedagogia. Analogia. y la Fuente de los Modelos

U na fuente para los modelos mentales es la observación (ayudada


por el conocimiento). otra las explicaciones de las otras personas, y una
tercera es nuestra habilidad para construir modelos para nosotros mis-
mos a partir de un conjunto de componentes básicos o a partir de mode-
los análogos que ya poseemos. Toda la matemática puede ser construida
a partir de un pequeño conjunto de ideas primitivas; cualquier procedi-
miento computacional puede ser construido a partir de un conjunto pe-
queño de bloques para la construcción: y la mayoría de las explicaciones
más sorprendentes del mundo físico también parecen descansar sobre
una hase de ideas básicas. Una vez que hemos comprendido algunas de
estas ideas. una explicación verbal de un fenómeno nos permite cons-
truir un modelo del mismo. <Ciertos aspectos de la física cuántica eluden
a tales modelos; ver Feyman 1985).
Un precepto pedagógico, señalado por Wertheimer (1961), es que la
información debería ser presentada a los estudiantes de manera que ésta
les permitiera enfrentarse a nuevos problemas. Este precepto también
ha emergido de los estudios modernos: una descripción del modelo cau-
sal de una máquina, tan sólo en oposición a sus principios operativos.
permite al novato llevar a cabo inferencias acerca de nuevos problemas
(Halasz y Moran 1983, Kieras y Bovair 1984).
En situaciones en las que no hay profesor, las personas tienen una
tendencia razonable a construir modelos causales para sí mismas. Estas
ya disponen de un rico conocimiento de la variedad de las relaciones
causales (Miller y Johnson-Laird 1976. seco 6.3). Comprenden tres prin-
cipios importantes: primero. en un dominio determinista todos los even-
tos tienen causas; segundo. las causas preceden a sus efectos: y tercero,
una acción sobre un objeto es la causa probable de cualquier cambio que
ocurra en él. Estos principios son suficientes, tal y como ha demostrado
Lewis (1986) en un programa de cómputo, para la construcción de mo-
delos causales simples de un sistema físico.
Cuando un modelo causal falla en la explicación de algún fenóme-
no, una persona tiene probablemente que buscar una analogía útil. por

214
ejemplo, el modelo de un termostato entendido como una válvula. Gent-
ner (1983, 1989) argumenta que la mera semejanza de las estructuras
entre un dominio y otro seguramente no puede dar cuenta del uso de un
dominio como una analogía para el otro. Lo que se tiene que tener en
cuenta son las relaciones semánticas de alto nivel, tales como el marco
causal. Así por ejemplo la analogía de Rutherford entre el sistema solar
y el átomo, las funciones entre el sol y los núcleos del átomo, y las fun-
ciones entre los planetas y los electrones. Las propiedades de] sol. tales
como su calor. no son consideradas, mientras que las relaciones de alto
nivel son tenidas en cuenta. Por tanto la relación

la atracción del sol sobre los planetas causa que éstos giren a su
alrededor
produce la inferencia
la atracción del núcleo sobre los electrones causa que éstos giren
a su alrededor.

De hecho la implementación computacional de la teoría de Gent-


ncr establece la mejor función global de la estructura sistémica para
posteriormente establecer las funciones entre los objetos (Falkenhainer,
Forbus, y Gentner 1986).
Holyoak y sus colegas han argumentado que el paso crítico en el es-
tablecimiento de una analogía es el fallo para resolver un problema (Gick
y Holyoak 1983, Holyoak 1985, Holyoak y Thagard 1989). El fallo de-
sencadena un intento para buscar un problema análogo para el que la solu-
ción es conocida - un proceso que depende de la búsqueda de conexiones
desde los conceptos activos en el problema irresuelto a aquéllos en otro
dominio. Una vez que han sido establecidos los enlaces suficientes. las
acciones que contribuyeron a la primera solución pueden ser transferi-
das al nuevo problema. El pensamiento analógico es casi ciertamente un
proceso no unitario, sin embargo, empero, como señala Keane (1988), un
conjunto de procesos diferentes que dependen de lo que un individuo sabe
acerca de un dominio particular. En el caso de las analogías científicas
profundas, la búsqueda de enlaces entre un dominio y otro parece proba-
blemente estar más allá del alcance de cualquier algoritmo.

S. Una Crítica de los Modelos Mentales

Las teorías de los modelos mentales han generado un interés con-


siderable, e inevitablemente han suscitado también críticas. particular-

215
mente de aquéllos comprometidos con la lógica mental. Una objeción
frecuente se ha presentado en forma de pregunta: ¿Qué es con exactitud
un modelo mental? Si el que pregunta exige una definición que funcio-
ne, entonces un modelo mental puede ser definido como una representa-
ción de un cuerpo de conocimiento -o bien a largo o bien a corto plazo
que cumple las siguientes condiciones:
l. Su estructura se corresponde con la estructura de la situación que
representa.
2. Puede constar de elementos correspondientes sólo a las entidades
perceptibles, en cuyo caso puede ser realizado como una imagen.
perceptiva o imaginaria. Alternativamente puede contener ele-
mentos correspondientes a nociones abstractas; su significación
depende crucialmcnte de los procedimientos para la manipula-
ción de modelos.
J. A diferencia de otras formas de representación propuestas, no
contiene variables. Así una representación lingüística de. diga-
mos. Todos los artistas son guardianes podría tomar la forma

Para cualquier x. si x C~ un artista, entonces x es un guardián.

En lugar de una variable. tal como «x» en esta expresión, un modelo


emplea instancias que representan un conjunto de individuos.
Otro ataque importante hacia los modelos mentales es que consti-
tuyen un concepto explicativo innecesario. Esta critica se parece a un
conocido argumento en contra de la teoría de las imágenes. Varios au-
tores, incluyendo a Pylyshyn 0973, 19&1) Y Rips (l 986). argumentan
que todo puede ser representado por medio de las representaciones pro-
posicionales. esto es, cadenas estructuradas de símbolos en un lenguaje
mental. Cualquier representación mental en última instancia depende
de eventos neurales. y éstos, como el código-máquina de un ordenador.
pueden ~er bien computaciones sobre cadenas de símbolos. Pero tales
símbolos no se hacen explícitos a la conciencia de la «estructuras rela-
cionales» de alto nivel de las que normalmente somos conocedores-el
hecho de que la mesa está e nfrente del horno, y así suces i vamente - y de
este modo parece que las computaciones mentales deben tener niveles
de organización más altos. Ciertamente en otro nivel más estrecho, la
expresión «representación proposicional» se usa para referirse a repre-
sentaciones de alto nivel. es decir, representaciones lingúísticas hechas
u partir de símbolos correspondientes a items léxicos en el lenguaje (ver
Kintsch 1974, Fodor J975). En este caso, como hemos visto, hay una

216
necesidad de suplementarIas con modelos mentales para dar cuenta del
razonamiento y de la comprensión del discurso.
El gran peligro para las teorías de la representación e~ que cometan
la falacia simbólica de que el significado no es más que una cuestión de
relacionar un conjunto de sfrnbolos con otro. Como dijo Lewis (1972),
traducir un enunciado a una representación lingüística no proporciona
más explicación de las condiciones de verdad en las que ésta es verda-
dera que una traducción al latín. Una reacción extrema aquí es decir,
en efecto, tanto peor para las condiciones de verdad. Así Rips (1986)
escribió: «La psicología cognitiva tiene que arreglárselas sin nociones
semánticas como verdad y referencia que dependen de la relación entre
las representaciones mentales y el mundo exterior». Pero, si rechazamos
la verdad y la referencia, no queda nada de la vida mental, y no pode-
mos incluso dar cuenta de la comprensión y verificación del discurso.
En contra de la prescripción metodológica de Rips muchos autores han
puesto de manifiesto que un problema principal para la ciencia cognitiva
es explicar cómo los símbolos refieren al mundo (comparar Hofstadter y
Dennet 1981, Haugeland 1985, Russell 1987). La teoría de los modelos
mentales propone una solución a este problema, aunque algunos co-
mentaristas creen por error que considera la interpretación del lenguaje
como nada más que la traducción de emisiones en los modelos y repudia
la cuestión de cómo se relacionan los modelos con el mundo (ver Oden
1987). Como hemos visto. sin embargo, la solución es que los modelos
mentales del mundo pueden ser también construidos como resultado de
la percepción, la experiencia interna, y la interacción social. Un discurso
se considera verdadero si un modelo basado sobre su representación lin-
güística puede ser sumergido en un modelo semejante (Johnson-Laird
198~. pp. 247,441).

Un problema fundamental con las teorías que invocan a los modelos


mentales como una representación del conocimiento es su incornple-
tud radical. ¿Es realmente posible la plasrnación manifiesta de nuestro
sentido común acerca del mundo cotidiano, de nuestro conocimien-
to del significado de las palabras. y de la competencia que subyace a
nuestras habilidades? Un coro de escépticos ha argumentado en sentido
contrario. Así Dreyfus (1972), un crítico persistente de la inteligencia
artificial. dice que el problema intratable en la simulación del compor-
tamiento humano es que «todas las alternativas deben hacerse explí-
citas». Incluso Winograd, un anterior defensor de la inteligencia arti-
ficial, ha argumentado recientemente que el background no puede ser
representado como un conjunto de proposiciones explícitas (Winograd

117
y Flores 1986). La naturaleza llamativa del conocimiento puede hacer
difícil -incluso imposible- para nosotros la construcción de máqui-
nas inteligentes (mediante algún método diferente al biológico original).
Pero esto no tiene incidencia directa en cuanto a la realizabilidad de la
ciencia cognitiva, porque una explicación científica de cómo se adquiere
el conocimiento, se guarda, y se usa en la interpretación del mundo no
hace necesariamente referencia a una especificación completa de todo el
conocimiento. Además. como Hayes y otros teóricos de cuestiones liga-
das a la mente han argumentado, puede ser posible verter conocimiento
intuitivo de un modo completamente explícito. La empresa puede llevar
muchísimo tiempo. pero si existen barreras insuperables para la misma,
éstas están todavía por descubrir.
Un forma más seria de incompletud tiene que ver con las propias
teorías de los modelos mentales. Así las teorías de la visión no ofrecen
una completa explicación de cómo los estímulos retinales se relacionan
con los modelos dinámicos del tipo que construye el sistema perceptivo
humano. Del mismo modo que las teorías del discurso dan cuenta tan
sólo de cómo fragmentos del lenguaje pueden ser traducidos a los mode-
los, las teorías del razonamiento sólo han sido propuestas para dominios
finitos. Y sólo un pequeño número de sistemas expertos han explotado
el razonamiento basado en modelos a pesar de sus aparentes ventajas
para tratar inferencias no-deductivas. Una razón para tales deficiencias
es la dificultad compartida para formular teorías. especialmente cuan-
do el teórico se ve forzado a analizar las condiciones de verdad de las
expresiones-una cuestión que puede ser retinada dentro de redes se-
mánticas u otras formas de representación lingüística.

6. Conclusión

En algunos dominios los teóricos han hecho hincapié en el conte-


nido de los modelos mentales. Así estudios sobre nuestras teorías coti-
dianas acerca del mundo se han concentrado en lo que sabemos. y los
teóricos han usado una variedad de formatos representacionales -redes
semántica", cálculos lógicos, sistemas de producción - para represen-
tar ese conocimiento. En otros dominios. tales como la percepción. el
discurso. y el razonamiento. los teóricos han puesto de manifiesto la
estructura de los modelos y cómo éstos son construidos por medio de
procesos mentales. Si bien los teóricos están hablando acerca de la mis-
ma bestia. los seres humanos crean modelos del mundo tanto a partir de

218
su conocimiento perceptivo como de sus descripciones. Estas dos for-
mas de conocimiento deben ser conmensurables, de otra manera nunca
sabríamos de qué estamos hablando o si lo que decimos es verdadero.
Retenemos dicho conocimiento en la memoria a largo plazo como la
base de nuestra habilidad para enfrentarnos con el mundo; y podemos
razonar acerca de una parte de nuestro conocimiento si su fuente es la
percepción, el discurso, o la memoria.
En breve, a pesar de la diversidad de las teorías, si tenemos que
hacer justicia con las representaciones mentales, la evidencia sugiere
que aquellas que construimos a partir del discurso son semejantes en
estructura a aquellas que construimos por medio de otros medios. y que
el razonamiento explota el mismo tipo de modelos. Los modelos menta-
les son símbolos internos, y así una pregunta queda por formular: ¿Qué
otros tipos de símbolos hay ahí? Las imágenes, como señalé, son un tipo
especial de modelo - una representación bidimensional que e~ proyec-
tada a partir de un modelo tridimensional subyacente. Por tanto la teoría
invoca un inventario SImple de tres partes: las representaciones menta-
les, los modelo", y los procedimientos para manipularlos.
Cuando Craik (1943) argumentó que las personas razonan llevando
a cabo experimentos mentales sobre modelos mentales, la idea parecía
peligrosamente heterodoxa. Ahora el abanico de fenómenos para los que
se usan los modelos mentales está creciendo rápidamente. Estos incluyen
la metacognición (Gilhooly 1986), la conciencia y el yo (Oatley 1981),
el comportamiento intencional y la libre elección (Johnson-Laird 1988),
y la psicopatía (Power y Champion 1986). Lo que queda quizás como el
principal rompecabezas e~ cómo una entidad puede tener acceso recursi-
vo a un modelo de su propia realización tWeyrauch 1980; Johnson-Laird
1983. cap. 16; Hayes-Roth, Garvey, Johnson y Hewett 1987), y cómo ésta
puede explotar ese conocimiento al enfrentarse con el mundo.

Nota

Le estoy agradecido a mi anterior colega Alan Garnham, cuyas ideas


propias sobre modelos mentales (ver. por ejemplo, Garnham 1987) han
tenido un efecto muy considerable sobre mi pensamiento. Doy las gra-
cias a Phil Barnard. Alan Garnham, Ed Smith, Mark Keane y Michael
Posncr por sus comentarios. Para terminar, le estoy agradecido a Ruth
Byrne por sus críticas detalladas de un borrador previo y por el resto de
su ayuda en la preparación de este capítulo.

219
Referencias
ANDI::RSON, 1. R. 1983. TI/e Architecture uf Cognition. Cambridge, MA: Har-
vard University Press.
BETH. E. W. 1971. A\peC1S ojModern Logic. Dordrecht: Reide!.
BRi\IN 1..:, M. D. S. 1978. «On thc re lation between the natural logic of rcasoning
and standard logic». Psvchological Review 85: 1-21.
BRANSl-'ORD. J. D.. BARCLAY. 1. R.. and FRA!'<KS. 1. 1. 1972. «Sentence memory: A
construetivc versus interpretative approach». Cognitlve Psychology 3: 19.3-2ÜY.
BUCHANAN. B. G .. and FEIGENBAUM. E. A. 1978. DENDRAL and !'viera-DEN-
DRAL: '<Thcir applications dimensión». Artificial Intelligence 11 ;5-24.
CAREY. S. ]985. Conceptual Change in Childhood. Cambridge, MA:l'vUT Press.
Ca ~N(;, P. N.. and HULYOA 1\.. K. 1. 1985. «Pragmatic reasoning schemas». Co x-
nitivc Psychology 17:391--l16.
CHOMSK Y. N. 1977. Essavs 01/ Form and Interpretation. New York: North Ho-
Iland.
CLAKK. H. H. 1969. Linguistic processes in deductive reasoning, Psvchological
Revie79:3R7-404.
CLARK. H. H. 1977 ...Bridging». In P. N. Johnson-Laird and P. C. Wason, eds,
Thlnking : Readings in Cognitive Se/ella. Cambridge. Eng!.: Cambridge
University Press.
CRAI!\.. K. 1943. The Nature of Explanation. Cabridge. Engl.: Cambridge Uni-
versity Press.
D~VIS, M. 19S0. « The mathernarics oí"non-monotonic rcasoning», Artificial In-
telligence 13:73-80.
DAVIS. R., and LENAT, D. B. 1982. Knowledge-based 5YSfP11H in Artificia! lntr-
lligence, New York: McGraw-Hill.
DE KU.:.EK. J. 1977. «Múltiple rcprcsentation of know lcdge in a mechani sm
problern solver». lntcrnational Ioint Conference ()J1 Artificial Intelligence
5:299-304.
DE KLEER. J., and BRO\VN. 1. S. 19&1. «Mental models ofphysical mechanisms
and thcir acquisition», In 1. Anderson, ed. Cognitive Skills und their Acqui-
sition, HillsJa1c, NJ:ErlblluTll.
[)J SF.'\SA. A. [9~G. «Phenomcnology und the evolution of intuition». In D. Gentner
and A. L. Stcvcns, eds, Mema/ !',.fode/s. Hillsda1e. NJ: Erlbaum. pp. 15-33.
DRLYFllS. H. L. 1972. Whar Computers Can't Do: A critique of Artificial Rea-
son. New York: Harper and Row.
DlT BOULA) , B.. Ü'SHEA, T.. and MONK . .1. 1981. «The black box inside thc
glass box: Prcscnting cornputer concepts to novices'>.!nfemational Jcurnal
of]..-hIll-.'l.l([chine Studies 14:237-249.
EGAN. D. E., and GRIMJ;s-F.-\RRm'r, D. D. 1982. Differences in mental repre-
sentutions spontaneously udopted tor reasoning. Memory and Cognition
10:297-307.

220
EHRLICH. K .. and JOHNSON-L<\IRD, P. N. 1982. «Spatial descriprions and refercntial
continuity-.. Journal o] 'v'erbal Learning and Verbal Behavior 21 :296-306.
ERICKSUN. J. R. 1974. L<A set anulysis theory behaviour in formal syllogistic
reasoning tasks». In R. Solso, ed, Lovola Svmposium 011 Cognition. Vol. 2.
Hil1~dale. NJ: Erlbaum.
EVANS. 1. St. B. T. 198~. The Ps.vc!J%gy ot Deductive Reasoning, London:
Routledge and Kegan Paul.
FALKENHAINER. B.. fURHUS. K. D.. anJ GENTNER. D. 1986. The structure-mapping
engine . Univcrsity of Illinois. Technical Report No. U1UCDS-R-~6-1275.
FAlTCONNIER, G. 1985. Mental Spaces: Aspects oj Alt'l111ÚZR Construction in Na-
rural Languugc. Cambridge. MA: MIT Press.
FEIGENRAUM, E. A.. and McCoRrn1cK. P. 1994. The Fifth Generation: Artificial ln-
telligenve and Japan ~~. Computer Challenge 10 the VYl1r/d. London: Pan Books.
FEYNMA~. R. P. 1985. QED: Tlze Strauge Theory (?! Light and Mattcr. Prince-
ton: Princcton University Press.
FL:YNMAN, R. P. and LEIGHTON. R. 1985. «Surelv }(Jll're Joking, Mr. Fevmon!»
Nc'V York: \Y. W. Norton,
FO])OR.1. A. 1975. [he language of Tltought. Hassocks. SLl~SCX: Harvesrcr Press.
l-oxuus, K. D. 1983. «Qualitative reasoning about space and motion». In
D. Gentner and A. L. Stevcns, eds. Mental Models. Hillsdale, NJ: Erlbaurn,
pp. 5~-73.
GARNHAM. A. 1981. «Anaphoric reference to instanccs instantiatcd and non-
instantiared categories: A reading-tirnc stu,.J. y». British J(lTII'IW/ of Psycho-
logv 72:377-384.
GARNHAM. A. 1987. Mental Models as Rcprcsentutions of Discourse {(/UI Text.
Chichester: Ellis Horwood.
GARI\HAM. A., and OAKHILL. J. V. 1987. «Interprcting elliptical verb phrases».
Quarterlv Journal of Experimental psycholog» 39A:611-627
GENTNER. D. 1989. «The mcchanisms uf analogical learning». In S. Vosnia-
dou and A. ortony, eds. Sunilaritv and Analogv in Reasoning und Learning,
Cambridge. Engl.: Cambridge U ni vers ity Press.
GENTNER. D .. and GEr-:TNER. D. R. 1983. -Flowing watcrs or teerning crowd ... :
Mental models of clectricity». In D. Gentner and A. L. Stcvens, eds. Mental
Al()del~. Hillsdale. NJ: Erlbaum, pp. 99-129.
G1CK. M. L.. and HOLUOAK. K. J. 1983. «Schema induction and analogical
transfer». Cognitive PS\'('ho!oRY 15: 1-3~.
G1LHOUL'r. K. J. 1986. «Mental modelling: A frarnework for the xtudy of thin-
king». In J. Bishop. 1. Lochhcad and Perkins. D. N. cds, Thinking: Progress
in Rew>(m1/ und Teaching, Hilbdak, NJ: Erlbaum.
Glenberg, A. M., Mcycr. M .. and Lindcrn, K. 19H7. rnental models contributc
to forcgrounding during text cornprehension. Journal oj mentory and lan-
guag« 26:69-83.

221
GREEN, T. R. G .. SCHll:LL.:. F.. and PA'YNE, S. J. 1988. «Formalisable mode1s of
user knowledge in humau-cornputer interaction». in T. R. G. Green, G. C.
van der Veer. J.-M. Hoc, and D. Murray. cds. W()rkil1,R witl: Computen:
Theory versus Outcome. New York: Acadernic Press.
GUYOTE. M. J.. and STERNBERG. R. J. 1981. «A transitive-chain theory 01' syllo-
gistic reasoning v , Cognitive PSY<.'/UJ/ogy 13:461-525.
HALASZ, F. G .. and MORAN. T. P. 19X3. "Mental rnodels and problern solving
using' a calculator». Proceedings o] CH/'8J: Human Factors in Computvtig
Svstems. New York: Association for Cornputing Machinery.
HAllGELAND.1. 1985. Artificial Intelligcnce-: The ~hy Idea. Cambridge. MA:
MIT Prc~s.
H..\YI:.S. P. J. 1979. «Naive physics I-ontology for liquids. Memo. Centre pour
les Etudes Scrnantiques et Cognitives». Geneva. Reprinted in 1. Hobbs and
R. Moore, eds .. 1985. Formal Theories o] Commonsense ~l()r{d.
HAYI:.S, p. 1. 1985. </The second naive physics manifestó». In J. Hobbs and
R. Moorc. eds. 19~5. Formal TIJeories 01 Cornmonsense World. Hillsdale,
NJ: Ablcx, pp. 71-1 wt
HAYES-RoTH. B.. G¡\RV~Y. A .. JOHNSON, M. v.. and HEWElT. M. ] 9g7. «A mo-
dular and layered environment for reasoning about action». Knowlcdgc
Systcrns Laboratory Repon No. KSL 86-JX. Cognitivo Science Departrnent.
Stanford University, Sranford, CA.
HEWITr. C. 1971. <,PLANNER: A Languagc for proving theorerns in robots».
Fourth lnternational 10il11 Conference un Artificial lntelligence, pp. 115-121.
Hlf\;TO:-'. G. 1979. "Sorne dernonstrations of the effects of srructural dcscrip-
tions in mental irnagery Cognitivc Science 3:2.31-250.
H.

HOFSTADTI-:R.D. R., and DENNET. D. C .. cds. 1981. The Mind's I: Fantasie- and
Reflections on Sclf and Soul. New York: Basic Books.
HOLLAND. J.. HOLYOAK. K. J .. Nh~ETr, R. E., and TIIAGARD. P. ]l)gó.lndllCTioJJ:
Processes ojInferencc. LN1miHg, and Discoverv, Cambridge. MA: MIT
Press. A Bradford BOLlk.
HOLYOAK. K. 1. 1985. «The pragmaucs of an.ilogical transfer». In G. H. Bower,
ed. 7J¡e Psvchologv ofLearning and Motivotion : Advcuucs in Rescarch and
Theorv. Vol. 1Y. NL'w York: Acadernic Prcss.
HOLYOAI\. K. J. and THAGARD. P. R. 1989. '(RllJe-ba~ed spreading activation
and analogical transfer», In S. Vosniadou and A. Ortony, cds. Similurir: and
Ana/og.\' in Reasoning and Learning, Cambridge, Eng1.: Cambridge Uni-
vcrsuy Press.
HOR.SNTEIN, N. 1986. Logic as Grantniar. Cambridge. MA: MIT Pre... s.
H UTCHINS. E. 19R3. ,<Understand i ng !\1icronesian navigation». 1n D. Gentner and
A. L. Stevens, eds. MUlla! Modcls. Hill ...dale, NJ: Erlbaum, pp. Il) 1-225.
HlIlTENL0CHFR. 1. 1968. «Constructing spatial lmages: A <tratcgy in reuso-
ning». Psvchologic«! Review 7S:5S0-S6U.

222
INDER, R. 1987. The computer simulation oI svllogism solving using restricted
mental rnodels.Pri D. thesis. Cognitive Studies, Edinburgh University,
INHELDER. B., and PIAUI-:r, J. 195R. rile Growth 01 Logicul Thinking {ron Chil-
hood 10 Adolescence. New York: Basic Books.
JACKENDOFF. R. 19R7. «On beyond Zebra: The rclation of linguistic and visual
inforrnation». Cognition 26:89-11-L
JOHN.'>ON-LAlRD, P. N. 1983. Mental Models: Towards Q Cognitive Science of
Language, Inference, ami Consciousness. Cambridge, MA: Harvard Uni-
versity Press. Cambridge. Engl.: Cambridge University Press.
JOHNSO~-LAIRD, P. N. 1986. «Conditional and mental models». In E. C. Trau-
gott, A. ter Meulen, J. S. Rcilly and C. A. Ferguson, eds. On Conditionals.
Cambridge, Engl.: Cambridge University Press.
J OHNSON - LAIRD. P. N, ¡ \)87. «Reasoning, irnagining. and crear ing». Bulletin of
the British Psychological Socicty 40: 121-129.
JOH~SON-LAIRD. P. N. 1Q88. -Freedon and constraint in crcativity», In Sternberg,
R. 1.. ed. The Nature ofCreativitv. New York: Cambridge University Press,
JOHr--;SON-LAIRD. P. N., and BARA. B. G. 1984. «Syllogistic inference». Cogni-
tion [6: 1-61 .
J OIlNSON - LA IR D, P. N., and G ARNHAl\L A. 1980. «Descriptions and discourse
models». Linguistics and Philosophv 3: 371-393.
JOHNSON-LAIRD, P. N .. and WASON. P. C¿ cds. 1977. Thinking: Readings in
Cognitive Science. Cambridge. EngL: Cambridge University Press.
KAHNEMAN, D., ano T\'tt{~K), A. 1982. «The simulation heuristic». In D. Kahne-
rnan, P. Slovic, und A. Tvcrsky, eds. 1982. Iudgement Under Uncertainty: Heu-
ristics and Biases. Cambridge. Engl.: Cambridge University Press, pp. 277-322.
KAMP, J. A. ,"'. 1981. «A theory of truth and sernatic represcntation». In J. A. G.
Groenendijk, T. Janssen and M. Stokhof, eds. Formal Metliods in the Study
01 Language. Arnsterdarn: Mathernatical Cenrer Tracts. pp. 277-322.
K -\RTTUNEN. L. 1976. «Discourse referents». In J. McCawley, ed. Syntax and
Sernantics. Vol. T: Notesfrom the Linguistic Underground. new York: Aca-
dernic Press,
KL-\NI::, M. 1988_ Analogical Problcm Solving. Chichester. Engl.: Elli~ Horwood,
KEIL F. 1979. Semantic and Conceptual development: Ontological Perspecti-
I'e. Cambridge. MA: Harvard University Press.
KEIL. F. 19R9. Concepts, m,)/U Meanings, and Cognitive De velopment . Cam-
bridge. MA: Harvard University Press.
KEMPTON. W. 19X(-¡. «Tw thcorics ofhome hear control». Cognitive Science 10:
75-90.
KIERAS, D. E., and BOVAIR, S. 1984. «The role of the mental model in learning
lo operare a device». ClIgnitil'(' Srienre 8:255-~73.
K INTSCH. W .. ami \'AN Dux. T. A. 1'178. «To\V aros a mode1 of text compre hcn-
sion ano reproduction». Psvchological Review 85:363-3l)-l.

223
KOWALSKI, R. A. 1979. Logic for Problem Solving, Arnsterdam: Elsevier North-
Holland
LARK1N. J. H. 1983. «The role ofproblem rcpresentation in physics». In D. Gcntner
and A. L. Stcvens. eds. Mental Models. Hillsdalc, NJ: Erlbaum. pp. 75-1)~.
LEWIS. C. 1986. «A model oí mental model construction». Proceedings o]
eH/'Só Conference 011 Human Factors in Computer Svstems. Ncw York:
Association for Computíng Machinery,
LEWIS. D. K. 1972. «General semantics». In D. Duvidson and G. Harman. eds.
Semantics ofNaturul language. Dordrecht: Reidel.
MCCLOSKEY, M., CARAMAZZA, A., GREEN, G. 1980. «Curvilinear motion in
the absence of exrernal forces: Naive beliefs about the motion of objects»,
Science 210: ¡ I Y)-II-l l.
McDLRMOTT, O., and DOYLE, J. 1980 .••Non-rnonotonic logic 1». Artificial In-
telligence 13:41-72.
MAN1, K. and JOIINSON-LA1RD, P. N. ll)~C. « The mental representation of spatia!
descriptions». Memory and CO,Ql1ilirJ1/ 10: 181-187.
~1-\RR. D. 1982. Yision: A Computationul lnvestigation in the Human Represen-
tation o] Visual lnformation, San Francisco: Freernan.
MEYER, O., LeVENTIIAL H., and GlIH..1 ANN, M. 1985. «Common-scnse models
01' illness: The ex ample of hypertcnsion». Healtn Psychologv 4: 115-135.
MICHIE, D., ea. 1979. Expert Svstems in the Micro-Electronic Age. Edinburgh:
Edinburgh University Press,
MILI.ER, G. A .. GAL.'\NTER. E., and
PRIBAM, K. 1960. Pluns and the Structure of
Behavior. New York: Holt, Rinehart, and Winsion.
MILLER, G. A., and ]OHSON-LA1RD, P. N. 1976. l anguage and Perception. Cam-
bridge, MA: Harvard Univcrsity Press. Cambridge. Engl.: Cambridge Uni-
versity Press.
MrI\lSKY. M. 1975. «A framework for representing knowledge». In P. H. \Vin~­
ton, ed. The Psvchologv of Computer vision. New York: MacGraw-Hill.
MORAN, T. P. 1981. «The Comrnand Language Grammar: A reprcscntation for
thc user interface of inreractive computcr systerns». lnternational Journal
ofMan-Machine Studies 15: 5-30.
NEWELL, A. 1973. -Production systerns: Models of control structures». In \V. G.
Chase. ed. Visual lnformation Processing, Ncw York: Academic Press.
NEWELL, A. 1981. «Reasoning, provblem solving and decisión proccsses: The
problern spac~ as a fundamental category». In R. Nickerson. ed. Attention
and Performance, Vo. 8. Hillsdale. NI: Erlbaum.
NE\"'ELL, A .. and SIMON, H. A. 1976. «Cornpurer science as ernpirical inquiry:
Syrnbols and search». Communications ofthe Association for Computing
Muchinery 19:11 3-126.
NORMAN. D. A. 1993. "Sorne observations on mental rnodels». In D. Gentner
and A. 1" Stcvcns, eds. Mentu! Modcls. Hillsdalc, NJ: Erlbaum. pp. 7-14.

224
OAKHILL. v..
J. and GARNHAM, A. 1985. «Referential contimuity, transitivity,
and thc retention of spatial descriptions, language and Cognitive Processes
1: 149-162.
o.\KHILL, J. v.. and JOHNSON-LAIRD. P. N. 1985. «Rationality, memory. and the
search for counterexamples», Cognition 20: 79-94.
OATLEY. K. G. 1977. «Inference, navigation, and cognitive maps». In P. N.
Johnson-laird and P. C. Wason. eds. Thinking: readings in Cognitive Scien-
ces. Cambridge University Press, pp. 537-547.
OATLEY. K. G. 1981. «Representing ourselves: Mental schcrnata, cornputatio-
nal rnetaphors, and the nature of consciousness». In G. Underwood and
R. Stevens, eds. Aspects of Consciousness, vol. 2: Structural issues, New
York: Acadernic Press.
ODEN, G. C. 1987. «Concept, knowledge, and thought», Annual review oi Psy-
chology 38:303-227.
OSHERSON, D. N. 1975. «Logic and models of logica1 thinking». in R. J. Fa1-
magc, ed. Reasoning: Representation and Process in Children and Adults.
Hlllsdale. NJ: Erlbaum.
PARTEEE, B. H. 1979. «Sernantics-mathematics or psychology?» In R. Baurle,
U. Egli, and A. von Srechow, eds. Sematicsfrom Difieren! Points of View.
Berlín: Springer,
POLK, T.. and NEWELL, A. 1988. «Modeling human syllogistic reasoning in
Soar». Proceedings ofthe Tenth Annual Conference of the Cognitive Scien-
ce Society . H illdale, NJ: Erlbaum. pp. 181-1 87.
PYLYSliYN, Z. 1973. «What the mind's c~e tells the mind's brain: A critique of
mental irnagery». Psvrhologica! Bulletin RO: 1-:~4.
Pv LY SHYN, Z. 19~ 1. «The i rnagery debate: Analogue media versus tacit
knowledge». In N. Block. cd. lmagerv. Cambridge, MA: I\HT Press.
POWER, M. 1.. and CHAMPION. L. A. ]986. «Cognitive approaches to depresión:
A theoretical critique». Br¡ti.~h Journal (~l Clinical Psychology 25: 201-212.
REICHARDT, W. E., ami POGGI{). T. 1981. «Visual control of flight in flies». In
\V. E. Reichardt and T Poggio. eds. Theoretical Approaches in Neurobiolo-
gy. Cambridge. MA: MIT Prcx-,
RHCHGELT. H. «1982. mental rnodels and discourse». Iournal of Semantics
1:371-386.
REITER. R. [973. «A xemantically guided deductive system for automatic theo-
rem-pro v ing". Third lnternational Conference on Artificial Intelligence,
pp. 41-46.
RIPs. L. J. 1983. «Cogniti Ve proces ...e~ in propositioanl reasoning», Psvcholo-
gical Review 90: 38-71.
RIPs, L. J. 1986. «Mental muddles». In M. Brand and R. M. Harnish, eds, Pro-
blems in the Representation of Knowledge and Betief. Tucson, AZ: Univcr-
sity of Arizona Press,

225
ROBINSON. 1. A. 1979. Logie: Form and Function. The Mechanizution oj De-
ductive Reasoning, Edinburgh: Edinburgh University Press.
ROGERS. H. 1tj67. Theory oj Recursive Functions and Effective Computabiliry.
New York: McGraw-Hil1.
RUMAIN. B., CONNELL. J.. and BRAINNE. M. D. S. 1983. «Conversational com-
prehension processes are responsible for reasoning fallacies in children as
well as adults: IF is not the biconditional». Developmental Psvchology 19:
471-481.
RUSSELL. J, 1987. «Rule- tollowing, mental models. and the developmental
view», ln M. Chapman and R. A. Dixon, eds. Meaning and the Growtli o]
Understanding: Wittgenstein 's Significance of De velopmen tal Psvchology.
Ncw York: Springer.
SAG, l., and HANKAMER, 1. 19R4. «Towards a theory of anaphoric processing»,
Linguistics and Philosophy 7: 325-345.
SANFORD, A., and GARROD. S. 1981. Understanding Wrilten Language: Explo-
rations ofComprehension Beyorul the Sentence. Chichester, Engl.: Wiley.
SCHANK. R. c.. and ABELSON. R. P. 1977. Scripts, Plan'). Goals and Understan-
ding. Hillsdale, NI: Erlbaum.
SH/\DBOLT. N. 1983. Processing reference. Journal o] Semantics 2:63-98.
SMJTH. B. C. 1984. Reftection and semamics in LIS? Conference Record of
the Eleventh Annual Association for Computing Machinery Symposiurn on
Principies of Programrning Languages, Salt lake City, Utah, pp. 23-25.
S¡\lITH. E. R. J 984. « Models 01" social inference processes». Psvchological Re-
\';e\1' 9] :_'92-413.
SOLOWAY. E .. EHRL1CH. K .. BONAR. J.. and GREENSPAN. J. 1982. «What do novi-
ces know ahOLJI programrning?» In A. badre and B. Schneiderman. eds. Di-
rections in Human-Computer lnteraction. Norwood, NJ: Abcx, pp. 27-54,
SPLNCER-Sl\lITH. R. 1987... Survcy: Scmantics ami discoursc rcprcscntation».
Mind unil Language :?: 1-~6.
STENNING. K. 1978. «Anaphora as an approach ro pragmatics». In M. Halle.
J. Bresnan and G. A. Mi ller, eds. Linguistic Theorv and Psychologicul Rea-
litv, Cambridge. MA: MfT Press,
STENNINu. K. 198. -On rnaking rnodcls: A study uf constructivo rncrnory». In
T. Myers. K. Brown and A. McGoniglc. cds. Reasoning and Discourse Pro-
cesses. London: Acadernic Press.
STERNRERG. R. J. and \VEIL. E. M. 1980. «An aptitudc x stratcgy intcrac-
tion in linear syllogictic reasoning-: Iournal al Educational Psychology
7 ~ :226-23<).
T\'ER';;¡":Y. A.. and KAHNEMAN. D. 197.1. -Availability: A heuristic for judging fre-
qucncy and probability». Counitive P.\Tcho/ORY 4:207-232. Reprintcd in Kah-
nernan, D.. Slovic, P.. and Tversky, A. eds, I9R2. Judgment under Uncertain-
tv: Heuristics and Biases. Cambridge. Engl.: Cambridge University Press,
VAN DUK. T. A.. and KINTCH. W. 1983. Strategies ofDiscourse Comprehension.
New York: Academic Press.
WASON. P. C. and JOHNSON-LAIRD. P. NB. 1972. Psychology Rcasoning: Struc-
ture and Contento Cambridge. MA: Harvard University Press, London:
Batsford.
\VEBBER, B. L. 1978. «Description formation and discourse model synthesis»,
In D. L. Waltz, ed. Theoretical lssues in Natural Language Processing, 2.
New York: Association for Computing Machinery,
WERTHEIMER. M. 1961. Productive Thinking, London: Tavistock.
WEYRAYCH, R. \V. ]980. «Pro legomcna to a thcory of mechanized formal rea-
soning», Artificial lntelligence 13:133-170.
WILKS, Y. and BIEN, J. S. 1979. «Speech acts and multiple environrncnts». Sixth
International Ioint Conjercnce on Artificial Intelligence, pp. 451-455.
WILLIANS, D.. HüLl.AND. J. D., and STEVENS. A. L. 1983. «Human reasoning
about a simple physical systern». In D. Gentner annd A. Stevens. eds. Men-
tal Models. H i 11 sdale, NJ: Erlbaum, pp. 131- 153.
\VIl\OliRAD. T.. and FLOReS, F. 1986. <. Understanding Computers and Cogni-
tion: A New Foundation for Design». Norwood, NJ: Ablex.
WrITGENSTEIN. L. 1922. Tructatus Logico-Philosophicus. London: Routledge
and Kegan Paul.
Ym·NG. R. 1983. «Surrogates and rnapping: Two kinds 01' conceptual models
for interactive devices», In D. Gentner and A. L. Stevens. eds. Mental J't,10-
dels. Hillsdal~. NJ: Erlbaum. pp. 35-52.

227
EL DISCURSO 1
Barbara J. Grosz. Martha E. Pollack y Candace L. Sidner

La investigación en análisis del discurso, estructura del discurso y


procesamiento del discurso considera a los discursos, no a las oraciones
aisladas. como las unidades básicas del lenguaje. En todos los empeños
es central el deseo de descubrir los mecanismos que hacen que ciertas
secuencias de preferencias sean coherentes y otras no y de comprender
cómo afecta el contexto al uso y a la comprensión de varias clases de
expresiones lingüísticas. En este capítulo nos centramos en tres grupos
de problemas del discurso: aquéllos que surgen al tratar de determinar
la estructura del discurso, aquéllos relacionados con fenómenos de nivel
sintagmático (por ejemplo, pronombres, descripciones definidas, e1ip-
sis), y aquéllos que conciernen a cómo se deriva el significado o efecto
de un discurso o segmento discursivo. Dado que en las ciencias cogni-
tivas se ha hecho más investigación de la que puede recogerse en este
capítulo, nos ocupamos aquí del trabajo que ha tomado como centrales
las cuestiones computacionales o de procesamiento.
Comenzamos con un repaso de las primeras aproximaciones al dis-
curso en inteligencia artificial. Estas primeras aproximaciones hicieron
evidentes los problemas de las teorías existentes, la necesidad de de-
terminar el papel de la información no lingüística (incluyendo conocí-
miento acerca del dominio, diferencias entre las creencias de hablan-
te y oyente. lector y escritor, y estado cognitivo) en el procesamiento
del discurso. y la necesidad de teorías adecuadas, computacional mente
tratables. para sustentar el procesamiento del discurso. A continuación
describimos las aproximaciones a la estructura del discurso, discutien-
do varias ideas sobre las clases de segmentos discursivos que existen y

I Traducción de Kepa Korta Carrión.

229
las clases de relaciones 4ue los unen. En la línea de trabajos anteriores
(Grosz y Sidner J986). distinguimos la estructura lingüística del discur-
so de su estructura intencional y de su estado atencional cambiante.
En la 'lección 3 examinamos diversas clases de información sobre la
estructura del discurso que se aporta explícitamente en la propia señal lin-
güística. En la sección 4 describirnos la investigación acerca de los efectos
de la estructura y contexto discursi vos sobre la interpretación de varios fe-
nómenos de nivel sintagmático, incluidas las descripciones definidas, los
pronombres, los sintagmas nominales cuantiticacionales (por ejemplo, to-
das las chicas del bloquei. la referencia de eventos, y la elipsis. La sección
5 describe varias formulaciones de planes y técnicas que se han desarro-
nado para el reconocimiento de planes. Una vez que tomamos seriamente
en cuenta la idea de que el lenguaje es usado por los agentes para influir
en su mundo. se toma crucial comprender los efectos que una preferencia
individual puede tener (éste era el alcance inicial de la teoría de los actos
de habla), y los modos en los que las proferencias pueden combinarse
para formar acciones mayores (investigación de reconocimiento de planes
en el discurso). Así las acciones lingüísticas pueden verse como acciones
que influyen en la estructura y el significado discursivos.

l. Primeras Aproximaciones al Procesamiento del Discurso

Los primeros intentos de tratar directamente los problemas com-


putacionales del discurso se realizaron en los primeros años 70 en el
contexto de la construcción de sistemas completos de procesamiento del
lenguaje natural basados en el computador. Estos sistemas no sostenían
ningún modelo de la estructura discursiva tal y como se entiende ahora.
Sin embargo, los creadores de sistemas experimentaron con técnicas de
comprensión de pronombres y una forma limitada de reconocimiento de
intenciones. El sistema LUNAR (Woods el al. 1972. Woods 1978) pro-
porcionaba mecanismos de resolución de pronombres, pero dado que
cada par de pregunta-y-respuesta era un intercambio independiente, el
modelo del discurso era simple: sólo se mantenía una lista de entidades
mencionadas previamente para usarla en la comprensión de pronom-
bres. Charniak (1977) intentó identificar los referentes de las descrip-
ciones definidas y los pronombres en el proceso de «comprensión» de
relatos infantiles codificando la información sobre el dominio en reglas
de inferencia y programas desencadenantes asociados. El sistema de diá-
logo más extenso, el sistema SHRDLU de Winograd (WinograJ 1971.

230
1972) participaba con un usuario en un diálogo sobre construcciones de
bloques de juguetes. SHRDLLJ interpretaba las intenciones del usuario
como programas de realizar acciones y conservaba una historia de las
acciones que realizaba. Podía interpretar algunos pronombres persona-
les, algunas descripciones definidas y expresiones anafóricas de tipo
«el/la que» usando «especialistas de palabras», es decir. programas que
determinaban la referencia basados en heurísticos de plausibilidad para
los objetos mencionados mas recientemente en la oración previa.
La siguiente generación de sistemas de lenguaje natural, de finales de
los 70. se concentraba en el uso de conocimiento acerca del dominio en el
discurso o bien en métodos de incorporación de otros fenómenos discursi-
vos aparte de la comprensión de pronombres. La mayoría de los sistemas
limitaron notablemente el dominio del discurso a una pequeña clase de
acciones o eventos y se centraron en interacciones que se ceñían a una
estrecha gama de comportamiento discursivo (por ejemplo, SAM (Cullin-
gford 1977, 1981) Y GUS (Bobrow er al. ] 977) ). Sin embargo, Lehnert
(1977) experimentó con un sistema para captar el significado no-literal
de preguntas planteadas a un programa de comprensión de relatos. Grosz
y sus colaboradores (Grosz 1977, \Valker 1978) desarrollaron el Sistema
de Comprensión de Diálogos Tarea. en el que se distinguió entre conoci-
miento del dominio (representado en un modelo de la tarea), información
del discurso (representado en un foco global y algoritmos asociados para
la interpretación de referencias), y reconocimiento de intenciones (trata-
miento de preguntas sobre, y adaptaciones del, modelo de la tarea). Este
sistema fue el primero en considerar la interacción entre la estructura (lin-
güística) de un discurso y la interpretación de expresiones en el discurso.
No distinguió con suficiente claridad, sin embargo, los diferentes papeles
de un modelo de tarea en el procesamiento del discurso.
Las primeras aproximaciones al procesamiento del discurso enseña-
ron a los investigadores que el procesamiento del discurso no podía verse
como un aglomerado de procedimientos para la comprensión de referen-
cias, reconocimiento de intenciones y manipulación de conocimiento del
dominio. Se requiere un medio para distinguir entre estos procesos y pro-
porcionar mecanismos para cada uno así como para su interacción.

2. La Estructura del Discurso

Las preferencias que conforman un discurso no son secuencias ar-


bitrarias, sino que tienen estructura de modo similar al que las palabras

231
en una oración individual tienen estructura sintáctica. El análisis de una
variedad de tipos de discurso ha establecido que los discursos se dividen
en segmentos discursivos y que éstos pueden tener diferentes relaciones
entre ellos. Entre los tipos de discurso que han sido analizados se encuen-
tran diálogos orientados a tarea (ver, por ejemplo, Grosz 1978a, Mann
er al. 1975, Sidner 1982), descripciones dc objetos complejos (Linde
1(79), narraciones (Polanyi 1985, Schiffrin 1982), argumentos <tanto
informales (Reichman-Adar 1984) como formales (e ohen 1984)), ne-
gociaciones (Linde y Goguen 1978), y explicaciones (Reichrnan-Adar
1984).
La comprensión de la estructura del discurso es importante tanto
para las teorías del significado del discurso como para el procesamiento
del1enguaje. Las teorías del significado del discurso dependen en parte
de la especificación de las unidades básicas del discurso y de las relacio-
nes que pueden darse entre ellas. El procesamiento del discurso requiere
habilidad para determinar con qué partes del discurso se relaciona una
proferencia individual. Así el papel de la estructura en el procesamiento
del discurso se deriva tanto de su papel en la delimitación de las unida-
des de significado discursivo como de la restricción de las unidades de
discurso que Se consideren pertinentes para la interpretación de CUal-
quier proferencia individual.
Además. la explicación de la interpretación de una variedad de ex-
presiones Iingüísticas depende de la explicación del papel de algunas
de estas expresiones al determinar la estructura del discurso así como
de la comprensión del efecto de la estructura del discurso al restringir
la interpretación de otros. La sección 3 discute el uso de sintagmas de
entrada lcue phrasesi y de la entonación para marcar la estructura del
discurso. La sección 4 describe la investigación sobre la interacción
entre la estructura del discurso y la interpretación de expresiones ana-
fóricas.
Aunque hay un acuerdo general sobre el hecho de que los discur-
sos están compuestos por segmentos y sobre la interacción entre la
estructura del discurso y la interpretación de varias clases de expre-
siones lingüísticas, las teotíax de la estructura del discurso postulan
diferentes tipos de información como centrales para la computación
de la estructura del discurso. Además las teorías difieren en las clases
de relaciones entre segmentos consideradas importantes. Los prime-
ros trabajos en comprensión de texto (vanl'iijk 1972, Rumel hart 1975)
propon ían gramáticas de texto (o relato) análogas a Ia ~ gramát icas ora-
cionales-: el primer trabajo sobre diálogo (Grosz 1974) sostenía que
los diálogos orientados a tarea tenían una estructura que dependía de
la estructura de la tarea que se estaba realizando. El trabajo posterior
ha tomado una de las siguientes aproximaciones: (1) adaptaciones de
la noción de gramática, (2) especificación de un pequeño conjunto de
relaciones retóricas o textuales como la base de la estructura del dis-
curso, (3) investigación del conocimiento específico del dominio o del
sentido común como fuente de la estructura del discurso, o (4) examen
de las intenciones interpretadas ampliamente (una generalización de
la estructura de la tarea) y las relaciones entre ellas como hase de la
estructura del discurso.

Segmentación y Estructura de las Proferencias

La investigación sobre las relaciones posibles entre las profcrcncias


que comprende un discurso ha considerado tales cuestiones como qué
preferencias se agrupan en un segmento y qué relaciones pueden darse
entre estos segmentos (Polanyi 1985, Hobbs 1979, Linde 1979, Mann
y Thompson 1986). En un trabajo previo (Grosz y Sidner 1986) nos
hemos referidos a esta estructuración del discurso en grupos como la es-
tructura lingüística del discurso. Nuestra terminología refleja el acento
puesto a la estructura del propio comportamiento lingüístico. En las teo-
rías que consideran primariamente la estructura lingüística, la estructura
discursiva se representa típicamente como un árbol cuyos nodos son
preferencias de n ¡vel de cláusul as o gru pos de ellas'.
Las teorías difieren con respecto a la información sobre la que basan
sus decisiones acerca de las relaciones de incrustación codificadas en el
árbol y con respecto a las clases específicas de relaciones de incrusta-
ción que consideran posibles. Aunque algunas diferencias son resultado
de los tipos de discursos tratados (por ejemplo, narraciones frente a ar-
gumentos), otras reflejan la disparidad de tesis sobre los objeti vos del
procesamiento del discurso.

~ Las gramáticas de relatos como base para el procesamiento han sido extensamente
criticadas; el anículo de Levy (1979) sobre la estructura del discurso contiene un buen
sumario.
, Se considera al árbol como análogo a los árboles analíticos para las oraciones indi-
viduales. En un artículo anterior I.Grosz)' Sidner 19R6) sostenernos que la" relaciones de
incrustación (u constituencia) representadas en el árbol ~e derivan del comportamiento
del apilamiento del estado atcncional.

233
Linde (1979) YPolanyi (1986) proponen modelos que en parte deri-
van de la tradición sociolingütstica. en la que las explicaciones se expre-
san sólo en términos de comportamiento superficial. Así se ocupan de
proporcionar una explicación de la estructura del discurso en términos
de las conexiones superficiales que se obtienen entre las proferencias.
Polanyi sostiene que la estructura jerárquica del discurso «emerge de las
relaciones estructurales y semánticas que se obtienen entre las unidades
lingüísticas que los hablantes usan para construir sus discursos» (Polan-
yi 1986. p. 4). En su modelo un árbol discursivo se construye usando un
conjunto de gramáticas discursivas. Los nodos del árbol son cláusulas
(en algunos casos con su semántica asociada). Es decir, la estructura del
discurso se toma como una estructura arbórea con elementos lingüísti-
cos como nodos.
La investigación en este paradigma trata normalmente a las inte-
racciones completas (por ejemplo, conversaciones personales extensas.
interacciones doctor-paciente) como las mayores unidades de discur-
so, y a las cláusulas. quizá agrupadas por relaciones de coordinación o
subordinación (por ejemplo, listas, expansiones) como las menores uni-
dades. Las unidades intermedias de explicación pueden ser motivadas
socialmente (por ejemplo, encuentros de servicio), exámenes médicos)
o motivadas lingüísticamente (por ejemplo, relatos). Frecuentemente se
adjudican etiquetas a estos niveles (por ejemplo, pregunta/respuesta)
que indican las intenciones de los participantes en el discurso, pero las
teorías evitan cualquier referencia a la intención en sus explicaciones.

Relaciones Retóricas

Reichman-Adar (1984) estudió argumentos informales; la estruc-


tura que propuso se basa en una gramática para argumentos análoga a
°
las gramáticas de relato de texto (van Dij k 1972. Rume Ihart 1975).
Por ejemplo, sostiene que un argumento consiste en una afirmación
seguida de un respaldo, y que el respaldo se descompone en una cita
de autoridad o una narración o una proposición. Aunque las relaciones
que postula entre las preferencias y los segmentos discursivos combi-
nan propiedades semánticas, pragmáticas e intencionales, el análisis del
procesamiento de Reichman se centra en el nivel lingüístico.
Otras investigaciones que construyen una estructura de árbol con
nodos lingüísticos se han centrado en las relaciones que pueden darse
entre los significados de las proferencias (es decir, en relaciones sernán-

~34
ricas). Cohen ( 1979) ha analizado una variedad de argumentos e inves-
tigado el problema de inferir relaciones de evidencia entre las proposi-
ciones expresadas en ellos. Presenta un modelo de procesamiento de los
argumentos que utiliza una combinación de información de sintagmas
de entrada y (un conjunto inicial de) métodos para inferir relaciones de
evidencia para determinar la estructura del argumento.
Buena parte de la investigación descrita hasta ahora, así como los
trabajos de Hobbs (1979), Lehnert (1981 ), Mann y Thompson (1986) Y
Mckeown (1985) ofrecen un estrato subyacente de relaciones retóricas
como base para derivar relaciones entre las proferencias y los segmentos.
Cada una de estas relaciones requiere el procesamiento de información
del dominio para determinar cómo se puede reconocer o producir una
relación en el procesamiento del discurso. Por ejemplo, Hobbs (1979)
define un conjunto de relaciones de coherencia (por ejemplo. paralelo.
capacitación, contraste; se puede encontrar una lista completa en Hobbs
( 1983)) que se dan entre los segmentos discursivos. La determinación
de la relación que se da entre do" preferencias sucesivas depende de las
inferencias realizadas sobre la base de hechos del dominio, Las relacio-
nes de Lehnert se derivan de un modelo subyacente de estados menta-
les y eventos. Un conjunto primitivo de configuraciones, que denomina
unidades de trama, describe las transiciones permisibles entre estados
o eventos y por ello codifica directamente la información del dominio.
Estas unidades de trama funcionan entonces como las relaciones entre
las profercncias de lo:' segmentos. En el trabajo sobre generación de
discursos de McKeown. ~e organiza una colección de relaciones retó-
ricas (que incluye, por ejemplo, atribución, identificación y compara-
ción) en esquemas que definen abstractamente el conjunto de tipos de
discurso aceptables; se produce al menos una preferencia (o más) como
ejernplartes) de los predicados en un esquema.

Intenciones y ATención en la Estructura del Discurso

Levy ( 1979) YGrosz y Sidner ( 1986) han sostenido que las re laciones
basadas en planes o relaciones intencionales son la raíz de la estructura
discursiva y postulan sólo una relación de incrustación en la estruc-
tura lingüística. Las relaciones de incrustación entre segmentos dependen
en parte de ciertas características lingüísticas del segmento (como la pro-
sodia o los sintagmas de entrada), y en parte de las intenciones transmi-
tidas por las proferencias del segmento. La intención de nivel segmento.

235
sin embargo, no es una mera función de las intenciones de nivel de pro-
ferencia, sino una función compleja de proferencias, hechos del dominio,
intenciones de nivel de preferencia. e inferencias sobre éstas.
Nosotras sostenernos también (Grosz y Sidner 1986) que la estructura
del discurso es un compuesto de tres estructuras interrelacionadas; además
de la estructura lingüística hay una estructura de intenciones y un estado
atencional, La estructura intencional comprende propósitos de segmento
discursivo y relaciones entre ellos. Los propósitos de segmento discursivo
son intenciones de los participantes en el discurso que conducen en parte
al discurso y se pretende, como las intenciones de nivel de preferencia de
Grice ( t 957. 1968), que sean reconocidas. Al contrario que las relaciones
retóricas discutidas previamente, los propósitos de segmento discursivo
no se derivan de un conjunto particular de intenciones; casi todo lo que
pueda ser objeto de una intención puede ser un propósito de segmento
discursivo. Sin embargo. se definen dos relaciones entre intenciones como
comunes a muchos discursos: dominio y precedencia de satisfacción. Es-
tas relaciones representan, respecti varnente. el hecho de que la satisfacción
de una intención contribuya a la satisfacción de otra, y el hecho de que una
intención deba satisfacerse antes que otra. El reconocimiento de estas dos
relaciones desempeña en nuestra temía el mismo papel que el reconoci-
miento de las relaciones retóricas en las teorías descritas previamente. La
determinación de los propósitos de segmento discursivo depende en parte
del reconocimiento de estas relaciones, en parte del conocimiento del do-
minio, y en parte de otras características del contexto discursivo.
El estado atencional refleja el foco de atención de los participantes
de) discurso segun avanza el mismo. Se modela como una pila (push-
down) de espacios focales. uno por cada segmento del discurso. Los
espacios focales contienen representaciones del propósito del segmento
discursivo y de las entidades referidas en el segmento. La pila crece
cuando se introducen los segmentos en un discurso y decrece a medida
que se satisfacen las intenciones de los segmentos. De acuerdo con la
terminología estándar, decimos que un nuevo espacio se empuja a la pila
cuando se introduce un nuevo segmento. y que un espacio salta cuan-
do se satisface su propósito. El modelo de espacios focales del estado
atencional constriñe el procesamiento según avanza el discurso. Esas
entidades y propósitos representados en la pila son 10'-: mas prominentes
del discurso. Las restricciones pueden utilizar este hecho para estipular
cuándo pueden usarse varias expresiones lingüísticas y para ayudar a
determinar cuándo un propósito dado de segmento discursivo puede do-
minar o preceder en la satisfacción a otro.
3. Indicadores Lingüísticos de la Estructura Discursiva

La moraleja de esta capítulo debería estar ahora elara: los ~


exhiben estructura. Todo discurso puede ser divido intuitivamente en
segmentos. y los segmentos pueden tener incrustados a, o incrustarse en.
otros, resultando en una estructura jerárquica. Reconocer la estructura
de un discurso es parte esencial de su comprensión.
¿Pero cómo se reconoce la estructura de un discurso? Como hemos
señalado en la sección precedente, la respuesta a esta pregunta es toda-
vía ampliamente debatida-lo que no es sorprendente, puesto que es [a
cuestión motivadora central en la investigación sobre el discurso. Vir-
tualmente todos los investigadores están de acuerdo, no obstante, en que
los hablantes disponen de ciertos mecanismos lingüísticos poderosos
para ayudar a los oyentes a reconocer la estructura del discurso en curso.
Estos mecanismos, tales como los sintagmas de entrada. los patrones
prosódicos y los gestos, pueden indicar dónde comienza o termina un
segmento discursivo y cómo está relacionado con otros segmentos.

Sintagmas de entrada

La clase de indicadores lingüísticos de estructura discursiva más


estudiada es la de los sintagmas de entrada (a veces denominados pa-
labras indicio. marcadores discursivos O partículas discursivas). Los
sintagmas de entrada son expresiones como ahora bien, en primer lugar
ydicho sea de paso, que no realizan una contribución semántica direc-
ta a una preferencia, sino que aportan información sobre la estructura
del discurso que contiene a la proferencia. Por supuesto que dado que
las diversas teorías sostienen tesis diferentes acerca de lo que supone
la estructura de un discurso, existen diferencias entre las teorías sobre
exactamente qué información señala un sintagma de entrada.
Los investigadores que ven la estructura de un discurso como com-
puesta solamente por una estructura lingüística sostienen que los sin-
tagmas de entrada proporcionan una indicación directa de cómo se re-
lacionan los diversos segmentos en la jerarquía (Cohen 1984). Aquéllos
que argumentan que la estructura de un discurso consiste en un estrato
subyacente de relaciones retóricas conectando los segmentos discursi-
vos ven los sintagmas de entrada sugiriendo la relación particular exis-
tente entre dos segmentos discursivos. Por ejemplo. Hobbs (1985, p. 31)
afirma que -o-Esto e~>' o «i.e.s sugiere elaboracion. «de modo similar»

237
sugiere paralelo, «por ejemplo» sugiere ejemplificación y «pero» sugie-
re contraste o expectativa violada>', Afirmaciones semejantes se han
hecho en la Teoría de la Estructura Retórica (Mann y Thompson 1986)
y en explicaciones de análisis sintáctico del discurso (Polanyi y Scha
1984, Reichman-Adar 1984).
Grosz y Sidner (1986) sostienen una tesis sobre el papel de los sin-
tagmas de entrada que contrasta con las anteriores. Como se ha indicado
antes, hemos argumentado que la estructura de un discurso en realidad
comprende tres estructuras interrelacionadas. En esta perspectiva los sin-
tagmas de entrada pueden proporcionar información sobre uno o más
componentes de la estructura (tripartita) global (Grosz y Sidner 1986,
pp. 196-199). Por ejemplo. ciertos sintagmas de entrada, tales como eso
me recuerda o de todos modos. indican cambios en el estado atcncional
-el primero indica un empujón a un nuevo espacio focal y el segundo un
salto a un espacio establecido previamente. Nótese que aunque al cam-
bio de estado atencional señalado por eso me recuerda le acompaña la
adición de nuevos componentes a la estructura intencional, el sintagma
de entrada por sí solo no especifica de qué cambio se trata. Con de todos
modos no hay ningún cambio de estructura intencional. La expresión a
propósito proporciona la información de que el hablante va a empren-
der una digresión y que. en consecuencia, se va a extender la estructura
intencional con una nueva jerarquía intencional distinta a la existente.
La expresión por ejemplo indica que la intención subyacente al segmen-
to del discurso siguiente -aquél cuyo comienzo se marca mediante el
segmento de entrada- está dominada en la estructura intencional por la
intención subyacente al segmento del discurso anterior.
La mayoría de los investigadores, independientemente de su postu-
ra sobre lo que constituye realmente el discurso, creen que los sintagmas
de entrada no son en general ni necesarios ni suticientes para determinar
la estructura del discurso. Hay muchos casos en los que es bien posible
determinar la estructura. de un discurso, o una parte, que carece de sintag-
mas de entrada. Igualmente, hay muchos discursos, o partes de éstos, que
contienen sintagmas de entrada que sólo sugieren la estructura subyacente
o que, dicho de otro modo, proporcionan restricciones sobre la serie de
estructuras posibles. Por último, la estructura de un discurso depende de la

-l Hobbs (1985) sostiene que los hablantes no sólo usan lo" sintagmas de entrada para
señalar la estructura discursiva. sino que tratar de insertarlos en un discurso completo
puede ser útil para el analista que trata de discernir su estructura.

238
información proporcionada por las proferencias que contiene y el modo en
el que esa información está interconectada. Los sintagmas de entrada sim-
plifican la labor de determinar estas interconexiones. Se ha mostrado que
el proceso de determinación de las relaciones semánticas interoraciona-
les (Cohen 1984) Y de reconocimiento de planes (Litman and Allen 1988)
puede ser restringido teniendo en cuenta los sintagmas de entrada.

Prosodia y Gesticulación

La prosodia es otro instrumento eficaz para señalar la estructura del


discurso. Los estudios de discursos producidos espontancamente han mos-
trado que los cambios en la longitud de pausa (Chafe 1979, 1980) Y en
la velocidad del habla (Buttcrworth 1975) están correlacionados con los
lúnites de los segmentos del discurso. Hirschberg, Pierrehumbert, Litman
y Ward han proporcionado datos de una estrecha correlación entre cier-
tas caracterísricas prosódicas y componentes específicos de la estructura
discursiva tripartita propuesta por Grosz y Sidner (Hirschberg et al. 1987.
Hirschberg y Pierrenumbert ]986). El registro tonal puede señalar los lí-
mites de los segmentos del discurso (Silverman (1987) llegó a la misma
conclusión): la acentuación puede proporcionar información sobre el esta-
do atencional, y el fono puede marcar la estructura intencional. Además, el
estilo y la acentuación pueden ayudar a distinguir el uso de una expresión
como ahora como sintagma de entrada del uso en que la expresión contri-
buye directamente al significado oracional (Hirschbcrg y Litman 1987).
La gesticulación es otro instrumento útil, al menos en las conver-
saciones cara a cara. para señalar la estructura discursiva. Hay estudios
que muestran que la gesticulación tiende a coincidir con los límites de
los segmentos discursivos (Kendon ] 972, Marslen- Wilson et al. 1982) y
puede proporcionar información sobre el foco de atención y la estructu-
ra intencional (I\t1cNeíll 1979, McNeill and Levy 1982).

4. Fenómenos de nivel sintagmático

El contexto discursivo tiene efectos sobre la interpretación de sin-


tagmas individuales dentro de una sola preferencia. El significado de
pronombres y descripciones definidas se ve bastante obviamente in-
fluenciado por el contexto en el que son usados; los problemas rela-
tivos a la influencia del contexto sobre los procesos de generación e

239
interpretación de tales sintagmas se encuentran entre los más estudiados
en procesamiento del discurso. También ha sido abordado el problema,
relacionado con los anteriores, de representar apropiadamente los sin-
tagmas nominales cuantificacionales. En la subsección siguiente discu-
tiremos una serie de aproximaciones a estos problemas de referencia de
sintagmas nominales. La referencia puede ser a objetos así como a even-
tos, 10 que da lugar a problemas a discutir en la subsección segunda. La
adjunción de modificadores o la elipsis discursiva son otros problemas
de nivel sintagmático que han sido tratados desde la perspectiva del pro-
cesamiento del discurso.
Oc los tres componentes de la estructura del discurso, el estado aten-
cional e~ el que tiene mayor efecto sobre los problemas de interpretación
en el nivel sintagmático. La investigación sobre expresiones referenciales
es la que más directamente ha usado modelos atencionales, mientras que
las aproximaciones a la adjunción de modificadores y a la elipsis discursi-
va no han hecho más que empezar a usarlos. Aunque todavía no hay una
descripción completa del conjunto de las restricciones discursivas (ni de
las perceptuales) relevantes para ninguno de estos problemas de nivel sin-
tagmático. los investigadores han identificado y experimentado con una
serie de representaciones y algoritmos centrales para éstas.

Pronombres y Descripciones Definidas

La preocupación principal de las teorías y modelos computacionales


del uso de expresiones referenciales ha sido detennínar la entidad (o
entidades) a la que refiere un pronombre o una descripción definidas. Se
ha investigado tanto el problema de especificar la serie de posibles re-
ferentes que una primera descripción hace disponible como el de elegir
entre las distintas posibilidades.
Para el problema de identificar el referente de un sintagma anafórico"
se han adoptado dos aproximaciones. En una aproximación (Hobbs 1(79)
la identificación del referente se subsume a procesos más generales de

, Este énfasis difiere del de gran parte de In lingüística americana. en la que han <ido
centrales las restricciones que impiden Ji) ce-especificación de proponombres (véase. por
ejemplo, la investigación sobre anáfora pronominal de Reinhart (1983) YLasnik (l tl76H.
o Usarnos aquí anáfora y anuforico para referimos a aquellos sintagmas que refieren a
entidades que han sido mencionadas previamente en el discurso y que ce-especifican (com-
párese C\Jn Sidner 1983) junio con algún sintagma que aparece previamente en el discurso.

240
inferencia. En la otra aproximación se consideran primarias las cuestiones
de cómo interactúan las expresiones referenciales con el estado atencional
(Grosz 1977, Sidner 1981, Reichman-Adar 1984, Grosz and Sidner 1986).
La investigación en la primera aproximación sólo considera problemas oe
interpretación de las expresiones referenciales, mientras que la investiga-
ción dentro de la segunda también se preocupa de especificar restricciones
sobre la generación de expresiones referenciales adecuadas.
Para la segunda aproximación los conceptos de foco y proceso de fo-
calización (Grosz 1977, Grosz 1978b, Grosz 1981, Grosz and Sidner 1986)
han desempeñado papeles centrales en el tratamiento de las descripciones
definidas, usadas para primera referencia o como sintagmas nominales
anafóricos. En este trabajo la focalización se define como el movimiento
del foco de atención de los participantes en el discurso según éste avanza.
Se han identificado dos niveles de focalización, global y local (Grosz 1977,
Grosz and Sidner 1986). La focalización global se modela mediante una
pila de espacios focales: afecta al uso e interpretación de descripciones
definidas. La focalización a nivel local se modela con centros y centraliza-
ción. El centro de un segmento dado es un elemento del estado atencional
y al comienzo de cada nuevo segmento se introduce un nuevo centro. La
centralización afecta al uso y la interpretación de pronombres.
Cada espacio individual de la pila focal global contiene representa-
ciones de las entidades enfocadas por los participantes durante cierto seg-
mento del discurso así como el propósito del segmento discursivo. Las
entidades actualmente en foco (esto es, en algún espacio de la piJa focal)
son las primeras candidatas para ser referentes de las descripciones defi-
nidas: son también el origen de las entidades enfocadas implícitamente
(esto es, un sintagma puede referir a un ítem relacionado con algo de un
espacio focal actual: por ejemplo, la portada puede usarse para referirse
a la portada de un libro cuando ese libro está en el foco). El conjunto de
entidades en el foco global proporciona también restricciones sobre el
contenido de las descripciones definidas subsiguientes: por ejemplo, un
hablante debe incluir suficientes descriptores para distinguir la entidad a
la que se quiere referir de otras entidades en el foco.
Grosz (1977) ideó un conjunto de mecanismos focalizadores para
la interpretación de sintagmas nominales definidos en un sistema que
participaba en un diálogo sobre una tarea." Los mecanismos traían enti-

7 Para este sistema los propósitos de segmento discursivos eran tratados como tareas

y subtareas.

241
dades al foco a medida que el discurso se desplazaba a una subtarea de
la tarea general y las retiraban del foco global cuando se completaba la
subtarea. La posición en el foco global era dependiente de la subtarea
más inmediata: las otras subtareas incompletas y sus entidades asocia-
das estaban en el foco global. pero eran menos prominentes que aquéllas
asociadas a la subtarea más inmediata. Los procedimientos para la inter-
pretación de sintagmas nominales definidos y anafóricos y de las prime-
ras referencias enfocadas implícitamente eligen los íterns entre aquéllos
que están en el foco global. Las técnicas de focalización podían predecir
el referente anafórico de un sintagma nominal definido como el tornillo
cuando se ha traído al foco el tomillo de la polea. Limitaban también la
búsqueda necesaria para hallar la representación de una entidad men-
cionada previamente-e-aquellas entidades que no estaban en el foco no
estaban disponibles, y aquéllas en el foco y asociadas a la subtarea más
inmediata se buscaban antes que las menos prominentes. Por ejemplo.
el tornillo sería entendido como un referente del tomillo de la polea
sólo cuando la polea fuera más prominente que algún otro tomillo (por
ejemplo. e] torníllo del taladro) en el foco global: en caso contrario se
elegiría como referente al tornillo del taladro.
Appelt y Kronfeld (1987) han utilizado los mecanismos de focali-
zación para la generación de expresiones referenciales de primer uso.
Además Kronfeld (I 986) ha proporcionado los conceptos de descripcio-
nes funcionalmente pertinentes (esto es, aquéllas cuyo contenido se re-
quiere para distinguir el referente) y descripciones conversacionalrnente
pertinentes (esto es, aquéllas cuyo contenido proporciona información
sobre la relación del referente con otros aspectos de la conversación).
Estos conceptos redefinen la distinción clásica de Donnellan (J (66) en-
tre descripciones referenciales y atributivas en términos del papel que
un sintagma desempeña como instrumento de referencia y como contri-
buyente al contenido del discurso.
El foco inmediato (Sidner 1979) guía la interpretación y la genera-
ción de los pronombres de tercera persona así como los usos anafóricos
de esto (éste. ésta) yeso iese, ésa). La focalización inmediata opera den-
tro de los segmentos discursivos individuales; localiza la entidad más
relevante en cualquier proferencia dentro del segmento, basándose en
características del contexto precedente, particularmente en propiedades
de la preferencia precedente. Sidner (1979. 1981, 1983) desarrolló un
conjunto de algoritmos para predecir la elección de focos locales en el
discurso y su desplazamiento a medida que el discurso avanzaba. Sus
algoritmos hacían uso de los conceptos de un foco discursivo y un foco

242
actor, es decir. entidades mencionadas en la proferencia que estaban
localmente en foco debido a la estructura sintáctica y a las relaciones
temáticas de la proferencia. Un conjunto de reglas, que utilizaban los
focos inmediatos y un conjunto de nuevos focos potenciales, predecía la
interpretación inicndida de pronombres en proferencias subsiguientes.
McKeown (1985) Y McDonald (1983) adaptaron los algoritmos de fo-
calización para generar pronombres en el texto.
La teoría de centrado de Grosz, Joshi y Weinstein (1oshi y Weins-
tein 1981, Grosz el al. 1983) reemplazó la noción de focos inmediatos
por la de centros: un centro de mirada-hacia-atrás (Cb) qu~ corresponde
aproximadamente al foco del discurso y varios centros de mirada-hacia-
adelante (Cf) que corresponden a los nuevos focos potenciales. Como
en la teoría de Sidner los centros cambian de acuerdo con el compor-
tamiento de las expresiones referenciales en cada proferencia del dis-
curso, La teoría difiere en que no tiene correlato alguno del foco actor
y en que da cuenta de los usos múltiples de un mismo pronombre per-
mitiendo que se pronominalieen otras entidades distintas de Cb siempre
que ésta también lo esté. La teoría de centrado simplifica la explicación
de Sidner de la focalización local eliminando la necesidad del foco del
discurso así como del foco actor y proporcionando una explicación de
ciertas interpretaciones de pronombres que resultan problemáticas en la
teoría de los focos inmediatos.
Aunque el foco de atención es crucial para comprender la anáfora.
la forma y el contenido de los sintagmas y preferencias que primero
evocan las entidades a las que refiere la anáfora también contribuye vi-
tal me nte a su comprensión, Webber ( 1y~O. 19tD) introdujo la noción de
sintagmas (.que evocan entidades discursivas'>. Con esto quiere decir
que 101\ sintagmas traían al discurso. o evocaban naturalmente, una co-
lección bien estructurada de representaciones de las entidades (reales)
referidas. Para la interpretación de la anáfora definida y la clipsis de
sintagma verbal estaban disponibles las entidades discursivas. Definió
el concepto de descripción invocadora de entidad discursiva ([D) para
formalizar su noción y postuló un conjunto de representaciones y reglas
específicas para crear estas [O" por la aplicación sucesiva de las reglas.
Las reglas de Webber operaban sobre representaciones semánticas
complejas, que incluían cuantificadores incrustados y cuantificación
sobre conjuntos de individuos. Las reglas producían IDs para cada
posible interpretación de los sintagmas nominales y sintagmas ver-
bales de una proferencia, pero Webber no exploró cómo determinar

243
computacionalmente qué interpretación era la intendida sobre la base
de descripciones anafóricas subsiguientes. Sidner (1983), sin embar-
go, esbozó una explicación de cómo la focalización podría propor-
cionar la información necesaria. En trabajos posteriores Kamp (1981)
Y Hcim (1982) han propuesto formalismos alternativos semejantes;
Guenthner y sus colaboradores (1986) describen un sistema que utiliza
el formalismo de Kamp. Dos intentos de construcción de sistemas han
investigado métodos para computar las representaciones de sintagmas
nominales complejos como parte del proceso de determinar (una re-
presentación de) el significado de una oración (Dahl 1987, PoIlack y
Pereira 1988).
Entre las expresiones referenciales menos investigadas en la inves-
tigación computacional del discurso se encuentra el uso de la deixis",
Fillmore (1975) subcategorizó cuatro tipos de deixis: espacial, tempo-
ral, social y discursiva. La estructura del discurso puede restringir los
dos últimos tipos como se ejemplifica por sintagmas como los prime-
ros. usado para referirse a los dos primeros elementos de una lista (una
instancia de deixis discursiva), y nosotros (una instancia de discurso
social). Sidner ( ]979) exploró algunos casos de deixis discursiva, pero
queda por hacer un tratamiento general.

La referencia a eventos

La investigación del discurso se ha ocupado de dos problemas cau-


sados por la referencia a eventos: identificar el evento al que se refiere
una referencia anafórica y determinar el relativo orden temporal de los
eventos descritos en el discurso.
Las referencias anafóricas usan típicamente formas pronominales
tanto puras (In, esto, esn) como en el ejemplo 1, o con el verbo hacer
(hace así, lo hace. hace eso), como en el ejemplo 2. La forma con hacer
y el pronombre puro parecen comportarse de manera diferente. Aunque
hay algunas investigaciones sobre las formas con hacer (Sidner 1979.
Sidncr 1981. Robinson 1981), queda por hacer una explicación detalla-
da de todas las referencias directamente anafóricas a eventos.

x Deixis. del griego para «apuntar». se usa para referirse a sintagmas demostrativos
(por ejemplo, este libro yeso) y a otros constructos lingüísticos cuya interpretación de
modo semejante requieren apuntar a alguna circunstancia de la preferencia (por ejemplo,
aqui y ahora l.

244
( 1) Juan corre todos los días de la semana.
Ese es su principal modo de ejercicio.
ése = el correr de J uan todos los días.

(2) luan corre todos los días de la semana.


Lo hace por razones de salud.
lo hace = acto de correr todos los días de la semana.

El orden temporal relativo se ve afectado por el tiempo y el aspecto


verbales, así como por modificadores adverbiales; también depende de
cambios en el estado atencional, En el discurso siguiente (de Webber
1987) el evento descrito en la proferencia l , El, ocurre en algún punto
en el pasado, la proferencia 2 describe un evento E2 que ocurre antes
que El, e I e vento E3 de la preferencia 3 ocurre tras E2 y antes que El
Y está situada en la localización descrita en la preferencia 2, y el evento
E4 de la preferencia 4 ocurre después de E t.

( 1) Juan f uc Q casa oc María.


(2) En el camino, se detuvo en una floristería a por rosas.
(3) Cogió 5 rojas y 3 blancas.
(4) Lamentablemente no consiguieron animarla.

Dos de las propuestas principales de una teoría de referencia a even-


tos, la de Webber (1yg7) y la de Hinrichs (1986) y Partee (1984), pro-
porcionan una explicación del orden relativo de los eventos. Webber
también proporciona una explicación del reconocimiento del orden de
los eventos basada en el foco temporal y el movimiento de foco, con-
ceptos análogos al del foco inmediato (Sidner 1983, Grosz el al. ]983)
para la anáfora defi nida.

Relaciones de rnodificucián en los sintagmas nominales

Las relaciones de modificación entre partes de un sintagma nominal


complejo plantean dos problemas para la interpretación o generación de
referencia. El primero es relati va a la selección de una única descripción
subyacente (intendida) de las relaciones estructurales y funcionales entre
las entidades descritas por el sintagma nominal complejo; esta descripción
única debe seleccionarse entre un número de tales decripciones posibles.
Por ejemplo, la descripción intendida del sintagma the pump dispenser
descansa en descubrir la relación funcional entre los dos objetos: la bom-
ba y la máquina. El segundo problema para interpretar las relaciones de

245
modificación es identificar la entidad referida (usando. claro está, alguna
técnica para determinar las relaciones posibles). Los problemas de identi-
ficación pueden ser bastante difíciles para sintagmas nominales comple-
jos con modificadores preposicionales usados en un contexto que incluya
varios posibles referentes para cada parte simple del sintagma nominal. El
problema se ilustra con el sintagma the cal in the hat usado en un contexto
donde hay dos gatos, dos sombreros, pero sólo un gato en un sombrero
(uno de los sombreros). Aunque el referente esté aquí claro. ninguna bús-
queda simple de un único gato o bien un único sombrero en el contexto
puede servir como base para la búsqueda del referente.
La investigación de los sintagmas nominales complejos ha explo-
rado marcos para usar información lingüística con objeto de predecir la
posible estructura de sintagmas nominales complejos (comparar con Isa-
belle 19R4). Las aproximaciones computacionales a estos problemas se
han ocupado de los problemas conjuntos de representar apropiadamente
el conocimiento del dominio necesario para determinar la interpretación
intendida y de definir procesos para la búsqueda de este conocimiento.
En contraste con éstas, las aproximaciones recientes (Mcllish 1982,
Haddock 1987) J. la identificación del referente (que han considerado
sintagmas preposicionales adjuntos más que nominales complejos) se
han concentrado en el concepto de evaluación incremental de referencia
usando técnicas de satisfacción de restricciones. Estas técnicas asumen
que el núcleo nominal, el sintagma nominal incrustado en el sintagma
preposicional y la relación especificada por la preposición forman un
conjunto de restricciones sobre la elección de referentes candidatos para
el sintagma nominal entero; estas restricciones pueden aplicarse incre-
mentalmente a medida que se construye el sintagma para buscar el re-
ferente intendido, Estas aproximaciones asumen alguna representación
del estado atencional que delimita un pequeño conjunto de referentes
posibles y sirve para limitar la búsqueda emprendida por la satisfac-
ción incremental de restricciones. Sólo muy recientemente (Pollack and
Pereira 1988) se ha explorado una teoría que incorpora los aspectos de
la evaluación incremental con la búsqueda de métodos para nominales
complejos discutidos previamente.

Elipsis discursiva

La elipsis discursiva es la omisión (o elisión) en una proferencia de


un sintagma requerido sintácticamente cuando el contenido necesario

246
para detennínar la interpretación de la proferencia elidida puede recu-
perarse de una profercncia previa. El tratamiento adecuado de la elipsis
discursiva requiere que se considere el discurso (en vez de la oración)
como unidad primaria de comunicación. Se han investigado dos tipos
de elipsis discursiva. En el primer cipo el material elidido puede recupe-
rarse directamente de la representación del significado de la proferencia
previa. En el segundo la estructura intencional proporciona la fuente del
material elidido; en este caso el contenido elidido puede no aparecer
directamente en ninguna proferencia anterior.
Las aproximaciones del primer tipo (Hendrix el al. 1978, Webber
1983) han considerado la elipsis tanto nominal como verbal. Han con-
siderado la elipsis como un fenómeno similar a la anáfora discursiva
porque la clipsis también se interpreta estableciendo sintagmas mencio-
nados previamente y sus representaciones discursivas como la fuente
para reconstruir el material. De modo diferente al caso de la anáfora
discursiva, los sintagmas elididos no deben referirse al mismo acto o
entidad que el sintagma mencionado previamente, como se muestra en
el ejemplo siguiente:

( 1) Fred besó a su madre.


John también O.
O = besó a su propia madre o, alternativamente, besó a la madre
de Fred.

En vez de eso la representación discursiva del sintagma mencionado


previamente proporciona el material para construir la representación del
sintagma elidido",
Las aproximaciones del segundo tipo han utilizado la estructura
intencional como la fuente para el material elidido. Las proferencias
elididas se ven como contribuciones al propósito general de un discur-
so O un segmento discursivo. Mientras el entorno discursivo contenga
información suficiente no se necesita utilizar una proferencia completa;
un sintagma o una parte de una oración contribuirá lo mismo. Fragmen-
tos elípticos como (1) (de ABen 1979) y (2) (de Carberry 1985) abajo
pueden verse como contribuciones directas al propósito discursivo: no
se necesita reconstrucción alguna de ninguna oración completa en la que
el fragmento esté incrustado.

c¡ Esta concepción contrasta con la de Halliday y Hasan (1976), que ven la elipsis

como una forma de sustitución textual.

247
(1) (dicho a la persona de la cabina de información en una esta-
ción del ferrocaml i ¡,El tren a Windsor?
(2) Quiero obtener un título. Licenciado en Informática. Ningún
curso por la noche.

Allen (1 (79) demostró que tales sintagmas pueden asociarse direc-


tamente con un acto de habla que a su vez identifica una parte del plan
del hablante para actuar en un dominio de interés. Los modelos de reco-
nocimiento de planes de Allen y Perrault (1980), Carberry ( 1985) Y Lit-
man (1985) recalcaron la posición de ABen y vincularon el fragmento
con actos de habla y con los planes de los hablantes (esto es, planes en
un dominio de acción). Concibiendo la acción como la raíz de la ex-
plicación de por qué ocurre el discurso, estos investigadores ilustraron
que algunas formas de elipsis pueden verse en términos de la estructura
intencional del discurso en lugar de en términos de un conjunto de rela-
ciones con otras preferencias.

5. Reconocimiento de planes

Las explicaciones contemporáneas de reconocimiento de planes en


la comprensión del discurso se deri van en gran medida de dos grandes
teorías del filósofo Grice: su teoría del significado no natural'? (Grice
1957, 1968) Y su teoría de la implicatura (Gricc 1975. 1(78). En la teo-
ría del significado no natural de Grice lo que los hablantes comunican
cuando utilizan el lenguaje depende crucialmentc de sus intenciones.
La teoría de la implicatura descansa sobre In observación de que mucho
de lo que se comunica intencionalmente en el uso del lenguaje no se
expresa explícitamente; la misma teoría muestra cómo los hablantes
pueden comunicar más de 10 que expresan explícitamente en SlIS pro-
ferencias, En ambas teorías se ve a los hablantes como productores de
preferencias con la intención de que sus oyentes reconozcan las inten-
ciones subyacentes a esas proferencias. La colección de intenciones
subyacentes a cualquier proferencia incluirá pues, pero no estará li-
mitada a, una intención de que al menos una parte de tal colección sea
reconocida.

11' Los significados no naturales incluyen el tipo de significados transmitidos en el

lenguaje y deben distinguirxe de lo:' significados naturales, por ejemplo. que el humo
.signiricu» fuego,

248
La comprensión del lenguaje requiere pues determinar las intencio-
nes que tienen los hablantes: hacerse una idea de qué planes persiguen.
en parte realizando una proferencia. El reconocimiento de planes en la
conversación es una tarea viable precisamente porque el hablante tiene
la intención de que el oyente la realice. El hablante no puede conse-
guir el efecto perseguido a menos que el oyente reconozca el plan del
hablante; por ello el hablante incluirá en la proferencia lo que crea ser
información suficiente para que el reconocimiento del plan sea posi-
ble para el oyente. Esta característica del reconocimiento de planes en
la conversación lo distingue del problema de determinar los planes de
un agente simplemente mediante la observación de sus acciones sin in-
teraccionar con él. Este último problema, llamado «reconocimiento del
ojo de la cerradura» por su semejanza con el problema de mirar a un
agente a través del hojo de la cerradura e inferir su siguiente acción, es
en general mucho más difícil I l.
Al construir modelos detallados del proceso de reconocimiento de
planes en el discurso, los investigadores no sólo han recurrido a la obra de
Grice sino también a las ideas de Austin (1962) Yde Searle (1969. 1975)
de que el lenguaje se utiliza no sólo para «decir» cosas sino también para
«hacer» cosas. En otras palabras, el comportamiento comunicativo debe
verse primariamente como acción intencional. Se sigue de ello que en
gran medida se pueden aplicar al análisis de la acción lingüística los mis-
mos instrumentos que se usan para analizar la acción no lingüística - una
idea desarrollada originalmente en gran medida por el trabajo de Cohen
y Perrault (1979), Allen (1983) y Perrault y Allen (1980). En particular,
los modelos de lA de reconocimiento de planes en el discurso han hecho
uso de técnicas de representación y razonamiento sobre la acción original-
mente desarrolladas por aquéllos interesados en el problema de la forma-
ción automática de planes 12. No obstante, antes de pasar a la discusión de
estos modelos. merece la pena señalar el rango de fenómenos discursivos
para los que es importante el reconocimiento de planes.
Considérese una persona que se acerca a la persona de la venta-
nilla de información de la estación de trenes y le dice, «(¿Sabe usted

11 Para ejemplos de sistemas para el reconocimiento del hojo de [a cerradura, véase


Fischer er al. 19~S, Genesereth I ~79. McCue y Lesser 19~3. Y Schmidt el al. 1978.
I ~ La obra de Austin y de Searle ha sido también terriblemente influyente fuera de la

lA. Inspirando todo un campo de investigación llamado teoría de los actos de habla. con
investigadores en cada una de las principales disciplinas de la ciencia cognitiva. Levin-
son (19HJ. capítulo 5) proporciona un buen resumen de la obra en teoría de los actos de
habla. Véanse también k,:-, articulos de Cohen, Margan y Pollack (1990).

249
cuándo sale el próximo tren a Dctroit?» con la intención de que se le
diga la hora de salida del siguiente tren a Detroit!", El plan comunica-
tivo del hablante es hacer una petición - que se le diga cuando sale el
siguiente tren a Detroit-y hacer tal petición profiriendo su pregunta.
Si la persona de la ventanilla reconoce este plan, puede responder coo-
perativamente realizando la acción solicitada (asumiendo. claro está.
que es capaz de hacerlo y no tiene ninguna razón para preferir no
hacerlo). Es decir, puede co ntes tar diciendo «Alas 12:30», en lugar de
simplemente «SÚ\.
Normalmente los actos comunicativos se realizan como parte de
planes mayores. y a menudo es necesario para un oyente inferir tam-
bién esos planes mayores. En este ejemplo si la persona de informa-
ción reconoce que el plan comunicativo del hablante es probablemente
parte de un plan para ir a Detroit, puede proporcionarle a éste informa-
ción adicional que le facilite su objetivo. Puede decirle, por ejemplo.
de qué vía sale el siguiente tren a Detroit o puede criticar su plan, di-
ciéndole que aunque el siguiente tren a Detroit sale en 15 minutos, es
un tren local, y que el expreso que sale en 45 minutos le llevará antes
a su destino.
El reconocimiento de planes es pues importante para responder
adecuadamente a las preferencias del hablante en el discurso interac-
tivo ':'. Es también importante para comprender la coherencia de pro-
ferencias de cláusulas múltiples. Considérese una persona distinta que
le dice a la de la ventanilla de información «Voy a Detroit. ¿D6nde
está la vía 7?» Es reconociendo el plan que pueda tener el hablante
como puede determinar por qué es coherente la proferencia del ha-
blante; efectivamente. el reconocimiento del plan es lo que le permi-
te comprender completamente la proferencia. Es esencial para poder
entender la coherencia de proferencias de nuiltiples cláusulas en el
discurso tanto interactivo como no interactivo. De hecho varios estu-
dios de reconocimiento de planes se han centrado en la comprensión
de relatos, una forma de discurso esencialmente no interactivo (Bruce
1981, Wilensky 1983).

I.~ Los ejemplos de la «estación de tren» han sido muy discutidos en la litcruturu.
Fueron inspirados por un conjunto de diálogos grabados en en el puesto de información
de la estación de Toronto (Horrigan [977 1. El ejemplo discutido aquí fue analizado en
primer lugar por Allen (1983).
14 La generación de respuestas adecuadas puede depender también de distinguir en-
tre respuestas intendidas y no intendidas (aunque útiles) (Sidner 1983. 1985).

250
La técnica básica

Como se señaló en la subsección anterior, la idea de que el uso del


lenguaje debería ser visto como acción intencional condujo a modelos
del discurso que hacen uso de técnicas ya desarrolladas para el razo-
namiento sobre las acciones (no lingüísticas). En particular la repre-
sentación de planes y acciones utilizada en la mayoría de sistemas de
reconocimiento de planes es una extensión directa de la representación
desarrollada por primera vez en el sistema STRIPS (Fikes and Nilsson
1971) Y luego extendida en el sistema NOAH (Sacerdoti 1977). Dado
que la representación STRIPS tiene ciertas limitaciones de expresivi-
dad. ha habido desde mediados de los 80 un resurgimiento del interés en
el proceso de formación de planes. y se han elaborado diversos esque-
mas de representación alternativos!'). Sin embargo. las técnicas básicas
de reconocimiento de planes se han desarrollado para representaciones
de acciones del estilo de STRIPS.
En estas representaciones los estados del mundo se modelan como
conjuntos de proposiciones. y las acciones se modelan como operadores
que hacen corresponder un estado del mundo con otro. Cada operador
tiene un encabezado, que da su nombre a la acción representada, una
lista de precondiciones, que describe las proposiciones que han de ser
verdaderas para que se pueda realizar la acción, y una lista de efectos,
que describe lo que resulta verdadero por la realización de la acción. Un
plan se analiza como una secuencia de acciones y estados del mundo.
Concretamente fUI' Si ...·' Sn-t. un] es un plan para transformar un estado
So en un estado Sn bajo el supuesto de que
- todas las precondieiones de al son verdaderas en 511:
- todos los efectos de a n son verdaderos en S,,;
- en cada estado intermedio S¡ todos los efectos de u¡ y todas las
precondiciones de (~I+I son verdaderas.
La formación de planes es el proceso de encontrar un plan que
transforme el estado presente del mundo en un estado en el que algún
conjunto de objetivos sea cierto. En el caso más simple un plan puede
proyectarse como un proceso de grafo-búsqueda, en el que los nodos
del grafo representan acciones o estados del mundo. y las conexiones
lícitas entre los nodos se determinan por las relaciones entre estados y

15 Georgetf (19g7) proporciona un buen repaso a estos desarrollos recientes: Geor-


geff y Lansky (19g6a) han editado una colección de artículos Importantes.

251
acciones especificadas en el conjunto de operadores (ver capítulo 7 de
Nilsson 1980).
Esta concepción simple puede refinarse permitiendo que cada ope-
rador incluya un cuerpo as como una lista de precondiciones y accio-
í

nes. El cuerpo de un operador puede ser una lista de subacciones cuya


realización constituye la realización de la acción nombrada por el enca-
bezado o bien una lista de subobjetivos cuya consecución constituye la
realización de la acción del encabezado. Cuando los operadores incluyen
cuerpos, el proceso de formación de planes puede ser jerárquico: puede
buscarse primero una secuencia de acciones y estados intermedios que
son relativamente abstractos y después elaborarla en planes más y más
detallados. La formación jerárquica de planes es a menudo mucho más
eficiente que la formación lineal de planes (Sacerdoti 1977, Stefik ] 981,
Tate 1984. Wilkins 1984)16.
En reconocimiento de planes un agente observa a otro que realiza
alguna acción o secuencia de acciones e intenta determinar qué plan
está siguiendo el último. En el discurso las acciones observadas son las
preferencias de un hablante!": así H (de hablante) denotará al agente
cuyo plan está siendo inferido y O (de oyente) denota al agente que está
infiriendo el plan de H. Supongamos que H observa a O realizando una
acción a en un estado SI en el que todas las precondiciones de a son
verdaderas. Entonces O puede concluir que el objetivo de H al realizar
la acción (1 es conseguir uno o varios de los efectos de a. De hecho el
razonamiento de O puede ir más allá. Si algún efecto de a. digamos e,
es una precondición de otra acción ~. O puede concluir que H tiene la
intención de realizar [3. El proceso puede repetirse: O puede concluir
que H tiene la intención de conseguir algún efecto de 13, etcétera. Gene-
ralmente este proceso de razonarniento termina cuando O dctennina que
H tiene la intención de conseguir algún objetivo de dominio típico.
Una de las primeras y más influyentes formulaciones del recono-
cimiento de planes fue la de ABen (1979. 1(83). Alfen proporcionó un
conjunto de reglas de reconocimiento de planes junto con una estrategia
heurística para controlar su aplicación. Una regla típica de reconoci-
miento de planes es la Regla Acción-Efecto.

16 Rosensche i o (198 I ) proporci 00 a un anál is i s Il) g i(:( \ de planes jerrirq uicos: Wilkios
(1985) clarifica diversas distinciones importantes que deben hacerse entre procesos de
plan i ticae ión jerárq uicos,
17 Naturalmente aquí, como a lo largo de este capítulo, por «hablante» nos referimos
al agente que produce lenguaje, sea ese lenguaje oral o escrito,

252
Hel(O, Int(H, a)) -----') Bel (O, Int(H, e)) si e es un efecto de a.
Esta regla puede glosarse como «si el oyente (o de modo más gene-
ral el agente que infiere) cree que el hablante (o de modo más general
el que actúa) tiene la intención de realizar alguna acción a. entonces
el oyente puede decidir que el hablante tiene la intención de hacer que
cierta proposición e sea verdadera, si e es un efecto de la realización de
a (en el estado del mundo en que se realice a).»18

Para que el proceso de reconocimiento de planes comience es nece-


sario un supuesto de intencionalidad. Esto es, dado que O observa que
H realiza una acción a, la Regla Acción-Efecto sólo se aplica si O con-
cluye que S realizó a intencionalmente. El supuesto de intencionalidad
no es problemático en casos en los que el reconocimiento de planes se
realiza en conversación: si H dice algo a O, es bastante razonable que O
suponga que la proferencia de H era intencional.
Otras reglas vinculan proposiciones a acciones de las que son pre-
condiciones y subacciones a acciones que las contienen. Estas reglas,
más la ya discutida, se usan para lo que se denomina encadenamien-
to hacia delante: razonamiento desde una acción observada hacia Jos
efectos de esa acción. y desde estos efectos a acciones subsiguientes
que se han hecho posibles. etcétera. Los sistemas de reconocimiento de
planes también incluyen normalmente reglas para el encadenamiento
hacia atrás. Un agente que infiere puede razonar también acerca de los
objetivos que el que actúa probablemente tiene y desde ahí hacia atrás
acerca de que acciones que satisfarían esos objetivos, cuáles son las
precondiciones de esas acciones. etcétera. La Regla Efecto-Acción de
Allen es un ejemplo de una regla de inferencia de planes para utilizar en
el encadenamiento hacia atrás:

Rel(O, Int(H, e)) -----') Bel (O, Int(H, a)) si e es un efecto de u.

Además de las reglas simples de encadenamiento hacia delante y


hacia atrás, muchos sistemas de reconocimiento de planes tienen reglas
adicionales que se aplican sólo a acciones de búsqueda de información.
Por ejemplo, muchos sistemas relacionan la acción de «determinar si
p»; para alguna proposición p, con la acción de «conseguir que P> Estas

18 En realidad una regla como la de Acción-Efecto se utiliza para inferir no sólo que
H tiene la intención de hacer que e sea verdadera, sino que H tiene la intención de conse-
guir e haciendo a-esto es, que el plan de H incluye a la subsecuencia la, ej.

253
reglas, junto con reglas para manipular lo que se denomina inferencia de
planes anidados. sin embargo, pueden verse como casos particulares de
reglas más simples (Kautz 1985).
Es importante señalar que las reglas de inferencia de planes no
deben interpretarse como implicaciones lógicas sino más bien como
descripciones de inferencias «probables» pero no-deductivas que un
agente puede hacer al realizar reconocimiento de planes. Kautz (1990)
presenta una formalización precisa del proceso de utilización de es-
tos principios de inferencia probable para realizar reconocimiento de
planes, proporcionando teorías de modelos. de demostración y algo-
rítmicas fundadas en la teoría de la circunscripción de McCarthy (Me-
Carthy 1980. 1984).
La aplicación de las reglas de inferencia de planes se controla nor-
malmente por un conjunto de heurísticas, que se designan tanto para
hacer que el proceso de reconocimiento sea más eficiente como para
asegurar que los planes más verosímiles se encuentren antes que los
menos verosímiles. Algunas de las heurísticas de control se basan en
nociones de sentido común sobre la naturaleza de los planes y se aplican
igualmente bien al proceso de inferir los planes del interlocutor con-
versacional de uno y a inferir los planes de un agente que uno está me-
ramente observando. Por ejemplo. una heurística tal dirige un sistema
de reconocimiento de planes contra la tendencia de considerar como
candidatos a planes que contengan acciones cuyos efectos sean verda-
deros en el momento en que se vaya a realizar la acción. Esta heurística
es razonable tanto cuando el reconocimiento de planes se produce en el
discurso como cuando no: en general los planes no contienen acciones
superfluas.
Por otra parte. un número importante de heurísticas de control sólo
se justifica en reconocimiento de planes en conversación al fundarse en
la noción griceana de reconocimiento intendido: que el hablante tiene
la intención de que sus oyentes reconozcan al menos un subconjunto
de sus intenciones. Esta idea motiva heurísticas de reconocimiento de
planes tales como la heuristica de bifurcación, que afirma que la proba-
bilidad de que un plan candidato sea el que un hablanre tiene realmente
es inversamente proporcional al número de alternativas a las que puede
extenderse (ABen 1983), y la del supuesto de rama única. que afirma
que si un hablante cree que en cierta fase del discurso se podría inferir
más de un plan. es su responsabilidad dar a conocer aquél que tiene-el
oyente sólo debe inferir hasta el punto de una ruptura potencial (Sidner

254
1985). Tales heurísticas median contra inferencias difíciles sobre el '\u-
puesto de que los hablantes en general intentan producir proferencias
que facilitan un reconocimiento de planes relativamente simple.
Sólo como un ejemplo de la aplicación de las técnicas básicas de
reconocimiento de planes en el discurso, considérese a un viajero que
dice. «¿Cuándo sale el próximo tren a Detroit?» De acuerdo con Allen,
podemos codificar esta acción preferencial como

SOLICITAR(H. O. INFORM-REF(H. O, ticmpo l j).

Es decir, H ha solicitado a O que le informe de la referencia de cierta


constante tiempo l. que denota la hora de partida del tren siguiente a De-
troit'". Aplicando la Regla Acción-Efecto al operador SOLlCITAR

Encabezado: SOLICITARI Agente 1, Agente Z. Acción)

Efecto: QUERER(Agcnte2. HACER(Agcnrc2, Acción)¡

o puede concluir que H puede querer que O quiera informar a H


de la hora de salida del tren a Detroit. El razonamiento ulterior per-
mite que O finalmente infiera el plan entero que se muestra en la fi-
gura ] .i.>
Los arcos del grafo del plan se han etiquetado con reglas de inferen-
cia de encadenamiento hacia delante, pero está claro que alguna parte del
grafo en realidad pudo haberse encontrado utilizando encadenamiento
hacia atrás. Para inferir este plan también se necesitan varios operadores
adicionales. Uno es el operador EMBARCAR~ la construcción de los
demás .;¡e la dejamos al lector como ejercicio.

Encabezado: EMBARCAR(Agcnte. Tren. Estación)


Precondición: EN(Agente, ubicación-salidai'Jren), hora-salidat Irenj)
Efccto: A-BORDO(Agentc. Tren)

1'1 La codificación de lo!' actos de habla de Allen se deriva en gran medida de la for-
malización de Cohcn de la teoría de actos de habla. que utiliza nociones de planificación
lA (Cohen y Perrault 1979l.
.:'{. La m-ayoría de los operadores que se muestran en la figura 11.1 deberían ser au-
toexplicativos. SABER-REF(agente. valar) debe entenderse como «el agente sabe la
referencia de (o el valor de) la constante.» Lo, argumentos de 10'\ operadores que van
en mayúsculas (excepto H y O) son variables: los argumentos en minúsculas son cons-
tarucs,

255
EN(H, detroit)
¡acción-efecto
VIAJAR-AfH, detroit, tren 1)
t precondición-acción
A-BORDO(H, tren 1)
¡acción-efecto
Ef\1BARCAR(H, tren 1,detroit)
t precondición-acción
EN(H. ubie 1, tiempo l )
i acción-efecto
IR-A(H. ubic l. tiernpo l )
i precondición-acción
SABER-REF(H. tiempol)
Tacción-efecto
INFüRM-REF(H, O, tiempo 1)
tprecondición-acción
QUERER(O. INFORM-REF(H. O. tiempo 1»
¡acción-efecto
SOLICITAR(H, O. INFORM-REF(H, O, tiempo l i)

tiempo 1=hora-salida (tren I)


ubic 1=ubicación-saI ida (tren 1)

FIGURA 1.1
Un plan de embarcar en un tren

Extensiones de la técnica básica

La técnica básica para reconocimiento de planes tiene varias limi-


raciones. Quizá la más notable sea el hecho de que se limita a casos
en los que el agente que infiere hace una sola observación. Cuando
se aplica al discurso, esto significa que la técnica básica es útil para
razonamiento sólo sobre proferencías de una única cláusula. Pero una
de las características definitorias de los discursos es que se prolon-
gan en el tiempo. Los hablantes transmiten información usando varias

256
cláusulas y en el discurso interactivo usando varias preferencias (o
«turnos»).
Las técnicas de reconocimiento incremental se han desarrollado
para extender la técnica básica de reconocimiento de planes para tratar
con secuencias de preferencias (Carberry 1988. Sidner 1983, 1985).
En el reconocimiento incremental el sistema que desempeña el papel
de O, comienza usando la técnica básica para inferir tanto como sea
posible de la primera proferencia (de inicio de discurso) de H. En ese
momento puede no ser posible determinar cuál de los varios planes e~
el que sigue H y puede no ser posible determinar el plan de H a un ni-
vel suficiente para responder apropiadamente. El resultado provisional
puede ser entonces un conjunto de planes candidatos parciales. Una
vez que se han computado éstos. el procesamiento se interrumpe. Al
escuchar cada preferencia subsiguiente. el sistema trata de expandir
todos los planes parciales ya construidos que pueda. El proceso de ex-
pansión hace uso otra vez de la técnica básica: las reglas de inferencia
de planes se utilizan para relacionar un nodo de un subgrafo existente
con la acción hecha al realizar la preferencia y de ahí razonar desde
la acción a otras acciones. Puede probarse imposible expandir algunos
de los subgrafos existentes: entonces éstos dejan de ser considerados.
se eliminan.
El reconocimiento de planes incremental puede hacerse más eficien-
te tomando en cuenta el foco de atención del hablante. Como señalamos
en la sección 2, al menos en los diálogos orientados a tarea, la estructura
de la tarea tiene influencia sobre la estructura del discurso. Cuando un
hablante habla sobre un plan de realizar cierta tarea, no es probable que
«salte» en la presentación, hablando primero de cierta subtarea, luego
sobre otra. para volver luego a la primera, y así sucesivamente. Más
bien, como en cada punto del discurso, alguna parte del plan general del
hablante será más prominente que otras es más probable que las profe-
rencias del hablante tengan que ver con la parte prominente. Esta idea
puede utilizarse para restringir el proceso de reconocimiento de planes:
O puede preferir expandir aquellas partes de los subplanes candidatos
que están en el foco que aquellas que no lo están (Carberry 1988, Lit-
man y AlIen 1989Y~1.

21 También pueden usarse para restringir el reconocimiento incremental los indica-


dores lingüísticos de la estructura del discurso, como los sintagmas de en/rada; véase la
sección J para una discusión de tale!'. indicadores.

257
En procesamiento del discurso es a menudo necesario reconocer va-
rios planes relacionados que un hablando está ejecutando. En particular.
los hablantes a menudo interrumpen su discusión de un plan de dominio
para ejecutar un plan de discurso, por ejemplo, el de pedir clarificación
o corregir un malentendido anterior, con la ejecución de planes de domi-
nio. En el diálogo siguiente. adaptado de uno de Litman y Allen 1989,
el pasajero se ocupa de un plan de clarificar la información que ya ha
recibido en medio de la realización de su plan de determinar la hora y
ubicación de salida de un tren determinado:

Pasajero: ¿El tren a Montrcal?


Empicado: Puerta siete.
Pasajero: ¿Dónde está?
Empleado: Por aquí abajo. La segunda a la izquierda.
Pasajero: ¿Ya qué hora sale?
Empleado: A las nueve.

Se pueden introducir operadores adicionales que representen planes


de discurso. Litman ha propuesto el uso de una pila de planes parciales
en reconocimiento de planes: las representaciones del discurso deben
apilarse encima de las representaciones de planes de dominio de los que
dependen (Litman y ABen 1999).
Cuando la conducta observada es el resultado de dos o más planes
de dominio que interactúan surge una dificultad más. Wilensky (1983)
ha propuesto tratar estos casos proporcionando al agente que infiere un
conjunto de me/aplanes que operan sobre otros planes de dominio para
construir planes más complejos: resolver-conflictos es uno de esos meta-
planes.I? En textos no-interactivos también hay un problema al razonar
sobre interacciones entre los planes separados de agentes múltiples, por
ejemplo, los personajes de una historia; este problema ha sido estudiado
en detalle por Bruce y sus colaboradores (Bruce 1981).
Otro tí po de restricc iones inherentes al modelo es tándar de reconoc i-
miento de planes ha sido señalado por Pollack (1986, 1988): supone que
el agente que infiere (O) Y el que actúa (H) tienen creencias extremada-
mente similares sobre el dominio de la acción. Considérese otra vez la
regla de inferencia de planes Acción-Efecto. La glosábamos como «si
el O cree que el H tiene la intención de realizar una acción (1, entonces

22 Algunos trabajos recientes en formación de planes también incorporan la idea de

meraplanes como éstos: véase. por ejemplo. Georgcff and Lansky IlJg6b.

258
el O puede decidir que el H tiene la intención de que una proposición e
sea verdadera, si e es un efecto de realizar n.» Nótese que está regla no
señala precisamente quién es-O o S-quien cree que e es una precon-
dición de u. Si la tomamos como una creencia de 0, no está claro que
O infiera el plan de H~ por otra parte, si la consideramos una creencia de
H, no está claro como llega O a tener acceso directo a ella. En la práctica
sólo hay un único conjunto de operadores que vincula lal\ precondicio-
nes y las acciones en los modelos estándar de reconocimiento de planes;
la creencia en cuestión se considera tanto de O como de H.
En muchas situaciones el supuesto de que las creencias relevantes
de H son idénticas a las de O resulta en un fracaso no sólo del proceso de
reconocimiento de planes sino también del proceso comunicativo que
el reconocimiento de planes pretende sustentar. En particular impide la
generación por principio de respuestas apropiadas a preguntas que sur-
gen de planes no válidos. Pollack (1986, 1988) ha propuesto un modelo
de reconocimiento de planes en la conversación que distingue entre las
creencias de H y las de O. El modelo descansa sobre un análisis de
los planes como fenómeno mental: «tener un plan» se analiza como el
hecho de tener una configuración particular de creencias e intenciones.
El proceso de reconocimiento de planes puede beneficiarse de diversas
técnicas de adscripción de creencias. Los juicios de que un plan es no
válido se asocian con discrepancias concretas entre las creencias que O
atribuye a H. cuando O cree que H tiene un plan, y las propias creencias
de O.
Además la participación en el discurso puede requerir la habilidad
de representar planes conjuntos de agentes múltiples. Grosz y Sidner
(1990) han mostrado que estos planes no pueden definirse sólo en tér-
minos de los planes privados de los agentes individuales. Ellas han pro-
puesto una representación que extiende la definición de plan de Pollack
a los planes de dos o más agentes cuando colaboran en una tarea y se
comunican en el discurso.
Otra vía reciente en reconocimiento de planes en discurso ha sido
el vincular más estrechamente las teorías de actos de habla con teorías
fundamentales de la acción racional. Cohen y Lcvcsquc {1990) han
mostrado que los actos ilocutivos. como solicitar o prometer, no ne-
cesitan ser tratados como primitivos en un modelo de reconocimiento
de planes en discurso; en lugar de eso. la conducta propia de los par-
ticipantes en el discurso puede analizarse en términos de un modelo
de principios racionales de adopción de creencias e intenciones. De

259
modo análogo. Perrault (1990) ha mostrado cómo una explicación de
los actos de habla puede basarse en una teoría simple de adopción de
creencias y observación de acciones. Como Cohen y Levesque, Pe-
rrault evita la necesidad de tratar los actos ilocutivos como primitivos
en el modelo. Su teoría difiere en que hace uso de la lógica por defecto
de Rciter (1980), que le permite presentar axiomas más independien-
tes del contexto.

Referencias

ALU:N. J. F. 1979. A Plan-Based Approacli to Speech Act Recognition. Techni-


cal rcport 131, University of Taranta, Toronto, Canada.
AI.LEN.1. F. 19~D. «Recognizing intentions from natural language utterances».
In M. Brady and R. C. Berwick, eds. Computational Models (1 Discourse.
Cambridge. MA: MIT Press, pp. 107- 166
ALLEN. 1. F. and PERRAlJLT, C. R. 1Y80. «Analyzing intentions in dialogue».
Artificial Intelligcnce 15(3): 143-178.
ApPELT, D. and KRONFELD. A. 1987 .•~A computational model of referring». In
Proceedings of lile Tenth lruernational Joint Conference on Artificial lnte-
lligence, Milan. pp. 640-647.
AUSTIN. J. L. 1962. How to Do Things with ~~'rds. 2nd de. Cambridge. MA:
Harvard Universiry Press.
BOHROW. D., and thc PARC Understander Group. 1977. Gus. a frame driven
dialog system. Artificial Intelligence 8: 155-173.
BRUCE. B. 1981. «Plans and social action». In Theoretical lssues in Reading
Comprehension. Hillsdale. NJ: Lawrcncc Erlbaum.
BUTTERWORTH. B. pns. «Hesitation and Semanric planning in speech», Jour-
nal of Psvcholinguistic Researcli 4: 75-87.
CARBERRY. M. S. 1985. «A pragmatics based approach to understanding in-
terscntcntial ellipsis», In Proceedings 01 the 2Jrd Annual Meeting 01 the
Associationfor Compututional Linguistics. Chicago, pp. 188-197.
CARBERRY, M. S. 1989. «Pragrnatic modeling: Toward a robust naturallangua-
ge interface». Comptuational Intelligence 3.
CHAFE. W. L ]979.•.The flow of thought and [he flow of language». In T. Gi-
von. ed. Syntax and Semantics J2: Discourse and Syntux. New York: Aca-
dernic Press. pp. 159-182.
CHAFE. \V. L. 1980. «Thc dcployment of consciousness in the production of a
narrative». In The Pcur Stories: Cognitive, Cultural und Unguis/le Aspects
(~f Narrative ProdUL'1 ion. Norwood, NJ: Ahlex, pp. 9-10.
CHAR NIAK. E. 1977. «A framed painting: The representation of cornmonsense
knowledge fragment». Cognitive Science 1(4).

260
COHEN. P. R.. and LEVESQlJE, H. (1990), «Rational interaction as the basis for
cornmunication». In P. R. Cohen, 1. L. Morgan, and M. E. Pollack, eds.
Intentions in Communication. Cambridge. MA: MIT Press.
COHEN, P. R., MORGAN, J. L. and POLLACK, M. E. eds. 1990 Intentions in Com-
munication. Cambridge. MA: MIT Prcss.
COHEN, P. R. and PE¡.¿RAl·LT. C. R. 1979. «Elernents 01' a plan-based theory of
speech acts». Cognitive Science 3: 177-212.
COIlEN, R. 1984. «A cornputational thcory of the funetion of the cluc words in
argument understanding», In Proceedings of COLING84. Stanford. CA.
COHEN, R. 1987. «Analyzing (he structure of argumentative discourse». Com-
putational Linguistics B( 1-2).
CULLlNGFORD. R. E. 1977. «Script application: Computer understanding ojnews-
paper stories». Doctoral dissertation, Yale University, New Haven, CT.
CULLlNGFORD, R. E. 1981. «Sarn». In lnside Computa Understanding : FÍI'l'
Programs Plus Miniatures. Hillsdale, NJ: Erlbaum, pp. 75-119.
DAHL. D. A. 1987. «Nominalizations in PUNDIT)\. In Proceedings ofthe 25Th
Annual Meeting ofthe Association for Compurational Linguistics. Stanford.
CA, pp. 131-1:'9.
DONNELLAN. K. S. 1966. -Reference and Definite Descriptions». Philosophical
Review 75: 281-304. Reprinted in Steinberg and Jacobovits, eds. Semantics.
Cambridge, Engl.: Cambridge University Press.
FIKES, R. E., and NILssuN, N. 1. 1971. «STRIPS: a new approach to the application
of theorem proving lo problem solving». Artificial lntclligcnce 2: 1&9-20&.
FILLMORE. C. J. 1975. Santa Cruz Lectures 011 Deixis. Technical rcport, Indiana
Linguistics Club, Bloomington, IN.
FrNIN. T. 1980. Tite Semantic Interpretation oI Compound Nominals. Ph. D.
Thesis, University of Illinois. Urbana, IL.
FTSCHER, G., Lc.MKI::. A., and SCHWAB, T 1QS5. «Knowledge-based help "ys-
terns». In Proccedings o] the CHIJ)85 Conference un Human Factors in
Computing Svstems, ACM SIGCHI, San Francisco. pp. 161-167.
GENESERETH. M. R. 1979. «The role of plans in automated consultation». In
Proceedlngs 01 the fúh lnternational Ioint Confcrencr on Artificial lntelli-
gence, Tokyo, pp. 311-3J9.
Gl.:.ORGl:.FI-. M. P. 1987. «Planning». In J. Traub. ed. Annual Review ofComputer
Sciencc, Palo Alto, CA: Annual Reviews.
GEORGEFF, M. P. and LANSKY, A. L. J 986a. Reasoning about Actions and Plans:
Proceedings ofthe 1986 Workshup. Los Altos. CA: Morgan Kaufmann.
GEORGlFF, M. P. and L.A.NSKY, A. L I 9Rób. «Procedural Knowlcdge». Proreedings
ofthe IEEE. Special IS5ue OH Knowledge Representution. pp. 1383-1398.
GR1C~, H. P. 1957. «Meaning». Philosophical Review 67.
GRICE. H. P. 1968. «Utterer's meaning. sentence-rneaning, and word-meaning».
Foundations ofLanguage 4: 1-18.

261
GRI( t.H. P. 1975. «Logic and Conversation». In P. Cole and J. L Margan. eds.
Svtitax and Semantics Vol. 3: Speech Acts. New York: Acadcmic Press, pp.
-+ 1-5g.
GRI<T. H. P. I 97'PJ. «Further notes on Logic and Conversation». In P. Cok. cUs.
Svnta»: and Semantics Vol. 9: Pragmatics. New York: Academic Prcss.
pp. 113-[28.
GROSZ, B. 1974. «The structurc of task oricnted dialogs». In IF.F.F. SYIJII'osilllJl
un Specch Recognition: Contributed Papen. IEEE. Pittsburgh: Carncgic
Mellon University, Computer Science Dept.
GROSZ, B. J. 1977. «( The representut ion and use uf tocus in a systern Ior unders-
tandíng dialogs». In Proceedings ofth« Fifth lnternational Joint Conference
on Artificial Intelligencc. Cambridge, MA.
GROSZ, R. 1. 197&a. «Discour"e unalyxix». In D. \Valkcr, ed. Understanding
Spoken Language. Ch. IX. Nev,: York: Elscvicr North-Holland, pp. 135-2ó8.
GROS, B. J. 1979b. «Focu ~i ng in d ialog». In Proceedings 01 Workshop on Theo-
retical Issues in Natural Language Processing-Z, Urbana, IL.
GROSZ, B. 1. 1981. «Focusing and description in natural language dialogues».
In A. K. Joshi, 1. Sag. and B. Webher, eds. Elements ofDiscourse. Cambrid-
ge. Engl.: Cambridge University Press.
GKOSZ. B. J.. JOSHl, A. K .. and WEINSTEIN, S. 1983. «Providing a unified ac-
count of definite noun phrases in discourse». In Procccdings of the 9Th In-
tcrnational Joint Conference on Artificial lnteliigencr, Cambridge. rvlA.
GROSZ. B. J. and SlDNl:.R, C. L. 1986. «Aucntion, intcntions nnd the structure oí"
discourse». Computational Linguistics 12(3).
GI{()~Z. B. J. and SIDf\;ER C. L. 1990. «Plans for Discourse». In P. R. Cohen,
J. Morgan and M. E. Pollack. eds. lntentions in Communication, Cambrid-
ge. MA: MIT Press.
GlIENTHNLR, E, LI:.HMANl':, H., and SCHOENFELD, W. 1996. "A theory tor representa-
tion uf knowledge». IRM Journal (JI Research and Dcvelopment 30' 11: 39-56.
HADDOCK. N. J. 19~7. '<Incremental interpretation and combi natory categorial
gramrnar». In N. Haddock. E. Klcin, and G. Morril. eds. Edinburgh Hórking
Papcrs in Cognitive Science. v(")I. 1: Categorial Gramniar. Unification Gra-
mmar aJ1l1 Parsing, Edinburgh. Scorland. pp. 71-84.
HALLllJAY, M., and HA:>AN. R. !lJ7ó. Cohesion in English. English Languag:c
Series, Titlc No. 9. London: Longrnanvs.
HEIM, 1. 19R2," The semanticx of dehnite and indefinite noun phrases». Ph. D.
disscrtation. University of Massachusetts. Arnherst. MA.
HENDRIX. G .. S -\CER DOTI, E.. SÁG ALOWlez. D., and SLOCUM, J. 1978. «Develo-
ping a natural language interface ro cornplex data». ACAJ Trans. on Data-
base Svs. 3(2).
HINRICHS. E. ll)g6, «Temporal anaphora in discourscs of English. English Lan-
guage Serie"í». Tirk No, 9. l.ondon: l.ongman's,
HIRSCHBERG, J. B. and Pierrehurnbert. J. 1986. The i ntonational structuring of
discourse. In Proceedings (?fthe 24Th Annual Meeting ofthe Associationfor
Computational Linguistics, New York. pp. 136-144.
HIRS(,HRERG.1. B. and LlTMAN. D. J. 1987. «NO\vlets talk about now: ldentifying
cue phrases intonationally». In Proceedings ofthe 25lh Annual Meeting ofthe
ASS0c111TioTlji,,- Computational Linguistics, Stanford, CA, pp. 163-171.
HIRSrHBERG.1. B.. LJ "MA~, D. J.. PIERREHl'MRERT. 1., and WARD, G. L. 1987.
«Intonation and the intonational structurc of discourse». In Proceedings of
the Tenth Intcrnatioual Joint Conference (JJ1 Artificial Intelligence. Mílan,
ltaly. pp. A36-6J9.
HOBBS, J. 1979. «Cohcrcnce and co-reterence». Cognitivc Scicnce 1; 67-8~.
e
HOB BS. 1. 198 J. «Wh y i s discourse coherent?» In F. Neu bauer, ed .. oherence
in Natural L:lFJgllage Texts. Hamburg: H. Buskc Verlag.
HOBBS. J. R. 1985. 011 the Coherence and Structure of Discourse, Tcchni,..al
Report CSLI-85-37. CSLI, Stanford, CA.
HOBBS. J. and MARTIN P. 19R7. «Local pragrnatics». In Proceedings otthe Tenth
lnternational Joint Conference 0/1 Artificial lntelligence. Milán, ltaly.
HORRIGAN. M. K. 1977. Modclling simple dialogues. Technical report TR 108,
Dept. of Cornputer Science. University of Toronto. Toronto, Ontario.
ISABELLE. P. 1984. «Another look at nominal cornpounds». In Proceedings of
the l Otli lnternational Conference 011 Computational Linguistics, Stanford.
CA, pp. 509-516.
.JOSHI. A. and WEINSTt.IN. S. 1qSI. «Control of inference: Role of sorne aspects
of discourse structure-centering». In Proceedings of International Joint
Conferencc 011 Anificial íntelligence. Vancouver. BC, pp. 385-387.
KAMP, H. 1981. «A theory of truth and scmantic representation». In J. Groenendijk.
T. V. M. Janssen, and M. Stokhof. eds. Formal Methods in thc Study ofLangua-
ge. Mathernatical Centre Tract 135. Amstcrdam, The Netherlands. pp. 277-322.
K..:\LI17, H. A. 1985. Toward a Theory oI Plan Rrrognition. Technical report
TR [62, University of Rochester, Rochester. NY
KAUTZ. H. A. 1990. ~<A circurnscriptive theory of plan recognirion». In P. R.
Cohen. .J. L. Margan. and M. E. Pollack , eds. lntentions in Communication.
Cambridge. MA: MIT Prcss,
K ~_NDON. A. 1972. «Sorne relationships between hod y rnotion and speech». In
Studies in Dvudic Ct)IIIII1/II1;ultiOll. New York, Pergamon.
KRONH.:.LD, A. 19R6. «Donnellari's distinction and a cornputational model of
reference». In Proceedings 01 the 24th Annual Meeting (~f thc Association
for Computational Linguistics. New York.
LASNIK, H. 1976. «Rcmarks on co-reference». Linguistic Analysis 2\ 1); 1-22.
LEHNI:.:.RT. W. IQ77. ,<A conceptual theory of quesnon-answering». In Proccr-
dings 01 the Sth lntcrnational Joint Conference on Artificial lntclligencr,
Palo Alto. CA: Morgan Kaufrnann.

263
LEHNERT, W. 1981. «Plot units and narrative summarization». Cognitive Scien-
ce 5(4): 291-331.
LEYINSON, S. C. 1983. Pragmatics. Cambridge. Engl.: Cambridge University
Press.
LEYY. D. M. 1979. «Cornmunicative goals and strategies: Between discourse
and syntax». In T. Givon, cd, Discourse and Svntax. New York: Academic
Prcss, pp. 337-354.
LINDE, C. 1979. «Focus of attention and the choice of pronouns in discoursc». In T.
Givon, cd, Syntax and Semantics. Ncw York: Acadcrnic Press, pp. 337-354.
LJNn[. C. and GOGUf:N, J. 1978. «Structure of planning discourse». 1. Socia!
Bio/. Struct. 1: 219-25 l.
lITMAN. D. 1985. Plan Recognition and Discourse Analysis: AIl lntegrated
AfllmUlchtór Understanding Dialogues. Technical report TR 170. Universi-
ty of Rochester. Rochester, NY.
LlTMAN. D. 1. and ALLEN. J. F. 1987. «A plan recognition model for subdialo-
gues in convcrsations». Cognitive Science I L 163-200.
LITMAN. D. J. and ALLEN. J. F. 19YO. -Discourse processing and commonsense
plans», In P. R. Cohen, 1. L. Morgan. and M. E. Pollack, eds. lntentions in
Communication. Cambridge, MA: MIT Press.
MANN. W. D .• MUURE, M. A., LEVIN, J. A.. ami e ARSLJLC. J. H. J975. Observa-
tion Methodsfor Human Dialogue. Technical report, lnformation Services
Instirute, Marina del Rey, CA.
MANN, W. D. and THOMPSON. S. A. 1986. «Relational proposuions in discour-
se'>. Discourse Processes 9( 1): 57-90.
MARSLEN-WILSON. W.• LEVY, E.. and Tv LER, L. K. 1982. «Produci ng interpreta-
ble discourse: The establishment and maintenance oí"reterence». In Speech,
Place, and Action. Chichester, EngL: Wiley,
MeC '\RTH Y, 1. 1980. «Circumscription-a form of non-rnonotonic reason i ng».
Artificial Intelligence 13: 27-39.
MCCARTHY, J. 1984. «A pplications of circumscription to formalizi ng cornrnon
sense knowledge» In Proceedings ofthe AAA/ Worhhop on Nonmonotonic
Reasoning, New Paltz, NY. pp. 295-324.
McCuE. D. and LESSER. V. 1983. Focusing and Constraint Management in /11-
telligent Interface Design. Technical report COINS 83-36, University oí"
Massachusetts, Arnherst, MA.
McDoNALD, D. D. 19R3. «Natural language generation as a cornputation pro-
blern». In Computational Models 01 Discourse, Cambridge. MA: MIT Press,
McKI:OWN. K. 1985. Tcxt Generaiion. New York: Cambridge Universiry
Press,
McNEILL, D. 1979. The Conceptual Basis oj Language. Hillsdalc. NJ: Erlbaum.
MeNE'LL, D. and Levy, E. 1<:J82. «Conceptual representations in language acti-
vity and gesture». In Speech, Place, and Action. Chichester, Engl.: Wiley,

264
MeLLlSII, C. S., 1982. Incremental Evaluation: An Anproach 10 the Semantic In-
terpretation of Noun Phrases. Technical repon. University 01' Sussex Cog-
nitivc Studies Prograrnmc, Sussex, Engl.
NILSSON, N. 1. 1980. Principles ofArtiiicial lntelligencc. Palo Alto. CA: Tioga.
PARTEr. 1:3. H. 1984. «Nominal and temporal anaphora», Linguistics and Phi-
losophv 7: 243-286.
PERRAlIl T. R. C. 1990. «An application of default logic to speech act theory».
In P. R. Cohen. J. L. Morgan, and M. E. Pollack, eds. Intentions iJ1 Commu-
nication. Cambridge, MA: MIT Press.
PI::I{RACLT, R. C. and ALLEN, J. F. 19RO. «A plan-ba . . cd analysis of indi-
rect speecb acts». American Journal of Computational Lingulstics 6:
167-182.
POLANYL L. 1985. «A thcory of discourse structure and discourse coherence».
In W. Eilfort. P. Kroerber, and K. Pcterson. eds, Proceedings of the 21st
Regional Meeting of the Chicago Linguistics Society. Chicugo: University
01' Chicago Press. pp. 306-322.
POLA.NYI, L. 1986. The Linguistu Structure 01 Discourse: Towards a Formal
Tlieory of Discourse Structure . Technical rcport 64~N, Holt, Berenek and
Newrnan, Cambridge. MA.
POLAN'd, L. and SCHA, R. 1984. «A syntactic approach to discourse .s ernantics».
In Proceedings ofthe l Oth International Conference 011 Computational Lin-
guistics. Stanford, CA. pp. 413-419.
POLLACK. M. E. 1986. «A modcl of plan inferencc that distinguishes between the
beJiefs of actors and obscrvcrs ". ln Proceedings ti the 24th Annual Mecting
oj the Association for Computational Linguistics. Ncw York, pp, 207-1.14.
POLLACK, M. E. 1990. «Plans as Cornplex Mental Attitudes- . In P. R. Cohen.
1. Morgan and M. E. Pollack. cds, lntcntions in Communication. Cambrid-
ge, MA: MIl Press. pp. 77-10~.
POLLACK. M. E. and PEREIRA F C. N. 1981'L «An intcgrated [ramework for
scmantic and pragmatic interpretation», ln Proceedings ofthe 26th Annual
Meeting ofthe Association for Computational Linguistics, Buffalo, NY.
REICHMAN-ADAR, R. (1984). «Extended person-rnachinc interface». Artificial
Iruelligence 22: 157-218.
REINHART. 1. 1983. «Co-reference and bound anaphora: A restatement 01 the
anaphora question». Linguistics and Philosopltv 6: ·+7-88.
RElTER. R. 1q~O. «A logic for default reasoning». Artificial Intelligence 13:
81-132.
ROBlNSON, A. 1981. «Determining verb pnrase refcrenrs in dialogs». Computa-
tional Linguistics 70 ).
ROSENSCHF.IN. S. J. 19~ 1. « Plan synthesis: a logical perspective». In Procee-
dings o] the 7th lntenunional Joint Conference 01/ Artificial lntelligence.
IJC AL Vancouver, Be. pp, 331-:'37.

265
RLlMELHART. D. E. 1975. «Notes on a scherna for stories». In D. G. Bobrow and A.
Collins. eds. Representation and Understanding, New York: Academic Press.
SACERDOTI, E. D, 1977. A Structurc for Plans and Behavior. New York: Ame-
rican Elsevier,
SCHIH'RIN, D. 1982. Discourse Markers: Semantic Resource for the Construc-
tion of Conversation, Ph, D. Thesis. University of Pennsylvania, Phíladel-
phia, PA.
SCHMlm. C. F.. SRIDIIARA:'IJ. N. S. and GOODSON, J. L. 1978. «The plan rccog-
nition problcrn: An intcrsecrion uf artificial intelligence and psychology»,
Artificial lntelligence 10: 45-83.
SEARLE. J. ] 969. Speech Acts: An essay in the philosophv of language. Cam-
bridge, Engl.: Cambridge University Press.
SEARLE.1. 1975 ..-Indirect Spccch Acts». In P. Cole and J. Margan. eds. Svntax
and Semantics \I()I. 3. Speech Acts. New York: Academic Prcss. pp. 59-82.
SmNER. C. L. 1979. Towards a Computational Theory of Definite Anaphora
Comprehension in English Discourse. Ph. D. thesis. Technical report 537,
Artificial Intelligence Laboratory, MIT. Cambridge. MA.
SIDNER. C. L. 1981, «Focusing for interpretation of pronouns». Computationul
Linguistics 7(4): 217-231.
SIDNER. C. L. 1982. Protocols of Usas Manipulating visuallv Prescnted lnfor-
mation with Natural Language. Technical report, Bolt, Bercnek and New-
rnan, Cambridge. MA.
SlDNER. C. L. 1983, «What the speaker mcans: Thc rccognition of speakcrs'
pIans in discourse». International Journal ofComputers and Matheniatics.
Special lssue in Computational Linguistics 9( 1): 71-lQ.
SIDNER, C. L. 1985, «Plan parsing for intended response recognition in discour-
se». Computational Intelligenc e 1(1): 1-1O.
SILVJ:,RMAN. K. 1987. Natural Prosodyfor Synthetic Speech. Ph. D. thesis. Cam-
bridge Univcrsity. Cambridge. Engl.
STEFIK, M, 19R1. «Planning with constraints». Artificial Intelligence 16: ] 11-140.
T ATE. A. 1984. «Goal structure-capturing thc intent oí"plans». In Proceedings ofthe
Sixth European Conference 011 Artificial lntelligence, Pisa, Italy, pp. 273-276.
VAN DIJ K, T. A. 1972. Some Aspects 01 Text Grammars. The Haguc: Mouton.
W ALKER, D. 1978. Understanding Spoken Language. New York: Elsevier
North-Holland.
WEl.HU:R, B. L. 1980. A Computational Approach 10 Discourse Anaphora. New
York: Garland.
WEBBER, B, L. 1983. «So what can we talk about now». In M. Brady. ed. Com-
putational Approaches to Discourse. Cambridge, MA: MIT Press,
WEI3I3ER, B. L 1987. «Thc intcrprctation of tense in discourse». In Proceedings
uf the 25th Annual Meeting ofthe Association for Computational Linguis-
tics. Stanford, CA, pp. 147-154.

266
WlLENSl\. Y. R. 1983. Planning and Understunding, Reading. MA: Addison-
\Ves[ey.
\VILKINS, D. E. 1984. -Dornain-independent planning: Rcprcsentation and plan
generation», Artificial Intrlligencc 1~: 269-30 l.
WILKINS. D. E. 1985. Hiernrclncal Planning: Deftnition and Implementation,
Technical report 370. Artiliciallntelligenee Centcr, SRl lntemational. Men-
lo Park. CA.
\VINOGRAD. T. 1971. Procedures as a Representation tor Data in a Compute:
Program for Undrrstanding Natural l anguage . Ph. D. thesis, Rcport no.
TR-84. Project MAr. MIT. Cambridge. MA.
WINOGR,",n. T. 1978. Undcrstanding Natural Laneuagc. New York: Acudernic
Prcss,
W(lOJ)~. \V. A. )l>7R. «Semanrics and quantification in natural languagc qucs-
tion anvwering». In M. Yovitx, ed, Advances in Computers. Nc\V York: Aca-
demic Press, pp. 1-87.
WOODS. W. A.. KAPLAN. R. M.. and NAsH-WrRRER. B. L. 197'2. rile Lunar
Sciences Natural Language Injormution Sy.\It.'I1l.' Final Repon. BBN Repon
2378. Bolt. Beranek and Newrnan, Cambridge. MA.

267
SEl\'IÁNTICA MODELO-TEÓRICA
Jan Barwise y John Etchemendy

l. El Reto de la Semántica

Siempre que los eruditos han estado hablando acerca del pensar, se
han encontrado a sí mismos pensando acerca del hablar. de la habilidad
de los humanos para usar el lenguaje. La relación entre lenguaje y pen-
samiento es un problema clásico de «la gallina y el huevo» en el estudio
de la cognición. El uso del lenguaje requiere claramente una habilidad
para pensar. Sin embargo, algunos han argüido que el pensamiento mis-
mo presupone alguna suerte de lenguaje. Pero si ellos están en lo cierto,
entonces una explicación del pensamiento requiere una explicación del
lenguaje. Independientemente de qué antepongamos. parece importante
llegar a comprender la relación entre pensamiento y lenguaje.

La similaridad más llamativa entre pensamiento y lenguaje es su


«alcance semántico», que ambos son típicamente acerca de algo. Esto
contrasta con la mayoría de lo que la ciencia se propone explicar. Hay
muchas cosas acerca del movimiento de los planetas que necesita ex-
plicación -el periodo de ese movimiento, las fuerzas involucradas. la
forma de las trayectorias. Pero no necesitamos explicar acerca de qué es
ese movimiento. Realmente el movimiento de los planetas no es acer-
ca de nada. Tampoco lo es un terremoto o un dolor de muelas. Pero si
alguien dice «La Tierra gira alrededor del Sol». 10 que ha sido dicho y
el pensamiento que 10 originó son ambos acerca del sistema solar. Por
tanto, parece haber un tipo de propiedad enteramente nuevo - «el ser
acerca de algo»: 11 o «contenido semántico), - que necesita una explica-
ción. Esta propiedad es denominada algunas veces la «intencionalidad»
del lenguaje y del pensamiento. El estudio de la semántica es acerca de
esta propiedad ordinaria pero fascinante.

269
Sin embargo para comprender el reto de la sern.ínrica debemos ir
más allá de la simple observación de que los enunciados y pensamientos
tienen contenido semántico. También los signos y símbolos usados en
la comunicación animal pueden tener contenido. Lo que parece distin-
guir la comunicación humana de la comunicación animal es el carácter
combinatorio del sistema simbólico. un rasgo que permite a los usuarios
combinar los elementos básicos de forma novedosa e ilimitada. y saber,
de alguna manera. lo que la combinación resultante significa.
Es obvio tras un momento de reflexión que nosotros a diario expre-
samos. escuchamos y leemos oraciones que nunca hemos encontrado
antes. Por ejemplo, es sumamente improbable que el lector haya en-
contrado esta oración particular antes, a pesar de ello entiende lo que
significa. De alguna manera, conociendo el significado de las palabras
involucradas y las formas en que son combinadas puede entender el
significado de toda la oración.
Lo que hace esto verdaderamente impresionante. y un reto para el
teórico, es el carácter infinito del lenguaje humano que resulta de su na-
turaleza combinatoria. Utilizando muy pocas palabras y construcciones
gramaticales. podemos generar un número infinito de oraciones diferen-
tes, cada una de las cuales es perfectamente significativa y. en principio,
fácil de entender. Considérese, por ejemplo. la siguiente lista:

Mi amigo ganó.
El amigo de mi amigo ganó.
El amigo del amigo de mi amigo ganó.
(etcétera]

Es improbable que muchas de estas oraciones fueran alguna vez


útiles. Pero también parece claro que ellas son oraciones totalmente
correctas del castellano!", cada una con un significado definido.
La riqueza combinatoria y la infinitud del lenguaje humano contrasta
claramente con los sistemas de comunicación animal, con su inventario
relativamente fijo de signos y símbolos. Sólo para ver cuán diferentes
son, imaginemos la siguiente tarea: supongamos que deseamos entrenar
un animal, digamos un perro. para «entender» la notación decimal. Di-
gamos que cuando mostramos un <-.10» al perro. deseamos que el emita
diez ladridos cortos. Ahora bien. SI sólo tuviéramos que entrenar a nuestro
perro para realizar este truco para algún conjunto fijado y relativamente
pequeño de números bajos. la tarea no sería probablemente demasiado
difícil. Pero supongLlmo~ que tuviéramos que enseñar al perro como hacer

270
esto en general, para una expresión decimal arbitraria. Esta es claramente
una tarea de un orden diferente en cuanto a magnitud. Puede incluso ser
imposible, dadas las capacidades cognitivas del perro.

¿Cómo se las arreglan los humanos para meter un lenguaje infinito


en sus cerebros finitos? En cierto sentido la respuesta es obvia: hay una
relación sistemática entre el significado de las expresiones complejas
y el de sus partes. Por ejemplo, si remplazamos «amigo» por «vecino»
o «jefe» en la lista de arriba. conseguimos un cambio sistemático en
el significado de todas las oraciones. Esta observación -que hay una
relación sistemática entre el significado del todo y el de sus partes - es
conocida como el Principio de Compositividad, La asunción que dirige
el estudio de la semántica es que es alguna f0l111a de este principio el
que hace posibles, los lenguages humanos, con su carácter infinito. Se
acepta como sabido que la única forma en que agentes finitos como no-
sotros pueden dominar un lenguaje es teniendo conocimiento (implícito
o explícito) de las relaciones entre el significado y la estructura de las
expresiones complejas y el significado y la estructura de las expresiones
más simples. además de conocer los significados de un inventario básico
de Ítems como «amigo». «mi» y «ganó». Sólo dicho conocimiento les
permitiría determinar los significados del conjunto ilimitado de nuevas
oraciones que pueden encontrar.

Esta visión de la relación entre el lenguaje y la mente plantea tres


tareas. Una tarea es simplemente la de explicar cómo los signos y sím-
bolos pueden ser acerca de algo, cómo vienen a tener contenido se-
m..intico. Esta no es generalmente considerada como parte del campo
de la semántica propiamente, sino como un tema de trabajo en filosofía
del lenguaje.' estrechamente relacionado. Más bien los cultivadores de
la semántica presuponen que los símbolos de alguna manera adquieren
contenido y asumen como su tarea la de caracterizar el contenido de
expresiones complejas arbitrarias. dado el contenido de SlJ~ constituyen-
tes básicos. Esta tarea usualmente se divide en dos partes relacionadas.
Una es describir el significado de los ítems semánticos básicos del len-
guaje. A esto se denomina semántica léxica y trata de los significados
de expresiones tales como «amigo), y «rni».? La otra parte consiste en

I Veánse, por ejemplo, los artículos de H. P Grice (lY.:'i7, 196!'S) Y David Lewis (llJ6l)).
2 Desafortunadamente la totalidad del trabajo en semántica considerado aquí, uvume
que las palabras y no los modernas son las unidades mínimas con significado. Para un
tratamiento detal lado de la semántica léxica. vea-e por ejemplo, Dowty (1979).

271
llar una caracterización precisa de cómo los significados de las expre-
siones complejas depende del significado de sus partes constituyentes.
A esto se denomina semántica compositiva y trata de los significados
de expresiones tales como «mi amigo» y «el amigo de mi amigo ganó».
La tercera tarea es propia del científico cognitivo. Ella consiste en ex-
plicar en detalle cómo el conocimiento de la semántica de un lenguaje
es realmente logrado por los hablantes y en dar una explicación de los
procesos cognitivos y estructuras involucradas.
Estas tareas extán. por supuesto. relacionadas. En verdad es amplía-
mente reconocido que la solución él la primera tarea -dar una expli-
cación de cómo los signos vienen a tener significado convencional-
debe acercarse mucho a conceptos psicológicos y cognitivos básicos.
La comunicación es, después de todo. un tipo de actividad inteligente
y los mecanismos utilizados para llevarla a cabo no pueden ser enten-
didos aislados de una explicación más amplia de nuestras capacidades
cognitivas. Por tanto, también el estudio de los complejos sistemas de
comunicación involucrados en el lenguaje natural. al que se dedican los
cultivadores de la semántica, debe estar guiado por el reconocimiento
de que dichos lenguajes son usados por agentes finitos. Por último, la
explicación del científico cognitivo de cómo son aprendidos lenguajes
complejos requerirá una comprensión de cómo funcionan esos lengua-
jes, una comprensión de los complejos sistemas sintácticos y semánticos
que relacionan sonidos y significado.
Para hacernos una idea de cómo la segunda tarea. la semántica, po-
dría ser ejecutada y de cómo se relaciona con la tarea del científico cog-
nitivo. perrnítasenos volver a nuestro problema de la notación decimal.
Aquí una tarea para el dedicado a la semántica seria especificar una
función. llamémosla den ro que dé la denotación de cada numeral en la
notación de base diez. Esto es bastante fácil. El componente léxico de
la semántica especificaría las denotaciones de los diez numerales árabes
básicos «ü}), ,< l », ,<2», ..., ,<9». Podríamos simplemente hacer una lista
de esas denotaciones con enunciados como

La denotación en base diez del numeral «5» es el número cinco.


O de manera más compacta
den e, (<<5») = 5.

Entonces lo quc necesitamos explicar es la relación entre las denota-


ciones de los numerales complejos (esto es, de esos que contienen más
de un símbolo básico) y las denotaciones de sus partes. Hay varias for-

27'].
mas en las que podríamos hacer esto. La más elegante es dar la siguiente
cláusula recursiva. En ella a recorre numerales de base diez arbitrarios,
por ejemplo, «273» y <~46,>, y /1 recorre los numerales básicos desde «O»
hasta «9».

deri.¿ (an) = denlO(u) x 10 + den¡Ü (n)

Nuestras diez cláusulas básicas. más esta ecuación recursiva. de-


terminan completamente la función infinita den 1w Esto es totalmente
característico de lo que ocurre en semántica. La técnica de recursión es
utilizada para asignar significado a un número infinito de expresiones.
Este es un ejemplo clásico de cómo podemos especificar la relación
entre una familia infinita de símbolos y las cosas que ellos representan.
Aunque como veremos más adelante, hay algunas propiedades muy es-
peciales del ejemplo que lo hacen totalmente engañoso, especialmente
para el cultivador de la semántica interesado en los aspectos cognitivos
del lenguaje humano. Una de ellas es la naturaleza abstracta de los nú-
meros, los valores de la [unción dentO' Otra, es la independencia de la
denotación de hcc hos contingentes acerca de las cosas referidas (contrás-
tese la denotación de «2014» con la denotación de «el actual presidente
de Estados Unidos»). Otra más es la independencia de la denotación de
cualquier hecho acerca del hablante. o usuario del símbolo (contrástese
esto con la denotación de «el líder de mi país»). Sin embargo, manten-
gamos este ejemplo por ahora y veamos qué podemos aprender con él
acerca de la aproximación de los lógicos a la semántica.
Hay una cuestión básica sobre la relación entre semántica y ciencia
cognitiva a la que deberíamos dirigir nuestra atención directamente. La
ciencia cognitiva intenta comprender lo que está ocurriendo, por decirlo
así. «en la cabeza». Pero nótese que el ejemplo de arriba caracteriza una
función que va desde expresiones a números, ninguno de los cuales está
en un sentido obvio «en la cabeza», ¿Por tanto, qué relevancia puede
tener una explicación tal para un científico cognitivo, incluso para uno
interesado en nuestra habilidad para comprender números de base diez?
¿No está ella dejando escapar el ingrediente crucial, es decir, alguna
referencia a las estructuras mentales que la gente usa para representar
números'!
Para responder a esta objeción, permítasenos mirar con un poco
más de detalle nuestra explicación de la función dentO' Nuestra prime-
ra caracterización utiliza 10 que podría denominarse una recursión de

273
derecha a izquierda. Por ejemplo, la denotación de «2014~> es descrita
en términos de la denotación de «20] '> Y la denotación de «4», y la de-
notación de «20 l ~> es entonces descrita en términos de la denotación de
«2(h y de la denotación de «l », y así sucesivamente. Sin embargo esta
no es la única forma de describir la semántica del sistema de notación de
base diez. Por ejemplo, podemos dar una descripción alternativa de esta
misma función. utilizando una rccursión de izquierda a derecha. Permí-
tasenos usar long ((Y.) para la longitud de la cadena o, Así. long( «2014>\)
es cuatro. Ahora podríamos sustituir la anterior cláusula recursiva por
la siguiente:

Desde el punto de vista de la semántica matemática estas dos des-


cripciones son equivalentes porque describen la misma función de de-
notación. Sin embargo. ellas sugieren formas totalmente diferentes en
las que la gente podría realmente comprender y procesar la notación
decimal. Es bastante interesante que la descripción más complicada (la
segunda) sea la más cercana a la forma en que se nos enseña la notación
decimal en la escuela primaria e, introspectivamentc, parece que mode-
liza con más precisión la manera en que comprendemos los númerales
complejos". Así. el cultivador de la semántica cognitiva. el dedicado a
ver cómo procesamos realmente los numerales decimales. podría muy
bien juzgar que la segunda explicación es preferible a la primera. Por
supuesto que la pregunta de si éste es o no un modelo mejor de nuestra
comprensión de los numerales no puede ser respondida con independen-
cia de una explicación de otros procesos cognitivos relacionados. como
contar. sumar y otros por el estilo.
Una forma de entender lo que aquí ocurre es por analogía con la
modelización computacional de los procesos cognitivos. El practicante
de lA construye un programa de computadora para modelizar un proce-
so cognitivo específico, uno que da lugar a ciertos outputs dados ciertos
inputs. Los procesos cognitivos modelizados pueden ser tan diversos
como el reconocimiento de patrones. el juego de ajedrez o el diagnósti-
co médico, pero en cada caso el objetivo total del programa es imitar o

\ Por ejemplo. no ... han en -eñado que t< 2014,) representa 2 millares. O centenas, I de-
cena y 4 unidadc .., esto ex. .2 )(103 + () x 10~ +.\ x 10\ + 4. Nuestra segunda recursión
es también conocida como «recursión de coja». un tipo de rccursion que es más tratable
computacionalmcntc.

274
reproducir, a cierto nivel de abstracción, la conducta l/O asociada con el
proceso. El hecho de que esto se consiga con un programa finito que se
ejecuta en una máquina finita hace claramente a un programa exitoso de
interés para el científico cognitivo. Por supuesto que de esto no se sigue
que el algoritmo específico incorporado en el programa corresponde a la
manera en que los humanos llevan a cabo la tarea. sin embargo ello pro-
porciona un método para lo que no teníamos ninguno anteriormente.
Hay dos rasgos de la modelización en lA que son relevantes para
nuestra analogía. El primero es que el interés en esta modelización sur-
ge de la tensión entre la necesidad de hacer cierta tarea complicada y el
requerimiento de que sea hecha en una máquina de un tipo razonable-
mente limitado. En el caso del ajedrez, por ejemplo. no es posible en la
práctica para la computadora explorar todas las continuaciones posibles
del juego y elegir una jugada garantizada para ganar. Más bien el algo-
ritmo debe computar su función desde estados del tablero a estados del
tablero utilizando recursos muy limitados. El segundo rasgo es el corte
que la lA emplea en cualquier problema particular. Así, en el ejemplo
del ajedrez abstraemos muchos detalles del juego real de ajedrez, como
el problema de reconocer las piezas de ajedrez o de moverlas físicamen-
te por el tablero. Más bien se aisla un aspecto importante de las partidas
de ajedrez reales como el único que se intenta modelizar.
La manera en que el que se dedica a la lógica se aproxima a la
semántica es análoga a la manera en que la lA se acerca a la modeliza-
ción de la inteligencia. Primero abstrae muchos detalles del uso real del
lenguaje, como las cuestiones fonéticas, los efectos de la entonación y
los usos metafóricos del lenguaje. Y como en el caso de la lA. el interés
descansa principalmente en la tensión entre la necesidad de especificar
un objeto complejo y el requerimiento de que sea hecho de una mane-
ra finita. Por ejemplo, conseguimos describir la función infinita den¡O
con dos teorías finitas muy simples, y ambas sugieren algoritmos que
podrían estar involucrados en la comprensión de la notación decimal.
Aquí nos encontrarnos en la ventajosa situación de poder comparar las
teorías en términos de elegancia matemática y plausibilidad cognitiva o
computacional.
De nuevo la situación es análoga a la modelización en lA en la que,
en general, habrá más de un algoritmo para llevar a cabo una tarea dada.
Puede muy bien ocurrir que de los dos algoritmos, uno sea más elegante
o eficiente. mientras que el otro es un mejor modelo cognitivo de cómo
la gente lleva a cabo la tarea. En tal caso los intereses del investigador

275
en lA Ydel científico cognitivo pueden muy bien diverger. Por supuesto
que es bien sabido que los problemas en lA se han mostrado extremada-
mente difíciles. Por esta razón el que se dedica a lA está principalmente
interesado en producir algún programa que se aproxime a la conducta
deseada. Una vez que se consigue esto, el investigador puede intentar
encontrar más de uno y compararlos para ver cuál es el más elegante.
eficiente o plausible cognitivamente.
De manera similar, la tarea de los cultivadores de la semántica del
lenguaje natural se ha mostrado extremadamente difícil. El cultivador de
la semántica se ocupa de producir al menos una teoría finita matemática-
mente precisa que caracterice los significados de las expresiones en un
lenguaje infinito. Cuando contamos con dos teorías tales podemos desear
juzgar entre ellas sobre la base de criterios varios, dependiendo de nues-
tros objetivos. La persona interesada en construir un interfaz del lenguaje
natural para computadoras se centrará en las cuestiones de elegancia y
eficiencia. El científico cogn iti \'0 se centrará por contra en la plausibi Iidad
de la explicación como modelo cognitivo. Estos intereses diferentes pue-
den terminar tirando en direcciones totalmente distintas.
En este capítulo consideraremos varios acercamientos a la tarea
semántica que se han desarrollado desde la tradición en lógica, acer-
camicntos que generalmente se conocen como semántica modelo-teó-
rica. Nuestro objetivo no es simplemente examinar panorámicarnente
estas aproximaciones u orientar al lector hacia la literatura relevante.
Más bien esperamos dar al lector una idea de algunas de las técnicas
importantes que son comunes en las aproximaciones modelo-teóricas.
Para hacer esto en el espacio disponible. ilustraremos en algún detalle,
una explicación semántica totalmente tradicional, conocida como la se-
mántica madeja-teórica extensional. Después. mucho más brevemente,
discutiremos adiciones y enmiendas a esta teoría que provienen de sus
principales competidoras. Sin embargo, las teorías rivales que conside-
raremos no difieren una de otra en la forma en que lo hacen nuestras des-
cripciones de den ¡o. Allí teníamos una función que fue caracterizada de
dos formas diferentes. Pero ni siquiera es obvio que sea esta descripción
de la función en la que el cultivador de la semántica cognitiva estaría
más interesado. Por ejemplo, una aproximación alternativa a la semánti-
ca de los numerales podría caracterizar una relación Con! (a, B), que se
cumple entre un numeral a y cualquier conjunto B que tiene el número
apropiado de objetos. Uno podría imaginar un argumento según el cual
la relación Cont permite acceder a algo más directamente relevante en
relación al uso de los numerales por parte de la gente. Por supuesto, esto

276
no es algo que pueda ser definitivamente juzgado con independencia del
resto de nuestra explicación semántica y cognitiva.

2. Dimensiones del Análisis Semántico

Antes de mirar nuestra teoría semántica de muestra. será de ayu-


da hacer unas pocas observaciones acerca del proyecto general de la
semántica modelo-teórica. ¿Qué podemos esperar razonablemente de
una explicación semántica de este tipo? ¿Qué apariencia mostrará y qué
clase de cosas explicará?
Puesto que estamos apuntando a una teoría científica del lenguaje,
nuestra explicación debería ser primero y ante todo clara y matemática-
mente rigurosa, exactamente en la forma en que nuestras dos explica-
ciones de la función de denotación dent¿ lo son. Mucha gente enfrentada
a la idea de una explicación precisa del lenguaje manifiesta la siguiente
objeción. ¿Cómo podemos esperar una teoría así cuando gran parte del
lenguaje es por su misma naturaleza ambiguo, impreciso y vago? ¿Qué
diría dicha teoría acerca de una oración vaga y ambigua como «El banco
está por ahí en alguna parte» o acerca de una oración usada por su fuerza
poética?
Esta objeción está mal concebida. Del hecho de que, por ejemplo,
mucho del lenguaje ordinario sea vago no se sigue que uno sólo pueda
decir cosas vagas sobre él. De manera similar es ciertamente posible
dar una explicación 110 ambigua de varias formas de ambigüedad. Una
teoría semántica vaga y ambigua es tan insatisfactoria como una teoría
física vaga y ambigua, y exactamente por las mismas razones. Es inne-
gable que fenómenos tales como la vaguedad. ambigüedad y demás pro-
porcionan retos adicionales al cultivador de la semántica, pero son retos
que necesitan ser satisfechos desarrollando herramientas matemáticas
apropiadas para aplicarlas a estos fenómenos, no por simple abandono
de los métodos precisos de investigación.
¿Que clase de cosas podría explicar una teoría semántica? El len-
guaje es una herramienta extremadamente sutil y flexible y consecuen-
temente hay multitud de fenómenos que podríamos esperar explicar con
dicha teoría. Observamos que el que se dedica a la semántica está for-
zado a efectuar uno u otro corte en el fenómeno más bien amorfo del
lenguaje. prestando atención a ciertos fenómenos aisladamente de otros.
¿Qué corte efectúan típicamente los dedicados a la semántica modelo-

277
teórica? De hecho los cultivadores de la semántica se han concentrado
en diez o doce conceptos clave, incluyendo

- el vignificado lingüístico de las expresiones.


- el contenido proposicional de los enunciados,
- la significación cognitiva de los enunciados.
- la referencia,
- la indcxicalidad y la sensibilidad al contexto.
- la compositividad.
- la verdad,
- la implicación,
- la ambigüedad.
-- la presuposición.

Estos conceptos son fácilmente ilustrados con un simple ejemplo.


Considérense las primeras palabras dichas por Alexander Graham BeU
por el teléfono: «Venga aquí Watson. Le necesito a usted.. Vernos que
hay dos clases diferentes de oraciones aquí, una imperativa que expresa
una orden y una declarativa que expresa una aserción. Hasta ahora. la
mayor parte del trabajo en semántica se ha concentrado en el significa-
do de las oraciones declarativas. Esto es debido a una falta de interés
por otras clases de oraciones, digamos, imperativas e interrogativas, o
por otros tipos de «actos de habla», digamos, ordenar, preguntar y pro-
meter. La razón de esta focalización es primariamente histórica. Como
hemos señalado, los cultivadores de la lógica han jugado un papel cen-
eral en el desarrollo de la semántica modelo-teórica y en gran parte
su interés nace del deseo de comprender las relaciones de implicación
entre oraciones declarativas, Puesto que la mayoría del trabajo que exa-
minaremos trata de oraciones declarativas. centrémonos en la segunda
oración de Bell,

A un nivel ingenuo lo mínimo que esperaríamos de una explicación


semántica de esta oración es dar cuenta de su significado. ¿Pero cuál es
exactamente su significado? ¿Significa que Bell necesita (necesitaba) a
Watson? En cierto sentido sí, porque esta es la aserción que Bell hizo
al pronunciar la oración. Pero en otro sentido sin duda el significado no
tiene nada que ver con Bell y Watson; la misma oración con su mismo
significado ha sido pronunciada incontables veces por otros hablantes a
otros oyentes, para hacer aserciones totalmente diferentes. Así. si otro
hablante, digamos Watson. dijera «Le necesito a usted» a algún otro
oyente. digamos Bell, la aserción sería diferente. Pero el significado de
la oración no habría cambiado.

278
Por tanto, de repente tenemos que distinguir dos sentidos del tér-
mino «significado». Por un lado hay un significado que se aplica a las
expresiones mismas, independientemente de quiénes las usen. Es el sig-
nificado en este sentido el que permanece inalterado si nuestra oración
es dicha por Bell a Watson o por Watson a Bel!. Por otro lado. tenemos
el significado de un uso particular de una expresión -en el sentido en
el que el uso que hace Bell de «Le necesito a usted» significaba que Bell
necesitaba a Watson. Denominaremos a este último el contenido de la
preferencia. AsÍ, diremos que el significado de nuestra oración perma-
nece el mismo en los dos casos, aunque el contenido difiera.
Una cosa que podríamos razonablemente esperar que una teoría se-
mántica explicara es la relación entre el significado de una expresión y
el contenido de un uso particular de ella. Presumiblemente esto introdu-
cirá aspectos del contexto en el que la expresión es usada. Por ejemplo,
los hechos acerca de quién está hablando, cuándo tiene lugar el enun-
ciado y a quién está siendo dirigido son todos factores importantes para
determinar el contenido y valor cognitivo de un uso dado de la oración
«Le necesito a usted.»
Como señalamos en la sección l., el reto principal de la semántica
modelo-teórica es dar cuenta de la relación sistemática entre el signi-
ficado de las expresiones complejas y el significado de sus partes. En
nuestro ejemplo necesitamos explicar cómo el significado de la oración
«Le necesito a usted» está relacionado con el significado de sus partes,
pur ejemplo, al significado de la palabra «usted». Pero ¡14Uí tenemos el
mismo tipo de división que arriba. La palabra por sí misma tiene cierto
significado fijo que permite a diferentes hablantes referirse a diferentes
oyentes en diferentes ocasiones. Pero si preguntamos qué significa «us-
tcd» en el uso particular que hace Bell, la respuesta sería Watson -la
persona a la que se refiere. Diremos que el significado de «usted» es
lo que permanece inalterado en los distintos usos, aunque la referencia
pueda cambiar de uso a uso.
Dos conceptos relacionados que se han mostrado cardinales en la
semántica modelo-teórica son las nociones de verdad e implicación. El
interés del cultivador de la semántica por la noción de verdad puede
parecer un poco sorprendente en una primera mirada. Después de todo,
especificar qué oraciones o usos de oraciones son de hecho verdaderos
no e~ parte de la actividad del que ~e dedica a la semántica, si lo fuera,
la tarea sería obviamente desesperada. La manera en la que la noción de
verdad figura en muchas teorías semánticas es la siguiente. Parece ra-

279
zonable suponer que una parte crucial de lo que comprendemos cuando
conocemos el significado de una oración declarativa no es si es de he-
cho verdadera sino más bien bajo que condiciones puede ser usada para
hacer una aserción verdadera. Por ejemplo. un hablante que domine el
castellano sabe que cualquier uso particular de la oración «Le necesito a
usted» será verdadero cuando y sólo cuando el que dice la oración nece-
sita a la persona a quien se dirige la oración. Es este conocimiento, más
la asunción de que Bell está diciendo la verdad lo que permite a Watson
concluir que le necesita y a actuar en consecuencia. AsÍ, ha supuesto un
gran impulso para la semántica el intentar caracterizar el significado de
las oraciones declarativas en términos de las condiciones bajo las que
son verdaderas. o más precisamente, las condiciones bajo las que pue-
den ser usadas para hacer aserciones verdaderas.
Este interés por las «condiciones de verdad» de las oraciones está
relacionado con la implicación de manera directa. La idea es que una ora-
ción implica una segunda sólo en caso de que cualquier condición bajo la
que la primera sería verdadera es también una condición bajo la que la se-
gunda sería verdadera, Por ejemplo, la aserción de Bell de que necesitaba
a Watson implica que él necesitaba a alguien. Si la primera fuera verdade-
ra, también In segunda lo sería. Esta caracterización de la implicación en
términos de condiciones de verdad nos proporciona una forma importante
de someter a prueba teorías semánticas. Así, un criterio común para una
teoría semántica es que dé lugar a predicciones que cuadren con nuestros
juicios semánticos prctcóricos acerca de las relaciones de implicación en
el lenguaje sometido a estudio. Si nuestra teoría semántica predijera que
la aserción de Bell, implica, digamos, que él necesita a todo el mundo,
entonces nuestra teoría claramente ha fracasado.
Otras dos nociones que han recibido una atención considerable en
las teorías semánticas usuales son las de ambigüedad y presuposición.
Queremos una teoría que explique por qué -Un estudiante habló en {O-
das los cursos» podría ser usada para significar dos cosas totalmente
diferentes -que hay un estudiante panicular que habló en todos los cur-
sos, o que en cada curso hubo al menos un estudiante que habló. Nuestra
teoría debería explicar por qué este tipo de ambigüedad surge aquí, pero
no surge con, digamos, la oración «Un estudiante de cada curso habló».
De manera similar deseamos explicar la intuición por la que el uso de
«ambos» en «Les necesito a ambos» presupone que hay exactamente
dos oyentes en una forma que «Necesito a dos de ustedes» no lo hace.
¿Exactamente qué es eso relativo a 10:-1 significados de «ambos» y «dos»
que tiene este efecto?

280
Estas son algunas de las preguntas a cuyas respuestas han dedicado
mucho esfuerzo los cultivadores de la semántica. Hay muchos otros fe-
nómcnos semánticos que también podrían ser estudiados pero que han
recibido menos atención. En este capítulo discutiremos varias aproxi-
maciones que han sido adoptadas para estos fenómenos.

3. Lenguajes Diseñados

Los acercamientos a la semántica que discutirnos difieren en algu-


nos de los fenómenos que tratan de explicar. pero comparten algunas
característica'. metodológicas. La más llamati va de ellas es que usan
lenguajes diseñados simples. antes que un lenguaje natural indepen-
diente o incluso fragmentos de uno. Para el no iniciado. diseñar y es-
tudiar un lenguaje artificial puede parecer una forma desconcertante
de aproximarse al estudio de los lenguajes humanos. Pero de hecho
hay una buena razón que 10 justifica. Los cultivadores de la semántica
diseñan lenguajes simples que exhiben las características semánticas
que son habitualmente de interés, mientras suprimen esas característi-
cas que desean mantener fijas o en otro C3.~0 ignoradas en sus explica-
ciones. Este es parte del acotamiento al que los dedicados a la semán-
tica someten a su materia objeto de estudio. Los lenguajes diseñados
son tratados como un modelo simplificado de lo... lenguajes humanos
o. al menos. de algunos de .'-IUS rasgos. De la misma forma que en los
acercamientos de la l A al ajedrez ~e dejan de lado muchos detalles de
las habilidades de la gente jugando al ajedrez, así también el uso de
lenguajes diseñados permite al cultivador de la semántica dejar fuera
muchas cuestiones sintácucas y morfológicas que de otra manera po-
drían oprimir la empresa".
Para justificar las elecciones particulares que hacemos para nues-
tro lenguaje artificial, perrnftasenos recordar el famoso pasaje en el
que Galileo es llamado ante el papa para discutir sus ideas acerca del
lugar de la Tierra en el sistema solar. Simplificando un poco la histo-

1 Al usar esta técnica, por supuesto. hay un peligro. porque simplificando las asun-

ciones hechas a nivel sintáctico o semantico se pueden prejuzgar resultados semánticos


de forma imprevista. Un caso a propósito e~. el una ve; popular, tratamiento del tiempo
de modo que involucre un operador oracional, lo que desafía a la sintaxi ... del lenguaje
natural. El resultado de esto no es sólo una simplificación sintáctica inocua. sino que
hace imposible un tratamiento viable del tiempo.

281
ria supongamos que aconteció de la siguiente manera. Galileo dice al
papa: «Ella gira alrededor del sol». El papa no cree a Galileo. pero se
forma una creencia verdadera, es decir, que Galileo no cree que la Tie-
rra está en el centro del universo. ¿Qué es lo que podemos esperar que
sea explicado por una teoría semántica respecto a esta interacción?
Ciertamente ella no explicará cómo Galileo llegó a creer lo que él cree,
esto es, 10 que le llevó al estado mental que le condujo a hacer dicho
aserto herético. Sin embargo. debería explicar por qué la oración ele-
gida por Galileo es apropiada para expresar la afirmación que él desea
expresar, mientras que la mayoría de las oraciones que podría haber
pronunciado habrían sido inapropiadas. Parte de esta explicación in-
volucrará una justificación de cómo esta oración sirvió para expresar
un aserto verdadero. Pero esta no puede ser la explicación completa.
Muchas oraciones verdaderas habrían fracasado en la tarea de expre-
sar la creencia de Galileo. Por último, la explicación también debería
decir algo sobre la relación entre el aserto de Galileo y la inferencia
del papa acerca de las creencias de Galileo.

La Sintaxis del Vú:io Zealandish

Perrnítasenos comenzar diseñando un lenguaje simple para usarlo


en la modelización de interacciones como la de arriba. Este lenguaje
al que denominaremos Viejo Zcalandish. es un híbrido de la lógica
de primer orden y el castellano. Será tan similar a lenguajes familia-
res que el lector debería poder adivinar los significados propuestos de
la mayoría de sus expresiones. Por otro lado, será lo suficientemente
diferente para recordar al lector que no es castellano. Al diseñar nues-
tro lenguaje dejamos de lado las cuestiones de tiempo, al menos por
ahora. Puesto yue el sistema solar es bastante estable, el tiempo no es
muy importante. Más adelante dio nos permite aunar el tratamiento
de sintagmas verbales como «se mueve alrededor del sol» y nombres
comunes!" como «el planeta que se mueve alrededor del sol» y llamar
a ambos sintagmas predicativos. Nuestro lenguaje tendrá sintagmas
predicativos. sintagmas nominales (incluyendo nombres y variables)
y oraciones, Necesitaremos algunos conectores como «o» e <Y> para
formar oraciones compuestas y algunos determinantes como «todo» y
«ninguno» para formar sintagmas nominales complejos. He aquí las
reglas sintácticas de nuestro lenguaje seguidas por algunos ejemplos
de oraciones del Viejo Zealandish
l. SINTAGMAS PREDICATIVOS

(a) Sintagmas predicativos básicos:


Planeta, Centro, Cosa, MueveAlrededor. Mayortjue"
Los dos primeros son denominados predicados monádicos ; los dos
últimos son denominados predicados diádicos.
°
(b) Sintagmas predicativos complejos: si es una oración que con-
tiene una variable v, entonces vArOl es un predicado monádico.

2. SINTAGMAS NOMINAI.ES

(a) Sintagmas nominales básicos:


Tierra, Marte. Sol. Luna, x, y. Z. XI' Y1, zl'"""
Los cuatro primeros sintagmas nominales son nombres; los restan-
tes son llamados variables.
(b) Sintagmas nominales complejos: Si P es un sintagma predicati-
vo monádico y Det es un determinante, entonces Dct P es un sintagma
nominal''.

3. ORACIONES

(a) Oraciones básicas: si P es un predicado monádico y t es un sin-


tagma nominal básico, entonces (t P) es una oración. Análogamente si R
es un predicado binario y t, t/ son sintagmas nominales básicos, enton-
ces (t R t ') es una oración.
(b) Oraciones complejas: si SN es una sintagma nominal complejo y
P es un sintagma predicativo monádico, entonces SN Pes una oración.
(e) Oraciones compuestas: Si 01 Y 02 son oraciones, entonces tam-
bién 10 son .°1, (011\ 0::,), (01 V 02)' Los signos " 1\, \1 son leídos no,
y y 0, respectivamente.

, Puesto que siempre hablamos acerca del Viejo Zaelandish, pero nunca lo ha-
blamos. todas la, apariciones de expresiones del Zaelandísh en este capítulo debe-
rf.m estar entrecomilludu-. Pero p.u-a hacer las cosas rruis legibles, omitiremos la ...
corrulla-, 'j uvarernos tipos de letra distintos. Así. escribiremos MayorQue en lugar
de <MayorQuc-.
¡, A:.Í, el ,inti.lgm~l nominal complejo Toda Cosa funciona corno el símbolo de cuanti-

ficación 'el de la lógica de primer orden y Alguna Cosa funciona como 3.

283
4. DETERMINANTES

Tendremos tres conjuntos de determinantes correspondientes a tres


fragmentos del Viejo Zealandish de tamaño creciente:
(a) Los determinantes del fragmento A:
Todo. Algún / Alguna, Ningún / Ninguna. LaMayoría
(b) Los determinantes del fragmento B:
Todo, Algún / Alguna, Ningún / Ninguna / Ninguno (de los dos),
LaMayoría, Nada, Ambos, El [4].
(c) Los determinantes del fragmento C:
Todo. Algún / Alguna, Ningún / Ninguna / Ninguno (de los dos),
LaMayoría, Nada. Ambos. EL Muchos, Pocos
Esta es una definición mutuamente recursiva de los conjuntos de
expresiones de las distintas categorías mencionadas. Para aquéllos más
familiarizados con las gramáticas de estructura sintagrnática, esta defi-
nición puede ser establecida utilizando reglas tales como

Oración Básica
O-----¿
[ Oración Compleja
Oración Compuesta

Oración Compleja -----¿ SN Pred


SN -----¿ Det Pred

Puesto que hemos diseñado nuestro lenguaje desde el principio, so-


mos libres de estipular los significados en la forma que queramos. Pero.
ya que nuestra explicación semántica es propuesta para decir algo sig-
nificativo acerca del lenguaje natural, estipularemos significados para
nuestras oraciones de manera que reflejen la forma en que funcionan las
oraciones correspondientes en castellano, al menos con respecto a esas
dimensiones que nos conciernen en la explicación.
Veamos algunos ejemplos. La expresión

(Tierra Mueve Alrededor Sol) v (Tierra Centro)

es una oración compuesta formada a partir de la oración básica (Tierra


MueveAlrcdcdor Sol) y la oración básica (Tierra Centro) usando la regla

284
3c. La utilizaremos para modelizar la oración del castellano «El planeta
Tierra se mueve alrededor del Solo está en el centro del sistema solar».
Análogamente la expresión

Ningún Planeta x A [x MueveAlrededor Sol)

es una oración compleja formada a partir del sintagma nominal com-


plejo Ningún Planeta y del predicado complejo x A [x MueveAlrededor
Sol], utilizando la regla 3b. Para entender qué se supone que significa
este predicado complejo, nótese que x/'] ...x...] puede ser leído «es tal
que ... él.;.». Asi, esa oración corresponde a la oración del castellano
«Ningún planeta es tal que él se mueve alrededor del So1», o a la ora-
ción más natural en castellano «Ningún planeta se mueve alrededor
del Sol».
Como ejemplo final considérese esta otra oración moderadamente
complicada:

Ningún Planeta x"[ Todo Planeta yA [x Mueve Alrededor yl]

Esta oración está formada a partir del sintagma nominal comple-


jo. Ningún Planeta y del predicado complejo x A[ Todo Planeta yA [x
MueveAlrededor y]J. Este predicado complejo está. a su vez. formado
a partir de la oración compleja Todo Planeta yA[X MueveAlredcdor y],
que dice «Todo planeta es tal que x se mueve alrededor suyo» o. simple-
mente. «x se mueve alrededor de todo planeta». Nuestra oración origi-
nal corresponde entonces a la oración en castellano «Ningún planeta se
mueve alrededor de todo planeta».
Este último ejemplo enfatiza una idealización que hemos incorpo-
rado en nuestro lenguaje. En castellano. las oraciones con sintagmas
nominales con cuantificación múltiple - por ejemplo, «todo planeta se
mueve alrededor de algo»- son frecuentemente ambiguas. (¿Signifi-
ca esta oración que hay alguna cosa particular alrededor de la que se
mueve todo planeta, o significa simplemente que todo planeta se mueve
alrededor de alguna cosa u otra?) El lenguaje que hemos diseñado no
padecerá de la ambigüedad semántica correspondiente. Simplemente
señalaremos que las dos lecturas de la oración anterior corresponden a
dos oraciones en el Viejo Zaelandish. a saber,

Alguna Cosa y/{Todo Planeta x/'] x MueveAlrededor y JJ.


Todo Planeta x"[ Alguna Cosa Y"Lx MueveAlrededor y]].

285
4. Semántica Extensional Modelo- Teórica

Permítascnos construir una semántica de muestra para el Viejo Zae-


landish. Como señalamos previamente una de las tareas más importantes
de la semántica modelo-teórica es distinguir cuidadosamente las condi-
ciones de verdad de las oraciones en el lenguaje objeto y hacerlo de una
forma matemáticamente precisa. Por supuesto no es. en absoluto obvio
cómo abordar dicha tarea. Realmente los que se dedican a la semántica
en esta tradición han adoptado una variedad de aproximaciones dife-
rentes. La primera aproximación que se intentó fue desde la semántica
extens ional modelo-teórica; otros acercam ientos f ucros dcsarroll adas
como reacción a una serie de dificultades percibidas con ella. La discu-
tiremos con algún detalle y luego consideraremos brevemente algunas
alternativas que son habitualmente propuestas.
Es obvio que las oraciones no son verdaderas o falsas por sí mismas.
Primero, como señalarnos previamente. los lenguajes tienen multitud de ex-
presiones relativas. tales como «yo», «tú». «muchos» y otras. Es claro que
tiene poco sentido hablar de la verdad de una oración que contiene estas
expresiones sin introducir detalles sobre una preferencia particular de la
oración. Pero incluso cuando dejamos de lado dichas dependencias contex-
tualcs, que es lo que haremos pare! momento, las oraciones no son verdade-
ras por sí mismas. Si una oración (o una aserción hecha por algún uso de la
oración) es verdadera o no, tiene algo que ver con el mundo, con la manera
en que son realmente las cosas. Por ejemplo, en el caso de la aserción de
Galileo de que la Tierra gira alrededor del Sol. un hecho acerca del sistema
solar es el responsable de su verdad. Si el sistema solar hubiera estado con-
figurado de manera diferente. digamos. en la forma en que el papa pensaba
que lo estaba, entonces la aserción de Galileo habría sido falsa.
Parte de lo que nuestra teoría semántica pretende capturar es el con-
tenido del conocimiento del hablante de las condiciones de verdad de
las oraciones de su lenguaje. Esto es, el hablante debería dar una expli-
cación explícita de la relación entre oraciones y hechos no lingüísticos
sobre el mundo, que apoyase la verdad de una aserción hecha con la
oración. Lo que todos los hablantes competentes del castellano sabemos
sobre el significado de «El Sol se mueve alrededor de la Tierra» son
las condiciones bajo las que sería verdadera. Lo que algunos hablantes
del castellano saben además, es que es falsa. Pero esto no es parte de
su competencia semántica. Así, lo que perseguimos e~ una explicación
explícita de la dependencia de la verdad de una oración de estados de
cosas típicamente no lingüísticos.

286
Para proporcionar un análisis riguroso de esta dependencia, la se-
mántica modelo-teórica primero desarrolla alguna maquinaria para
representar estos estados de cosas no lingüísticos. Para hacer esto han
sido utilizadas una variedad de técnicas. pero todas ellas concuerdan
en la metodología general. Concretamente, todas se sirven de los re-
cursos proporcionados por la teoría de conjuntos para construir mo-
delos simples del mundo o de porciones del mismo. La teoría de
modelos extensional adopta la aproximación más directa. Ésta mode-
liza propiedades de cosas y relaciones entre ellas de la misma forma
que la teoría de conjuntos modeliza propiedades y relaciones mate-
máticas: los conjuntos modelizan propiedades, los conjuntos de pares
ordenados modelizan relaciones binarias, los conjuntos de tripIetes
modelizan relaciones ternarias, etc. Así, el hecho de que un objeto
tiene una propiedad particular es modelizado mediante la pertenencia
del objeto al conjunto tomado para representar esa propiedad. Por
supuesto que los conjuntos son «cxtensionalcs», esto es. la identidad
de los conjuntos es determinada totalmente por sus miembros. Así. en
la teoría de modelos extensional dos propiedades son representadas
como distintas sólo si hay objetos que tienen una de ellas pero no la
otra.
Para proporcionar dicho marco a nuestra semántica, introducimos
la noción de un modelo H' del mundo. Puesto que nuestro lenguaje está
diseñado para usarlo al hablar del sistema solar, podríamos pensar en
estos modelos como modelos matemáticos del sistema solar. Para con-
seguir la dependencia mencionada arriba, deseamos modelos no sólo de
la forma en que el sistema solar está realmente configurado sino también
de todas las otras posibles configuraciones. Uno de esos modelos será
distinguido como el modelo propuesto. aquél que representa el sistema
solar tal y como es realmente.
Un modelo w consistirá de una par ordenado «D.]», donde D es al-
gún conjunto y fes una función definida sobre los ítems léxicos básicos
del Viejo Zaelandish. Enseguida impondremos varias condiciones a D y
f El conjunto D representa el dominio del discurso y, por tanto, es fre-
cuentemente denominado el dominio o universo del modelo. Podemos
pensar en los objetos de D como objetos que representan la totalidad
de los cuerpos celestes (en alguna configuración posible) del sistema
solar. La función f asignará varios tipos de cosas a las expresiones bá-
sicas del Viejo Zaelandísh. Por ejemplo. asignará un subconjunto del
dominio D al predicado monádico Planeta. El conjunto f (Planeta) se
concebirá como una representación de la «extensión» del predicado en

287
este modelo, esto es, como representación de la colección de los plane-
tas (como opuestos a los satélites. asteroides, etc.) en el sistema solar.
Análogamente, la funciónfasignará un elemento de D a el nombre Tie-
rra y este elemento será adoptado como representante de la Tierra 7 • Por
conveniencia escribimos D1,1,' para referirnos al dominio de un modelo
w. De manera similar, dado un ítem léxico Abe, escribimos Abcw para
expresar el valor que la funciónfasigna a Abe. esto es, para expresar el
valor de f (Abe).
Ahora imponemos algunas condiciones naturales en esos modelos.
Primero. requerimos que P" sea un subconjunto de D" para cada sintag-
ma predicativo monádico básico P. Además establecemos que el valor
de Cosa" sea el conjunto DI<. Para un predicado binario R requerimos
a continuación que R" sea un conjunto de pares <a. b», donde tanto
a como b son miembros de D\\'. Por último. requerimos que para cada
nombre t del fragmento, t'' sea algún objeto en DH'·
Esto toma en cuenta todos los ítcms léxicos simples de nuestro
lenguaje excepto los determinantes. ¿Cómo deberíamos tratar éstos?
La idea básica es que los determinantes expresan una relación entre las
extensiones de los sintagmas predicativos monádicos. Así, la oración
Ningún Planeta Centro asevera que las extensiones de Planeta y Cen-
tro son disjuntas. Puesto que nuestros modelos asignan conjuntos a
los predicados monádicos, nosotros asignaremos una relación binaria
entre conjuntos a los determinantes. Dada nuestra forma de modelizar
relaciones, esto se reduce a usar un conjunto de pares <.4, B>. en los
que A y B son subconjuntos de Dw. Así, a cada determinante Del le
asignaremos una relación (en teoría de conjuntos) Dctw entre subcon-
juntos A y B de nuestro dominio del discurso Dw. La idea es que una
oración de la forma Det PQ sea verdadera en el modelo l-i". sólo en caso
de que el par <A., B> que consta de las extensiones de P y Q respecti-
vamente, esté en Dctw.
Los determinantes del fragmento A son Todo, Alguna. Ningún y La-
Mayoría. Para estos determinantes especificamos sus extensiones (dado
un dominio DH' del discurso) como sigue. Aquí «(A), y ,(8» recorren sub-
conjuntos de DII.

7 La función f es a \ eccs denominada «función de interpretación». Pensamos que

e..ta terminología e~ desafortunada por razones que se harán manifiestas más adelante en
el texto, en relación ól\ problema de la factorización.

288
Todo~ :=: {<A. B> I A e B}
Algúnw > {<A, B> \ A r, B *- 0}
Ningúnw :::; {<A. B> lA (\ B :::; 0}
LaMayoríaw = {<A, B> I card (A n 8) > card (A-B) y

Para relacionar el concepto de verdad en un modelo con nuestro


concepto ordinario de verdad necesitamos la noción de modelo es-
tándar. Con este lenguaje el modelo estándar es el modelo wa cuyo
domino D'r1.'() consiste en los cuerpos celestes de nuestro sistema solar.
A los nombres les son asignadas sus referencias usuales, por ejem-
plo. Tierrawo es el planeta Tierra y Luna'?' es el satélite de la Tierra.
Análogamente a cada predicado le es asignada su extensión usual. Por
ejemplo, Planeta':" es el conjunto de todos los planetas en nuestro sis-
tema solar y Centro'?" es el conjunto de las cosas que están en el centro
del sistema solar, esto es, el conjunto cuyo único elemento es el Sol.
MueveAlrededor':" es el conjunto de pares <a, b> tales que a orbita
alrededor de b, y demás.
Dado este marco. podemos comenzar a dar una semántica para el
fragmento A. Como se señaló, uno de los objetivos principales es exami-
nar las condiciones bajo las que una oración O cualquiera es verdadera
en un modelo w cualquiera. Sin embargo, también necesitamos asignar
valores semánticos a ciertas otras expresiones complejas del lenguaje.
Así, necesitamos asignar una extensión a todo sintagma predicativo, y
no únicamente a los básicos. Por ejemplo, en el análisis de la siguiente
oración

(1) Alguna Cosa xAlNingún Planeta yA[X MueveAlrededor y]]

necesitaremos contar con una extensión para el sintagma predicativo

(2) x"[Ningún Planeta yi\tx Mueve Alrededor yl1

Supongamos que A. es el conjunto de todas las cosas en w y B es


la extensión de (2), intuitivamnete, el conjunto de las cosas que no se
mueven en torno a ningún planeta. Como ya mencionarnos, la oración

~ Mediante card (A) representarnos la cardinalidad del conjunto A. El lector no ta-


ruiliarizado con la noción de cardinalidad sólo necesita reparar en que es una medida
del tamaño de los conjuntos. Aunque conviene reparar en que esta caracterización de
LaMayoría es casi con toda certeza un modelo excesivamente simple del determinante
"La mayoría».
(1) será verdadera en un modelo \1/ sólo en el caso de que el par <A. B>
esté en Algunaw.. es decir. sólo en el caso de que algún miembro de A
sea también miembro de B. Así. claramente necesitamos asignar exten-
siones a sintagmas predicativo como (2).
Esto genera una par de problemas. Intuitivamente, la extensión de
(2) e~determinada sucesivamente al analizar por partes la oración

(3) Ningún Planeta y A [x MueveAlrededor y JJ

Esto nos conduce por partes al sintagma predicativo

(4) yA[X MueveAlrededor vll

el cual, nos lleva, por último a la oración

(5) x Mueve Alrededor y

con lo que parece que el análisis de oraciones presupone el análisis


de predicados y el análisis de predicados presupone el análisis de
oraciones. Lo que esto significa es que no somos capaces de hacer un
análisis recursivo ..imple de ninguno de estos elementos por separa-
do. Mejor dicho. tenemos que hacer una análisis de ambos simultá-
neamente.
El segundo problema surge cuando examinamos las expresiones (3L
(4) Y (5). Por ejemplo, la oración (3) contiene una «variable libre». a
saber, x. Así, la oración es hasta cieno punto similar a la oración «Ello
no se mueve alrededor de ningún planeta». Esta oración del caste-
llano no es verdadera ni falsa por sf misma. sino que e, verdadera con
respecto a algunos objetos y falsa con respecto a otros. Necesitarnos
representar la noción de un" oración con una o müs variables libres que
es verdadera con respecto a ciertos objetos. Lo que deseamos es que el
sintagma predicativo (2) represente el conjunto de objetos con respecto
a los que la oración (.3) es verdadera.
La manera de hacerlo es con la noción de una asignacion a las
variables y la noción asociada de una asignación a las variables que
satisface una oración O. En el caso en que una oración no tenga V3-
riublex libres, una asignación a las variables satisfará la oración si y
sólo si la oración es verdadera; si la oración tiene variables libres, la
asignación satisfará (a oración si la oración es verdadera con respecto

2~O
a los objetos asignados a las variables correspondientes. Formalmen-
te. definimos una asignación g a las variables como una función desde
las variables x, y. Z ... , al domino DW de un modelo w dado. Escribi-
mos Val (O, w. g) = verdadero, si O e~ satisfecha en w por la asig-
nación g a las variables", Ejemplos como (4) muestran que también
debemos tomar la noción de extensión de un predicado como relativa
a una asignación a las variables. Intuitivamente, la extensión de (4)
debería ser el conjunto de objetos que se mueven alrededor de aquello
que x representa. Escribiremos Ext (P, w, g) = E. si E es la extensión
del sintagma predicativo P en w con respecto a la asignación g. La
idea principal de nuestra semántica debería estar ya bastante clara.
Para que conste damos la definición en todos sus detalles. A fin de
simplificar la formulación de algunas de las cláusulas, utilizaremos
den (t, w, R) para la denotación del sintagma nominal t en w relativa
a g, esto es,

t" si t es un nombre
Den (1, w, Ii) = [
g(t) si [ es una variable

También utilizaremos g (x---.,b) para la asignación a las variables que


es como g excepto en que asigna el objeto b a la variable x.

Lo. semántica de/fragmento A

1. EXTENSIONES DE LOS SINTAGMAS PREDICATIVOS

(a) Sintagmas predicativos básicos: Sea Abe un sintagma predicati-


vo básico. Entonces su extensión es dada por
Ex! (Abe, w. g) = Abe".

(b) Sintagmas predicativos complejos: dado un sintagma predicati-


vo vArO], su extensión es dada por
Ex! (xl\[OJ, w, g) = {e E DW IVa/ (O, w, g (v---.,c) = verdaderos

y Frecuentemente esto se escribe como W F O Ig).

29]
2. VALORES DE VERDAD DE LAS ORACIONES

(a) Oraciones básicas: Dada una oración básica de la forma (t P), su


valor de verdad es dado por

verdadero si den (t, w, g) E Ex! (P, \.1.', g)


Vall(t P), IV, g) = [
Falso si den (1, lV, g) ~ Ext (P, w, g)

El valor de una oración básica de la forma (t 1 R f 2) es dado por

Verdadero si <den (ti' W, g), den (t 2 , w, g) E


Ext (R, w, g)

Falso si <den (t., w, g), den (t 2 , w, g) 6!


Ex! (R, \.1', g)

(b) Oraciones complejas. Sea O una oración de la forma Del P Q,


donde P y Q son sintagmas predicativos monádicos. Sea A = Ex! (P, w, g)
y B = Ex! (Q. w, ~). Entonces el valor de O es dado como sigue:

verdadero si <A, B > E Dct"


Val (Det P Q, IV, g) = [
Falso sí <A, B > Fl Det\\'

(b) Oraciones compuestas: Los valores de verdad de


02 Y -,01 son definidos como sigue:
° 1 /\ 02' 01 V

verdadero si val (01'


verdadero
w.. g) = ~~11 <° 2, W, g) =

\-;,ltO, 1',0" IV, g) = [


falso en otro caso;

falso si Val (01' W, g) = Val (02' W, g) =falso


Val (O, y 02' IV, g) =[
verdadero en otro caso;

292
verdadero si Val (0 1, W, R) =falso
[ falso en otro caso.

Diremos que una oración (sin variables libres) del Viejo Zaelandish
es verdadera, únicamente en el caso de que sea verdadera en el modelo
estándar con relación a alguna asignación a las variables. Esto viene a
ser equivalente a ser verdadera en el modelo estándar con relación a toda
asignación para las variables. porque la elección de la asignación para las
variables es irrelevante en el caso de una expresión sin variables libres.
Veamos un ejemplo. Consideremos la oración

Ningún xA[x Mueve Alrededor Marte] y"[y MayorQue M arte 1

Obtengamos su valor de verdad. esto es, su valor de verdad en el


modelo estándar La denotación de Marte en
0\.'0. W() es Marte. Entonces,
en virtud de la anterior definición. la extensión del sintagma predicativo
xl\[x MueveAlrededor Marte] es el conjunto A. de todos los objetos en el
dominio que se mueven alrededor de Marte, que es el conjunto que con-
tiene los dos satélites de Marte. Análogamente, la extensión de yl\[y Ma-
yorQue Marte] es el conjunto B de los objetos del dominio del discurso
que son mayores que Marte, La oración como un todo es verdadera si y
sólo si el par <A, B > está en Ningún WIJ,esto es, sólo en el caso de que
nada en A esté en B. Puesto que ninguno de los satélites de Marte está en
B. la oración es verdadera.

lmplicacion. Una de las fuerzas impulsoras de la semántica modelo-


teórica ha sido el deseo de explicar la implicación ¿Exactamente qué es
que un enunciado «se siga lógicamente» de otro? Intuitivamente. una
oración es lógicamente verdadera si es verdadera en virtud de las propie-
dades semánticas del lenguaje. independientemente de cómo sean otros
hechos. Análogamente, una oración implica lógicamente a otra sólo en
el caso de que la segunda sea verdadera si la primera lo es -de nuevo,
simplemente en virtud de las propiedades semánticas del lenguaje.
Estas intuiciones inducen la siguiente definición. Sea W alguna co-
lección de modelos que representan varias formas en las que el mundo
podría haber sido. Decirnos que la oración O es lógicamente verdadera
con respecto aW a condición de que para todo W E W y toda g. Val (O.

293
W, g) =verdadero. Asimismo, decimos que la oración O implica lógi-
camente la oración O'rcon respecto a ~V) a condición de que para todo
W E W y toda g, si \id (O, w, g) = verdadero, entonces Val (O", H', g) =
verdadero.
Como ejemplo, vemos que si O es una oración cualquiera del frag-
mento A, entonces --,0 v O es lógicamente verdadera, al margen de
qué colección W elijamos. Asimismo, de acuerdo con nuestras defi-
niciones, vernos que O¡ /\ O~ implica O~ y que Todo P Q 1\ Alguna
Cosa P implica LaMayoría P Q. Mucha gente cree que las nociones de
verdad lógica e implicación lógica son sólo captadas por las definicio-
nes de arriba cuando ~v es la colección de todos los modelos. Discu-
tiremos esto con más detalle en la sección relativa al problema de la
factorización. Mientras tanto, en nuestra explicación, conservaremos
tV como un parámetro. Veamos algunas implicaciones específicas que
involucran determinantes. Primero consideraremos una clase de im-
plicacioncs que se cumplen para todos los determinantes. El tipo de
implicación que tenemos in mente puede ser ilustrado con el siguiente
ejemplo:

La mayoría de los planetas son mayores que Neptuno.


La mayoría de los planetas son planetas que son mayores que
Neptuno.

Esta e~ una inferencia válida. Esto es, cualquier situación que es


descrita con verdad por la primera (oración) debe de ser descrita con
verdad por la última (oración). Nótese que la validez de la inferencia
no depende del hecho de que utilicemos el determinante «La mayoría».
Sería igualmente válida si hubiéramos usado. digamos, «todo>', «nin-
guno», «POCOS», «ambos» o «exactamente tres». Es más, la inferencia
también opera en el otro sentido:

La mayoría de los planetas son planetas que son mayores que


Neptuno.
La mayoría de los planetas son mayores que Neptuno.

De nuevo la validez de la implicación no depende de qué detenni-


nante es usado.
Si nuestra semántica para el fragmento A es un modelo adecuado
del castellano, debería predecir que para cualquier determinante Det y
cualesquiera dos predicados P y Q, las oraciones Det P Q y Det P (P /\

294
Q) son lógicamente equivalentes!", Para ver que esto es así primero se-
ñalaremos. en términos de la teoría de conjuntos, una propiedad impor-
tante de las extensiones de nuestros determinantes. Si R es una relación
extensional entre subconjuntos de D, entonces ~e dice que R vive de
su primera coordenada (o es una relación conservadora) supuesto que
para todo A. B ~ D, <A, B> E R si y sólo si <A, A r-B> E R.
El lector puede fácilmente verificar que para cada determinante Det
del fragmento A (esto es, todo. alguna, ningún y la mayoría) la exten-
sión Det" vive de la primera coordinada. Esta simple observación desde
la teoría de conjuntos muestra que las oraciones en cuestión son en la
explicación ordinaria lógicamente equivalentes. Así, la semántica pro-
porciona una predicción correcta. Además, esperamos que en la medida
en que extendamos la semántica a otros determinantes. las extensiones
asignadas a ellos siempre vivan de su primera coordenada.
Ahora consideremos una inferencia que es lógicamente válida para
algunos determinantes pero no para otros. ¿Para qué determinantes del
Viejo Zaelandish, Det P (Q /\ R) implicará lógicamente Det P Q? Consi-
deremos un par de ejmplos en castellano.

La mayoría de los planetas son gaseosos y mayores que la Tierra.


La mayoría de los planetas son mayores que (a Tierra.

Aquí, parece que cualquier situación descrita con verdad por la pri-
mera oración es descrita con verdad por la última oración. Sin embargo
nótese que en este caso la validez es dependiente del determinante parti-
cular que hemos utilizado. La siguiente, por ejemplo. no es válida

Pocos planetas son rocosos y mayores que b Tierra.


Pocos planetas son mayores que la Tierra.

LoC\ siguientes determinantes del castellano apoyan este tipo de in-


ferencia: cada, todo. alguna, (u! nU'JlOS) dos. (al menos) tres, la mayo-
ria, muchos, ambos. Por contra, no apoyan la inferencia los siguientes:
pocos, ninguno, nada. a lo sumo dos. exactamente dos. ¿ Qué es lo que
explica la diferencia? De nuevo. nuestra teoría semántica predice las

lo Dos oraciones son lógicamente equivalentes ~i cada una de ellas implica la otra.
PIlC-;W que hcrno- incluido predicados conjuntivos en el Viejo Zaclandish, d lector de-
bería tomar P ;', Q Lomo abreviatura de v'~[(vP) A (vQ)j. donde ves alguna variable que
no está libre en Po Q.
inferencias válidas correctas y eS fácil aislar la propiedad que explica
su validez. Decimos que una relación entre subconjuntos de D es mono-
tona (creciente) en S/I segunda coordenada a si para todo .4. B ~ D, si
<A. B> E R Y B r::; B··, entonces <.A, B '> E R. La inferencia en cuestión
es una implicación lógica exactamente en esos casos en los que el de-
terminanre es monótono creciente en su segundo argumento. Para cada
uno de los determinantes todo, alguna y la mayoría del fragmento A, su
extensión en cualquier modelo es monótona en su segunda coordenada
y para éstos la inferencia es válida. Por contra, la extensión de ninguna
no es monótona creciente y la inferencia no es válida. Estos resultados
simples son ejemplos del poder explicativo de la aproximación modelo-
teórica, del tipo de respuestas claras y precisas que proporciona sobre
las relaciones de implicación en el lenguaje que se estudia.

Inferencia. En nuestra explicación de la verdad lógica y la impli-


cación introdujimos un parámetro para una colección W de modelos.
Podemos explotar este parámetro para hacer unos pOl:OS comentarios
sobre la relevancia de esta explicación en el estudio de las arquitecturas
cognitivas que subyacen a la inferencia, la contrapartida psicológica de
la implicación.
Según la explicación modelo-teórica de la implicación, saber que una
oración O es lógicamente verdadera es saber que es verdadera al margen
de cómo esté configurado el mundo no lingüístico. Asimismo, saber que
O implica lógicamente O~ es saber que O'es verdadera SI O es verdadera
al margen de cómo el mundo no lingüístico esté configurado. No se hizo
ningún intento para describir un mecanismo mediante el cual el hablante
del lenguaje podría llegar a conocer esto. En particular, la explicación no
proporcionó nada parecido a un algoritmo que un hablante pudiera usar
para determinar si una oración es lógicamente verdadera o no.
Hay una buena razón para esto. Simplemente no hay un algoritmo
para determinar si una oración cualquiera del fragmento A es l6gica-
mente verdadera. A esto se conoce como el teorema de ChUTe h ll. S i la

11 Hay muchas sutilezus en esta materia en las que no podernos entrar aquí. Sabemos
que huy una uxiomatización completa de las verüades lógicas, si uno toma W como
la colección de todos lo'> modelos: finitos e infinitos. Esto implica que la colección de
las verdades lógicas del lenguaje es «recursivamente enumerable». LlI que significa, en
términos ~enc::rale~, éS que hay un algoritmo que n0S dirá de la~ verdades lógicas y sólo
de las verdades lógicas que son verdades lógicas, pero el algoritmo no nos dará ninguna
respuesta ,i la oración no es una verdad lógica. Sin embargo. hay extensiones muy ~im­
pies del fr.igmento A. para las que incluso este débi I resultado es falso.

296
explicación modelo-teórica es un buen modelo matemático de la verdad
lógica. entonces ningún procedimiento algorítmico particular capturará
completamente nunca esta noción. Esto no quiere decir que no podamos
determinar si una oración particular es lógicamente verdadera. Sólo sig-
nifica que no hay un algoritmo fijado que funcione siempre.
Por sí mismo este resultado no dice nada acerca de la ciencia cog-
nitiva. Pero si asumimos que todos los procesos cognitivos son esen-
cialmente algorítmicos, obtenemos una conclusión moderadamente sor-
prendente, esto es, que podernos saber qué significa que las oraciones
sean lógicamente verdaderas o los argumentos lógicamente válidos pero
en general no podemos reconocer si lo son. Podría decirse que la capa-
cidad cognitiva humana se las ha arreglado para crear una roca que no
puede levantar.
Hay. por supuesto, una cuestión empírica relacionada.¿Cómo inten-
ta la gente. de hecho, determinar si una oración es lógicamente verdade-
ra o si una oración implica otra? La explicación modelo-teórica no dice
directamente nada acerca de este problema. Pero esto no quiere decir
que la explicación no pueda ser dirigida con vistas a algún avance en
ciencia cognitiva. Algunos científicos cognitivos, sobre todo Johnson--
Laird, han encontrado que esto sugiere una arquitectura subyacente, a la
que Johnson-Laird llama «modelos mentales»!". Los modelos mentales
son considerados similares a los modelos matemáticos en dos aspectos.
En primer lugar, se considera que, como nuestros modelo" matemáticos,
representan el mundo de forma «estructural» en un modo bastante di-
recto. Esta es la razón por la que son denominados «modelos» mentales
antes que, digamos. «oraciones'» mentales. En segundo lugar, los mode-
los mentales son vistos como modelos que tienen el tipo de estructura
que hace sensato preguntar si una oración cualquiera es verdadera en un
modelo dado.
Mientras la idea de Johnson-Laird fue inspirada por la semántica
modelo-teórica, podemos dar la vuelta a esta relación histórica. Aun-
que hemos pensado en nuestros modelos matemáticos como modelos
del mundo. podríamos rcinterpretar la teoría y pensar en ellos como en
modelos del tipo de arquitectura cognitiva propuesta por Johnson-Laird.
Esto nos da un marco preciso en el que comparar dos aproximaciones a
la noción de implicación.

1:' Remitimos ¡d lector al capítulo 12 de Johnson-l.aird,

297
Supongamos que pudiéramos aislar, a través de medios empíricos,
una colección de modelos W,,¡ como las contrapartidas teorético-conjun-
tistas naturales de los modelos mentales. Por ejemplo, uno bien podría
restringir la atención a modelos con dominios finitos. Entonces podría-
mos definir la noción de verdad cognitiva como una oración verdadera
en todos los modelos en Wm . Habiendo hecho esto, estaríamos en po-
sición de comparar sistemáticamente las nociones de verdad lógica e
implicación lógica con las de verdad cognitiva e implicación cognitiva.
El mismo aparato matemático serviría para ambas funciones. Pcrmíta-
senos dar un ejemplo muy simple de cómo esta aproximación podría
proporcionarnos alguna guía en ciencia cognitiva. Hay ejemplos bien
conocidos dc oraciones que son verdaderas en todas las estructuras fi-
nitas pero no son verdaderas en todas las estructuras, por ejemplo, una
oración que afirma «Si IU(Í-\" largo que es un orden lineal, entonces hay
un objeto que es el más largo». Esta oración es verdadera en todo domi-
nio finito pero falsa en muchos dominios infinitos, por ejemplo, donde
más largo que es modelizado por la habitual relación> entre números
naturales. Si limitamos Wm a las estructuras finitas. tales oraciones se
revelarían corno verdades cognitivas a pe~ar de que no son verdades
lógicas. Sin embargo. tales oraciones no parecen de hecho ser verdades
cognitivas. porque fácilmente reconocemos que podrían ser falsas. Esto
muestra que. () bien. la aproximación de los modelos-mentales no es la
manera correcta de pensar acerca de la inferencia, o bien, que debernos
admitir que algunos modelos mentales son representados mejor por mo-
delos teorético-conjuntistas infinitos. Otra posibilidad es que los mode-
los matemáticos que estamos usando no correspondan adecuadamente a
los modelos mentales, puesto que se asume que son de «primer orden»
y «totales», Por contra, los modelos mentales son en general de orden
superior e inherentemente parciales. Esto nos haría pensar en la utiliza-
ción de algo más parecido a los modelos de la semántica de situaciones,
que serán considerados más abajo.

5. Otras aproximaciones

La semántica modelo-teórica cxtcnsional es una aproximación útil a


algunos fenómenos. pero tiene sus limitaciones. Estas limitaciones han
impulsado extensiones y modificaciones de esta aproximación en varios
aspectos. En esta sección describiremos una extensión y dos modifica-
ciones de la teoría. Son tres conocidas limitaciones de la aproximación
cxtcnsional las que motivan estas alteraciones. Las discusiones en las
siguientes secciones serán forzosamente breves. Deberían ser tornadas
como meras ojeadas sobre las materias consideradas.

Añadiendo un Parámetro para el Contexto

El primer problema concierne al efecto del contexto en el conteni-


do de una preferencia. Esta dependencia es ilustrada claramente por la
proferenc ia de Be11 a Watson « Yo le necesito ». A nálogame n te. cuando
Galileo dijo «Ella gira en torno al Sol» el contenido de la afirmación de-
pendía del hecho de que Galileo se refería a la Tierra. Expresiones tajes
como «yo», «tú>" «aquí», «ahora». «hoy», «esto» y otras parecidas son
llamadas deicticos. Lo denotado por ellas depende de manera sistemáti-
ca de su contexto de uso. Expresiones como «ello». «el», «ella», «eso>,
y otras parecidas son también sensibles al contexto, pero la dependencia
no es tan sistemática. Estas expresiones son a veces denominadas de-
mostrativos. Ni los deícticos ni los demostrativos encajan muy bien en
el marco anterior. El problema es que los contextos cxtcnsionales ordi-
narios no proporcionan un mecanismo para reflejar la dependencia del
contenido y. por tanto, de la verdad, del contexto en el que la expresión
es usada.
La influencia del contexto se convierte especialmente importante
cuando consideramos el significado cognitivo de una aserción. Supon-
gamos que una niña A dice a su madre B «yo tengo hambre», y B dice
refiriéndose a su hija «Ella tiene hambre». Hay un claro sentido en el
que ellas han expresado el mismo enunciado. Sin embargo, el significa-
do cognitivo de los dos enunciados. esto es, lo que los enunciados nos
dicen acerca de los estados cognitivos de los hablantes. es totalmente
diferente. Esperamos que A intente comer, mientras que esperamos que
B trate de encontrar algo para que A coma. Un marco semántico que
ignore sistemáticamente el contexto está mal conformado para dar una
explicación del significado cognitivo de las preferencias.
Cuando tomamos el contexto seriamente. se hace evidente cierta
confusión entre las nociones de verdad lógica e implicación lógica. Esto
ya se señaló en el trabajo de David Kaplan (1978) sobre, lo que él llamó,
la lógica de los demostrativos. Centrémonos en el concepto de verdad
lógica y consideremos oraciones tales como

Yo estoy aquí ahora.


Yo estoy hablando castellano.

299
Kaplan señaló que dichas oraciones tienen una propiedad interesan-
te. Cuandoquiera que ellas son usadas (en la manera usual) para expresar
un enunciado, ese enunciado es verdadero. Sin embargo, la afirmación
hecha mediante tales enunciados es sólo contingenternente verdadera.
El hecho de que estemos hablando castellano es un accidente histórico,
no una verdad lógica.

Unicamente cuando ignoramos el contexto parece razonable la asig-


nación de valores de verdad a las oraciones. Por tanto, es sólo bajo esta
idealización cuando tiene algún sentido la noción de oración lógica-
mente verdadera. Una vez que introducimos el contexto como un pará-
metro explícito en la explicación semántica, se hace manifiesto que ni
la verdad ni la verdad lógica son propiedades de las oraciones sino que
son propiedades de algo más -algo, como enunciados. proposiciones,
aserciones ti oraciones en contexto. Igualmente la noción tradicional de
implicación entendida como una relación entre oraciones es puesta en
cuestión.
Otros problemas relativos al contexto surgen con los determinantes
de los fragmentos B y C: El, Ambos. Ningún, Muchos y Pocos. Si. por
ejemplo. afirmamos «Ningún planeta es tan cálido como la Tierra», en
una discusión sobre Urano y Neptuno, entonces está claro que estamos
afirmando algo sobre eso"> dos planetas. Repárese en que no se puede
dar cuenta de esto limitando simplemente el dominio del discurso para
incluir únicamente estos planetas y ningún otro. porque la Tierra debe
ser parte del dominio del discurso. Un problema todavía más serio surge
con los determinantes «muchos» y «pocos». Qué cuenta como muchos
depende, obviamente, del contexto. Si decimos que muchos r.;e retrasa-
ron con sus deberes, en una clase de 50, significa una cosa, mientras que
si decimos que muchos se lamentaron de votar a Reagan, significa otra
cosa totalmente distinta.

Es claro que en la explicación anterior falta añadir un parámetro


tia nuestra semántica que en cierta forma es análogo al parámetro H'.
Igual que desarrollamos instrumentos para estudiar la dependencia de la
verdad de hechos acerca del mundo ~1':, así también, necesitamos instru-
mentos para estudiar la dependencia de la verdad de hechos acerca de la
preferencia u mediante la cual fue hecha la aserción.
En la medida en que dirijamos nuestra atención a los deícticos, po-
dremos lograr una aproximación directa y adecuada al contexto. Puesto
que cualquier lenguaje dado tiene sólo un número finito de elementos

300
deícticos, podemos simplemente enumerarlos en un orden dado y utili-
zar una sucesión finita de objetos para modelizar los valores asignados
a esos elementos por un contexto dado. Supongamos, por ejemplo. que
sólo estamos interesados en los deícticos yo, tú. aquí, ahora. Podríamos
hacer que u recorriese sucesiones <h, o, 1, t > que representen respec-
tivamente al hablante, al oyente. la localización y el tiempo de la pro-
ferencia. Podríamos añadir estos deícticos al Viejo Zaelandish y hacer
el parámetro u = «h. o, /, t > explícito al dar la semántica de nuestro

°
lenguaje. Así. por ejemplo, ahora definiríamos el valor de una oración
en relación a tres cosas: un contexto u. un modelo w y una asignación
¡:. Decir que Val (O. u, lt', g) = verdadero significaría que la afirmación
expresada por O en el contexto u sería satisfecha por la asignación g. si
el mundo estuviese organizado del modo en que es modelizado por w.
Puesto que la asignación a las variables puede ser pensada a semejanza
de la asignación contextual de valores a los pronombres, a menudo se
incorpora en el parámetro contextual u, con lo que obtenernos Val (0,
u. w).
Esta misma idea puede ser extendida. Supongamos que deseamos
representar la dependencia del contexto de los determinantes Ambos.
Ningún y El. Intuitivamente, lo que ocurre es que una proferencia no
viene s610 con UIl dominio D'" sino también con un subdominio de ob-
jetos que ha sido especialmente destacado en el discurso. Podríamos
denominar d a este dominio de recursos y añadirlo a la sucesión ti utili-
zada para modelizar el contexto. Así. un modelo del contexto consistiría
ahora en una sucesión u = -ch, o, l. t >, tal que, h. o, 1, t « DW y d ~ DII'.
Este parámetro tendría un papel destacado en la caracterización de las
extensiones de los determinantes como sigue:

Ambos" = {<,4, B, d » I card (d í\ A) = 2 Y d n A ~ B}.


Ninguno"= {<A. B. d» I card (d ( l A) = 2 Y d n A n B ::: (2} }r~l
El"'::: {<.4, B, d » 1card (d í\ A) ::: 1 y ti í\ A < R}

Utilizando esto, podríamos dar una caracterización sistemática de la


semántica del fragmento B del Viejo Zaelandish. Dicha semántica nos
permitiría dar cuenta de las presuposiciones asociadas a las oraciones
que contengan tales determinantes. Razones de espacio nos impiden dar
los detalles.
Una de las principales ventajas de hacer explícito el parámetro para
el contexto es que nos permite distinguir entre el significado de una
oración y el contenido de un uso dado a la misma. Esta distinción nos

301
remite al trabajo de Kaplan. En este marco podemos modelizar el sig-
nificado de una oración O mediante una relación teorético-conjuntista
entre contextos II y modelos w definida como

significado (O):::: {<!l. w > I Val (O. 11, ,t'):::: verdaderos,

Entonces para cualquier II podemos modelizar el contenido de la


oración en el contexto ti mediante el conjunto de los w tal que <u. H!>
E significado (O).

Durante algunos años el estudio del contexto adoptó esta táctica, aña-
diendo má.... términos a la sucesión que representa los aspectos relevantes
del contexto. Sin embargo. algunos cultivadores de la semántica creen
que esta aproximación es demasiado asisternática y no cuadra bien con la
enorme amplitud de la dependencia contextual descubierta en el lenguaje
natural. Por ejemplo, aunque esta aproximación funciona bien para los
determinantes del fragmento B. no es adecuada para los determinantes
Muchos y Pocos del fragmento C. Hay mucho más en la dependencia del
contexto de estos determinantes que un dominio de recursos d. Conside
remos una oración como FJ enemigo destruyó mi tienda local de ultrama-
rinos a los 3 p.m. Esta oración tiene. al menos. cinco elementos sensibles
al contexto. El más obvio es la expresión deíctica «mi», cuyo contenido
semántico depende de quién esté hablando. Pero cada una de las interpre-
taciones, de las expresiones '<el». «enemigo». «local» y ·<3 p.m.s involucra
también dependencia contextual de un tipo u otro.
Una vez LJUC ~e aprecia la extraordinaria influencia del contexto en el
contenido. la idea de utilizar sucesiones más largas para representar estos
elementos se hace inaplicable. No hay forma de adivinar por adelantado
qué necesitamos repre se nta r. por tanto. no hay manera de asignar por
adelantado una interpretación a los distintos elementos de la sucesión.
El trabajo actual en semántica está luchando todavía con el problema de
modelizar el contexto dc una proferencia.

Semántica de Mundos Posibles

La diferencia mris patente entre la aproximación extcnsional a la


semántica y la que es seguida por la mayoría de la literatura sobre ve-
rnántica. es la adición de los llamados mundos posibles. Para entender lo
que motiva este movimiento, discutiremos otro problema asociado con
la explicación extensional ordinaria.

302
El Problema de la Granularidad. Los modelos extensíonales son
notoriamente representaciones inadecuadas de la manera en que son las
cosas. Esto se debe en gran medida a su escasa granularidad en la repre-
sentación de las propiedades y relaciones. La forma más llamativa, si no
la más acuciantc, del problema tiene que ver CDn las propiedades que no
están instanciadas. Por ejemplo, no existen ni unicornios ni centauros,
por tanto, ambas propiedades son representadas por el conjunto vacío.
Pero ~i una teoría usa el mismo conjunto para modelizar la contribución
semántica de ambos: «unicornio» y «centauro». entonces dicha teoría
predice que ambas palabras son intercambiables sin que. por supuesto,
lo sean. La oración «Claire se disfrazó de unicornio para Hallowccn»
podría ser verdadera, mientras que «Claire se disfrazó de centauro para
Halloween- sería falsa.
La inadecuación de los modelos extcnsionales de propiedades y
relaciones es manifiesta cuando consideramos adjetivos y adverbios.
Considérese, por ejemplo. la frase «El mejor amigo de Max». Lingüís-
ticamente, el nombre «e] mejor amigo» se obtiene al combinar el ar-
tículo «eh), el adjetivo «mejor» y el nombre «Amigo». Intuitivamente
la relación amigo es modificada para obtener el mejor amigo. Por tanto.
quisiéramos que la semántica funcionara de esa forma. Pero no puede,
dados nuestros modelos e xtensionales de propiedades y relaciones. Si
representamos la extensión de la relación amigo mediante un conjunto
de pares de personas, entonces los amigos de Max serían representados
por cierto conjunto de personas. La cuestión es: ¿Cómo deberíamos mo-
delizar el contenido semántico del modificador «el mejor»?
Hay dos formas en que podríamos intentar modelizar esto exten-
sionalmentc. Podríamos representar el significado de «el mejor» me-
diante una función de elección que asigne a cada conjunto no vacío B
un elemento b E B, intuitivamente, su mejor elemento. Pero esto no
funcionará. Supongamos, por ejemplo. que los amigos de Max fueran
también los amigos de Claire y viceversa. De aquí no se sigue que el me-
jor amigo de Max es el mejor amigo de Claire, tal como esta estrategia
habría de predecir. Otra estrategia consistid en modelizar el significado
de «el mejor- por medio de una función de uniforrnizacion, una función
que asigna a cada relación teórica-conjuntista binaria Runa subrelación
Ro ':: R que es una función. La idea es que <a, b> E Ro si y sólo si bes
el mejor miembro relacionado con a por medio de R. Pero esto tampo-
co funcionaría. Por ejemplo, podría ocurrir que dos relaciones distintas
tuvieran la misma extensión. digamos, la relación amigo y la relación
vecino. Pero no se sigue que tu mejor amigo sea tu mejor vecino. como

303
la estrategia habría de predecir, porque nosotros esperamos cosas dis-
titas de vecinos y amigos. El mejor amigo de Max bien podría ser un
pésimo vecino.
El mismo problema surgiría en el Viejo Zaelandish si tuviéramos
el modificador del predicado Grande y pudiéramos formar las frases
predicativas Planeta Grande y Cosa Grande. Incluso si la extensión de
Planeta y Cosa coincidieran en un modelo particular, probablemente no
desearíamos que la extensión de Cosa Grande y Planeta Grande fuera la
misma, puesto que todo planeta es una cosa grandc pero no todo planeta
es un planeta grande. El problema de nuevo es que los objetos teoréti-
cos-conjuntistas utilizados. para representar las propiedades no hacen las
distinciones suficientes.
Otra versión del problema de la granularidad, y uno que jugó un
mayor papel histórico, se hace manifiesta cuando consideramos los de-
nominados verbos de actitud proposicional: «cree» «conoce», «ve»,
«afirma», «prueba» y demás. Estos verbos toman complementos oracio-
nales y dicen algo sobre el estado cognitivo de un agente. Si ampliamos
nuestro fragmento permitiendo tales verbos, no hay manera de extender
la semántica dada más arriba para obtener algo que se acerque a una ex-
plicación adecuada. Considérese la afirmación verdadera del papa «Ga-
lileo no cree que la Tierra esté en el centro del universo». Todo Jo que
nuestra teoría nos proporciona para clasificar el complemento oracional
es una valor de vcrdad.ju/s». Así.Ia teoría predice que si reemplazamos
el complemento oracional por otra oración falsa cualquiera. deberíamos
obtener un enunciado verdadero. Esto equivaldría, sin embargo. a la
afirmación de que Galileo no tenía creencias falsas. Aunque esto último
podría ser verdadero. no se sigue de los hechos acerca del lenguaje y de
la verdad de la afirmación original. 13

Añadiendo Otro Parámetro. La estrategia más popular para abordar


el problema de la granularidad ha sido la introducción de un parámetro
para «mundos posibles» alternativos. La idea es que mientras dos propie-
dades pueden tener la misma extensión, sí ellas son propiedades diferen-
tes, podrian haber tenido extensiones diferentes. Por ejemplo, aunque se
da el caso de que no hay ni unicornios ni centauros, esto podría no haber
sido así. Podemos imaginar otras formas en las que el mundo podría ha-
ber sido, por ejemplo, en las que hubiera unicornios pero no centauros.

Il Véase el capítulo 11 de Gros>, Sidner y Pollack.

304
Una vez que incorporamos este rango de variación posible, las propieda-
des no serán ya representadas por medio de la misma cosa.
El orígen de esta idea está ya presente en la aproximación extensio-
na}. en la que empleamos una serie de modelos de alguna colección ~V.
Esto sugiere que no debemos representar la propiedad de ser unicornio
mediante un conjunto Unicornio"; sino mediante una familia de con-
juntos Unicornio" = { Unicorniow I W E W}. Aquí la propiedad de ser
un unicornio y la propiedad de ser un centauro serán representadas por
objetos diferentes, porque habrá modelos en los que Unicornio" y Cen-
tauro" son conjuntos distintos.
Por razones técnicas esta aproximación debe ser modificada de
alguna forma, En lugar de trabajar con una colección de modelos del
viejo tipo, necesitamos introducir un conjunto de nuevos primitivos L
Los objetos i E 1 usualmente son denominados «mundos posibles». Al
decir que son primitivos damos a entender que asumimos que por sí
mismos los miembros de 1 no cuentan con ninguna estructura teorético-
conjuntista. Uno de los miembros. i@, es visto como representante del
mundo real. Además asumimos que para cada ¡E] hay un dominio Di
de individuos que son «reales en» i.
Utilizando este marco, conseguimos representaciones más refinadas
de las propiedades y relaciones. Por ejemplo, podemos representar una
propiedad P mediante una función fP que asigna a cada i E ] un sub-
conjunto de D J. de forma que se considere a fP (1) como el conjunto de
cosas que tiene la propiedad P en el mundo i. De manera parecida una
relación binaria R será representada por la función fR que va desde 1 a
subconjuntos de D j x D'. Perol ítasenos denominar a estas representac io-
nes m.p. propiedades y m.p. relaciones, respectivamente, sirviéndonos
de «rn.p.» para referirnos a los mundos posibles. 14
Es un poco complejo definir la noción de modelo en este marco, por
lo que debemos omitir los detalles!'. La idea básica es que un modelo M
consiste de un conjunto de mundos posibles 1, cada uno con un dominio

14 Nótese. para futuras referencias, que la relación subrelacion no será en adelante

modelizada por la relación subconjunto. como en el caso extcnsional, Más bien. una
m.p. relación fR será una subrelación de otra m.p. relación fS sólo en caso de qUI:: para
toda i E 1, fR (i) ~ fS O). De manera análoga, una m. p. relación binaria fR será una
relación con valor único (o funcional) siempre que para cada mundo i, el conjunto tR
O) sea una función. Denominaremos a dicha m.p. relación una m.p. función.
15 Para los detalles véanse Kripke 1Q63. Montague 1974 o Lcwis 1972.

305
DI, un mundo posible distinguido i@ y una función que asigna objetos
apropiados a los elementos léxicos. Por ejemplo, el modelo asignará a
un predicado monádico Puna m.p. propiedad pM y a un predicado diá-
dico R alguna m.p. relación R M .
Veamos como modeliza esta estructura los significados de las expre-
siones Amigo, El mejor amigo, El mejor amigo de Max, etc. Contamos
con una m.p. relación binaria asociada con la palabra Amigo, esto ex,
una función Amigo" que asigna para cada mundo i E [ algún subcon-
junto Amigc" (i) de DI "'D l. Intuitivamente, <a, h > E Arnigo'" (i) si y
sólo si b es un amigo de a en el mundo i. El significado de la expresión
El mejor nos llevarfa de una relación a una función. por ejemplo. de la
relación amigo a la relación con valor único el mejor amigo. A~í. el va-
lor semántico de El mejor puede ser modelizado por medio de una m.p.
función El mejor" que V3 desde m.p. relaciones a m.p. funciones, en la
que el valor es siempre una subíunción del argumento. Esto es, El me-
jorM será una función que asigna a cada mundo posible i y m.p. relación
binaria fR una función tRo, que es una subfunción fR.
¿ Qué clase de valor semántico asignaremos a sintagmas nominales
de la forma El mejor Amigo de a? Para facilitar la notación. perrnitasc-
nos utilizar A y E como abreviaturas de Amigo" y El mejor". respecti-
vamente. Nuestra definición de den (a, M. i), la denotación de a en el
mundo i del modelo IvI, contendrá algo como

den (El Mejor Amigo de a, M, i) = (En) (A)) t i) idcn trrM. in.

Veamos qué significa intuitivamente el sintagma nominal El Me-


jor Amigo de Max. Atendiendo a la definición. la denotación de este
término en el mundo posible i (en relación con el modelo J\,1) es ob-
tenida como sigue: Primero, mediante E (i) vamos de las relaciones
a sus «partes mejores» en el mundo i. Así, (E (i) A) es la relación
el-mejor-amigo. Consecuentemente. (Eti) A)(i) es la extensión de el-
mejor-amigo en el mundo i. Y de aquí (Et i) A) (i) (Max) es el mejor
amigo de Max en el mundo i.
¿Cómo puede esto solucionar el problema de la granularidad? Su-
pongamos que nuestro lenguaje también incluye términos como El
Mejor Vecino de Max. A los predicados monádicos Amigo y Vecino
les serán asignadas m.p. propiedades distintas incluso si ocurre que la
extensión de la relación amigo coincide con la extensión de la relación
vecino en el mundo real, esto es. incluso si Amigo" (í@) = Vecino':'

306
(i@). Pero la función E no considera únicamente las extensiones de es-
tas relaciones en i@ y. por tanto. como se pretende puede asignarles
distintas subfunciones.
¿Cómo podría utilizarse esta misma estrategia para resolver otros
aspectos del problema de la granularidad?" Recordemos el problema
planteado por los verbos de actitud proposicional. Dijimos que los va-
lores de verdad no eran 10 suficientemente refinados para servir como
contenidos de los complementos oracionales de «Galileo creia que».
Dado el marco de los mundos posibles. el movimiento más natural es
modelizar los contenidos no por medio de valores de verdad, sino me-
diante funciones de mundos posibles a valores de verdad. Llamaremos
m.p. proposición a dicha función. La idea es que una m.p. proposición p
representa cómo la verdad de esa misma afirmación depende del modo
en que es el mundo. Dicha m.p. proposición es verdadera siempre que
p(i@) :::: verdadero. La afirmación de que la Tierra está en el centro del
universo podría ser representada por una m.p. proposición diferente de
la correspondiente a la afirmación de que Marte sólo tiene un satélite,
au nque ambas sean real mente fal sas, esto es. fal sas en i(iv. Estas propo-
siciones pueden entonces ser objetos de creencia y nos podemos encon-
trar con que Galileo crea una sin creer la otra.
Hoy la aproximación dominante en semántica modelo-teórica es un
híbrido de las teorías que hemos esbozado hasta aquí; utiliza el marco
de los mundos posibles, al que se añade un parámetro explícito para el
contexto. La semántica resultante da una explicación explícita de fenó-
menos semánticos entre los que se incluyen el significado. el contexto,
el contenido, la verdad. la implicación y la presuposición. Aunque ella
pueda no dar una explicación definitiva de estos fenómenos, ciertamente
sabemos mucho más sobre todos ellos y de cómo encajan juntos, de lo
que sabíamos hace 50 o, incluso, 25 años. Este progreso es un tributo a
la visión de los fundadores de la semántica modelo-teórica ya ésos que,
como Montaguc, impulsaron su avance en aguas desconocidas. Todavía
muchos investigadores creen que esta aproximación no resuelve el pro-
blema que la motivó en primer lugar, el problema de la granularidad. El
problema es que muchas oraciones que son verdaderas en los mismos
mundos posibles no tienen el mismo contenido. Aquí no contamos con

Ih Este enfoque ha sido aplicado al estudio de las modalidades, los condicionales, las
actitudes proposicionales y otros fenómenos. Véanse, por ejemplo. Kripke 1963, Monta-
gue [974. Lewrs 1972. Hinttikka 1469 Y Stal naker 19X4.

307
espacio para entrar en este problema con algún detalle sino que remiti-
mos al lector a la literatura sobre el tema, en la que es conocido como el
problema de la equivalencia lógica!'.

Semántica de Situaciones

Finalmente nos dedicaremos a una aproximación alternativa a la se-


mántica que es seguida por muchos investigadores. entre los que nos
incluimos. La Semántica de Situaciones surgió alrededor de 1980. cuan-
do comenzó a ser reconocida la omnipresente influencia del contexto y
con ella la inadecuación del acercamiento de la sucesión-ordenada a la
modelización del contexto. Surgió en parte como respuesta a esta inade-
cuación yen parte como respuesta al fracaso de la aproximación de los
mundos posibles a la resolución del problema de la granularidad.
Quizás la mejor forma de entender cómo la semántica de situaciones
difiere de la semántica extensional así como de la semántica de los mun-
dos posibles, es volviendo al intento previo de caracterizar el significado
de una oración declarativa O:

Significado (O) = {<u.w > I \lal (O, u, w) = verdadero}

En esta ecuación u recorre contextos de proferencia y w recorre mo-


delos extensionales del mundo. En la práctica el conjunto D"" del modelo
w no se toma como el conjunto de todo lo que hay, sino más bien se toma
como un conjunto limitado de cosas: como lo atestigua la terminología
«dominio del discurso». Así, en la práctica no pensamos en w como en
un modelo de la totalidad del mundo sino más bien como en una porción
del mundo sometida a examen en el contexto w.
Admitamos esto como anticipo y llamemos a l-t' parámetro de la si-
tuación descrita. Por tanto. podemos pensar en nuestra ecuación como
en un intento de caracterizar el significado de una oración en términos
de la relación entre porciones limitadas del mundo: la situación de pro-
ferencia y la situación descrita. Esta manera de mirar las cosas sugiere
que adoptemos una técnica uniforme para modelizar estos dos paráme-
tros. La cuestión es cómo desarrollar modelos de las situaciones sufi-
cientemente refinados.

17 Esto se discute. por ejemplo, en Lewis 1972 y Stalnaker 1984.

308
Para resolver el problema de la granularidad la semántica de situa-
ciones adopta una aproximación diferente a la de la semántica de los
mundos posibles. En lugar de introducir un conjunto de mundos posi-
bles primitivos, abandona el intento de servirse de algo para modelizar
las propiedades y las relaciones y las trata como primitivos. Para ver las
razones de esta propuesta. volvemos al tercero de nuestros tres proble-
mas con la aproximación extensional,

El Problema de la Factoritucián. En la aproximación extensional


utilizamos modelos para representar las diferentes. maneras que podría
adoptar el mundo, y al definir la verdad lógica. la relativizamos a una
colección lV de modelos.rPero, exactamente, qué dimensión de varia-
ción está siendo manifestada por los miembros de W? Brevemente. el
problema es que tenemos sólo un parámetro w para representar dos ti-
pos de variación. Por ejemplo. hay dos hechos contingentes que están
involucrados en lo que nos conduce de una palabra. por ejemplo, un
nombre como Planeta a su extensión: el conjunto de los planetas. Uno
es un hecho lingüístico, el hecho de que usamos Planeta para expresar
la propiedad de ser un planeta. Si la historia del castellano hubiera sido
diferente, podríamos haber usado la misma palabra para expresar otra
propiedad. El segundo es un hecho de la astronomía, el hecho de que
los planetas son los que son. Pero nuestros modelos extensionales sólo
nos proporcionan un objeto para representar estas dos dimensiones de
variación. A este problema lo denominaremos el problema de la [actori-
raclán, Como consecuencia de ello. nuestra teoría es ambigua: ¿Repre-
sentan los diferentes modelos diferentes formas en que los hechos lin-
güísticos podrían haber sido o representan formas en que los hechos
de la astronomía podrían haber sido?
Uno encuentra ambas interpretaciones en la literatura. Llamemos al
primer punto de vista la «lectura interpretacional» de la semántica. Des-
de esta perspectiva diferentes modelos representan diferentes interpreta-
ciones posibles del lenguaje; realmente, lo que hemos llamado modelos
son frecuentemente denominados «interpretaciones». Al segundo punto
de vista lo llamaremos la «lectura representacional» de la semántica.
En esta lectura. diferentes modelos representan distintas formas en que
podría haber sido el mundo, supuesto que las palabras signifiquen lo que
significan.
Para ver cómo esta ambigüedad supone un serio problema práctico
para la teoría. consideremos las tres oraciones siguientes:

309
Todo satélite de MaJ1c es un satélite de Marte.
Todo satélite de Marte gira alrededor de Marte,
Todo satélite de Mane es menor que Mercurio.

En primer lugar, repárese en que sobre una base preteórica pa-


rece como si las dos primeras expresaran enunciados verdaderos en
virtud únicamente de sus significados, mientras que la verdad de la
tercera es contingente en virtud de hechos relativos al sistema solar.
Nos gustaría que nuestra teoría predijera estos hechos, por ejemplo.
mostrándose las dos primeras lógicamente verdaderas, verdaderas en
todos los W E 1,\1.
En la lectura interpreracional de la semántica, no es en absoluto ra-
zonable restringir la colección W. Pero entonces. la primera oración se
muestra lógicamente verdadera, mientras que la segunda no. Realmente
la primera oración es lógicamente verdadera con respecto a cualquier
colección \V de modelos. Pero no se cumple lo mismo con la segunda
y la tercera. Algunas colecciones declararían la segunda una verdad ló-
gica, algunas otras no. (Si permitimos, por ejemplo, GirarAlrededorw =
{ <a. b > I a es mayor que b }, entonces se mostrará falsa.) De manera
similar en el caso de la tercera oración. En la lectura representacional de
la anterior teoría necesitamos un modo de restringir la atención a esos
modelos que respetan los significados reales de los elementos léxicos.
Esto es lo que el problema de la factorización nos impide hacer. La
explicación extensional toma las dos últimas oraciones conjuntamente.
sin ofrecer explicación alguna para la intuición de que la segunda es
verdadera en virtud simplemente del significado. mientras que éste no
es el caso de la tercera.
Creemos que es la lectura representacional la que atrapa la intención
de la teorización semántica. Pero la tradición matemática, con su énfa-
sis en el método axiomático. cuadra mejor con la visión interpretacional,
Consecuentemente, la teoría no hace predicciones semánticas correctas.
Podemos resolver los problemas de la granularidad y la factoriza-
ción de un golpe renunciando a la idea de modelizar las propiedades
y relaciones con constructos teorético-conjuntistas. La teoría semán-
tica necesita una explicación de las propiedades y relaciones: ellas
están entre las cosas rn.is básicas que las expresiones del lenguaje ma-
nifiestan. ¡.Pero antes de modelizarlas mediante otras cosas, por qué
no tomar a ellas como primitivas en lugar de 3 los mundos posibles?
Aunque esta idea no es exclusiva de la semántica de situaciones, la

310
adopta para proporcionar una manera más refinada de modelizar las
situaciones.
Nótese que esta propuesta, aunque motivada por el problema de la
granularidad. también resuelve el problema de la factorización. Si to-
mamos las propiedades y relaciones como básicas, podemos represen-
tar dos tipos de hechos que deben distinguirse. Podemos representar el
hecho lingüístico de que la palabra Planeta expresa la propiedad de ser
un planeta, no la propiedad de ser un asteroide: y también los hechos
no lingüísticos acerca de qué objetos son planetas y cuáles no. Esto nos
permite distinguir los dos tipos de variaciones.
Al tomar las propiedades y relaciones como primitivos se nos sugie-
re una forma obvia de modelizar las situaciones. Para simplificar asu-
mamos que R es una relación binaria y que (J y b son objetos. Podríamos
usar la cuatro-tupla «R, a. b; 1» para representar el hecho de que a
está en la relación R con b y la tupla <R. 0, b; O» para representar el
hecho dual de que no está en la relación R con h.

Podemos pensar en dichas tuplas a modo de representación de esta-


dos de cosas atómicos, «hechos posibles». Siguiendo una sugerencia de
Keith Devlin, los denominaremos «infones básicos», ya que represen-
tan unidades básicas de información. Entonces podemos representar el
mundo. o alguna parte de él, mediante una colección s de tales infones
básicos. Pensaremos en dichas colecciones. en la forma de representa-
ciones de «situaciones posibles», modos en los que las partes del mundo
podrían ser o podrían haber sido. Escribimos s =cr si cr E s, para el infón
básico e y la situación S18.

El Contexto como Situación. Las situaciones pueden ser usadas para


representar tanto la parte del mundo que es descrita por una preferencia
como la parte que proporciona el contexto de la propia preferencia. Una
de las principales ventajas de este punto de vista es que no hay necesidad
de restringir los hechos en las situaciones de proferencia a los hechos
directamente ligados a una de las palabras utilizadas en la preferencia,
como ocurría en la aproximación anterior.

I~ Además de los infones básicos que son utilizados para formar nuestros modelos
de las ... ituaciones. la semántica de situaciones usa un álgebra de la información. Por
ejemplo, hay una operación de reunión de infones con para la que :.c cumple s ::: o l A.
01 ~Y"" '> ::: (JI y s ::: 02.

311
Consideremos cómo podríamos describir el significado de las expre-
siones del Viejo Zaelandish, Yo, Mi Amigo, El Amigo de Mi Amigo,...
Analizaremos la semántica de una de estas expresiones, digamos SN. en
términos de la relación triádica ([SN]](u. s, b). Intuitivamente [[SN]](u, s,
b) se satisface si y sólo si en la proferencia u, el hablante se refiere a b al
usar SN, y en la situación s, el hablante es un arrugo de un amigo de...b.
Asumamos que nuestra reserva de relaciones contiene las siguientes: ha-
blar (una propiedad de individuos), referirse a (una relación triádica que
relaciona un hablante, una expresión y un objeto referido), expresar (una
relación triádica que relaciona un hablante. una expresión y una relación
expresada por la expresión) y describir (una relación binaria que se da en-
tre un hablante y una situación descrita.) Por una situación de proferencia
entendemos una situación en la que hay un único hablante, esto es, un úni-
co individuo a que satisface u F «chablar; a; 1». También imponemos
la siguiente restricción sobre las proferencias: si u F= «referirse a; a. a. b
:J». entonces a es el hablante de u y, de manera similar u t::: «<expresar;
a; a. b ; 1», entonces a es el hablante de u.
Puesto que uno de nuestros objetivos es dirigirnos directamente al
problema de la factorización deseamos tomar en cuenta el hecho de que
el nombre Amigo tiene distintos sentidos. Nuestro diccionario enumera
seis. Consideraremos dos de éstos, el más común y el menos común..Así,
asociamos a la palabra Amigo dos relaciones distintas: amigo y Amigo. La
primera es la relación esperada entre individuos, de forma que s F «ami-
KO, a; b J», si, en s, a está ligado por un afecto personal a b. Por contra,
Amigo es simplemente una propiedad y s F «Amigo. b: 1», si, en s. bes
un palo atravesado que ayuda a los mineros a subir o bajar por los pozos!".
Asociamos a la palabra Amigo un significado [[Amigo]] (u, R) como si-
gue: [[Amigo]] (u, R) se satisface si y sólo si u F «expresar, a; Amigo,
R; 1», donde R es una de las dos relaciones mencionadas previamente y
a es el hablante en u. Sería posible utilizar la expresión «mi amigo» para
significar «mi palo de ayuda>" pero esto exigiría un contexto muy inusual.
Puesto que deseamos insistir en un aspecto diferente. supongamos que
esto no es posible en el Viejo Zaelandish. Esto es. estableceremos las co-
sas de forma que es posible decir cosas como Un Amigo para describir un
palo, pero la única forma de utilizar Amigo de SN es cuando Amigo es
usado en su sentido relacional primario. Aquí están nuestras reglas para
las expresiones en cuestión:

- [[Yo]] (u. s, a) syss UF «chablar: a : 1» A «cdescribir a; s : 1»


- [[Amigo de SN]] (li, s. b) syss existen a. b '. R tales que

312
1. u = «referirse a, a; Amigo de SN. b: 1»,
2. u = «describir. a; s: l ».
3. [[SN]] (u. s. b J.
4. [[Amigo]] (u, R),
S. s = «R. b , b; 1»

Esta caracterización puede parecer complicada para una expresión


tan simple. Pero todas las complicaciones son requeridas por hechos
acerca del lenguaje que es necesario recoger. Realmente es fácil ver que
cada una de esas cláusulas debe ser una consecuencia de cualquier teoría
que capta los hechos semánticos correctamente. Consideremos las cinco
condiciones en la segunda cláusula recursiva:
1. El requisito de que u =
«creferirse a, a; Amigo de SN. b: 1»
incorpora nuestro reconocimiento de que el hablante debe refe-
rirse a una persona mediante el uso de este sintagma nominal
complejo. aunque los individuos puedan tener más de un ami-
go.
2. La condición 11 e «describir a; s; 1» hace explícito el hecho
contextua] que determina exactamente cuál es la situación des-
crita.
3 La condición [[SN]] (u . .~'. b ¡ garantiza que b ~ es la persona a la
que se refiere mediante el uso del SN.
4. El requisito [[Amigo]] (u. R) garantiza que el hablante está usan-
do la palabra Amigo para expresar una de las dos relaciones que
él puede expresar en el viejo Zaelandish.
5. Finalmente. e] hecho de que la persona b (designada mediante
Amigo de SN) debe realmente ser amiga de 11:) persona b ' (de-
signada mediante el sintagma nominal constituyente SN) es algo
que se requiere en virtud de la condición s = «R, b , b .. 1».
Nótese que puesto que la relación R requiere aquí dos elementos,
se excluye una de las lecturas de Amigo.
¿Cómo extendiríamos esto a expresiones como Mi Mejor Amigo?
De nuevo no intentaríamos modelizar el significado de Mejor con nin-
gún objeto teorético-conjuntista. Más bien, veríamos su significado
(propuesto) como algo que expresa una relación entre propiedades 19.
Intuitivamente. hay una situación (' de circunstancias de trasfondo y e f=

19 Como con Amigo, podríamos acomodar el hecho de que la expresión El mejor'?'


puede manifestar m.is de UIlJ relación. como cuando. por ejemplo. e~ utilizada como un
verbo transitivo.

313
«cMeior. Po. P; 1» si e soporta el hecho de que Po es la propiedad de
estar entre los mejores de los objetos h que satisfacen s = «P, b : 1».
Para modelizar el funcionamiento de mejor correctamente, imponemos
la condición de que si s = <<.Mejor, Po, P: 1» y s ;:: «Po. b; 1»,
entoncesv = «P, b : 1»~O.

Los mundos posibles como Situaciones. Una forma de apreciar la


diferencia entre mundos posibles y situaciones es ver cómo los pri-
meros son tratados utilizando las segundas. ¿Cómo modelizamos los
mundos posibles dentro de la semántica de situaciones? La forma na-
tural es mediante colecciones maximales consistentes l-i-' de infones".
Estas atrapan la idea de un mundo posible como una manera en que
las cosas podrían haber sido. Pero aunque podamos modelizar los
mundos posibles como cierto tipo de situaciones, no modelizamos las
proposiciones como conjuntos de mundos posibles. Las limitaciones
de espacio no nos permiten entrar en esto aquí, por lo que remiti-
mos al lector a nuestro libro (8 arwi se y Etc heme nd y 19~ 7) para una
discusión de la modelización de proposiciones en la semántica de
si tuae iones.
Las situaciones son más flexibles que los mundos posibles en diver-
sos sentidos. En primer lugar, ellas no necesitan ser consistentes. Esto
no es de mucha utilidad al caracterizar partes del mundo, pero es útil
para modelizar estados mentales, que en general, no son consistentes ..
En segundo lugar, ellas no necesitan ser max imales. Este rasgo es útil al
modelizar tanto situaciones reales, que usualmente son porciones limi-
tadas del mundo, como al modelizar estados mentales. los cuales son in-
herentemente parciales. Por añadidura el uso de relaciones de alto nivel
y los hechos que las involucran, proporcionan la flexibilidad adicional
necesitada por la semántica del lenguaje natural.

~rl Nótese, "in embargo que no irnpondríamov dicha condición para Id relación expre-
sada por una palabra como «falsificar». Lo que queremos realmente e!> precisamente lo
contrario: si s ;:: «fahilicí:lf. Po. P: 1» y s ;::: «Po. b; 1». entonces s ;:: «P. b: o».
~I La noción de convivten..:ia usada aquí incluye 13 restricción de que para nmgún
infon «R.... : 1» él y 'u dual «R.... ; O» estén ambos en w, Pero también habrá
restricciones adicionales. Por ejemplo. si usamos NO pan! la relación entre propiedades
que tienen extensiones disjunta... , exigiríamos que si «NO. P, Q: 1» E w y «P, e: 1»
E w. entonces «Q. e :0» E w, Para dar cuenta Je lo~ hechos dixcutidt», en el problema
de la facronzación. tambrén imponemos restricciones como las siguientes: si «satélite
de. a, b : 1» E w, entonces «gira alrededor. a. b : 1» E w. Por colección consistente
maximal de infoncs entendemos una colección que no está propiamente contenida en
ninguna otra colección consistente,

JI4
Notas del traductor

[1] N. de T. En el original «aboutness», preposición substantivizada


de uso habitual en ámbitos filosóficos para referirse a la propiedad que
tiene el lenguaje de versar sobre algo.
[21 N. de T. En el original se alude al inglés. Obviamente. toda refe-

rencia al castellano en el texto corresponderá a una relativa al inglés en


el original.
lil N. de T. Entendidos como sintagmas nominales.
14] N. de T. En el original: «Evcry, Sorne, No. Most, Neither, Both,

The». En nuestra versión se incluyen los determinantes con un género


y un número apropiado para reproducir los ejemplos del texto origi-
nal. Mediante «Ninguno (de los dos)» tratamos de recoger el sentido de
«Neither» (esto es, «ni el uno ni el otro»).
15] N. de T. En el original «Neither».
16] N. de T. Donde hablamos de palos de minería en el original se

habla de cuáqueros. Afortunadamente en castellano podemos recoger el


doble sentido asociado a «friend» mediante otro doble sentido asociado
a su traducción «amigo». En el original se asocian dos significados a la
palabra «friend», el usual de amigo y el de cuáquero. (Society 01 Friends
designa a los cuáqueros). En la versión castellana además del sentido
usual de «amigo», hay otro en el que «amigo» designa un palo con de-
terminadas caraterísticas usado en minería.
[7] N. de T. En el original «Best», Los autores se refieren al verbo

transitivo «Best- que significa vencer.

Referencias Bibliográficas

BARWISE,1. Y J. ETCHEMENDY. }987. The Liar: An Essay on Truth and Circula-


rity. New York: Ox.ford University Press,
DOWTY, D. 1979. Word Meaning and Montague Grammar. Dordrecht: Reidel.
GRlcJ::. H. P. 1957. Mcaning. Philosophical Review 66: 377-388.
GRICE. H. P. 1968. Uttcrcrs mcaning, sentence-meaning, and word-meaning.
Foundations of Language 4: 1-18.
HINTTIKKA,1. 1969. Modelsfor Modalities. Dordrecht: Reidel.
KAPLAN, D. 1978, On the logic of demonstratives. 1. Philosophical LORic 8:
~] -98.
KRIPKE, S. 1963. Scmantical considerations on modallogic. A.cta Philosophicu
Fennica 16: 83-94.
LEWIS, D. 1969. Convention. Cambridge, MA: Harvard University Press.

315
LEWIS, D. 1972. General semantics. En D. Davidson and G, Harman; ed. Se-
mantics of Natural Language. Dordrecht: Reidel, pp. 169-218. Reimpreso
en B. Partee, ed. 1976. Montague Grammar. New York: Academic Press.
pp. 1-50.
MONTAGUE. R. 1974. Formal Philosophy: Selected Papers of Richard Monta-
gue. R. Thornason, ed. New Haven, CT: Yale University Press.
STALNAKER. R. 1984. lnquiry. Cambridge, MA: MTT Press.

Lecturas Avanzadas
BARWISE, J. Y J. PERRY. 1983. Situations and Attitudes. Cambridge, MA: MIl
Press.
BARW15E. J. y R. COOPERo 1981. Gcncralizcd quantitiers and naturallanguage.
Linguistics and Philosophy 4: 159-220.
COOPER, R. 1983. Quantification and Syntactic Theory. Dordrecht. Reidel.
DOWTY, D., Wall, R. y S. Peters, 1981. Introduction to Montague Semantic.
Dordrecht: Reidel.
ETCHEMENDY, J. 1990. Tlle Concept ofLogical Consequence. Cambridge, MA:
Harvard University Press,
FENSTAD, J. E. HALVORSEN, P. K., LANGHOLM. T. y 1. VAN BENTHEM. 1987. Situa-
tions, Language and Logic. Dordrecht. Reidel.
GÁRDENFüRS, P. 1987. Generalized Quantifiers. Dordrecht: Reidel.
KAMP. H. 1979. Instant, events and temporal discourse. En R. Bauerle et al..
eds. Semantics from Difieren! Points o/ View. New York: Springer Verlag.
MARTINICH, A. P., ed. 1985. The Philosophy of Language. Oxford University
Press.

:iló
RUEDAS COGNITIVAS: EL PROBLEl\tA DEL
MARCO DE LA INTELIGENCIA ARTIFICIAL
Daniel Dennett

En cierta ocasión había un robot llamado Rl por sus creadores. Su


única misión consistía en cuidar de sí mismo. Un día, sus diseñadores
lo prepararon para que aprendiese que su batería de repuesto. su precio-
sa reserva de energía, se hallaba encerrada en una habitación con una
bomba de relojería preparada para explotar muy pronto. R 1 localizó la
habitación. y la llave de la puerta, y formuló un plan para rescatar su
batería. Había un carrito en la habitación. y la batería se encontraba en
el carrito. R] formuló la hipótesis de que una deterrninada acción, que
denominó (EMPUJAFUERA (CARRITO, HABITACIÓN)], tendría como efecto
el hecho de que la batería fuese sacada fuera de la habitación. Actuó de
ese modo y consiguió sacar la batería fuera de la habitación justo antes
de que la bomba explotase. Desafortunadamente, la bomba se encontra-
ba también en el carrito. R 1 conocía que la bomba estaba en el carrito
cuando éste se encontraba en [a habitación. pero no se dio cuenta de que
al empujar el carrito sacaría la bomba junto con la batería. El pobre Rl
no había advertido esta obvia consecuencia de su plan.
Vuelta al tablero de diseño. «La solución es obvia» dijeron los dise-
ñadores. (Nuestro próximo robot debe estar preparado para reconocer
no solamente las implicaciones pretendidas de sus actos, sino también
las relacionadas con sus efectos colaterales. deduciendo tales implica-
ciones a partir de las descripciones que usa en la formulación de sus
planes». Llamaron a su siguiente modelo. el robot-deductor, RIDI. Co-
locaron a R 1O 1 en la misma situación en la que R1 había fracasado, y,
tan pronto como forjó la idea [EMPUJAFUERA (CARRlTO, HABITAClóN)l,
comenzó. tal como había sido diseñado. a considerar las implicaciones
de tal curso de acción. Nada más terminar de deducir que empujar el
carrito fuera de [a habitación no tendría por qué cambiar el color de las
paredes de la habitación. y una vez embarcado en una demostración de

317
la siguiente implicación de que empujar el carrito hacia afuera causaría
que sus ruedas girasen a más revoluciones que ruedas había en el carrito
-cuando la bomba explotó.
Vuelta al tablero de diseño. «Tenernos que enseñarle a diferenciar
entre las implicaciones relevantes y las irrelevantes», pensaron los dise-
ñadores, <'y enseñarle a ignorar las irrelevantes». Así pues, desarrollaron
un método para identificar las implicaciones como relevantes o no, con
respecto al proyecto que tenían entre manos, e instalaron el método en
su siguiente modelo, el robor-relevante-deductor R2D 1, por abreviar.
Cuando sometieron a R2D l a la prueba que de forma tan clara había
llevado a la extinción a sus antecesores, se sorprendieron al verlo. cual
Hamlet, debilitada la fuerza de su resolución por la vacilación de su
pensamiento. paralizado fuera de la habitación que contenía la bomba
haciendo tic-taco «[Haz ulgo!». le espetaron. «Lo estoy haciendo», res-
pondió. «Estoy muy ocupado ignorando algunos miles de implicaciones
que ya he decidido que son irrelevantes. Tan pronto como encuentro
una implicación irrelevante, la pongo en la lista de las que debo ignorar,
y ... » la bomba explotó.
Todos estos robots sufren el problema del marco'. Si llega a existir
alguna vez un robot con la fabulosa perspicacia y la capacidad humana
para el tiempo real de R2D2, los expertos en robótica resolverán en
problema del marco. A primera vista parece tratarse de un inoportuno
contratiempo técnico en robótica, o simplemente de un curioso proble-
ma para el entretenimiento de quienes trabajan en Inteligencia Artificial
(lA). Yo pienso, por el contrario, que se trata de un problema cpisterno-
lógico nuevo y profundo -en principio accesible, pero que ha pasado
desapercibido para generaciones de tilóxofos-> que ha salido a la luz

I El problema f ué introducido por John McCarthy y Patrie], Hayos en su artículo


de 1<)69. LI tarea en la que aparece el problema fué formulada en primer IU~<'lr en John
Mctarthy ( l 9(0). Estoy agradecido ;1 John McCanhy, Pat Haye..... Boh M oore , Zenon
Pylyshyn. Iohn Haugeland y Bo Dahlborn por las muchas horas que han empleado en
hacerme comprender el problema del marco. El hecho Je que. a pesar de todo. yo no
ha}a sido capaz de asirni lar muchas de sus enseñanzas, no e.'> culpa suya.
También me ha resultado muy provechosa la lectura de un manuscrito no publicado.
«Modelando el cambio -el Problema del Marco». de Larv-Erik Janlert, del Instituto de
Procesamiento de lnformacron. de la Universidad lit> Umca. Suecia. E5. de esperar que
una próxima versión de e ...le manuscrito sea publicada pronto, yo que constituye un va-
liosísimo vadctnectnn para cualquier no uuciado, además de xacur a la IUL varios ternas
nuevos.[No((J del traductor: este artículo ha sido publicado como capítulo primero en la
antología de Zenon W. Pylyshyn (Ed.i The Robot-s Dilemma: The Frume Problem in
Arnfscial Intelligence, Norwood, Ncw Jersey: Ablex Publishing Co., )987.1

JI8
con los nuevos métodos de la lA. y que está lejos de ser resuelto. Mu-
chos expertos en lA han llegado a tener. análogamente, una alta consi-
deración de la seriedad del problema del marco. Como un investigador
ha dicho con sarcasmo: «Hemos abandonado el objetivo de diseñar un
robot inteligente. y nos hemos aplicado a la tarea de diseñar un arma que
destruirá todo robot inteligente que cualquier otro diseñe».
Voy a intentar presentar aquí una introducción filosófica elemental.
no técnica, al problema del marco, y a mostrar por qué tiene tanto in-
terés. No tengo solución alguna que ofrecer, ni tan siquiera sugerencia
original alguna en el sentido de por donde podría ir la solución. Bastante
difícil es. según me he liado cuenta. la mera larca de explicar qué es el
problema del marco - y qué no es. De hecho. en la comunidad de lA no
hay precisamente un consenso perfecto al respecto. McCarthy y Hayes,
que acuñaron el término, lo usan para referirse a un problema concreto
acerca de la representación, considerado de forma muy restringida, que
aparece sólo en el contexto de ciertas estrategias para tratar un problema
más amplio relacionado con los sistemas de planificación en tiempo real.
Otros identifican el problema del marco con este problema más amplio
-«el pudín completo», como Hayes lo ha llamado (en correspondencia
personal) - y puede que no se trate de un mero descuido terminológico.
Si las «soluciones- al problema considerado de forma restrictiva tienen
C'I efecto de introducir una dificultad (más profunda) en algún aspecto
del problema amplio, haríamos mejor en reservar el nombre para este
problema difícil de atrapar. Pidiendo disculpas a Mcf.arthy y Hayes por
pasarme al bando de quienes podrían apropiarse de su término. intentaré
hacer una introducción al pudín completo, denominando a este ultima
el problema del marco. Trataré de describir la versión más restringida
del problema. «el problema del marco en sentido estricto», y de mostrar
algo de su relación con el problema más amplio.
Como el problema del marco. sea lo que sea este problema. cier-
tamente no ha sido resuelto (y puede que sea irresoluble en su forma
actual), los enemigos ideológicos de la IA, como Hubert Dreyfus y John
Searle, están tentados a confeccionar esquelas mortuorias para el cam-
po, citando el problema del marco como causa de defunción. En 'vVhat
Computers Can 't Do (Dreytus. 1(72). Dreyfus trató de mostrar que la
lA era un método equivocado de raíl para estudiar lo mental, y de hecho
muchos de sus reproches. un tanto impresionistas, a los modelos de lA,
y muchas de sus proclamas acerca de sus limitaciones intrínsecas. pue-
den contemplarse como flotando de forma absolutamente sistemática en

319
torno al problema del marco. Dreyfus no llega a mencionar el problema
del marco de forma explícita.? no obstante ¿se trata quizá de la pistola de
fogueo que andaba buscando, aunque desconocía completamente cómo
describir? Efectivamente, yo pienso que la lA puede ser contemplada
como teniendo una pistola de humo, pero al menos en su presentación
«pudín completo», se trata de un problema general, no solamente un
problema para la lA a quien, como al buen chico en muchas historias
de misterio. debería reconocérserle un descubrimiento, no acusársele de
un delito.
No tenemos que esperar hasta un futuro lleno de robots para sentir-
nos perturbados por el problema del marco. Se presenta de forma clara
a partir de algunos supuestos ampliamente compartidos, y de aparien-
cia inofensiva, acerca de la naturaleza de la inteligencia, la verdad del
sector menos instruido del fisicalisrno, y la convicción de que tiene que
resultar posible explicar como pensamos. (El dualista elude el problema
del marco - pero sólo porque el dualismo despliega el velo del misterio
y la ofuscación sobre todas las cuestiones-acerca-de-cómo que resultan
correosas; como veremos, el problema aparece cuando nos tomamos
en serio el trabajo de responder ciertas. cuestiones-acerca-de-cómo. Los
dualistas se evaden inexcusablemente del problema del marco.
Un aspecto completamente central -aunque no definitorio- de un
ser inteligente, es que puede «mirar antes de saltar». Mejor, puede pen-
sar antes de saltar. La inteligencia consiste, al menos en parte. en hacer
un uso adecuado de lo que se conoce -pero, j.para qué? Para mejorar
la exactitud de las expectativas acerca de lo que va a suceder a conti-
nuación, para planificar, para considerar cursos de acción, para formular

2 Drcyfus menciona a McCarthy ( 1960, pp. 213-214), pero el lema bajo discusión re-
lacionado con esa cita es que McCarthy pasa por alto la diferencia entre una descripción
de estado físico y una descripción de situación, un tema que podría resumirse de forma
sucinta asf: una casa no es un hogar.
De modo análogo. menciona los supuestos ceteris paribus (en la Introducción a la
Edición Revi:.. ada, pp. 56 ss.), pero sólo para declarar su conformidad con el pensamien-
to de Wittgenstein de que «cuando la conducta humana se analiza en términos de reglas,
esas reglas deben contener siempre una condición ceterts paribus ... »}, Pero esto, con
ser correcto. pasa por alto el problema más profundo: la necesidad de algo como los
supuestos ceteris paribus afecta a Robinson Crusoe de modo tan inevitable como lo hace
con cualquier protagonista que se encuentra en una situación que incluye cultura huma-
na. El problema no se circunscribe, según parece, a las Geisteswissenchaft (o Ciencias
de la Cultura en su acepción habitual); el robot «inteligente» en un (¿de otro modo?)
planeta no habitado pero hostil. se enfrenta al problema del marco tan pronto comienza
a planificar sus días.

320
hipótesis adicionales con el propósito de incrementar el conocimiento
que se va a usar en el futuro, de tal forma que uno pueda protegerse, de-
jando que sean sus hipótesis las que mueran en su lugar (como Sir Karl
Popper lo dijo una vez). El estúpido -a diferencia del ignorantc- es
aquel que enciende la cerilla para mirar dentro del tanque de gasolina, 3
el que sierra la rama en la que está sentado, que encierra las llaves en su
coche y entonces emplea la siguiente hora pensando en cómo sacar a su
familia de dentro del vehículo.
Pero cuando pensamos antes de saltar. ¿cómo lo hacemos? La res-
puesta parece obvia: un ser inteligente aprende de la experiencia. y usa
lo que ha aprendido para guiar sus expectativas en el futuro. De hecho,
Hume explicó esto mismo en términos de hábito. Pero, (:cómo funcio-
nan los hábitos? Hume insinuó una respuesta - el asoci acionisrno - en
el sentido de que determinados caminos de transición entre ideas llegan
a tener mayor probabilidad-de-ser-seguidos a medida que van siendo
repetidos muchas veces. Sin embargo, como seguramente no era tarea
de Hume explicar con más detalle los mecanismos de esos vínculos,
problemas acerca de cómo tales caminos pudieran ser utilizados con
provecho - y no convertirlos precisamente en un laberinto impenetra-
ble de alternativas no practicables-e éstos no fueron descubiertos.
Hume, al igual que virtualmente todos los demás filósofos y psicólo-
gos «rnentalistas». fué incapaz de detectar el problema del marco debido
a que se movía en lo que yo denomino un nivel puramente semántico,
o un nivel [enomcnotogico. A este nivel, todos los elementos a la vis-
ta son individuados por sus significados. Sus significados están. si se
quiere, «dados» -pero esto precisamente quiere decir que el teórico se
ayuda a sí mismo para todos los significados que busca. De este modo.
la relación semántica entre un elemento y el siguiente es normalmente
clara de ver, y se asume justamente que Jos elementos se comportan
como deberían comportarse elementos con tales significados. Podemos
ilustrar este punto elaborando un enfoque humeano de un fragmento de
aprendizaje.
Supongamos el caso de dos niños, tal que ambos tienden inicial-
mente a coger galletas del bote sin pedir permiso. A uno de ellos se le
permite hacerlo sin ninguna reconvención, pero al otro se le propina una
azotaina cada vez que lo intenta. ¿Cuál es el resultado? El segundo niño

1 El ejemplo proviene de una importante discusión sobre racionalidad de Christopher

Chemiak (1983 l. en su «Rationality and the Structure of Mernory».

321
aprende a no ir tras las galletas. ¿Por qué? Porque ha tenido la experien-
cia de ir a coger galletas seguida inmediatamente de una zurra. ¿A qué
viene todo esto? Bien. la idea de coger galletas es conectada. por hábito,
a la idea de una azotaina. la cual a su vez es conectada a la idea de do-
lar. .. de modo que, por supuesto, el niño se contiene. ¿Por qué? Bien.
ese es precisamente el efecto de tal idea en este tipo de circunstancia.
Pero. ¿por qué? Vale, ¿,qué otra cosa podría hacer la idea de dolor en tal
situación? Bueno, podría causar que el niño hiciera piruetas sobre su pié
izquierdo, recitase poesías. parpadease. o recordase su quinto cumplea-
ños. Pero habida cuenta de lo que significa la idea de dolor, cualquiera
de esos efectos parecería absurdo. Cierto; ahora bien, ¿cómo pueden
diseñarse las ideas de modo que sus efectos sean los que deben ser. dado
lo que significan'? Diseñar algunas cosas internas - una idea, llamemos-
le así - de tal modo que se comporten vis-a-vis con sus hermanas de
°
cofradía corno si significasen galleta dolor es el único modo de dotar
tales cosas con ese significado; no podrían significar algo si no tuviese
tales disposiciones conductales internas.
Este es el problema mecánico que los filósofos han dejado para al-
gún futuro investigador apenas imaginado. Semejante división del tra-
bajo pudo haber estado justificada. pero 10 que está ocurriendo es que
la mayor parte de los problemas difíciles y profundos del aprendizaje y
la inteligencia caen rodando escaleras abajo por esta decisión. Sucede
corno si los filósofos se autoproclamasen maestros expertos en los mé-
todos de un teatro de magia. y entonces, cuando les pedirnos que nos
expliquen cómo realiza el mago el truco de serrar-a-la-dama-por-la-mi-
tad, ellos dijeran que en realidad resulta completamente obvio: el mago
no la corta realmente por la mitad; simplemente hace que parezca así.
«Pero, ¿cómo hace cso'l, preguntamos, «No es competencia de nuestro
Departamento». dice el filósofo -y algunos de ellos añaden. con voz
contundente: «La explicación tiene que terminar en alguna parte»."
Cuando se opera a un nivel puramente fenomenológico o sernánti-
co, ¿de dónde se obtienen los datos", ¿cómo se hace lu teorización? El
término «fenomenología» ha venido asociado tradicionalmente con el

4 Debe notarse que. en e~te poco halagüeño retrato. los ti l()'Iofl)\ podnan, a pes~lr de
todo. estar haciendo algiín trabajo valioso; piénsese en las c.rcertas de gansos ..alvajcs
que podrían evitarse a la vista de que alguno!'>. investigadores hall conclutdo prectpitada-
mente que el mago realmente serro a la dama por la mitad y dexpues la volvió a unir
milagrosamente, Después de todo. hay gente que ha sacado semejantes conclusiones
absurdas; muchos nlósotos, por ejemplo. lo hun hecho,

322
método introspectivo -unll inspección de lo que se presenta, o viene
dado. a la consciencia. La fenomenología de una persona se consideraba
equivalente. por definición, precisamente a los contenidos de su cons-
ciencia. A pesar de que ésta ha sido la ideología desde siempre, nunca ha
sido la práctica. Locke, por ejemplo. pudo haber creído que su «método
histórico. e\ idente» era un método de auto-observación sin sesgos. pero
se trataba en gran medida de un razonamiento apriorístico disfrazado
acerca de lo que las ideas y las impresiones tienen que ser para hacer lo
que «obviamente» hacen", El mito de que cada uno de nosotros puede
observar sus actividades mentales ha mantenido viva la ilusión de que
c\ posible realizar grandes progresos en la teoría del pensamiento por el
simple expediente de reflexionar cuidadosamente sobre nuestro propio
caso. De un tiempo a esta parte hemos llegado a conocer las cosas me-
jor: tenemos acceso consciente solamente a la parte más superficial, por
decirlo de algún modo, del sistema de procesamiento de información
multi-nivel que tiene lugar en nosotros. A pestir de todo. el mito conti-
núa exigiendo ~llS víctimas.
De e~te modo. la analogía del teatro de magia resulta particular-
mente adecuada. No hay muchas posibilidades de progresar en la tarea
de averiguar cómo se hacen los trucos simplemente a base de colocar-
se entre la audiencia y mirar atentamente. Ocurren demasiadas cosas
fuera del alcance de la vista. Es mejor enfrentarse al hecho de que hay
que rondar entre bastidores. o bien en los laterales. esperando sorpren-
der la actuación de forma reveladora; o, desde la propia butaca, pensar
apriorísticamcnte sobre cómo tienen que hacerse Jos trucos. a la vista
de cualquier indicio manifiesto acerca de las restricciones. Así pues, el
problema del marco es más bien como el perturbador y, ti pesar de todo,
familiar, «descubrimiento» de que. hasta donde el pensamiento de buta-
ca puede determinar. un cierto truco que acabamos de observar resulta
absolutamente imposible.
He aquí un ejemplo de este truco. Preparar un tentempié de me-
dianoche. ¿Cómo puedo yo mismo conseguirlo? ¿Qué podría ser má.. .
sencillo? Sospecho que hay algún resto de pllVO en lonchas y mayonesa
en la nevera. y pan en la panera - y un botellín de cerveza también en
la nevera. Me doy cuenta de que puedo poner todas estas cosas juntas.
de modo que me hago un plan elemental, cosa de niños: me acerco a la
nevera y miro. cojo las viandas necesarias y me hago un bocadillo. y,

Puede ven,e Denneu ( ll)g~lJ), se trata de un comentario sobre Goodrnan ( 1982)

323
de instalar todo lo que un agente necesita «conocer» para resolver un
problema. A fin de cuentas, si Dios creó a Adán como un adulto que pre-
sumiblemente era capaz de resolver, ah initio, el problema del tentempié
de medianoche, los diseñadores de agentes artificiales en lA pueden. en
principio, fabricar un agente «adulto» equipado con conocimiento mun-
dano como si hubiese aprendido paso a paso todas las cosa« que necesita
conocer. Pero éste puede resultar. obviamente, un atajo peligroso.
Por consiguiente, el problema de la instalación es el problema de
poner, de una u otra forma, toda la información que un agente nece-
sita para hacer planes en un mundo cambiante. Es un problema difícil
porque la información ha de ser instalada en un formato utilizable. El
problema puede descomponerse inicialmente en el problema semánti-
co y el problema sintáctico. El problema semántico - identificado por
Allen Newcll como el problema al «nivel de conocimiento>', (Newell,
1982)- e.. . el problema de determinar precisamente qué información
(sobre qué temas, con qué finalidad) tiene que ser instalada. El problema
sinuictico es qué sistema. formato. estructura. o mecanismo utilizar para
colocar la información"

La división puede verse claramente en el ejemplo del tentempié de


medianoche. He mencionado una lista de unos pocos de los muchísimos
hechos rutinarios que se necesitan para resolver este problema. pero no
pretendía sugerir que yo -o cualquier otro agente- tenemos todos
estos hechos almacenados uno a uno, en forma de una larga lista de
sentencias declarando explícitamente todos y cada uno de esos hechos
para el beneficio del agente. Por supuesto que. oficialmente, esta es una

() McCanhy y Hayc-, (1 y69) establecen una d 1:'[1 r1L'IÓn diferente: entre lo «episte-
mológico» y k) -heurfstico». La diferencia e.., LJlJC ellos incluyen la cuestión « ¿cn qué
(1[JO de notación interna debe ser expresado el conocimiento del sisterna?» en el ám-
bno del problema epistemológico (ver pag. -lhó l. separando este problema smtáctico (y
por tanto. de algún modo mecánico) de [O~ problemas procedimentales del diseno del
-rnerunismo que resuelve el problema y decide 10 que hay que hacer sobre la base de la
información ».
Una de Lt... razones primordiales de la controversia acerca de qué e-; exactamente el
problema del marco tiene su origen en este intento de división del rema. Pues IJ res-
puesta a los aspecto-, \1111:lclil'()~ del prohlerna epistemológico introduce una diferencia
muy grande con respecto .1 la nutur.ilcza JeI problema heurístico. A fin de cuenta......;
la sintaxis de la expresión del cunocumento del sistema es suticrentemente perversa,
entonces, a pesar de la ,,,.ni'iólI de I~j representación de ese conocimiento. el problema
heunstico ~e tornará imposible de revolver. Y algunos han hecho la sugerencia de que el
problema heurístico podrín virtualmente desaparecer si el conocimiento del mundo fuera
introducido oportunamente en primer lugar.

326
posibilidad: se trata de una versión absurdamente extrema de la teo-
ría de la representación mental conocida como la teoría del «lenguaje
del pensamiento», con cada «proposición» distinguible inscrita sepa-
radamente en el sistema. Nadie suscribe semejante visión del asunto;
incluso una enciclopedia consigue economizar de forma importante su
expresión explícita a través de su organización, y una enciclopedia am-
bulante - no una mala caricatura del imaginado agente lA - tiene que
utilizar diferentes principios sistémicos para conseguir representaciones
y accesos eficientes. Conocemos trillones de cosas; conocemos que la
mayonesa no disuelve los cuchillos al contacto, que una rebanada de pan
es más pequeña que el monte Everest, que abrir la nevera no produce un
holocausto nuclear en la cocina.
Tiene q uc haber en uso - y en todo agente inteligente -- algún sis-
tema muy eficiente. parcialmente productivo o generativo, de represen-
tar -almacenamiento activo- toda la información que necesita. Así
pues, hemos de almacenar de algún modo muchos «hechos» a la vez-
suponiendo que los hechos corresponden más o menos uno-a-uno con
sentencias declarativas no-sinónimas. Además. siendo realistas, no cabe
abrigar esperanza alguna en lo que podría denominarse una solución á
la Espinosa - un pequeño conjunto de axiomas y definiciones a partir
del que deducir el resto de nuestro conocimiento cada vez que lo ne-
cesitamos- puesto que resulta evidente que no existen relaciones de
implicación entre la mayor parte de esos hechos. (Cuando confiamos.
como debemos, en que la experiencia nos diga cómo es el mundo, la
experiencia nos dice cosas que no se siguen en absoluto a partir de lo
ya conocido.)
La necesidad de un sistema de almacenamiento de información que
sea eficiente, se debe en parte a limitaciones de espacio, puesto que nues-
tros cerebros no son tan grandes, aunque mucho más importantes son las
limitaciones de tiempo. La razón es que la información almacenada que
no se encuentra lista para ser usada en los cortos lapsos de tiempo real
de los que los agentes tIue actúan en el mundo disponen habitualmente.
no tiene en absoluto ninguna utilidad. Una criatura capaz de resolver
cualquier problema si dispone de tiempo suficiente -por ejemplo. un
millón de años- en realidad no será en modo alguno inteligente. Vivi-
mos en un mundo apremiado por el tiempo, y tenemos que ser capaces
de pensar antes de saltar. (No es necesario aceptar la tesis de que se
[rata de una condición (l priori para la inteligencia. Basta simplemente
con admitir que, de facto, pensamos rápidamente. As] pues, existe un
problema empírico acerca de cómo somos capaces de hacerlo.)

327
La tarea a la que se enfrenta la investigación en lA es la de diseñar'
un sistema capaz de planificar a base de utilizar elementos bien selec-
cionado" de su almacén de conocimiento acerca del mundo en el que
opera. Una mirada «introspectiva» sobre cómo nosotros planificamos
nos ofrece la siguiente descripción del proceso: nos imaginamos una
determinada situación (con frecuencia de forma muy esquemática); des-
pués nos imaginamos a nosotros mismos realizando ciertas acciones en
esa situación; entonces «vemos» cuál podría ser el resultado probable
de la acción imaginada en dicha situación, y lo evaluamos. Lo que su-
cede entre bastidores, por decirlo así, que nos permite este «ver» (y lo
representa de modo tan fiable) resulta completamente inaccesible a la
introspección.
En ocasiones relativamente infrecuentes experimentamos semejan-
tes series de pensamientos desplegándose en la consciencia a la velo-
cidad deliberada de la reflexión. Se trata de momentos en los que nos
enfrentamos a algún problema novedoso y relativamente difícil, como.
por ejemplo: ¿De qué modo podría trasladar el piano al piso de arriba?
o ¿Hay alguna forma de empalmar la electricidad a la araña sin atravesar
el techo de escayola? Resultaría completamente extraño que tuviéramos
que pensar de este modo (despacio y conscientemente) para solucionar
el problema del bocadillo de medianoche. Sin embargo. la sugerencia
es que incluso los problemas más triviales de planificación y control
corporal que escapan a nuestro conocimiento (aunque en algún sentido,
(os «afrontarnos»), se resuelven por procesos similares. ¿Por qué? Yo no
me observo a mí mismo planificando en tales situaciones. Este hecho es
suficiente para convencer al fenomenólogo introspectivista tradicional
de que no tiene lugar ninguna planificación de este tipo 111. El hetero-
fenomenólogo. por otra parte. piensa que, de una u otra forma tiene
que ser utilizada (considerada, tenida en cuenta, aplicada. reconocida),
la información sobre los objetos en la situación. y acerca de los efectos
pretendidos y los efectos colaterales de las posibles acciones. ¿Por qué?
Porque de no ser así la conducta «inteligente) sería pura casualidad,

10 Este tipo de observaciones también convencieron a Gilbert Rylc. quien (ué, en un


sentido relevante, un fenomenólogo introspecuvista (y no un «bchaviorista»). Ver Ryle
( 1949).
Podemos imaginar fácilmente el ataque de Ryle a la lA: <i. Y cuántas injerencias debo
realizar mientras preparo mi bocadillo? i,Por qué los silogismos me convencen de que
la cerveza permanecerá en el vaso'.' Para una discusión más detallada de los argumentos
escépticos de Rylc y su relación con la ciencia cognitiva, puede verse mi artículo «Stylcs
of mental represenration- (Dcnncrt. 19S3)
suerte o magia. (¿Contamos con algún modelo acerca de cómo podría
darse este reconocimiento inconsciente de información? El único mode-
lo con que contamos hasta el presente es reconocimiento de informa-
ción consciente. deliberado. Es posible que t->e trate de un buen modelo,
sugiere la lA. Si no lo es, entonces nos hallamos en completa oscuridad
por ahora.)
Nos aseguramos de la inteligencia de un agente mediante la aplica-
ción de contrafácticos: si hubiera tenido noticia de que el pavo estaba
envenenado. o de que la cerveza era explosiva, o de que el plato estaba
sucio, o de que el cuchillo era demasiado frágil para extender la mayo-
nesa, ¿habría actuado de la misma manera? Si yo fuera un «autómata»
estúpido -o como la avispa Sphex que repite «automáticamente» su es-
tereotipada rutina de examen-de-la-madriguera hasta el agotamiento I I -
podría. infelizmente, «reproducir uno por uno todos los movimientos»
de preparar el bocadillo de medianoche insensible a los recalcitrantes
aspectos del entorno!'. Sin embargo, mi conducta consistente en prepa-
rar-el-tentcmpié-de-rnedianoche es. de lacto, múltiplemente sensible a
la información subyacente y explícita acerca de la situación. La única
forma en que podría ser tan sensible - continúa el razonamiento hétero-
fenomenológico tácíto- consiste en examinar, o comprobar. la infor-
mación en cuestión. Esta manipulación de información puede ser rápida

1I «Cuando llega el momento de poner los huevos, la n.. . ispa Sphe.x construye una

madriguera al efecto y busca un grillo al 4uC pica de forma que no lo mata, sino sólo
lo deja paralizado. Arrastra al grillo hasta la madriguera. pone los huevo'> a su lado, y
entonces se va votando. para 110 volver jamás. Llegado él momento oportuno. los huevos
rompen su cascarón, y IJ.~ crtas arrancan trozos de comida del grillo paralizado. que no
se ha podrido. ya que había sido puesto en el equivalente para las avispas de la ultracon-
gelacion, Desde ~I punto de vista humano, una rutina tan cuidadosamente organizada y
aparentemente intencional, transmite una convincente impronta de lógica y previsión
--hasta que el asunto se examina con más detalle, Por ejemplo, la rutina de la avista es
llevar al grillo paralizado hasta la madriguera, dejarlo en el umbral. entrur dentro para
ver si toJo está bien, volver a ~;)\ir, y entonces arrastrar hacia adentro al grillo. Si. mien-
tras la avispa ~é encuentra dentro haciendo la inspección previa. el grillo ~s movido hacia
afuera algunas pulgadas, la avispa, al salir de la madriguera. volverá a llevar al grillo al
umbral. pero no adentro. y volverá a repetir el proceso preparatorio de entrar dentro de la
madriguera para comprobar que todo está en orden. Si nuevamente vuelve a ser movido
el grillo unas pocas pulgadas mientras la avispa se encuentra dentro. otra vez volverá la
avispa a arrastrar el grillo hasta la entrada y repetirá . . u inspección. En ningún momento
se plantea la avispa meter al grillo directamente. En cierta ocasión se repitió el proceso
cuarenta veces. -icmpre con el mismo resultado» (Dcan Wooldridge, 1963,.
Este e~ un ejemplo muy ilustrativo de un fenómeno habitual entre los insectos. He
tratado este ejemplo en Brainstorms, y en Douglas Hofstadtcr (1982).
I~ Ver Dennett (1982c. pp. 58-59) acerca del "Tt':Lltro del robot»,

329
e inconsciente. y no necesita (mejor no) consistir en cientos o miles de
procedimientos de comprobación en serie, pero ha de darse de alguna
forma. y sus beneficios tienen quc aparecer a tiempo para ayudarme
cuando me pongo a actuar.
Por supuesto. yo puedo poseer una rutina de preparar bocadillos de
medianoche, desarrollada a lo largo de los años, en cuyo caso puedo
confiar parcialmente en ella para conducir mis acciones. Un compli-
cado «hábito» de este tipo debe ser controlado por un mecanismo de
cierta complejidad, ya que incluso una secuencia rígida de pasos re-
quiere comprobaciones periódicas pasa asegurar que los sub-objetivos
son satisfechos, Incluso si no practico con frecuencia la preparación de
tentempiés de medianoche. sin duda debo tener rutinas para extender
la mayonesa. hacer bocadillos. sacar-algo-de-la-nevera, a partir de las
cuales componer esta, de algún modo, nueva actividad. ¿Sería posible
que estos conjuntos de rutinas, adecuadamente integradas, bastasen para
resolver el problema del marco para mí, al menos en el caso de mis
actividades más «automáticas»? Este es un problema abierto al que vol-
veremos más tarde.
En cualquier caso. es importante reconocer de partida, y recordar-
lo con frecuencia. que incluso los más listos cometen errores; no sólo
sucede que no somos plunificadores infalibles: somos completamente
proclives a pasar por alto defectos importantes de nuestros planes que
resultan obvios ante una mirada retrospectiva. Esta manía queda patente
en el ejemplo bien conocido de los errores provocados por «la fuerza
del hábito» (\0" casos en que nuestras rutinas estereotipadas se muestran
sorprendentemente insensibles ante algunos cambios portentosos en el
entorno, y al mismo tiempo sorprendentemente sensibles n otros). La
misma debilidad aparece también de vez en cuando en casos en los que
nos hemos tomado conscientemente la molestia de pensar las cosas con
cierto cuidado. ¿Cu,intas veces nos embarcamos en un proyecto del tipo
mover-el-piano - habiendo pensado, o incluso habiendo «repasado» la
operación completa antes de ponernos manos a la obra- sólo para des-
cubrir que tenemos que volver atrás, o abandonar el proyecto. debido a
la aparición de algún obstáculo imprevisto, aunque perfectamente pre-
visible. o de algún efecto secundario no pretendido? Si nosotros, que
somos gente lista. rara VeZ nos encontramos realmente en aprietos o en
situaciones estúpidas [corno, por ejemplo, quedar atrapados en la es-
quina de una habitación por haber ido pintando el suelo, o fregándolo,
comenzando desde la puerta hacia adentro], no será porque planificamos
por adelantado tan bien. sino porque complementamos nuestras poco

J3ü
sistemáticas capacidades para la planificación con una combinación de
sabiduría popular que hemos ido cosechando (acerca de los tontos que
se meten entre la espada y la pared. por ejemplo) y comprobaciones
frecuentes acerca de si vamos progresando a medida que actuamos. Aún
así, tenemos que conocer lo suficiente como para echar mano del co-
nocimiento adecuado en el momento oportuno, y para reconocer como
tales los problemas inminentes.
En resumen: una serie de conclusiones completamente obvias y de
mucho peso nos han conducido a la conclusión de que los agentes inte-
Iigentes necesitan embarcarse en «planificación» sensible con rapidez
a la información, que tiene la virtud de producir expectativas fiables,
aunque no infalibles. acerca de los efectos de sus acciones. Que estas
expectativas se encuentran activas normalmente en las criaturas inte-
ligentes es algo que viene avalado por la súbita reacción que muestran
cuando sus previsiones se vienen abajo. Esto sugiere una forma gráfica
de caracterizar el objetivo mínimo que puede engendrar el problema del
marco: pretendemos que un robot que-hace-tentempiés-de-medianoche
se «sorprenda» ante el plato de broma, la mayonesa de cemento imposi-
ble de extender. el hecho de que hayamos pegado el vaso de cerveza a la
repisa de la cocina. Para que alguien se sorprenda, debe haber esperado
alguna otra cosa. y para experar esa otra cosa correcta, hay que poseer
y usar una gran cantidad de información acerca de cómo son las cosas
en el mundo-'
El papel central que desempeñan las expectativas ha llevado a algu-
nos a la conclusión de que el problema del marco no es en absoluto un

1-' Hubert Dreyfus ha señalado que' el hecho de no esperar t no irnpl ica esperar .\

(donder -:t: v). de modo que alguien puede quedar sorprendido por algo que no esperaba
xin que Se dé el caso de que esperaba (de forma inconsciente) alguna otra cosa. Pero este
sentido de no esprrur no basta para explicar la sorpresa. ¿Cuántas son la:-, probabilidades
que 1l.1~ en contra de ver un Alfa Romeo. un Buick. un Chevrolct y IIn Dodge aparcados
así, en orden alfabético. en un momento u otro dentro de las próximas cinco horas: Bien
considerado, "011 alnsirna«, vin duda. Por eso yo no espero que otra persona lo espere.
Podría también no esperar que borra persona "e sorprendiese .sntc semejante vi-rón
inesperada -::1 excepción del C<1~l) especial en que la otra pcr:,;ona tuviese alguna razón
para esperar alguna otra cosa en ese momento y lugar.
Las reacciones de sorpresa son potentes indicadores de los estados cognitivos -esre
es un hecho bien conocido desde hace mucho tiempo por la policía () por los uutores de
novelas policíacas). S% alguien que esperase que el cadáver de Smith (por decir algo)
estaba en la nevera. quedaría sorprendido (a diferencia de levemente interesado} al descu-
brir que dentro de la nevera ...ólo se encontraba el siguiente. y más bien raro...!río: una bote-
lla de excelente Chabhs, una lata de comida para gatos y un paño de limpiar los platos.

331
problema nuevo, y que no tiene que ver especialmente con la planifica-
ción de acciones. Se trata simplemente, vienen a pensar, del problema
de tener las expectativas adecuadas acerca de acontecimientos futuros,
sean resultado de las acciones propias, de las acciones de otros agen-
tes, o bien simplemente sucesos naturales. Se trata del problema de la
inducción - señalado por Hume e intensificado por Goodman ( 1965),
pero no resuelto todavía a satisfacción de nadie. Hoy día sabemos que el
problema de la inducción es un problema realmente antipático. Las teo-
rías de la probabilidad subjetiva y de la fijación de creencias no se han
estabilizado en equilibrio reflexivo. de modo que es justo afirmar que
nadie cuenta con una respuesta buena, fundamentada, ante la pregunta
general: dado que yo creo todo esto (dispongo de toda esta evidencia),
¿qué otras cosas debería creer también (acerca del futuro, o acerca de
parcelas del mundo todavía no exploradas)?
La reducción a otro problema de un problema no resuelto ~upone
algún tipo de progreso, aunque no sea satisfactorio, pero ésta no es una
opción disponible en nuestro caso. El problema del marco no es el pro-
blema de la inducción disfrazado. Supongamos que el problema de la
inducción estuviese resuelto. Supongamos que -quizá por puro mila-
gro- nuestro agente ha solucionado todos sus problemas de inducción,
o que los tiene resueltos porque sí; cree, por consiguiente, todas las ge-
neralizaciones correctas que se pueden hacer a partir de la evidencia de
que dispone, y asigna a todas ellas las probabilidades correctas y las
probabilidades condicionales. Este agente, por hipótesis, cree, ni más ni
menos, lo que debería creer acerca de cualquier materia empírica bajo su
conocimiento, incluida la probabilidad de los acontecimientos futuros.
Aún así podría encontrarse con un feo caso del problema del marco. pues
este problema tiene que ver con la forma de representar (de modo que
resulte utilizable) toda la información empírica arduamente conseguida
- un problema que aparece con independencia del valor de verdad, la
probabilidad, la ascrtabilidad garantizada. o la certeza subjetiva de ésta.
Incluso teniendo conocimiento excelente (no meras creencias) acerca
del mundo cambiante, ¿cómo podría representarse este conocimiento de
tal forma que pudiera estar eficazmente listo para el uso?
Recordemos al pobre R IO I Ysupongamos, por razón del argumen-
to, que tenía un perfecto conocimiento empírico de las probabilidades
de todos los efectos detectables de todas sus acciones. Así pues. nuestro
robot cree que ejecutar el plan fEMPUJAFUERA (CARRITO, HABITACIÓN)],
causará que las ruedas del carrito produzcan un sonido audible con una
prohahilidad 0.7864; que la puerta de la habitación se abrirá hacia aden-

332
tro, en lugar de hacia afuera, con una probabilidad O.S; que no habrá
elefantes vivos en la habitación, con una probabilidad 0.999996, que la
bomba continuará estando en el carrito cuando éste sea empujado, con
una probabi 1idad 0.997. i.Cómo hará R 1DI para encontrar esta últ ima, y
relevante. aguja en su pajar de conocimiento empírico? Una enciclope-
dia ambulante continuará andando cuando tenga delante un precipicio.
a pesar de todos sus conocimientos acerca de los precipicios. y de los
efectos de la gravedad, a no ser que haya sido diseñada de tal manera
que sea capaz de encontrar los conocimientos adecuados en los momen-
tos precisos, para así poder planificar sus compromisos con el mundo
real.
Las investigaciones más tempranas sobre sistemas de planificación
en lA adoptaron un enfoque deductivo. Inspirados por el desarrollo de
los métodos de resolución para la prueba de teoremas de Robinson, los
diseñadores tenían la esperanza de poder representar explícitamente, en
forma de axiomas, todo el «conocimiento del mundo» del sistema, y
de usar la Lógica clásica -el cálculo de predicados- para deducir los
efectos de las acciones. LLI previsión de una determinada situación S fué
modelizada disponiendo que el sistema manejase un conjunto dc axio-
mas describiendo dicha situación. En adición a este conjunto. estaban
los axiomas de base (los denominados «axiomas marco», que dan al
problema del marco su nombre) describiendo las condiciones y efectos
generales de todas las acciones tipo definidas en el sistema. El sistema
podía aplicar una acción para este conjunto de axiomas -postulando la
ocurrencia de una determinada acción A en la situación S- y deducir
después el efecto de A en S. produciendo una descripción de la situación
resultado S,>. Dado que toda esta deducción lógica no aparece en abso-
luto en nuestra experiencia consciente. la investigación en esta línea de-
ductivista podía basarse en uno de estos dos supuestos de posibilidad. o
bien en ambos: el supuesto metodológico de que el realismo psicológico
era una carga gratuita, no una meta, dc la lA «pura», o bien la hipótesis
sustantiva (aunque vaga) de que los procesos deductivos descritos po-
drían modelizar del algún modo los procesos subyacentes fuera del ac-
ceso consciente. En otras palabras. o nuestros procesos de pensamiento
no consisten en deducciones dentro del cálculo de predicados, pero los
de un robot sí; o bien pensamos deductivarnente utilizando el cálculo
de predicados (de forma inconsciente). Dejando completamente aparte
las dudas acerca de su realismo psicológico, no ha sido posible hacer
que el enfoque deductivo funcione -la prueba de fuego R,ara cualquier
robot- a excepción de algunos casos deliberadamente triviales.

333
Consideremos algunos axiomas marco típicos asociados con la ac-
ción tipo: trasladar x a y.

Si ¿ ~.\ Y traslado x a v, entonces. si ¿: estaba en 1\' anteriormente.


;-. estará en u después.
Sí .r es azul antes. y traslado .r él y. entonces .r continuará siendo
azul después.

Debemos notar que (2), acerca de ser azul, es precisamente un ejem-


plo de los muchos latosos axiomas acerca del «no-cambio» que tenemos
que asociar con esta acción tipo. Peor aún. hay que tener en cuenta que
un primo de (2), también acerca de ser azul, debería ser asociado a toda
acción-tipo -con recoger .r, y con dar x a y. por ejemplo. No nos pode-
mos ahorrar esta repetición automática postulando de una vez por todas
algo así como

Si algo es azul. permanecerá azul

puesto que es falsa, y en particular, nos interesa dejar abierta la posi-


bilidad de introducir acciones-tipo como pintar x de rojo. Puesto que
virtu almente cualq LJ ier aspecto de 1I na si tuac i ón puede cambiar bajo al-
gunas circunstancias, este método requiere la introducción de un axioma
para cada aspecto (cada predicado en la descripción de S) con el fin de
controlar si dicho aspecto cambia en cada acción-tipo.
Esta proliferación represcntacional se escapa rápidamente de la~
manos, sin embargo, para algunos problemas «de juguete» en lA, el
problema del marco se puede dominar en alguna medida recurriendo
a una mezcla de simplificación del entorno y fuerza bruta. La primera
versión de SHAKEY. el robot creado en el S.R.L operaba en un mundo
tan sumamente simplificado y estéril, con tan pocos aspectos de los que
preocuparse. que era capaz de funcionar con un examen exhaustivo de
los axiomas de marco!",
Las estrategias para sortear el problema de esta explosión de axiomas
dieron comienzo con la propuesta de que el sistema debe operar bajo el
supuesto tácito de que nada cambia en una situación a no ser que se arir-

1-1 Par Hayes me hizo notar evtu primera caracterf.. . rica de SIIAKEY. Puede verse tam-
bién Dreyfus ( 1072. p. 26. En Dcnnctt (198211) se analiza SHAKEY bujo una perspectiva
completamente diferente.

334
me lo contrario de manera explícita en la definición de la acción a aplicar
(Fikes y N ilson, 1971). El problema de esta propuesta es que. como Ga-
rrett Hardin observó, nadie puede hacer únicamente una cosa. Este fué
el problema de R 1, cuando no se dió cuenta de que empujaría la bomba
junto con el carrito. En la representación explícita de nuestra solución al
problema del tentempié de medianoche (unas pocas páginas más atrás),
mencioné la acción de llevar el plato sobre la mesa. Según esta propues-
ta, mi modelo «S>~ dejaría el pavo en la cocina, pues no establecí explíci-
tamente que el pavo sería transportado junto con el plato. Por supuesto,
siempre resulta posible recomponer la definición de «llevar» o de «plato»
para controlar este problema particular, pero solamente al precio de crear
otros. (¿Podrán unos pocos remiendos más reconducir el problema? ¿En
qué momento deberían abandonarse los remiendos y buscar una forma
completamente nueva de enfocar el problema? Estas son algunas de la,
incertidumbres metodológicas con las que habitualmente se tropieza este
campo, y por supuesto. nadie puede responsablemente afirmar con ante-
lación que posee una regla eficaz para tratarlas. Los anuncios prematuros
de pérdida de esperanza o las proclamas revolucionarias deben ser evi-
tadas tanto como el seguimiento obstinado de caminos sin salida: no es
nada extraño que este campo sea problemático.

~tientras que no se puede llegar muy lejos con la táctica de supo-


ner que se puede hacer solamente una cosa. lo cierto es que muy pocas
cosas, de entre las que podrían (lógicamente) suceder en una situación,
tienen lugar de hecho. ¡,Existe alguna forma de acotar, de modo falible,
el área probable de los efectos colaterales importantes, y suponer que
el resto de la situación permanecerá sin cambios? Aquí es donde las
pruebas de relevancia parecen ser una buena idea, y bien pudieran serlo,
aunque no dentro del enfoque deductivo. Como ha observado Minsky:

Aún cuando establezcamos restricciones de relevancia, los sistemas


logísticos tienen un problema al usarlos. En cualquier sistema logístico
todos los axiomas \on necesariamente «permisivos» -todos ellos per-
miten ]a extracción de nuevas inferencias. Cada axioma añadido supone
más teoremas; ninguno puede desaparecer. Simplemente no existe un
modo directo de añadir información para indicarle al sistema qué tipos
de conclusiones no deberían deducirse ... Si intentamos modificar esta
situación añadiendo axiomas acerca de la relevancia, continuaremos a
pesar de todo produciendo todos los teoremas que queríamos evitar, más
otros enunciados engorrosos acerca de su irrelevancia. (Minsky, 1981.
p. 125)

335
Lo que se necesita es un sistema que ignore de forma genuina la
mayor parte de las cosas que conoce, y que opere con una porción bien
escogida de su conocimiento en todo momento. Bien escogida, pero no
escogida mediante una consideración exhaustiva. ¿Cómo. sin embar-
go. podemos proporcionar a un sistema reglas para ignorar? -o mejor.
puesto que el problema no es el seguimiento explícito de reglas. ¡,Cómo
podemos diseñar un sistema que ignore de manera fiable lo que debe
ignorar bajo una amplia variedad de circunstancias diferentes en un en-
torno complejo de acción'?
John McCarthy denomina al anterior el problema de la cualificación.
y lo ilustra de forma muy gráfica mediante el famoso rompecabezas de
los misioneros y los caníbales.
Tres misioneros y tres caníbales llegan a un río. Allá se encuentra a
su disposición un bote en el que caben dos. Si los caníbales en algún mo-
mento superan en número a los misioneros en cualquiera de las orillas
del río, los misioneros serán comidos. ¿Cómo cruzarán el río?
Obviamente se espera que la persona a quien se le plantea el pro-
blema trate de concebir alguna estrategia para cruzar con el bote de una
orilla a otra de modo que puedan pasar todos y se evite el desastre ...
Imaginemos que se le plantea el problema a alguien, y después
de discurrir un rato sugiere ascender por el curso del río media milla
y cruzar por un puente. «¿Qué puentc?» -preguntamos. «No existe
puente alguno en la formulación del problema'». Y nuestro zopenco
responde. «Bueno, ellos no dicen que no haya un puente». Miramos al
castellano, e incluso a la traducción del castellano a la lógica de primer
orden, y nos vemos obligados a admitir que «ellos no afirman» que ahí
no haya un puente. Así pues, modificamos el problema de modo que
queden excluidos los puentes y lo planteamos de nuevo. y nuestro zo-
penco propone un helicóptero, y después de haberlo excluido, sugiere
un caballo alado. o que los otros se agarren del borde del bote mientras
dos reman.
Ahora comprobamos que, aunque sea un zoquete, se trata de un zo-
quete con imaginación. Perdida la esperanza de conseguir que acepte
el problema en el espíritu original de quien lo formuló, le contamos la
solución. Para nuestra desesperación, ataca nuestra solución argumen-
tando que el bote podría hacer aguas o faltarle los remos. Después de
corregir esta omisión en la formulación del problema, sugiere que un
monstruo marino podría ascender por el río y tragarse el bote. De nuevo

336
quedamos frustrados, y buscamos un modo de razonar que aclare su
embrollo de una vez por todas. (Mcf.arthy, 1980, pp. 29-30)
Lo que un ser humano normal, inteligente, hace en una situación
como ésta es utilizar alguna forma de inferencia no-monánota. En un
sistema clásico, monótono. la adición de premisas jamás disminuye lo
que se puede demostrar a partir de las premisas. Como Minsky hizo no-
tar, los axiomas son esencialmente permisivos. Una vez que un teorema
es permitido, la adición de más axiomas nunca invalidará las pruebas
de los teoremas anteriores. Sin embargo, cuando pensamos en algún
puzzle o en un problema de la vida real. podemos alcanzar una solución
(y aún demostrar que es una solución. o incluso que se trata de la única
solución para ese problema). y después descubrir que nuestra solución
queda invalidada por la adición de un elemento nuevo a la formulación
del problema: por ejemplo, «olvidé decírtelo -no hay remos», o «¡A
propósito! Hay un puente en muy buenas condiciones aguas arriba».
Lo que estas últimas adiciones nos enseñan es que. contrariamente
a Jo que habíamos creído, las demás cosas no eran igual. Habíamos es-
tado razonando con la ayuda de una suposición ceteris púribus, y ahora
nuestro razonamiento acaba de ser puesto en solfa por el descubrimiento
de que sucede algo «anormal». (Debemos tener en cuenta, por otra par-
te, que la anormalidad en cuestión es una noción mucho más sutil que
cualquier otra que hasta la fecha nadie haya extraído de la teoría de la
probabilidad. Como observa Mcf.arthy, «La situación en su conjunto.
incluyendo caníbales con las propiedades postuladas, no puede ser con-
siderada como teniendo una probabilidad, con lo que es difícil tomar
seriamente la probabilidad condicional de un puente dada la hipótesis».
La gran ventaja de una cláusula ceteris paribus en un fragmento de
razonamiento consiste en que no es necesario decir exactamente qué
significa. «¿Qué es 10 que se quiere decir con «siendo las demás co-
sas igual»7», L<¿ Qué configuraciones de qué cosas cuentan exactamente
como siendo igual?» Si tuviéramos responder a estas preguntas, el re-
curso a la cláusula ceteris paribus resultaría inútil, pues se utiliza pre-
cisamente con el fin de ahorrarnos esa larca. Si fuese posible encontrar
respuesta a estas preguntas. no sería necesario invocar la cláusula al
principio. Así pues. una forma de considerar el problema del marco es la
pretensión de conseguir un ordenador que se sirva por sí mismo de este
estilo de operar mentalmente característico de los humanos. Actualmen-
te se están explorando en el campo de la LA varios enfoques completa-
mente diferentes de la inferencia no-monótona. Todos ellos tienen en

337
común únicamente el objetivo de captar el talento humano para ignorar
lo que dehe ser ignorado, y de permanecer alerta. al mismo tiempo, a la
terquedad relevante cuando ésta ~e da.
Una familia de enfoques, representada por los trabajos de Marvin
Minsky y Roger Schank (Minsky, 1981; Schank y Abclson, 1977) con-
sigue su capacidad para ignorar a partir del poder para focalizar la aten-
ción que tienen los estereotipos. La fuente de inspiración aquí es la idea
de que todas las experiencias de la vida, en su enorme diversidad. se
reducen a variaciones de un número manejable de temas estereotipados.
escenarios paradigmáticos -«marcos)} en palabras de Minsky, «guío-
nes» en términología de Schank.

Un agente artificial. dotado de un compendio bien almacenado de


marcos o guiones, conectados adecuadamente unos con otros y a las in-
teracciones con el mundo, a través de los órganos sensoriales, se enfren-
taría al mundo con un sistema detallado de lo que podriamos denominar
hábitos de atención y saludables disposiciones a saltar hacia tipos par-
ticularcs de conclusiones en tipos concretos de circunstancias, Prestaría
atención «automáticamente» a aspectos particulares c:n determinados
entornos y daría por descontados ciertos aspectos normales no exami-
nados de esos entornos. De forma concomitante, prestana una atención
diferencial a las divergencias relevantes en relación a los estereotipos
que siempre comenzaría Pl)f «esperar-..
Las simulaciones de secuencias de encuentros de agentes de este
tipo con su mundo revelan que se comportan de forma completamente
adecuada y aparentemente natural en muchas situaciones. Por supuesto.
resulta difícil adivinar los límites de este enfoque. Pero existen fuertes
motivos para el escepticismo. Es claramente patente que. mientras es-
tos sistemas se comportan de forma notable cuando el mundo eo-opera
con sus estereotipos. e incluso con versiones anticipadas de éstos. sin
embargo. cuando las cosas se tuercen, son incapaces de recuperarse ai-
rosarnente de los análisis equivocados a que se ven abocados. De hecho.
su conducta in extremis se asemeja más que a nada en el mundo a las
absurdas actividades contraproductivas de los insectos que desvelan sus
rígidos tropismos y otras rutinas conduetales inscritas en su dotación
genética.
Cuando OCUlTen estas desconcertantes contrariedades, el creador
del sistema puede mejorar el diseño añadiendo estipulaciones con el
fin de tratar los casos particulares. Es importante tener en cuenta que en
estos casos, el sistema no se rediseña a sí mismo (no aprende). Por el

338
contrario, tiene que esperar que un diseñador externo escoja un diseño
mejorado. Este proceso de rediseñamiento reproduce el proceso de la
selección natural en algún sentido; facilita un rediseño ad 110c, mínimo,
por etapas, que equivale a una apuesta por la probabilidad de ocurren-
cia de patrones en acontecimientos futuros. Por consiguiente, es riel. en
algunos respectos, a Jos temas biológicos!", No obstante, hasta que no
se consiga dotar al sistema de una considerable capacidad para aprender
de sus errores sin necesidad de la intervención del diseñador, continuará
respondiendo de modo similar a como lo hacen los insectos. y semejante
conducta resulta profundamente irreal si se la considera como modelo
de las reacciones cotidianas de los humanos. Los atajos y métodos eco-
nómicos que brinda el apoyo en los estereotipos son suficientemente pa-
tentes en las formas de pensamiento humano. Pero también es evidente
que los humanos tenemos una comprensión más profunda para volver
sobre nuestros pasos cuando los atajos no sirven. La construcción de al-
guna medida para esta comprensión mas profunda dentro de un sistema
parece ser una condición necesaria para conseguir que aprenda de forma
rápida y elegqnte.
Efectivamente. los marcos y los guiones son enfoques que intentan
prc-solucionar los problemas del marco con los que un agente parti-
cular tiene alta probabilidad de tropezarse. Mientras que los insectos
parecen estar equipados con tales sistemas de control. los humanos, in-
cluso cuando parece que se apoyan en estereotipos, tienen sistemas de
pensamiento que les permiten retroceder. con lo que pueden negociar de
forma más eficaz con los problemas que surgen. Por otra parte. cuando
los agentes se aprovechan de los estereotipos, al menos se apoyan en
estereotipos de su propia invención, y hasta la fecha nadie ha sido capaz
de ofrecer propuesta alguna factible acerca de cómo la maquinaria de
una persona para construir 1113rCOS o para excrihir guiones podría ser
conducida por su experiencia anterior.
A lo largo de los últimos años. yen el contexto de la tradición deduc-
tiva, han surgido varias propuestas diferentes con el fin de proporcionar
el sustrato rcpresentacional de esta comprensión más profunda. Drew
McfIcrmott y Jan Doyle han desarrollado una «lógica no-monótona»

1" No obstante. es dramáticamente ihlerente de 10:- prllL'e~o~ L1e se lecCIón natural en


un importante aspecto. ya que la prueba. el CITor y la selección del procc ..o están muy le-
jo'> de ser ciegos, Pero se puede argumentar que el impaciente investigador no hace nada
más que adentrarse en el tiempo mediante tales intervenciones previstas en el proceso
de rediseño.

339
(1980), Ray Reiter ha propuesto una «lógica para el razonamiento por
defecto» (1980 >. y John J\.1cCaI1hy ha desarrollado un sistema de «cir-
cunscripción», una «regla [formalizada] de conjetura que puede ser usa-
da por una persona o programa para «saltar a las conclusiones-» (1980).
Ninguna de ellas es, o pretende ser, una solución completa para el pro-
blema del razonamiento ceteris paribus, pero podrían ser componentes
de dicha solución. En tiempos más recientes, McDennott ha ofrecido
una «lógica temporal para el razonamiento acerca de procesos y planes»
(Mcfrerrnott. 1982). No trataré de probar las virtudes y debilidades for-
males de estas propuestas. En lugar de ello, me voy a concentrar en otro
problema. Desde cierta perspectiva, la lógica no-monótona, la lógica
por defecto, la circunscripción y la lógica temporal. se muestran todas
como mejoras radicales con respecto al carácter automático y mecánico
del enfoque deductivo. Sin embargo, desde una perspectiva un tanto
diferente, parecen ofrecer más de lo mismo, y son al menos tan poco
realistas como los marcos en cuanto a su plausibilidad psicológica.
A primera vista, se presentan como un avance 'hacia un mayor rea-
lismo psicológico, ya que toman en serio, y tratan de representar. la
característica del razonamiento de sentido común, fenomenológica-
mente de ...tacada, de «saltar a las conclusiones». ceteris paribus. Sin
embargo. ¿consiguen realmente ofrecer sugerencias plausibles acerca
de cómo tiene lugar en la gente la implementación subyacente de este
pensamiento consciente? Aun si se diera el caso. en un futuro día glorio-
so, de que un robot dotado con depurados métodos de circunscripción
se manejase bien en un entorno no-supersirnplificado, ¿habría alguna
posibilidad de que sus procesos constituyentes, descritos a niveles por
debajo del fenomenolágico, pudieran mantener relaciones informativas
con los desconocidos procesos de más bajo nivel que tienen lugar en los
seres humanos? Para mostrar mejor cuál es el problema que me preocu-
pa quiero introducir el concepto de rueda cognitiva.
Podemos entender qué podría ser una rueda cognitiva teniendo en
mente. para empezar, las ruedas normales. Las ruedas son maravillosas,
un elegante triunfo de la tecnología. La veneración secular por el mítico
inventor de la rueda está plenamente justificada. Pero, sí las ruedas son
tan maravillosas. ¿por qué no existen animales con ruedas? ¿Por qué no
es posible encontrar ruedas (que funcionen como ruedas) en la natura-
leza? En primer lugar, la presuposición de estas preguntas debe ser cua-
lificada. Hace unos pocos años se realizó el descubrimiento asombroso
de que cienos animales microscópicos (alguna bacteria y algunas euca-
notas unicelulares) poseen ruedas en cierto sentido. Sus cola... de propul-

340
sion, que durante mucho tiempo se creyó que eran flagelos flexibles, han
resultado ser una especie de sacacorchos más O menos rígidos que giran
continuamente, empujadas por una especie de motores microscópicos,
completados con cojinetes principales!", Mejor conocidas. aunque de
menor interés, por razones obvias. son las plantas rodadoras. Así pues,
no es totalmente correcto afirmar que no hay ruedas (o diseños en forma
de rueda) en la naturaleza.
Con todo, las ruedas macroscópicas -ruedas de reptiles. mamí-
teros o aves-> no se encuentran. ¿Por qué no? Parecería que podrían
constituir un maravilloso equipo retráctil para el aterrizaje de algunos
pájaros, por ejemplo. Una vez que la pregunta se plantea, aparecen rá-
pidamente razones plausibles que explican su ausencia. Probablemen-
te, las más importantes son las consideraciones acerca de las propie-
dades topológicas de los límites del eje del cojinete, que convierten la
transmisión de materia y energía a través de él en algo particularmente
difícil. ¿C6mo podrían mantener su integridad las arterias que sopor-
tan el tráfico de la vida en un sistema vivo a través de este límite? Sin
embargo, una vez que este problema ha sido planteado, las soluciones
aparecen por ~í mismas; supongamos que la rueda de materia viva se
desarrolla hasta alcanzar su forma madura. de un modo no-giratorio,
no-funcional. y que después se endurece y S~ desprende, como las CO[-
namentas, o como una concha vieja, aunque no lo haga completamente:
entonces gira libremente sobre un eje fijo lubricado. ¿Sería esto posi-
ble? Es difícil afirmarlo. ¿Resultaría útil? También es difícil decirlo,
especialmente debido a que una rueda como ésta habría de girar libre-
mente. Esto constituye un ejercicio especulativo interesante. pero cier-
tamente no es del tipo de los que debería inclinarnos a extraer conclu-
siones categóricas, a priori. Sería temerario afirmar que las ruedas son
una imposibilidad biológica. pero al mismo tiempo es posible apreciar
que son. como mínimo, soluciones muy alejadas e improbables para los
problemas naturales de diseño.
Así pues, una rueda cognitiva es simplemente cualquier propuesta
de diseño en la teorización cognitiva (a cualquier nivel. desde el más
puro nivel semántico al nivel más concreto de los «diagramas de cir-
cuito» de las neuronas) que sea profundamente ajena a la biología, por
maravillosa y elegante que resulte como ejemplo de tecnología.

Ir, Para mayores detalles y reflexiones adicionales acerca de los temas tratados aquí.
ver Diamond ( 19lB j.

341
Es evidente que este es un concepto vagamente definido. que resulta
útil solamente como resumen retórico. como un gesto que apunta a las
dificultades reales que deben ser desmenuzadas cuidadosamente. «Guár-
date de postular ruedas cognitivas» pasa por ser un buen consejo para el
científico cognitivo, al tiempo que se coquetea con la vacuidad como una
máxima a seguir!". Ocupa la misma posición retórica que la máxima del
corredor de bolsa: compra barato y vende caro. Aún así, el término e:' un
buen punto de partida para la discusión.
Muchos de los críticos de la lA tienen la convicción de que cual-
quier sistema de l A es. y no podrá ser otra cosa, que una caja de cam-
bios de ruedas cognitivas. Por supuesto. esto podría terminar siendo
verdad. pero la razón habitual para creerlo está basada en una mala
comprensión de los supuestos metodológicos del campo de investiga-
ción. Cuando se propone un modelo lA para algún fenómeno cogniti-
vo. el modelo se puede describir a muchos niveles diferentes, desde el
nivel más global. fenomenológico, donde la conducta se describe (con
alguna presuntuosidad) en términos mental isticos ordinarios. descen-
diendo a través de diversos niveles de implementación hasta el nivel
de programa -e incluso más abajo. hasta el nivel de las operaciones
físicas ihurdwarev básicas, si alguien se interesa. Nadie supone que el
modelo refleja los procesos de la psicología y la biología durante todo
el recorrido descendente. La hipótesis es únicamente que para alguna
descripción de alto nivel por debajo del fenomenológico (el cual sim-
plemente plantea el problema) existe una aplicación de propiedades
del modelo en lo que está siendo modelizado: los procesos cognitivos
en las criaturas vivientes, humanas o de otras especies. Se entiende
que todos los detalles de implementación por debajo del nivel que se
intenta modelizar van a consistir. sin duda alguna. en ruedas cogniti-
vas -porciones de actividad computacional no biológica que mime-

" rué interesante descubrir que al meno, un investigador en 1A rnalintcrpretó la


intención retórica de mi nuevo término en una primera lectura: tomó «ruedas cogniti-
vas» como un espaldarazo. Si se concibe la lA como lo hace él. no como un método de
investigación en psicologta. sine' corno una rama de la ingenicrra que trata de ampliar
las capacidades cognitivas humanas, entonces resulta obvio que: las ruedas cognitivas
...on un avance decisivo. Las inmensas y virtualmente infalible ... memorias de los or-
denadores constituirfan ejemplos máximos: otros podrían ser la virtuosidad aritmética
y la invulnerabilidad al aburrimiento ~ a la distracción que tienen lo~ ordenadores.
Puede ... er-,e Hofstadter (19~Q) para una discusión muy clarificadora acerca de la re-
lación del aburrimiento con respecto a la estructura de la memoria y las condiciones
para la creatividad .

.H 2
tizan los efectos brutos de los sub-componentes cognitivos utilizando
métodos completamente diferentes a los métodos todavía por descu-
brir en el cerebro. Quien no haya sido capaz de valorar que un modelo
compuesto de ruedas cognitivas a nivel microscópico podría, a pesar
de todo. conseguir un isomorfismo fértil con los procesos biológicos o
psicológicos a un nivel de agregación más elevado, habrá de suponer
que existen buenas razones a priori para un escepticismo generalizado
acerca de la lA.

Sin embargo, dar cabida a la posibilidad de valiosos niveles in-


termedios de modelización no garantiza su existencia. En casos par-
ticulares un modelo podría descender directamente desde un nivel de
descripción psicológica reconocible fenomenológicamente hasta una
implementación de tipo ruedas cognitivas sin ofrecer ninguna luz en
absoluto acerca de cómo los humanos nos las arreglarnos para poseer
esa fenomenología. Sospecho que todas las propuestas actuales en el
área para tratar el problema del marco padecen esta limitación. Quizá
debiera rechazarse el párrafo anterior como mera autobiografía. En-
cuentro difícil de imaginar (en la medida en que ésto valga para algo)
que. por ejemplo. cualquiera de los detalles procedimentales de la me-
canización de las circunscripciones de Mcf.arthy pudiera tener contra-
partidas adecuadas en los procesos subyacentes todavía por averiguar
acerca de cómo tiene lugar el razonamiento humano de sentido común.
Si estos detalles procedirnentales carecen de «realidad psicológica»,
entonces no queda en la propuesta nada que pudiera modelizar los
procesos psicológicos a excepción de la descripción al nivel fenome-
nológico en términos de saltar a las conclusiones, ignorar. etc ... - y
todos sabemos Y¡J como hacernos eso.

Hay, no obstante, una defensa alternativa para estas exploraciones


teóricas, y pienso que debe ser tomada seriamente. Se puede afirmar
(y yo creo que McCarthy lo afirma) que aunque formalizar el razona-
miente de sentido común a su manera no nos va a decir directamente
nada acerca de los procesos psicológicos del razonamiento, podría cla-
rificar. precisar, sistematizar la caracterización a nivel puramente se-
mántico de los requisitos de dicha implementación. sea biológica o no.
Una vez dado el paso de gigante de tomar en serio el procesamiento de
información como un proceso real en el espacio y en el tiempo. pue-
de darse un pequeño paso atrás y explorar las consecuencias de este
avance a un nivel muy abstracto. Incluso a este nivel muy formal, el
poder de la circunscripción y de las demás variantes del razonamiento

343
no-monótono continúa siendo un problema abierto pero sumamente
explorable!".
Algunos han pensado que la clave para una solución más rcalística
del problema del marco (y por supuesto, con toda probabilidad, para
toda solución sin más) ha de necesitar una reconsideración completa
del planteamiento a nivel semántico, previa al interés por la implemen-
tación a nivel sintáctico. La serie más o menos estándar de predicados
y relaciones escogidos para cumplimentar el esqueleto del cálculo de
predicados al representar las «proposiciones creídas» puede conllevar
un análisis básicamente inadecuado de la naturaleza de esta tarea. Tí-
picamente, la interpretación de las fórmulas en estos sistemas divide el
mundo a lo largo de las líneas familiares de objetos con propiedades en
tiempos y lugares. El conocimiento de las situaciones y sucesos en el
mundo se representa por lo que podríamos llamar secuencias de instan-
táneas verbales. El estado S, descrito constitutivamente mediante una
lista de sentencias verdaderas en un tiempo t que afirman varios predi-
cados n-ádicos de diversos particulares, da lugar al estado ~<S», una lista
similar de sentencias verdaderas en -t». ¿Podría ser quizá mejor repen-
sar el mundo de la planificación en términos de historias y procesos?".
En lugar de tratar de modelizar la capacidad de seguir la pista a las
cosas en términos de principios para pasar a través de secciones tem-
perales de conocimiento expresadas en términos de términos (nombres
para las cosas, en esencia) y predicados, quizás podríamos modelizar
el seguir la pista a las cosas más directamente y dejar que toda la infor-
mación secciona! acerca de lo que es considerado verdadero momento
a momento sea meramente implícita (y difícil de extraer -como lo es
para nosotros) a partir del formato. Estas son sugerencias tentadoras,
pero hasta donde llega mi conocimiento. se hallan todavía en el terreno
de la palabrería?'.

I~ McDermott 196<} (<<A Temporal Ll\gic lor Reasoning about Proccsscs and Plans»,
Sección 6, ,<ASketch of an Irnplernentation») muestra sorprendentemente cuánta" con-
secuencias nuevas aparecen una ver. que volvernos la vista al problema de la implemen-
tación, y en qué gran medida son indirectas (pero útiles a pesar de todo) las considera-
cienes puramente formales.
19 Patrick Haycs ha estado investigando en esta dirección. Puede encontrarse un
análisis preliminar en «Naive Physics 1: The Ontology of Liquid-o (Hayes, 1978).
2[\ El monográfico de Olivcr Sclfridgc Tracking and Trailing (Brudford Books/MIT

Press) promete hacer retroceder esta frontera. segun creo. pero todavía no he sido capaz
de asimilar sus mensajes. Hay también algunos pasajes sugerentes sobre este tema en
el libro de Ruth Garreu Millikan Language. Thought, and Otlicr Biologica! Categories
(Bradford Books/MIT Prcss, 19~4)

344
Otro tema sobre el que se habla, probablemente relacionado. es que
las dificultades actuales con el problema del marco tienen su origen en
el esquema conceptual engendrado por el procesamiento-en-serie propio
de las arquitecturas computacionales de tipo von Neurnann utilizadas
hasta la fecha en lA. A medida que se vayan desarrolJando procesadores
paralelos más rápidos y de mayor capacidad, producirán el despertar de
enormes innovaciones conceptuales que. por razones obvias. hoy por
hoy apenas resultan imaginables. Puesto que los cerebros son, con toda
seguridad. procesadores masivos paralelos, resulta tentador suponer que
los conceptos generados por un nuevo hardware de este tipo serán más
fácilmente adaptables con vistas a la modelización psicológica realista.
Pero, ¿quién lo puede afirmar? Por el mome-nto. la mayor parte de las
optimistas aseveraciones acerca de los poderes del procesamiento para-
lelo entran en el mismo saco que las observaciones facilonas que pueden
hallarse con frecuencia en el trabajo de los neurocientíficos. quienes
adscriben maravillosos poderes cognitivos a diferentes porciones del
sistema nervioso sin ofrecer ninguna pista acerca de cómo ~e realizan
tales capacidades:".
La tarea de completar los detalles del abismo existente entre el mági-
co espectáculo fenomenológico y los poderes bien estudiados de peque-
ñas regiones del tejido cerebral constituye el inmenso trabajo de investi-
gación que aguarda en el futuro para los teóricos de cualquier tendencia.
Pero es preciso encontrar los problemas antes de poder resolverlos, y

~I
Para contrarrestar la manta que tienen It)~ teóricos «arriba-abajo» de postular ruc-
<Ji.l~cognitivas. está la predilección de los teóricos «abajo-arriba>' por llegar a descu-
brir tejidos maravillosos. (El tejido maravilloso aparece en muchos lugares. La teoria
de la percepción de 1. J. Gibson, por ejemplo, parece tratar el sistema visual completo
corno un tejido maravilloso, que resuena con una sensibilidad prodigiosa a una multitud
de sofisticadas «affordanccs», (Ver, p.e., J. J. Gibson, I q79) [Nota del traductor: «af-
[ordanccs» e~ un neologismo utilizado por Gibson en su teoría de la percepción directa
(o enfoque ecológicó de la percepción) con la que trata de ofrecer una visión alternativa
al vie-jo y recalcitrante problema de las relaciones entre las nociones de estímulo «proxi-
mal>' ¡el estímulo descrito en términos de transmisión de energía física a los receptores
...ensoriales) ':J de estímulo «distal» (el estímulo descrito como percepro). A este respecto,
Gibson mantiene que el entorno tiene propiedades inforrnacionalcs para los organismos,
y que éstos las perciben directamente. Este enfoque contrasta con los que requieren
procesos de transformación de lo que 10:0, organismos reciben como estímulo sensorial a
las representaciones internas con contenido informacional. Existe el precedente de haber
traducido el término que nos ocupa como «propiedades funcionales», pero ~SIC traductor
estima que se trata de una expresión excesivamente genérica para un término tan cspe-
cífico como éste, de modo que hemos optado por dejarlo tal cual en la traducción, CO.'>i.J.
por otra parte. bastante cornún.]

345
para encontrar los problemas hay que saltar con decisión al abismo y
plantearse preguntas-acerca-de-cómo. Lo que los filósofos (y todos los
demás) han sabido siempre es que las personas - y. sin duda, cualquier
agente con inteligencia- son capaces de realizar razonamientos ceteris
paribus rápidos, sensibles y arriesgados-pero-valiosos. ¿Cómo lo ha-
cemos? Puede que la lA no tenga todavía una buena respuesta. pero al
menos ha dado con el problema'!.:!.

Referencias

CHERN [Al..:, e ( 19~J) «Rationality and the Structure of Memory.", Svnthese 57.
163-g6.
DARMSTADTER, H. ( [971) «Consistency of Belieb~. The Journal 01 Philosophy
68.301-10.
DENNETI, D. C. (1976) «Two approaches to mental images», en Brainstorms.
Cambridge, !v1A: M1T Press. A Bradford Book,
-, (1982a) «Why do we think what wc do about why we think what do? COR-
nition 12.219-227.
- , (l982b) «How to study consciousness empirically: or nothing comes to
mind», Synthese. 53. 159-180.

~~ Unos de los escasos artículos filosóficos que he descubierto que parece contribuir a
la reflexión acerca del problema del marco -aunque no en esos términos>- es el escrito
de Ronald de Sousa «The Rationality of Emotions» (de Sousa. 1(79). En la sección titu-
lada «What are Ernotions For?», de Sousa apunta. con consideraciones de peso. que:

la función de la emoción es completar los huecos dejados por [el mero


deseo más la] «razón pura» en la determinación de la acción y la creencia.
Pensemos en cómo se las arregla Yago para dar celos a Otélo. Su tarea con-
siste esencialmente en dirigir 1.:1 atención de Otelo, sugerir interrogantes ...
Una vez que la atención ha sido encauzada de ese modo, hay inferencias que.
en presencia de la misma evidencia. ni siquiera "e le hahrían cruzado por la
mente y ahora son experimentadas como convincentes.

Según lo entiende de Sousa, «las emociones son determinados patrones de saliencia


entre objetos de atención, líneas de indagación y estrategias inferenciales» (p. 50) Y no
resultan «reducibles» en modo alguno a «proposiciones articuladas'), Aún siendo t..in
sugerente. no ofrece. obviamente. ninguna propuesta concreta acerru de cómo dotar un
estado (emocional) interno con estos interesantes poderes. Otro escrito sugerente -y
olvidado- es el de Howard Darmstadter «Consisrency of Belief» (Darrnstadter, 1971,
pp. 301-310). La exploración que Darrnstadter realiza acerca de las cláusulas ceteris
paribus y de las relaciones que pudieran existir entre las creencias como estados psico-
lógicos y las sentencias que los agentes pueden pronunciar (O han pronunciado acerca de
ellas) contiene una serie de propuestas que merecen más atención.

346
- , (J 982c) «Bevond bclief», en A. Woodríeld (De.) Thought and Object,
Oxford: Oxford University Press.
.-. (] 983) «Styles of mental representation». Proc. Aristotelian Soc. ~3,
213-26.
DIAMOI'D. J. ( 1QS3) «Thc Biology 01' the Whecl·>. Na/un' 302,572-3.
DREYI·US. H. (1972) Whm Computen Can't Do. New York: Harper and Row.
FIKES, R. & NILSSON. N. (1971) «STRIPS: A new approach W Ihe application of
theorem prov ing to problern sol ving». Artificial lntelligence 2, 189-208.
Ginsou, J. 1. (1979) ThL' ecological approach /0 visual perception, London:
Hnughton Mifftin.
GOODMAN. N. (965) Fact, Fiction and Forecast, 2nd cd .. Indianapolis: Bobbs-
Métrill.
- , ( 1982) «Thoughts \\1 ithour words» e ognition . 11, 2 11-217.
H .... yES. P. J. (1978) Naive phvsics 1: The ontotogv o] liquids (Working Papers
No. 35). Gcneva. Switzerland: Institut pour les etudes semantiques et cog-
nitives, University of Geneva,
- . (1979) The naive physics nuinifesto. En D. Michie (EJ.) Expert systems in
the microelertronic age, pp. 242-70. Edinburgh. Scotland: Edinburgh Uni-
versity Presx.
HorsTADTER. D. R. ~ 1982) «Can inspiration be mechanized'o Sl"ienrific Ame-
rican, 2..P . 18-34.
Mee ARTHY. J. (1968) «Prograrns with common sense», Proceedings oj the
Teddington Conference of the Mechaniration of Thought Processes. Lon-
don: Her Majestaty-s Stationers Otfice.
- . (1980) Cinunscription - ( J [orm o] non-ntonotonic reasoning (Artificial Intelli-
gcnce Laboratory MCIllOAIM-334, p. 4). Stanford, CA: Stanfonl Univcrsity.
rV1CCARTH y. J. & HA YESo P. J. (1969l «Sorne ph i losoph ical problem s frorn the
standpoint of artificial imelligence». en B. Mcltzer & D. Michie IEds.) Ma-
chifle lntelligence 4. Edinburgh, Scotland: Edinburgh University Press.
McDERMOTT. D. (1982) «A temporal Logic for Rcasoning abour Processcs and
Plans», Cognitive Science 6, 10l-55.
MCOl:.RMOTT, D. & DO't'LE, J. (1980) «Non-monotonic logic», Artificiallntd/i-
gence, 13,41-72.
~111 J lKAN, R. G. (1984) Language, Thought and Other Biological Categrnics.
Cambridge. Mas~.: MIT Pr6s. A Bradford Book.
l'v1INSK Y. M. ( [(81) «A framework for represennng knowledge». en J. Haugc-
land (cd.) Mind Design {pp. 95-128 \. Cambridge, MA: MIT Press. A Rra-
dford Book. (Originally Pub1ished as Memo 3306, Artificial Intelligence
l.aboratory, Massuchusctts Institute of Technology).
NE\VI::.LL, A. (1982) «Thc knowledge level», Artificial Intclligence, 18,87-127.
REITER, R. ( 19RO) «A Logic for Oefault Rcasoninj;». Artificial lntelligence 13.
81-132.

347
R v LE, G. (1949) A Concept of Mind, London: Hutchison.
SCHANK, R. & ABELSON, R. (1977) Scripts. plans, goals ami understanding: An
inquiry into human knowledge structures, Hillsdale. NJ: Erlbaum.
SELfRIDGE, O. (1992) Tracking and trailing . Cambridge, M A: Mrr Press, A
Bradford Book.
(DE) SOUSA, R. (1979) «The Rationality of Emotions», Dialogue 18. 4 L-63
WOOLRIOGE, D. (1963) The machinery of [he brain, New York: McGraw Hill.

348
ESCAPAR DE LA HABITACIÓN CHINA
Margaret A. Boden

John Searle. en su artículo «Minds, Brains. and Programs» (1980), sos-


tiene que las teorías computacionales son esencialmente inútiles en psicolo-
gía. Sus afirmaciones principales son dos: que las teorías computacionales,
siendo puramente formales por naturaleza, no pueden ayudamos a entender
los procesos mentales de ninguna manera; y que el hardware computacio-
nal - a diferencia de la neumproteína - carece por razones obvias de los
poderes causales adecuados para generar procesos mentales.
Su primera afirmación da por hecho el supuesto (formalista) amplia-
mente compartido de que las «computaciones» estudiadas en las ciencias
de la computación son puramente sintácticas, que pueden ser definidas
(en términos igualmente aplicables a la lógica simbólica) como la ma-
nipulación formal de símbolos abstractos por medio de la aplicación de
reglas forma les. De ello se sigue. nos dice, que la explicación formalista
-apropiada para explicar el procesamiento de «información» o mani-
pulación de «símbolos» carentes de significado en los ordenadores- es
incapaz de explicar cómo las mentes humanas utilizan información o
símbolos propiamente dichos. El significado. o la intencionalidad, no
puede ser explicado en términos computacionales.
Lo que Searlc sostiene aquí no es exactamente que ninguna máquina
pueda pensar. Los humanos pueden hacerlo, y los humanos -admi-
te - son máquinas: incluso adopta el credo materialista de que sólo las
máquinas pueden pensar. Tampoco afirma que humanos y programas
sean totalmente inconmensurables. Concede que. a algún nivel de des-
cripción abstracto muy elevado, las personas (como cualquier otra cosa)
son instancias de ordenadores digitales. Su posición. más bien. es que
nada puede pensar. significar. o comprender únicamente en virtud de ser
una instancia de un programa de ordenador.

349
Para persuadirnos de esto. Searle emplea un ingenioso experimento
mental. Se imagina a sí mismo encerrado en una habitación. en la que
hay varia", hojas de papel con trazos dibujados en ellas: una ventana a
través de la que la gente puede pasarle otros papeles dibujados. y él, a su
vez. puede enviar papeles fuera; y un manual de reglas (en inglés) que
le dice cómo emparejar los trazos. que son identificados siempre por su
forma o figura. Scarlc pusu su tiempo. mientras está dentro de la habita-
ción. manipulando travo-, de acuerdo a las reglas.
Por ejemplo. una regla le da instrucciones para que cuando le pasen
garabato-garabato, él debería devolver garabito-varabiro. El libro de
reglas contempla también secuencias más complejas de pares de trazos.
donde sólo el primer y el último paso mencionan la transferencia de pa-
pel hacia dentro o hacia fuera de la habitación. Antes de encontrar una
regla que le ordene directamente devolver una hoja de papel. puede tener
que localizar un trazo de cierto tipo y compararlo con una marca de otro
tipo-en cuyo caso. el resultado de esta comparación será In que deter-
mine la naturaleza del trazo a devolver. A veces tiene que hacer dentro de
la habitación muchas de tales comparaciones trazo-trazo y la selección
consiguiente antes de hallar una regla permitiéndole devolver algo.
Para el Searle que "e encuentra en la habitación. los garabatos y
garabitos son meros trazos sin sentido. Sin embargo. aunque él lo des-
conozca. son caracteres chinos. Los que se encuentran en el exterior de
la habitación, que son chinos, interpretan estos caracteres como tales.
Además, los garabatos que se introducen y los yue ~e devuelven a través
de la ventana son interpretados por ellos, respectivamente. como pre-
guntas y respuestos: sucede que las reglas son de tal forma que la ma-
yoría de las preguntas resultan emparejadas. directa o indirectamente.
con lo que ello" reconocen como una respuesta acertada. Pero el propio
Searle (dentro de la habitación) no sabe nada de esto.
Lo importante. nos dice Searle. es que el Searle de la habitación
está ejemplificando claramente un programa de ordenador. E~ decir, está
realizando manipulaciones puramente formales de esquemas xin inter-
pretar: todo 10 que hay es sintaxis. no semántica.
Las reglas de pares de trazos son equivalentes a J().~ reglas 51-EN-
TONCES, o «producciones», utilizadas habitualmente (por ejemplo)
en sistemas expertos. Algunas de las comparaciones internas de trazos
podrían ser equivalentes a lo que los investigadores de IA en procesa-
miento del lenguaje natural llaman un guión tscript¡ -por ejemplo. el
guión del restaurante descrito por R. c. Schank y R. P. Abelson (1977).

350
En este caso, el comportamiento del Searle de la habitación. consistente
en recibir y pasar papeles, sería comparable, en esencia, al comporta-
miento «pregunta-respuesta» de un programa de análisis de textos de
tipo schankiano. Pero «pregunta-respuesta» no es pregunta-respuesta.
El Searle de la habitación no está, en realidad. respondiendo: ¿cómo
podría hacerlo, si no puede entender las preguntas? La práctica no ayuda
(excepto quizás en hacer el emparejamiento de trazos más rápidamen-
te): si el Searle de la habitación nunca escapa, será exactamente tan
incompetente en chino como lo era cuando fue encerrado dentro.
Naturalmente. los chinos que se encuentran fuera de la habitación
pudrían considerar útil mantener al Searlc de la habitación comido y
bebido. del mismo modo que en la vida real estamos dispuestos a gas-
tar grandes sumas de dinero en sistemas computacionales de «apoyo».
Pero el hecho de que la gente dotada de capacidad comprensión pue-
da usar un sistema computacional formal, carente de significado in-
trínseco, que les ofrezca lo que ellos interpretan (sic) como preguntas,
respuestas, designaciones, interpretaciones o símbolos es irrelevante.
Son capaces de hacer tal cosa únicamente en la medida en que pueden
especificar, externamente, una correspondencia entre el formalismo y
asuntos de su interés. En principio, un mismo formalismo puede ser
proyectado en varios dominios diferentes. de forma que resulta utiliza-
ble (por la gente) para responder preguntas acerca de cualquiera de ta-
les dominios. Sin embargo, carece de significado en sí mismo, -como
sucede con los símbolos chinos desde el punto de vista del Searle de la
habitación.
\

Se sigue, sostiene Searle, que ningún sistema puede entender nada


únicamente en virtud de ejemplificar un programa de ordenador. De ser
así, el Searle de la habitación comprendería el chino. Por tanto, la psico-
logía teórica no puede fundamentarse en conceptos computacionales.
La segunda afirmación de Searle se refiere a qué es lo que debería
contar como una explicación adecuada de la comprensión. Según él,
habría que partir de la base de que los símbolos con significado deben
materializarse en algo que tenga <dos poderes causales correctos» para
generar comprensión, o intencionalidad. Obviamente, afirma, los cere-
bros tienen tales poderes causales. pero los ordenadores no. Más espe-
dficamente (puesto que la organización del cerebro podría ser simulada
en un ordenador). las neuroproteínas tienen tales poderes, mientras que
el metal y el silicio no los tienen: lo que resulta crucial son las propieda-
des bioquímicas de la materia de la que está hecho el cerebro.

351
Searle rechaza la definición, tan profusamente citada, de «sistema
de símbolos físicos» que ofrece A. Newell (1980), porque requiere me-
ramente que los símbolos sean corporeizados en algún tipo de materia
capaz de implementar computaciones formales -que los ordenadores.
se admite. pueden hacer. Según el criterio de Searle, ningún cerebro
electrónico puede realmente manipular símbolos, ni designa o interpre-
ta nada de nada en realidad -con independencia de cualquier vínculo
causal que conecte sus patrones físicos internos con su comportamiento.
(Esta visión fuertemente realista de la intencionalidad contrasta con el
instrumentalismo de D. C. Dennett (197]). Para Ilennett, un sistema
intencional es un sistema cuyo comportamiento podemos explicar, pre-
decir. y controlar sólo adscribiéndole creencias, objetivos. y racionali-
dad. Bajo este criterio. algunos programas de ordenador existentes son
sistemas intencionales. y los hipotéticos humanoides predilectos de la
ciencia ficc ión serían sistemas inlene ionalcs a fortiori.i
La intencionalidad. afirma Searle, es un fenómeno biológico. Como
tal, es tan dependiente de la bioquímica como lo es la fotosíntesis o la lac-
tancia. Concede que la neuroproteína pueda no ser la única sustancia del
universo capaz de tener vida mental. del mismo modo que otras muchas
sustancias además de la clorofila podrían ser capaces (en Marte, quizás)
de catalizar la síntesis de curbohidratos. Pero rechaza el metal y el silicio
como alternativas potenciales, incluso en Marte. Se pregunta si un orde-
nador hecho de viejas latas de cerveza podría entender - una pregunta
retórica para la que la esperada respuesta es un contundente «[No!». En
pocas palabras, Searle considera intuitivamente obvio que las sustancias
inorgánicas con las que están manufacturados los (actuales) ordenadores
son esencialmente incapaces de poseer funciones mentales.
Con el fin de valorar la doble crítica de Searle a la psicología com-
putacional, consideremos en primer lugar su punto de vista de que la
intencionalidad debe estar hiológicamente fundamentada. Podríamos
estar tentados a considerar a esta como su tesis positiva, en contraste
con su tesis (negativa) de que las teorías puramente formales no son
capaces de explicar la mentalidad. Sin embargo, esto supondría conce-
derle demasiado, ya que su poder explicativo es ilusorio. La analogía
biológica mencionada por Searle es errónea y las intuiciones a las que
apela no son fiables.
La producción de intencionalidad por parte del cerebro. se nos dice,
es comparable a la fotosíntesis -¿pero es asf, realmente? Podemos de-
finir los productos de la fotosíntesis, distinguiendo claramente varios

352
azúcares y almidones en la clase general de los carbohidratos. y mostrar
cómo difieren estos de otros productos químicos como las proteínas.
Además, no sólo conocemos que la clorofila es lo que permite la fotosín-
tesis. también comprendemos cómo lo hace (y por qué otros elementos
químicos no pueden). Conocemos que se trata de un catalizador; más
que de un material simple, y podemos especificar el punto en el que
desarrolla su función catalizadora y los consiguientes procesos subató-
micos por los que lo hace. El caso es muy diferente por lo que respecta
al cerebro y la comprensión.
Nuestra teoría acerca de la intencionalidad (independientemente de
cómo sea generada) no admite comparación con nuestro conocimiento
de los carbohidratos: es precisamente el problema de qué es la inten-
cionalidad 10 que permanece todavía como un asunto filosóficamente
controvertido. Ni siquiera podemos tener entera confianza en que somos
capaces de reconocerla cuando la vemos. Existe un acuerdo generaliza-
do en que las actitudes proposicionales son intencionales. y en que los
sentimientos y sensaciones no; pero no hay un consenso claro acerca de
la intencionalidad de las emociones.
Se han dado diversos intentos de caracterizar la intencionalidad y
distinguir sus subespecies como estados intencionales diferentes (creen-
cias. deseos, esperanzas, intenciones, etc ... ). El propio Searle ha hecho
unas cuantas contribuciones relevantes, desde su temprano libro sobre
actos de habla (1969) hasta sus más recientes explicaciones de la inten-
cionalidad (1983). Un criterio usado muy habitualmente (adoptado por
Brentano en el siglo diecinueve y también por Searle) es el psicológico.
En palabras de Brentano, los estados intencionales dirigen la mente ha-
cia un objeto; en las de Searle, tienen una capacidad representacional
intrínseca, la capacidad de «ser-acerca-de» (aboutnesss: en cualquier
caso establecen una relación de la mente con el mundo, o con un mundo
posible. Sin embargo, algunos autores definen la intencionalidad en tér-
minos lógicos (Chisholrn 1967). Pero incluso no está nada claro que las
definiciones lógica y psicológica sean exactamente coextensivas (Bo-
den 1970). En resumen, ninguna teoría de la intencionalidad es acep-
tada como aproblematica, en el sentido en que lo es la química de los
carbohidratos.
En cuanto a la «síntesis» bioquímica de la intencionalidad del cere-
bro. el asunto es aún más misterioso. Tenemos buenas razones para creer
que la neuroproteína permite la intencionalidad, pero difícilmente tene-
mos alguna idea de cómo -qua neuroproteína- es capaz de hacerlo.

353
En la medida en que no comprendemos cabalmente estos proble-
mas, nos centramos en las bases neuroquímicas de ciertas funciones
informacionales - tales como paso de mensajes, excitación e inhibi-
ción- realizadas en neuronas y sinapsis. Por ejemplo: cómo el bombeo
de sodio en la membrana de la célula produce un potencial de acción
para la propagación a lo largo del axón; cómo los cambios electroquími-
cos causan que una neurona entre en su período refractario y se recupere
del mismo; o cómo el nivel crítico neuronal puede ser alterado por los
neurotransmisores. tales como la acetilcolina.
Con respecto a una célula visual, por ejemplo, un problema psi-
cológico crucial puede ser si es capaz de funcionar como detector de
la intensidad de los gradientes. Si los neurofisiólogos pueden decimos
qué moléculas la capacitan para ello, mucho mejor. Pero desde el pun-
to de vista psicológico, no es la bioquímica como tal lo que importa,
sino las funciones portadoras de información basadas en ella. (SearIe
admite esto aparentemente cuando dice: «El tipo de realizaciones que
los estados intencionales tienen en el cerebro puede ser descrito a un
nivel funcional más elevado que el implicado en la bioquímica de las
neuronas» (1983:272).)
Como ha mostrado la investigación en «visión computacional», el
metal y el silicio son indudablemente capaces de realizar algunas de
las funciones necesarias para la proyección de 2D-a-3D requeridas en
la visión. Además, pueden incorporar funciones matemáticas específi-
cas para el reconocimiento de la intensidad de los gradientes (es decir,
los «detectores-Dt.Xi», que computan la diferencia de Gausianas) que
parecen estar envueltas en muchos sistemas visuales biológicos. E~ de
suponer que, seguramente, el metal y el silicio no pueden realizar todas
las funciones involucradas en la visión normal, o en la comprensión
en general. Quizá sólo la neuroproteína pueda hacerlo. de forma que
únicamente las criaturas con una biología «terrestre» puedan gozar de
intencionalidad. Pero de momento no tenemos razones especificas para
pensar así. Y lo que es más importante en nuestro contexto, cualquiera
de las razones que podamos tener en el futuro tendrán que estar apoya-
das en descubrimientos empíricos: las intuiciones no nos ayudarán.
Si nos preguntamos acerca de las dependencias mente-materia que
resultan intuitivamente plausibles, la respuesta debe ser que ninguna lo
es. Nadie perplejo ante la intcncionalidad (en oposición a los potenciales
de acción) ha exclamado jamás «[Sodio -por supuesto!» La bombas de
Sodio no son menos «obviamente» absurdas que los chips de silicio, las

354
polaridades eléctricas no menos «obviamente» irrelevantes que viejas
latas de cerveza, la acetilcolina menos sorprendente, difícilmente, que
la cerveza. El hecho de que el primer miembro de cada uno de estos tres
pares sea cientificamente respetable no convierte a ninguno de ellos en
intuitivamente inteligible: nuestra sorpresa inicial persiste.
Puede que nuestras intuiciones cambien con el avance de la ciencia.
Es posible que eventualmente lleguemos a ver a la neuroproteína (y qui-
zá también al silicio) como capaz de encarnar mentes de manera obvia,
del mismo modo que ahora vemos las sustancias bioquímicas en general
(incluyendo la clorofila) como capaces de producir otras sustancias si-
milares -una intuición que no era obvia. ni siquiera para los químicos,
con anterioridad a la síntesis de la urea. Hoy día, sin embargo, nuestras
intuiciones no tienen nada útil que decimos acerca de la base material
de la intencionalidad. La proclama «positiva» de Scarlc, su supuesta
explicación alternativa de la intencionalidad es, en el mejor de los ca-
sos, un apunte prometedor y, en el peor, mero misterio de charlatán de
mercadillo.
La declaración «negativa) de Searle -que las teorías formales
computacionales no pueden explicar la comprensión - no se puede des-
pachar tan rápidamente. Mi refutación se desarrollará en dos partes: la
primera apuntará directamente a su ejemplo de la habitación China, la
segunda a ~u supuesto fundamental (del que depende su ejemplo) de que
los programas de ordenador son pura sintaxis.
El ejemplo de la habitación China ha generado mucho debate, tanto
dentro como fuera de la comunidad de la ciencia cognitiva. Algunas crí-
ticas fueron anticipadas por el propio Searle en su artículo original, otras
aparecieron como comentarios de pares (junto a sus Réplicas), y desde
entonces se han publicado bastantes más. AqUÍ me centraré únicamente
en dos puntos: lo que Scarlc denomina la réplica del robot, y lo que yo
misma denominaré la réplica inglesa.
La réplica del robot admite que la única comprensión del chino que
existe en el ejemplo de Searle es la que tienen los chinos del exterior
de la habitación. La incapacidad del Searle de la habitación para co-
nectar los caracteres chinos con lo que sucede en el mundo exterior
muestra que no entiende el chino. De la misma forma, un ordenador
teletipo de Schank que no puede reconocer un restaurante, dar propina a
un camarero. o masticar un pedazo de comida, no comprende nada sobre
restaurantes - aunque pueda «responder» apropiadamente a preguntas
nuestras acerca del tema. Pero un robot, dotado no sólo de un guión

355
de restaurante sino también de una cámara con programas visuales y
miembros capaces de andar y coger cosas sería otra cuestión. Si el com-
portamiento estímulo-respuesta de tal robot fuera idéntico al de los seres
humanos, entonces demostraría que pusee comprensión tanto de los res-
taurantes como del lenguaje natural -quizás del chinp-> utilizado por
la gente para comunicarse con él.
La primera respuesta de Searle a la réplica del robot es proclamar ya
la victoria. ya que la réplica concede que la cognición no es únicamente
cuestión de manipulación formal de símbolos sino que requiere ade-
más un conjunto de relaciones causales con el mundo exterior. Segundo.
Searle insiste en que dotar de capacidades percepto-motoras a un siste-
ma computacional no es dotarle de intencionalidad o comprensión.
Argumenta este punto imaginando un robot que, en lugar de estar
dotado con un programa de ordenador para su funcionamiento, tiene un
Searle en miniatura dentro de él -en su cráneo, tal vez. El Searle del
robot. con la ayuda de un (nuevo) libro de instrucciones, mezcla papeles
y pasa garabatos y garabitos hacia fuera y hacia adentro, como 10 hacía
antes el Searle de la habitación. Pero ahora, algunost o todos los caracte-
res chinos que entran no son introducidos por gente china, sino que son
desencadenados por procesos causales en las cámaras y el equipamiento
audio de los ojos y oídos del robot. Y los caracteres chinos que salen no
son recibidos por manos chinas, sino por motores y palancas adosados
a las extremidades del robot -que, como consecuencia, son inducidos
causalmente a moverse. Brevemente, este robot no sólo es capaz, en
apariencia. de responder a preguntas en chino, sino también de ver y
hacer cosas en consecuencia: puede reconocer brotes de soja crudos y,
sí la receta 10 requiere así, tostarlos en una cazuela china tan bien como
el resto de nosotros.
(El trabajo en visión computacional mencionado arriba sugiere que
el vocabulario del chino podría requerir una considerable extensión para
llevar adelante este ejemplo. Y la mayor parte de la investigación de la
lA en procesamiento del lenguaje sugiere que lo mismo podría decirse
del inglés requerido para expresar las reglas en el ejemplo «pregunta-
respuesta» inicial de Searle. En cualquier caso, ]0 que el Searle de la
habitación necesita no es chino. ni incluso inglés, sino un lenguaje de
programación. Volveremos sobre este punto en un momento.)
Como sucedía con su predecesor limitado por las paredes de la ha-
bitación, sin embargo, el Searle del robot no conoce nada del contexto
exterior. Es exactamente tan ignorante del chino como lo fue siempre,

356
y no tiene más posibilidades en el mundo exterior que las que tenía en
el ejemplo original. Para él, los brotes de soja y las cazuelas chinas
son invisibles e intangibles: todo lo que el Searle del robot puede ver y
tocar, además del libro de reglas y los garabatos, es su propio cuerpo y
el interior de las paredes del cráneo del robot. En consecuencia, argu-
menta Searle, no podemos concederle al robot comprensión de ninguna
de estas materias mundanas. Verdaderamente, no está viendo ni hacien-
do nada de nada: está «simplemente moviéndose como resultado de su
instalación eléctrica y su programa», que después es instanciado por el
hombre que hay en su interior. quien «no tiene estados intencionales de
tipos relevantes»( 1980:420).
El argumento de Searle en este punto resulta inaceptable COIDO refu-
tación de la réplica del robot. porque establece una falsa analogía entre
el ejemplo imaginado y lo que afirma la psicología computacional.
El Searle del robot es imaginado por Searle como ejecutando las
funciones que realiza (de acuerdo con las teorías computacionales) el
cerebro humano: Pero, mientras la mayoría de los computacíonalistas
no adscribe intencionalidad al cerebro (y aquellos que lo hacen, como
veremos. lo hacen sólo en una forma muy limitada), Searle caracteriza
el Searle del robot disfrutando de intencionalidad íntegra, tal y como
si fuera él mismo. La psicología computacional no atribuye al cerebro
visián de brotes de soja o comprensión del inglés: los estados intencio-
nales de este tipo son propiedades de la gente, no de los cerebros. En
general, aunque se supone (tanto por los cornputacionalistas como por
Searle) que las representaciones y procesos mentales se encuentran im-
plementados en el cerebro, las capacidades sensornotoras y las actitudes
proposicionales que lo hacen posible se adscriben a la persona como un
todo. En consecuencia, la descripción de Searle del sistema interior del
cráneo del robot como un sistema que puede comprender inglés no es
realmente paralela con lo que los computacionalistas dicen acerca del
cerebro.
En efecto, los procedimientos específicos hipotetizados por los psi-
cólogos computacionales, e incorporados en sus modelos computacio-
nales de la mente, son relativamente estúpidos -y se vuelven más y más
estúpidos a medida que nos movemos a niveles teóricos cada vez
más básicos. Consideremos las teorías de análisis sintáctico (parsings
del lenguaje natural, por ejemplo. Un procedimiento de análisis que bus-
ca un determinante no comprende el inglés, ni es un procedimiento para
localizar la referencia de un pronombre personal: sólo la persona cuyo

357
cerebro realiza este proceso interpretativo, y muchos otros asociados
con éste, pueden hacer eso. La capacidad para comprender inglés in-
volucra una multitud de procesos informacionales interactuando entre
sí. cada uno de los cuales sólo realiza una pequeña función pero juntas
proporcionan la capacidad de tomar oraciones del inglés como entrada
y ofrecer oraciones inglesas adecuadas como respuesta. Comentarios
similares son aplicables a los componentes individuales de las teorías
computacionales de la visión, la resolución de problemas, o el aprendi-
zaje. Precisamente porque los psicólogos quieren explicar el lenguaje
humano. la visión. el razonamiento y el aprendizaje, postulan procesos
subyacentes que carecen de estas capacidades.
En pocas palabras, la descripción de Searle del pseudo-cerebro del
robot (es decir, del Searle del robot) como comprendiendo el inglés
conlleva una confusión categorial comparable a la que supone tratar el
cerebro como el portador -en oposición al que proporciona las bases
cau~ales- de la inteligencia.

Se podría objetar que en este punto he incurrido en contradicción,


que estoy afirmando que no se puede adscribir intencionalidad a los ce-
rebros y que, implícitamente, estoy haciendo justamente eso. Y esto se
debe a que he estado diciendo que el cerebro ejecuta procedimientos con
componentes «estúpidos» - sin embargo. virtualmente la estupidez es
una especie de inteligencia. Ser estúpido es ser inteligente. aunque no
mucho (una persona o un pez pueden ser estúpidos pero una piedra o un
río no).
Mi defensa podría ser doble. En primer lugar, el nivel teórico más
básico de todos sería el equivalente neurocientífieo al del código má-
quina. un nivel «diseñado» por la evolución. El hecho de que una célula
sensible a la luz pueda responder a los gradientes de intensidad- ac-
tuando como un detector DOG, yel que una neurona ppeda inhibir la
activación de otra, son explicables por la bioquímica del cerebro. La
noción de estupidez, incluso tomada entre comillas. resulta completa-
mente inapropiada para discutir tale-s hechos. Sin embargo, estas fun-
ciones muy básicas de procesamiento de información (detección DOG
e inhibición sináprica) podrían ser descritas apropiadamente corno
«muy. muy, muy ... estúpidas». Esto. por supuesto, implica que el len-
guaje intencional, aunque en un sentido muy poco generoso y nada
concesivo. después de todo es aplicable a los procesos del cerebro - Jo
que nos conduce al segundo punto en mi defensa. No he afirmado que
la intencionalidad no pueda ser adscrita a cerebros, sino que la inten-

~58
cionalidad, considerada en sentido fuerte, no puede serlo. Tampoco he
afirmado que los cerebros no pueden comprender nada de nada, en un
sentido tan limitado como se quiera. sino que no pueden (por ejemplo)
comprender inglés. También he insinuado, algunos párrafos atrás, que
pocos computacionalistas adscriben algún grado de intencionalidad al
cerebro (o a los procesos computacionales que se desarrollan en el ce-
rebro). Estos dos puntos quedarán menos oscuros después de conside-
rar la réplica referente al inglés y su relación con el supuesto general de
Searle de que las teorías computacionales de tipo sintáctico-formal son
puramente sintácticas.
Lo esencial de la réplica inglesa es que la instanciación de un pro-
grama de ordenador, sea por parte de una persona, o de una máqui-
na manufacturada, presupone comprensión - como mínimo, del libro
de reglas. El ejemplo inicial de Searle depende crucialmente de que el
Searle de la riabitación sea capaz de entender el lenguaje en el que están
escritas las reglas. es decir. el inglés: de modo análogo, si el Searle del
robot no estuviera familiarizado con el inglés, los brotes de soja del
robot nunca llegarían a ser servidos en el cazo chino. Además, como he-
mos observado ya. el vocabulario del inglés (y para el Searle del robot.
el del chino también) tendría que ser modificado de un modo importante
para que el ejemplo funcionase.
Un lenguaje desconocido (sea el chino o Lineal B) puede ser trata-
do o bien meramente como un objeto estético, o como un conjunto de
formas sistemáticamente relacionadas. Los lenguajes artificiales pueden
ser diseñados y estudiados, por el lógico o el matemático puro, teniendo
únicamente en mente sus propiedades estructurales (aunque el ejemplo
de D. R. Hofstadter (1979) del sistema cuasi-aritmético pq muestra que
una interpretación convincente y predecible de un cálculo formal puede
surgir espontáneamente). Pero, de ordinario, las personas responden de
una forma- muy diferente a los símbolos de su idioma nativo; en efecto,
es muy difícil «frenar» (ignorar) los significados de palabras familiares.
El punto de vista mantenido por los psicólogos computacionales de que
los lenguajes naturales son caracterizables en términos procedimentales,
resulta relevante a este respecto: palabras, cláusulas, y oraciones pueden
ser contempladas como mini-programas. Los símbolos de un lenguaje na-
tural que uno entiende- ponen en marcha actividades mentales de diversos
tipos. Aprender un lenguaje consiste en establecer las conexiones causales
relevantes. no sólo entre palabras y el mundo (<<gato» y la cosa sobre la
alfombra) sino también entre palabras y los numerosos procedimientos no
susceptibles de introspección involucrados en su interpretación.

359
Por otra parte, no es necesario que se nos diga ex: hvpothesi (por
Searle) que el Searle de la habitación comprende el inglés: su comporta-
miento mientras se encuentra en la habitación muestra claramente que lo
entiende. 0, mejor, que entiende un subconjunto del inglés sumamente
limitado;
El Searle de la habitación bien podría sufrir amnesia total con res-
pecto al 99 por ciento del vocabulario inglés de Searle, y no habría
diferencia alguna. La única comprensión del inglés que requiere es la
necesaria para interpretar (sic) el libro de reglas -que especifica cómo
aceptar, seleccionar, comparar y emitir diferentes patrones. A diferencia
de Searle, el Searle de la habitación no requiere palabras como «cata-
lizar», «lata de cerveza», «clorofila» y «restaurante». Pero puede nece-
sitar «busca», «compara», «dos», «triangular» y «ventana» (aunque su
comprensión de estas palabras podría ser mucho menos completa que
la de Searle). Debe entender oraciones condicionales, para el caso de
que una regla establezca que sí ve un garabato debe emitir un garabito.
Muy probablemente, deberá comprender alguna forma de expresar la
negación, el ordenamiento temporal y (especialmente si ha de aprender
a hacer su trabajo más rápidamente) la generalización. Si las reglas que
usa incluyen alguna que analiza oraciones del chino, entonces necesitará
también palabras para las categorías gramaticales. (No necesitará reglas
explícitas para el análisis gramatical de oraciones en inglés, tales como
los procedimientos de análisis gramatical utilizados en programas de lA
para el procesamiento del lenguaje, porque ya entiende inglés.)
Brevemente. el Searle de la habitación necesita comprender únicamen-
te aquel subconjunto del inglés de Searle que corresponde al lenguaje de
programación comprendido por un ordenador que genere la misma con-
ducta entrada-salida «pregunta-respuesta» en la pantalla. De modo aná-
logo, el Searle del robot deberá ser capaz de comprender cualquier frag-
mento del inglés equivalente al lenguaje de programación que entiende un
robot con capacidades visuales y motoras totalmente computerizado.
Puede parecer que las dos oraciones precedentes dan por sentado
lo que se pretende demostrar. En efecto, hablar así del lenguaje de pro-
gramación que comprende un ordenador es aparentemente auto-contra-
dictorio. La premisa básica de Searle -que presupone como aceptada
por todos los participantes en el debate -es que un programa de orde-
nador es puramente formal por naturaleza: el cómputo que especifica
es puramente sintáctico y no tiene significado intrínseco o contenido
semántico que comprender.

360
-Si aceptamos esta premisa, la respuesta concerniente al inglés esbo-
zada anteriormente puede despedirse inmediatamente de buscar un para-
lelismo donde no puede establecerse ninguno de forma adecuada. Pero si
no lo hacemos, si-pace Searle (y otros (Fodor 1980: Stích 1983))- los
programas de ordenador no tienen que ver sólo con la sintaxis, entonces,
después de todo, la respuesta relativa al inglés puede se-r pertinente. De-
bemos volver ahora a ocupamos de este problema básico.
No cabe duda de que, para ciertos propósitos, se puede pensar en un
programa de ordenador como en un cálculo lógico sin interpretar. Por
ejemplo, podríamos ser capaces de demostrar, por medios puramente
formales, que una fórmula particular es derivable desde la estructura de
datos y las reglas de inferencia del programa. Por otra parte, es cierto
que un denominado intérprete del programa, que podría tomar como en-
trada la estructura de lista «(PADRE (MAGGlE))» y devolver «(LEO-
NARD)>>, lo haría basado únicamente en criterios formales, no habiendo
forma de interpretar estas estructuras como denotando personas reales.
Asimismo, como indica Searle, los programas provistos con guiones de
restaurante no están sin más por ello dotados de conocimiento de los
restaurantes. La existencia de una correspondencia entre un formalismo
y un determinado dominio no proporciona, por sí misma, comprensión
alguna de ese dominio al manipulador del formalismo.
Pero lo que no debe olvidarse es que un programa de ordenador es
un programa para un ordenador: cuando un programa se ejecuta sobre
el hardware adecuado, la máquina hace algo como resultado de ello (de
aquí el uso en las ciencias de la computación de los términos «instruc-
ción» y «obedece»). A nivel de código de máquina el efecto del programa
sobre el ordenador es directo, porque la máquina está diseñada de modo
que una instrucción dada determina una única operación (las instruccio-
nes en lenguajes de alto nivel deben ser previamente convertidas en ins-
trucciones de código de máquina para que puedan ser obedecidas). Así
pues, una instrucción programada no es una mera estructura formal-ni
siquiera un enunciado declarativo (aunque pueda ser considerado bajo
alguna de esas descripciones para algunos propósitos). Es una especifi-
cación de procedimiento que, dado el contexto de hardware adecuado.
puede dar lugar a la ejecución del procedimiento en cuestión.
Esto podría expresarse diciendo que un lenguaje de programación
no consiste solamente en un medio para expresar representaciones (es-
tructuras que pueden escribirse sobre una página o darse a un ordenador,
algunas de las cuales pueden ser isomorfas con cosas que interesan a la

361
,
gente), sino también para dar lugar a la actividad reprrsentacional de
ciertas máquinas.
Incluso se podría afirmar que una representación es una actividad.
en lugar de una estructura. Muchos filósofos y psicólogos han dado por
supuesto que las representaciones mentales son intrínsecamente activas.
Entre quienes han argumentado recientemente en esta línea se encuentra
Hofstadter (1985:648). que critica específicamente la idea de los simbo-
los que propone Newell como casos' formales manipulables. En palabras
suyas, «El propio cerebro no «manipula símbolos»; el cerebro es el medio
en que flotan los símbolos y en el que se activan unos a los otros.s Hofs-
tadter expresa más simpatía para con las teorías psicológicas «conexio-
nistas- que para con las «formalistas». El enfoque conexionista supone
sistemas de procesamiento en paralelo similares, en un sentido amplio, al
cerebro, y son muy adecuados para modelar representaciones cerebrales,
símbolos, o conceptos, como dinámicos. Pero no son los conexionistas
los únicos que pueden observar los conceptos como intrínsecamente ac-
tivos, y no son sólo las representaciones cerebrales lo que admite dicha
consideración: esta posición se ha generalizado hasta incluir los progra-
mas tradicionales de ordenador. diseñados específicamente para las má-
quinas de tipo von Neumann. El científico de computación B. C. Smith
(1982) argumenta que las representaciones programadas son inherente-
mente activas también -y que una teoría adecuada de la semántica de
los lenguajes de programación debería reconocer este hecho.
En la actualidad, afirma Srnith, los científicos de la computación
tienen una comprensión radicalmente inadecuada de este asunto. Nos
recuerda que, como se ha señalado anteriormente. no hay un acuerdo ge-
neral -ni dentro ni fuera de las ciencias de la computación-; sobre qué
es la iniencionalidad, y también existe una profunda oscuridad acerca

I Nota del traductor: Conviene que los lectores tengan en cuenta la distinción «tipo»
(Type) - «caso» (token). Esta distinción se aplica a muchas cosas. Por ejemplo. "com-
placer» o «insultar» son acciones genéricas que tienen como «caso» aquellas acciones
concretas que caen bajo uno u otro de estos «tipos». la distinción entre «proposición»
y «enunciado» en Filosofía de la Lógica, aunque resulte controvertida para algunos,
corresponde a una aplicación de esta distinción: mientras qLl~ una proposición es un
objeto conceptual, un enunciado es algo concreto (aunque su contenido sea abstracto),
en el sentido de que un enunciado e" una fila específica de símbolos que expresa una
proposición. En general. un «caso- es la realización concreta de un "tipo». Aplicado a los
símbolos. debemos distinguir entre un símbolo considerado como una entidad puramen-
te conceptual (,(tipo),). y una realización concreta de ese símbolo «(ca~o»). La distinción,
tanto en computación como en psicologia. es sumamente importante. porque son los
«casos», y no los «tipos», los que tienen poderes causales.

362
del concepto de representación. Y tampoco se puede evitar la oscuridad
hablando en jerga más técnica. en términos de computación y manipu-
lacián formal de simbolos. La comprensión que tienen los científicos de
la computación sobre la naturaleza de estos fenómenos es también bási-
camente intuitiva. La discusión de Srnith sobre los lenguajes de progra-
mación señala algunas confusiones fundamentales dentro de las ciencias
de la computación. Su afirmación de que habitualmente los científicos
de la computación hacen una distinción teórica demasiado tajante entre
las funciones de control de un programa y su naturaleza como sistema
sintáctico-formal, resulta especialmente pertinente aquí.
La división teórica criticada por Smith es evidente en el enfoque.
ampliamente difundido, de la programación como «cálculo-dual». El
enfoque del cálculo dual postula una distinción teórica estricta entre la
estructura representacional declarativa (o denotacional) y el lenguaje
procedimental que lo interpreta cuando se ejecuta el programa. Desde
luego, la representación del conocimiento y el intérprete se escriben a
veces en dos formalismos completamente diferentes (como el cálculo
de predicados y LISP, respectivamente). Sin embargo. ambos son ex-
presados, con frecuencia. en un mismo formalismo; por ejemplo, LISP
(un acróstico para lenguaje LISr-Processi ng) permite expresar hechos
y procedimientos de modos formalmente similares, y lo mismo sucede
con PROLOG (PROgramación-en-LÓGica). En estos casos, el enfoque
del cálculo dual dictamina que el (simple) lenguaje de programación sea
descrito teóricamente en dos modos totalmente diferentes.
Para ilustrar la distinción en cuestión. supongamos que nos interesa
una representación de las relaciones familiares utilizable para obtener
respuestas a preguntas acerca de ese tema. Podríamos decidirnos por em-
plear una estructura de listas para representar hechos como que Leonard
es el padre de Maggie, O podríamos preferir una representación basada
en marcos (framesv. en donde el hueco de nombre pertinente en el mar-
co PADRE podría ser satisfecho simultáneamente por «LEONARD» y
«MAGG1E». Por otra parte, podríamos escoger una fórmula del cálculo
de predicados expresando que existen dos personas (es decir, Leonard y
Maggie), y que Leonard es el padre de Maggie. Por último. podríamos
emplear la oración castellana «Leonard es el padre de Maggic».
Cada una de estas cuatro representaciones podría escribirse/dibujar-
se para nosotros en papel (como lo están las reglas en el libro usado por
el SearJe de la habitación), para interpretar si hemos aprendido a utilizar
la notación relevante. Alternativamente. podrian ser introducidas en una

363
base de datos de un ordenador. Pero para hacerlas utilizables por el or-
denador, se necesita la presencia de un programa intérprete capaz (por
ejemplo) de encontrar el ítem «LEONARD» cuando nosotros «pregun-
temos» quién es el padre de Maggie. Nadie en su sano juicio optaría por
incorporar estructuras de listas en un ordenador sin dotarlo, al mismo
tiempo, de un procesador de listas, ni por darle marcos sin un meca-
nismo de rellenar huecos, ni por introducirle oraciones en inglés sin
procedimientos de análisis sintáctico (parsing). (Análogamente, quien
supiera que Searle no habla portugués no daría al Searle de la habitación
un libro de reglas en portugués a menos que estuviera preparado para
enseñarle primero dicha lengua.)
Smith no niega la existencia de una importante distinción entre el
significado denotacionaL de una expresión (en general: qué mundos rea-
les o posibles le pueden corresponder) y su consecuencia procedimental
(en general: qué hace, o da lugar a). El hecho de que la expresión «(PA-
DRE (MAGGIE))» sea isomorfa con una cierta relación de parentesco
entre dos personas reales (y podría ser proyectada por nosotros en tal
relación) es una cosa. El hecho de que la expresión «(PADRE (MA-
GGIE)» pueda causar que cierto ordenador localice «LEONARD» es
otra bien diferente. Si no fuera así, el enfoque del cálculo dual no se
habría desarrollado. Pero él argumenta que, mejor que persistir en el
enfoque del cálculo dual, sería más elegante y menos confuso adoptar
una teoría «unificada» de los lenguajes de programación, diseñados para
cubrir tanto los aspectos denotativos como los procedimentales.
Smith muestra que muchos términos básicos de ambos aspectos del
cálculo dual tienen tanto características teóricas comunes, como dife-
rencias significativas. La noción de variable, por ejemplo, se entiende,
en cierto sentido, de forma similar tanto por el lógico como por el cien-
tífico de la computación: ambos permiten que a una variable se le pue-
dan asignar valores distintos en diferentes tiempos. Siendo esto así, es
redundante tener dos teorías específicas acerca de lo que es una variable.
Sin embargo. hasta cierto punto, el lógico y el científico de la computa-
ción entienden algo diferente por este término: el valor de una variable
en el lenguaje de programación LISP (por ejemplo) es otra expresión de
LISP, mientras que el valor de una variable en lógica es normalmente
algún objeto externo al formalismo mismo. Estas diferencias deberían
aclararse-al menos para evitar confusiones cuando un sistema inten-
ta razonar acerca de variables utilizando variables. Brevemente, nece-
sitamos una definición única de «variable» que permita tanto su uso
declarativo (en lógica) como su uso procedimental (en programación).

364
Después de mostrar que comentarios similares se aplican a otros térmi-
nos computacionales básicos, Smith plantea una explicación unitaria de
la semántica de LISP y describe un nuevo cálculo (MANTIQ) diseñado
con el enfoque unificado en mente.
Como sugiere el ejemplo del uso de variables para razonar acer-
ca de variables, una teoría unificada de la computación podría aclarar
cómo es posible el conocimiento reflexivo. Porque, dada una teoría así,
las representaciones de datos y procesos del sistema - incluyendo pro-
cesos internos al sistema mismo- serían esencialmente comparables.
Esta ventaja teórica tiene relevancia psicológica (y fue una motivación
importante del trabajo de Smith).
Para nuestros propósitos inmediatos, sin embargo. el punto crucial es
que una teoría fundamental de programas y de la computación, debería
tener en cuenta que una función esencial de un programa de ordenador es
hacer que ocurran cosas. Mientras la lógica simbólica puede verse como
un mero juego sobre un cálculo fonnaJ sin interpretar (como el cálculo de
predicados), y la lógica computacional puede verse como el estudio de
relaciones aternporales abstractas en «máquinas» especificadas matemá-
ticamente (como las máquinas de Turing). las ciencias de la computación
no pueden ser descritas apropiadamente de ninguna de las dos formas.
Del argumento de Smith se sigue que la caracterización familiar de
los programas de ordenador como todo sintaxis y nada de semántica está
equivocada. Las consecuencias procedirnentales inherentes a cualquier
programa de ordenador le sirven de punto de apoyo para la semántica,
donde la semántica en cuestión no es denotacional, sino causal. La ana-
logía está con la comprensión del inglés del Searle de la habitación, no
con su comprensión del chino.
Esto viene implicado igualmente por la discusión de A. Sloman
(1986a; 1986b) acerca del sentido en que las instrucciones programadas
y los símbolos de la computación deben ser vistos como poseedores de
alguna semántica, aunque sea restringida. En una semántica causal, el
significado de un símbolo (simple o complejo) se busca por referencia
a sus nexos causales con otros fenómenos. Las preguntas centrales son
«¿qué hace que el símbolo se construya y/o active?» y «¿qué sucede
como resultado de ello?» Las respuestas mencionarán a veces sucesos y
objetos externos visibles para un observador, y otras no.
Si el sistema es un humano, un animal, o un robot. puede tener fa-
cultades causales que le permitan referirse a restaurantes y brotes de soja

365
(las complejidades filosóficas de la referencia a objetos externos, inclu-
yendo los no observables, pueden pasarse por alto aquí, aunque 510-
man realiza un provechoso examen de estos problemas). Pero cualquie-
ra que sea el sistema de procesamiento de la información en cuestión.
las respuestas describirán a veces procesos computacionales puramente
internos-por medio de los que se construyen otros símbolos. se activan
otras instrucciones. Los ejemplos incluyen los procesos interpretativos
dentro de la mente del Searle de la habitación (comparable quizás a los
procedimientos semánticos y de análisis definidos para el procesamien-
to del lenguaje natural) que son activados por las palabras inglesas. y los
procesos computacionales dentro de un programa de análisis de textos
como el de Schank. Aunque tal programa no pueda utilizar el símbolo
«restaurante» para significar restaurante (porque no tiene vínculos cau-
sales con restaurantes, comida, etc.), sus símbolos internos y procedi-
mientos incorporan alguna comprensión, siquiera elemental. de otras
materias -por ejemplo, de qué es comparar dos estructuras formales.
Puede dar la impresión de que la «comprensión. implicada en este
caso es tan mínima que esta palabra no debería ser usada. Así sea. Corno
aclara Sloman, la pregunta importante no es «¿cuándo comprende algo
una máquina?» (una pregunta que implica, erróneamente. que hay al-
gún límite claro en el que cesa la comprensión), sino «¿qué necesita
ser capaz de hacer una máquina (sea biológica o no) para poder corn-
prender?». Esta pregunta es relevante no solo para la posibilidad de una
psicología computacional, sino también para su contenido.
En conclusión, mi discusión ha demostrado que el ataque de Searle
a la psicología computacional está mal fundado. Considerar el Searle de
la habitación como una instanciación de un programa de ordenador no
supone afirmar que carezca de toda comprensión. Ya que las teorías de
una psicología computacional formal deberían vincularse a programas
de ordenador en lugar de a la lógica formal. la psicología computacional
no es, en principio. incapaz de explicar cómo se conecta el significado a
los procesos mentales.

Referencias
BODEN, M.A. (1970). «Intentionulity and Physical Systerns». P/¡¡ltH'O/J/¡Y ti
Science 37: 200-14.
CHISHOLM, R.M. {1967). -Intentionality.» In P. Edwards (ed.). The Encvclope-
dia ofPhilosophv. Vol. IV. pp. 201-204. New York: Macmillan.

366
DENNETI, D.e. (1971). «Intentional Systems.» 1. Philosophy 68: 87-106. Repr.
in D.e. Dennett, Brainstorms: Philosophical Essays on Mind and Psycho-
logy, pp. 3-22. Cambridge, Mass.: MIT Press, 1978.
FODüR, J .A. (1980). «Methodological Solipsism Considered as a Research Stra-
tegy in Cognitive Science.» Behavioral and Brain Sciences 3: 63-110. Repr.
in lA. Fodor. Representations: Philosophical Essays on the Foundations of
Cognitive Science, pp. 225-56. Brighton: Harvester Press, 1981.
HO¡"STADTER, D.R. (1979). Godel Escher. Bach: An Eternal Golden Braid. New
York: Basic Books.
-, (1985). «Waking Up from the BooIcan Drcam: Or, Subcognition as Compu-
tation.» In D.R. Hofstadter, Metamagical Themas: Questing for the Essence
ofMirul and Pattern, pp. 631-65. New York: Viking.
NEWELL, A. (1980). «Physical Symbol Systems.» Cognitive Science 4: 135-83.
SCHANK, R.e.. and ARELSON, R.P. (1977). Scripts. Plans, Goals, and Unders-
tanding, Hillsdalc. NJ: Erlbaum.
SEARLE. J.R. (1969). Speecli Acts: An Essay in the Philosophy of Language,
Cambridge: Cambridge University Press.
- . (J 980). «Minds. Brains, and Programs.» Behavior and Brain Science';' 3:
..tI 7-24.
- . (J 9K3). lntentionalitv: AIl Essay in the Philosophy of Mind. Cambridge:
Cambridge University Press.
SLüMAN. A. (1986a). «Reference Without Causal Links.» In B. du Boulay and
L..I. Steels (eds.). Seventh European Con/ere 11ce on Artificial Intelligence,
pp. 369-81. Amsterdarn: Nonh-Holland.
- . (1986b). «What Sortx of Machines Can Understand the Symbols They
Use?» Proc. Aristotelian Soco Supp. 60: 61-80.
SMITH, B.C. (1982). Refiection and Semantics in a Procedural Language, Cam-
bridge, Mass.: MIT Ph.D. dissertation and Technical Report LCS/TR-272.
STICH. S.e. (1983). From Folk Psychology to Cognitive Science : The Case
Againts Belie]. Cambridge. Mass.: MIT Press/Bradford Books.

367
ÍNDICE ANALÍTICO Y DE NOMBRES

A B

Abelson, R.A., 185, I RR Backus, r., 33,51, 70


Abelson, R.P., 194, 200. 226. 338. 348. Badre, A.. 226
350,367 Banerji, R., 72
Acción, 252. 253, 255. 258 Bara, s.o.. 206. 223
Acentuación, 239 Barclay, J .R.. L94, 220
Acr". 12, 108-128, DO. 1.32 Barwise, J.• 8.17.20,269,314.315,316
Adjunción de modificadores. 240 Baucrle. R., 316
Agrawal, D.P., 99, 132 Baylor, G.W., 58, 71
Allen, LE. 12. 45, 68, 71, 87, 206, Bell, c.o., 99, 132, D4, 278. 279. 280,
239.247,248.249,250,252.253, 299
254, 255, 257,258, 260, 264, 165, Berwick, a.c., 260
326 Beth. E.W., 204, 220
Anderson, A.R..-, 73 Bien, J.S .. 198.227,322,331,336
Anderson, J.R., 62, 63, 70.108, 109, 110, Bishop, J.. 22]
128, 132, 133,201. 220 Black, r.s., 185, 189
Antrobus, J .S., 73 Bobrow, D.G,. 231, 260, 266
Appelt, D., 242, 260 Boden. M. A.. 8, 12,14.18,20. 188,349,
Aprendizaje, 154, 160 353,366
Arquitectura, 7. 12,49.88-99 Bonar, J.• 211. 226
Arqu j tecrura clásica, 31, 37 Boole, G., 36
Arquitectura cognitiva, 13, 25, 31, 47. Bouma, H.. 134
50,53,54.56.57,58,59,61,65,66. Bovair, S., 214,223
87,94, 97, 107. 108. 110. 121, 130. Bower, G.H .. 108. 127. 132. 134. 222
131, 297 Brachman, R.J., 123, 132
Arrazola, X.• 8 Brady, M.. 260.266
Artefacto. 25. 28.44,51.85 Braine, M.D.S .. 199.207,210,220
Aserción, 193, 197. 19~, 100, 208. 210, Bramer, M., 189
~78.280.l86.299,300 Brand, M.. 225
Austin, J.L.. 188.249, 2hO Bransford, J .D., 71, 194. 220
Ayuso, M.C., 15,20 Bresnan, r., 226

369
Broadbent, n.r., 124, lJ2 Clark. A., 13, 21. 194,209. no
Brown, A.L., W8, 133 Clocksin, W.F.. 123, 133
Brown, G.S., 56,71 Coh~n, P.R.. 232, 235. 237, 239, 249,
Brown, LO., 65, 71 255, 25Q. 260-2A)
Brown, J .S., 20l. 211, 220 Colby, K.M.. 72. 188
Brown, K., 226 Cole, P.. 262, 266
Bruce 250, 258, 260 ü"\lIin~, A., 266
Buchanan, B.G., 2(11, 220 Composicionalidad, 99
Butterworth, B.. 239, 260 ComposinvidadZ't l
Byrnc. R .. 15, 16, 21, 206, 210. 211, Comprensión. 231
219 Computación. 7. 10. 12, 13, 16, 17. 18.
19.23,24,27,28. 29. 36-4~ 53, 5~
57, 94. 95. 99, 101. 102. 106, 115.
e 116. 122. 136. 137. ns, 146. 157,
158. 160, 194. 232. 349, 36 L 362,
Cálculo. 31, 34, 128. 199, 200. 333, 344. 363.365
359.3~1.363.J64.365 Comunicación, 45, 46,83.89. 105, 1~6.
Calificación (problema de la). 336 247.270.272
Carberry, B.S., 2..t7. 24l'. 257.260 Condiciones de verdad, 82. 217, 218,
Carbonell. J.G .. 132. 134 280,286
Card, S.. 124. 125. 133 Conductisrno, 7R. 191
Carey, S., 212. 220 Conexionisrno, 12.21
Carpenter. P.A, 58. 71 Connell, 1.,39.73,210.226
Carsfile, J.H .. 264 Conocimiento. 17. 30, 31, 37, 40, -1-6. 54.
Cerebro, J 2, l7. 36, 50. 63. 70. 97. 13 t. 55,57,65,66.~7,68,70, 77. 79.80.
136. 137, 1.\8, 143, 187. 191, 19.3, 81, 82.~4.R5, 91,92, 93.94,96,97.
325. 343, 351, 352. 353, 35j, 357. 99. lOO, 102, 105, 106. 107. 108, 109.
35R,359.362 IJI. 112, 115. 116, 117. 119. 123, J 26,
Chafe, W.L, 239.260 129, 130. 138, 113. 144. 152, 182,
Champion, L.A., 219. 225 193, 194. 196. 197, 201. 207, 212.
Chaprnan. M.. 226 214. Z16. 217.218.219.229,231,
Charniak, E" 230,260 233, 236, 246, 271. 272, 280, 286,
Chase. W.G., 7 L 72. 133.224 321. 324. 125, 327, .128, 33 1, 332.
Cheng, P.N .. 20 l , 220 ~33.336.344.353,361.365
Cherniak, e, 32 t. 346 Conocimiento (dependiente eJe]), 11,25
Chisholrn, R.M., 353, 366 Conocimiento (nivel del). 35. 3(1, 59,
Chornsky. N.. 9,16.21. 25,41, 47.199. 126
220 Contenido. 46.53,55.61,89,90.96,98.
Church. A,. 26, )04, 296 114. 115, 129, 131. 146, 152.153,
Churchland, P.S.. 63 154. 194. 199. 200. 201, 203, ~ 11.
Ciencia cognitiva, 9. io. 18, 21, 22. 23. 218. 241, 242. 243. 246. 247. 270.
24.28, 32,35. 18,41,4~.44,47,49, 278, 279. 286. 299. 301, 303, 307,
50,53.56,60.62,64,66-70,87.88, 345, 3h2. J66
90. 92, 94. 96, 1n. 129. 13 r. U5, Contenido del conocimiento, 36, 212.
136, 147. 1:i2. 159, 16(), 217. 218. Contenido semántico. 31. 269. 271. 302,
249.273.297,298.328.359 360
Circunscripción. 254. 340. 343 Contexto discursivo. 236, 2~<j

370
Control (el problema del), 25, 42-47,51, Dixon, R.A.. 226
72,80,91,93.98,106.115,116.117. Dominio. 15.30,34.38,40.41,48,49,
]20. ]21. 129. 133, ]60, 161. 172. 53. l , ó3. 66,67,69. 129. 152, 163,
ó

182. 18~. IR5. 2~3_ 224, 225. 254. 111-215.12Q.230,231,233,235,236,


_':\~~ ..Bl). 3f¡3 246. 248. 252. 25~, 2~7, 288. 293.
Coopero L.A .. 66.73, 167 298,300,301,302.305,308.361
Coopero R .. 316 Donders, Ee.. 64, 71
Cooper, W.E.. 71 Donncllan, K.S .. 242, 261. 263
Cotrell, G.M.. 162 Dowty, D .. 271, 315. 31b
Craik. EL. 12t}, I ~1 Ooyle, 1.. 200. 224. ~39. :~L17
Craik. K .. 15.191,219.220 Dreyfus, H.L., 217. 220. 319. 320. _~31.
Croucher, M .. 189 334.347
Cueqx), 18.39,63.83, 182,2It}, 252,357 du Boulay, B.. 211, 220. 367
Dunckcr, K., 58. 71
Dyer, M.G .. 185. 1R9
D

Dahl, D. A.. 244. 261


Darrnstadter, H.. 346 E
Davidson, D.. 7. 10. 7S. 214.l1 h
Ede[~on, T., 189
Davics, D.J .M., 47. 71
Edwards, P., 366
Davis, M .. 26, 71, 200. 120
Egan, O.E., 209, 220
Davis, R.. 201. 220
Egli, U .. 225
Degradación natural (o dulce), 1-1.1)
Ehrl ich. K., 194, 221. 226
Deícricos. 299. 300. 3DI
Deixis, 244,261 Eilforr. W.. 265
de Klccr. J.. 201.211,220 Elman, J.. 161, 162. 164, 165
Demostrativos, 244, 299 Elsendoom, B.A.G., 134
Denkes- L. 164, 165 Encabezado. 255
Dennet, D.C., 8. 217, 222 Encadenamiento hacia atrás. 253,255
Descartes R.. 25 Encadenamiento hacia delante. 253. 255
Descripciones definidas, 16. 229. 230. Equivalencia fuerte, 23, 24, 47, 50, 57,
231. 239.241 59.6].62
Descripciones referenciales. 242 Erman, L.O .. 45.71. 16b
Descripción invocadora de entidad (lO). Escalamiento (el problema del), 161,
243 163,164, 18:!. IR7
de Sousa, R., 346 Espacios focales. 236. 241
Diarnond.T. 341,347 Especialistas de palabras. 231
Discurso, 8, 14. 15, 16, 17, 41. 192. Estado arcncional, 230, 2:n. 236, 238,
194-19R. 207, 208,210, 217, 218,219, 239,2~0.~4L24S.246
229-259.2R7.2g8.293,3(~,301,308 Estado de activación, 139. 140,142, 144
Discurso icomprensión del). 14. 15. 192. Estructura. [1.13.15,16,25,27,31,34,
24& 38, 39, 4D, 45, 4Q. 51l. 54.55, 61,69,
Discurso (estructura del), 1f>. 229-240. 87, 88, 93, 96, 97, 98, 101, 102, 103,
244,257 109,112.113.1]5.119.120.124.128.
Discurso (procesamiento del). 16. 17.41. 130,131.138,144,155,156.161,170,
~29-1~3.~35.140,25S 172,183,191,194,202,215,216.218.
219, 229-2M),243. 244,246,247,248. Fodor, l.A., 29, 31, 36, 37, 58. 70, 71,
257,271.284,297.305,306,326,342, 196,216,221,361,367
361,362,363 Foppa, K., 96, 134
Estructura de árbol, 234 Porbus. K.D., 211,215,221
Estructura discursiva, ver Discurso (es- Formación de planes, 251, 252. 158
tructura del) Formalismo. 26. 51. 10.\ 122,172,244,
Etchemendy. J.• 8.17,20,269,314,315, 35 J. 361. 363. 364
316 Fourier. 48, ó9
Evaluación incremental de referencia, 246 Franks, J.J.. 194.220
Evans, J. St. 8. T., 199,221 Frazier, L., 58, 71
Eventos, 46. 6.5. 70, 213, 214, 216, 230, Frege, G .. 26. 36
231.~35,140, 244,245 Frijda, N.H.. 131, 133
Extensión, \5, 17,2ó, 104, 158.251.287, Función, 10, 12, 23, 26, 27, 28, 30, 32,
289, 290. 291, 193, 295, 296. 298, 3~, 34.38,39,40,48.52,53,57,59,
303,304,306,309.356 60,61,62,65,69,70,88,94,98,99,
Ezquerro, J.. 7, 8 lOO, \03, 105, 106. 109. 116, 117,
121. 131,140-146.151, 159,164,
175,177.193,212,215,236,272-277,
F ~87. 288. 291, 303. 305, 306. 307,
346,353.358,365
Falkenhaincr, B., 215,221 Función semántica, 32, 33, 34
Falrnage, R.1., 225 Funt. RV. 55. 71
Parlcy, A,. 58, 71 Furth, B.P., 99
Fauconnier, G., 198. 221
Fcigenbaum, E.A., 129. 133, 201, 220,
22\ G
Feldman, J.A., 137, 166
Fennell, R.D., 166 Gabriel, R.P.• 134
Fenomenología. 183, 193,322. J23. 324, Gajski, D.D., 99, T'33
343 Galanter, E., 44, 72, 191. 224
Fenstad. J.E .. 316 Gardenfors, P., 316
Ferguson, C.A .. 223 Garnham, A.• 194, 195, 196. 198, 2]9,
Fcmández, E.B .. 99. LU 221, 223. 225
Feynman, R.P., 201, 221 Garvey,A., 219, 222
Fikes, R.E., 251,261,335,347 Generalización automática. \54
Findler, N.V., 132 Gcnesereth, l\1.R.. 249, '261
Finin, T.. 261 Gentner, D., 21 L 215, 220. 221. 222, 224,
Fischer, G., 249. 261 227
Flores, E, 218, 227 Gcorgeff. M.P.. 251,258.261
Flynn, RA .. 134 Gesticulacíón.239
Focalización (proceso de) 115, 241, 242, Gibson, J.1.. 40,345,347
243.244,278 Gick, M.L., 215, 22]
Focalizacion global, 241 Gilhooly, K.J, 2]9. 221
Focalización local, 243 Givon, T., 260, 264
Foco, LIS. 1:!7. 187,231,236,239,241, Glaser, R., 133
242. 143. 245, 257 Glenbcrg, A.M .. 198, 221
Foco inmediato, 242, 245 GOdel, K., 26,211,367

372
Goguen. 1.. 232. 264 Hewert, M., 219, 222
Goldíng, A .• 134 Hewitt, e, 200. 222
Goldman, A.A .. 18,21 Hilbert, A., 26, 36
Goldste!n. G.D .. 72 Hinrichs, E., 245,262
Goodrnan, N .. 313. 332,347 Hinton. G.E., 157, 158, 162, 166, 167,
Goodson, J. L., 266 213,222
Grafo-búsqueda, 251 Hobbs, J., 222,233. 235, 237, 238. 240,
Grccn, G., 213. 224 263
Green, T. R. G., 212. 222 Hoc. J.M., 222
Greenspan, J., 211 , 226 Hoff. M.E .. 145.156,167
Grice, H.P., 236, 248. 249. 261.262. 271. Hofstadter D.R .. 217, 222, 329,342,347.
315 359,362.367
Grimes-Parrow, D.D.. 220 Holland. J.D .. 133, 220, 222, 224, 227,
Groenendijk, J.. 223, 263 262.266.367
Grossberg, S., 145, 166 Holuoak, K.J., 221
Grosz, B.1., 8, 16,20,229.230,231,232. Hopcroft, J.E.. 91. 99. 133
233, 235, 236, 238. 239. 241. 243, Hopficld.1.. 150, 151,165, 166
245,259,262.304 Horrigan. M.K.. 250, 263
Guenthner, F., 244, 262 Horsntein, N., 222
Guiones. 46. 338, 339, 36 [ Howard, J.• 165.346
Guthrie, ER.. 43 Hutchins. E., 21l, 222
Gutmann, M .. 211, 224 Huttenlocher, J., 208. 222
Guyotc. M.J.. 203,222

1
H
Implicación lógica, 294, 296, 298, 299
Haddock, NJ.. 246,262 Implicatura, 248
Hara~z., EG., 214,222 Inder, R., 203, 223
Halle, M., 226 Inferencia, 36. 37. 40. 66, 173, 183. 198,
Halliday, M .• 2-1-7, 262 199, 200, 201, 204, 209, 210. 215,
Halvorsen, P.K., 316 241.282,294,295,296,298
Hankamcr, J., 196. 226 Inferencia (proceso de), 15,207
Harman, G., 224, 316 Inferencia (reglas de), 15, 29, 199, 200.
Hamish, R.M., 167,225 201. 209. 210. 230, 253, 254. 255,
Hasan, R.. ::!47. 262 257,258.361
Hauge1and. J., 217,222.318,347 Inferencia lógica. 53, 55
Hayes, P.J., 18, 47. 72, 199, 218, 222. Inferencia probable. 254
318,319,324,326,3~4.~44.347 Inferencia silogística, 202
Hayes-Rorh, B.. 45,71, 123.133.219. n2 Inferencia válida. 294, 295. 296
Hebb, D.G., 145, 166 Inferencia no-rnonónota, 337
Heider. F., 1R9 lnfones, 311. 314
Heim, r., 244. 262 Inhelder, B., 199,223
Hendrix, G.. 247, 262 Inteligencia Artificial, io, 18. 154, 318
Hétero-fenomelológiaTzc Intencionalidad, 12, 253. 269, 349,
Heurística, 69, 252, 254 351-359. 362
Heurística de bifurcación, 254 Intérprete. 28, 85.89, 118,361,363,364

373
Isabelle, D., 241,. ]1)3 Kohler. W" 27, 71
lsard, S.D., 47. 71 Kong, K.L.. 64. 70. 73
Korta, K., 8. 229
Kosslyn, S.M .. 55,66.72
J Kowalski, R.A., 199, 224
Kripke. S.. 305. 30?, ~ 15
JackeL L., 165 Krocrber. P., 265
Jackendoff, R., 2m. 2~3
Jacobi, G.T.. 7'2
J acobovits, 261
L
James, W., IJJ, 206
Janssen, T.. 223. 263
Laird, J.E., 7,12,21, 87. IOR. 129,133,
Johansson. G., 39
134
Jonnson, M.K.. 46.71
Lang. T., 99. 13.~
Johnson, M.V., 219.222
I.angholm. T., 316
Johnson-Laird, P. N., 8. 1..1.. 15, 16, 21.
Lansky, A.L. 251,258.261
170, 189. IYI. 192, 19'¡. 195. 197.
Larkin,J.H .. 212, 224
19~L 199. 200. 201. 203. 206, 210.
214. 217, 219. 220. nI, 223, 224. LarrazabaJ. J.}Y1., 7
225. :'27,297 Lasnik. H.. ~40, ~ftJ

Jordan.fví.I.. 1()1.162.166 Lehrnann, H .• 262


Joshi, A., 243. 263 Lebnert, W.G.. 185. 189, '231.235, 2h3,
Joshi, A.K., 262 264
Ju~t, M.A., 58. 71 Leighton, R.. 201, 221
Lernke, A .. 261
Lcnat, D.B.. 201.220
K Lenguaje.ü.Ll. 16,17.18.19,31.36,37,
41,47,49,~).51,53.90.91,94.95,
Kahnernan, D .. 197.201,208,213,223. 96. 103. ]{I5. t 15. 146,152. 160, 169.
226 170, 180. 185, 186. 193. 196, 197,
Kamp. H.. ~44, 263, 316 199, 216. 217. 218. 229. 230, 231.
Kamp, J.A.W., 198, 20~. 22~ 232. 248. 249, 251 . .252, 269-289.
Kuntowitz, B.H.. 73
2\}3. NIí. 300. 301, 302. 304, 306,
Kaplan, D., 299. :100. 302. 315
309,310,313.314,315..""!..27. 350,
Kaplan, R.M., '267
356, 357-366
Karuunen, L.. 195\, 223
Lenguaje (comprensión del), 17,41. 47.
Kautz, H.A. 254,263
Keanc, M., 215.219,223
249
Lenguaje (interpretación del), 217. 309
x-u. F.. 212, 223
Kernpton. W., 213.223
Lenguaje (procesamiento del), 9, 17. 152.
Kendon, A .. 239. 263 230,232.350.356.360.366
Kieras. D.E" 214. 223 Lenguaje (uso del), 251, 269, 275. 281,
Kintch, W.. 227 366
Kintsch, W., 198. 216. 223 Lenguaje artificial, 281 y siguientes
Klahr. D .. 107, 133 Lenguaje formal, 146
Klein. E.. 262 Lenguaje máquina. 103
Knuth, D.E., -1-K 71 Lenguaje mental, 196. 216. 327

374
Lenguaje natural, 185, 186, 230, 231, Marslen-Wilson, W.. 264
272. 276, 277, 281, 284. 302, 350, Martin, P., 207. 263
356.359 Martinez, F., 7, 13,21
Lenguaje natura] (semántica del), 185,314 Martinich, A.P., 316
Lenguaje natural (sintaxis del), 28 L 357 McCarthy. J., 1&,47. 254. ~64. 318,
Lenguaje procedimental, 363 319. 320, 326. 336. -"37. 340, 343,
Lepinies. W., 96. 134 347
Lesser. V.R., 45,71. 249.264 McCawley. 1.. 223
Leventhal, H., 21 1, 224 Mcf.lelland. J.L., 67.73. 166
Levesque, H., 259,260.261 Mcf'loskey, M.. 213. 224
Levin, l.A., 264 Mcf'orduck, P.. 201. 221
Levinson, S.c.. 249. 2M McCue, 0.,249.264
Le .. y, D.M., 233, 235. 264 McCulloch. W.S .. 12.21, 100
Le .. y, E., 239, 264 McDermott. D. 200,224,339, 340, 344,
Lewis, C .. 214, 224. 347
Lewis, D.K., 217. 224. 271, 305, 307, McOonald, O.D., 243. 264
308.315,316 MeGorugle. B., 226
Linde. c. 232, 233,234.264 McKcown. K.. 235, 243, 264
Lindcm, K.. ]98. 221 t\.kNeill. D.. 239,264
Lindsay, P.H., 45, 72 Mellish. CS.. 1~3. 133,246.265
Litnlan.D., 239. 248.257. 258. 263. 264 Mcltzcr, B. 71.72,347
Lochhead, J,. 221 Memoria. 9. 12, 29, 32, 41, 42, 45. 50,
Lockhart, R.S,. 126. 133 51, 52, 67. 70. 75. 84, 89. 90, 92.93.
Lógica formal. 9,31, 32,210,366 100-128, 135, 137, 146. 152, 153.
Lógica mental. 199,209.210.216 159,161. 162.184, J96. 219.342
Lógica modal, 17 Memoria a corto plazo. 42. 124
Lógica no-monótona, 339 Memoria a largo plazo, 10 1. 109. ] 12.
Ló~a simbólica, 30, 349, 365 113, 115, 116. 117. 121. 122. 12..t.
Lógica temporal, 340 219
l.yons, W.. 183. 189 Memoria de trabajo, 109\ 111. 113.
115-120
Mente, 9.10, u, ]4-18. '27,28,35.36.
1\1 43, 50, 56, 85, 87\ 88, 90, 96. 130.
169,170.171,184,185.187,191.
Mae~. P.. 108, 133 198. 210. 213, 218. 271. 294. 340.
Mani, K.. 195,224 346,353,354,357.359,365,366
Maquina de Turing. 26. 28. 29. 52. 55. Merry, M., 189
5g. 60, lOO Mesarovio, M.D., 72
Marcadores. 237 Meyer, D., 211, 224
Marco (problema del), 8, 18,317.318, Meyer, M .• 198, 221
319. 320. 321. 323, 326. 330-334. Michalski, R.S .. 132, 134
337,339,343.3~.345.346 Michie , D .. 71. 72, 20 L 224, 347
~arcos,46, 123,246.~}8.339.340.3ó3. Migura, E. 8
364 Milh:r. G.A .. 9. 44. 72, 191, 197. 214,
Markov, 100 224.226
Marr, D., 38, 39,40,41, 4&,69.7'2. 193. Millikan. R.G., 344, 347
224 Milutinovic, v.~., 99. 133

375
Minsky, M .. 99, 112, 133, 139, 152. 154, o
156. 158, 159. 166. 200, 224. 335.
337,338,347 Oakhi 11 , lV.. 194, 195, 196, 198, 206,
Mitchcll, T., 132, 134 221,225
Miyata, Y, 161, 166 Oatley, K.. 170,189,211,219.225
Modelización, 14, 19, 31, 139, 142, 274, O'Connell, D.N., 39. 73
275,282,308,314,343.345 Oden, o.c.. 217,225
Modelos mentales, 14, 15, 191, 192,193. Operadores. J03. 11 L 112. 117, 118. 128,
194, 197, 198, 201, 202, 203, 206, 129,251.252,255,258,259
207, 20R, 211, 212, 214-219. 2Q7, Optimización, 139, 146, ]52, 163
298 Ordenador. 10, 24, 25, 28, 29. 30, 32, 34,
Monk, J., 21 L 220 15.40,42,43.44,49,50.51,53,68.
Montague, R., 16, 21. 305, 307.315.31 Ó 70,75,76,77,79,80,84.85,88,89,
Moon, D.A.. ] 34 90, J02. us. 117. 118, 121, 135, 136,
Moore, M.A .. 26-1- 137, 138, 182. 187, 188, 191, 216,
Moore, R., 222. 318 325, 337, 349, 350. 351, 352, 355,
Moran, T.P., 58. 72. 124, 125, 133. 211, 356, 359-366
214,222,224 Ortony, A., 132, 222
Morgan, J.L.. 132, 134, 166. 167, 249, Osherson. D.N., 199,225
261,262.263,264,265,266
Morril, G., 262
Mozer, N.C., 161, 166 p
Munro, P.W., 162, 165
Murray, D., 222 Papert, S.. 139. 152. 154. 156, 158. 159,
Myers, T, 226 166
Partículas, 2."7 _
Patrón de conectividad, 140, 143
N Payne, SJ.. 212,222
Penetrabilidad Cognitiva, 35,66
Nardi, D.. 108, ] 33 Pensamiento. 10\ 15, 31, 36. 43,44,49.
Neely, R.B .. 166 75, 77. 78, 79, 80, 81, 83, 84, 85. 112,
Neumann, von, 70. 122, 136, 345. 362 173. 198, 215, 219, 269, 318, 320.
Newell, A., 7, CJ, 12.21.24,28,37,41, 323.327.333,339,340
42,45,56,58,68,72.87,93.94,97, Perceptrón, 145, 154, 156, 158
99, 100, 108, 124. 125, 128. 129, 132. Pcreira. F.C.N., 244, 246, 265
133. 134, 191, 200, 203, 206, 207, Pérez Miranda, LA., 5, 7, 8, 9, 22
224,225.326.347.352.362,367 Perkins, D.N., 221
Nickerson, R., 224 Perrault, n.c., 248, 249, 255, 260, 261,
Nicod, J., 56. 72 265
Nilsson, N.J., 251, 252, 261.265.347 Pcrers, S.. 316
Nisbett. R.E.• 20 1, 222 Peterson. K.. 265
Nivel físico, 31 Piaget. J .. 199. 223
Nivel semántico. 68, 341. 344 Pierrehumbert, J.. 239, 263
Nivel simbólico, 32, 91. lOO Pítt!'., \V.H., 12.21, IDO
NÜAH,251 Planes (planificación), 13. 68, 103. 129,
Norman, D.A., 45,72, 2B. 224 170, ]71, 183. 185, 230, 235, 2J9,
Numeral, 31, 33, 34. 272,276 248-259,317,326,330.340

376
Plogg, D., 134 R
Poggio, T., 39. 72, 193. 225
Polanyi. L.. 232, 233. 234. 2)8, 265 Razonamiento, 9, 14, 15,29,30,31. 32.
Polanyi, M .. 70. 72 36. 37, 41, 49, 67. 172, 173. 192.
Polk, T.A.. 108. 134.201. 225 199-203. 206-213, 217, 218, 219.
Pollack, M.E .. 8, 16.21, 22Q. 244, 246, 249, 251, 252, 253. 255, 256, 323.
249, 25R. 25CJ. 261, 262. ~6J. 264. 329,337. 340,343, 35g
265,304 Reconocimiento del ojo de la cerradura,
Posner, M.L 7.8,18,20,21, 42. 65, 72, 249
219 Reconocimiento de planes. 130. 239,
Post, E.. 26. 100 24S-259
Power, M.J .. 219, 225 Reconocimiento pretendido. J30
Precedencia de satisfacción. 236 Reddy. D.R .. 45. 71,152.166
Pribram, K.H., 44, 72. 191 Referente, 11. 197.240.242,246.359
Procesamiento, 9, 12, 13, 16, 17. 25, 27. Registro tonal, 239
35,36,41,42,48,53,57,58.64.65, Regla de Acción-Efecto, 252. 253. 255
66, 67, 75, 87.91, 92, 96, 105. 106. Regla de activación, 14~
Regla de aprendizaje, 14ü, 145, 153. 1S6
111. 113, 118. 119, 113, 124. 125,
[28, (35-146, 151, 152,159,229-236, Reichardt, W.E., 193,225
Reichgelt, H., 198,225
240. 257, 258, 323, 343, 345, 349,
Reichman-Adar, R.. 232, 234, 238, 241,
350.~)6.358,360.362,366
265
Procesamiento del discurso, ver Discurso
Reilly, J.S., 223
(procesamiento del)
Reinhart, T.. 240. 165
Procesamiento del lenguaje. ver Lengua-
Reiser, BJ " 185, 189
je (procesamiento del)
Reiter, R.. 199. 225, 260, 265, 340, 347
Procesamiento interactivo. 152
Relaciones, 10, 19, 39.47,54.55.80.81,
Producción. 46, 5ó. 76, 79. 109-118. 122,
8·;j., 160. 193. 197.209,210,212.214.
130, 144, 160, 161. 174. 178, 179.
215,230-239.243.245,246.248,251,
200,218,352
271.278,280,287,288,296,303-314.
Productividad. 17, 31 327, 3-ro, 344. 345, 346, 356. 363,
Preferencia. 230, 232, 235, 236. 237, 3ó5
239, 242-250, 253, 257. 279. 21\6, Relaciones retóricas, 233, 235, 236. 237
299,300,301.302,308,311.312 Relevancia, 10, 18, 46, 63,206,173,296,
Programa, 9, 12. 16, 18. 26. 40, 41\, 49, 335,365
51,56,57,75, 76, 84, 85,g9,90,98, Representación, 18. 30. 35. 5), 56. 58,
103,117,118,120,121,128.130.136, lOO, 129. 140, 142, 145. 152, 154,
137.138,159.209,214,231,274.275, 155, 156. 157, 173, 175. 191, 193.
276,340,342,349,350,351,356-366 195,204,207.210,213.216.217,
Pronombres, 16.229, :230.231.239,241, 219, 242. 244. 246. 247. 249. 251,
242,243,301 259, 287, 288. 303, 311. 3]9. 326.
Prosodia, 235, 239 327,335,362
Putnam, K, 71. 84 Representación del conocimiento. 9, 1S
Pylyshyn, Z.W.. 7. 10. 11. 21. 23,29,31, 192.200.211,363
35.36. ~7.50,53. 60.61.63,64.65. Representación lingüística. 196. 197,
69.70,71,72.73,87,185.189,216, 198.216.218
~25.~18 Representación mental, 54.192,212,216

377
J

Resolver-conflictos, 258 Semántica, R, 10,17, 29-3t1. 81-91. 185.


Rips, L.J., 199,216,217,225 234,237,269-291.294,295,300-312.
Robinson, A., 244. 265 321,350.362,365,372
Robinson, I.A .. 199,226 Semántica (interpretación), 30, 32, 33.
Rogers, H.. 209. 226 34
Roseman, L 181, 185.189 Semántica (red), 109. 112, 113, 196
Rosenberg, c., 164, 167 Semántica (teoría), 277. 279, 280, 282.
Rosenblatt, E. 166 286.287.295,297,310
Semántica cognitiva, 274. 276
Rosenbloorn, P.S.. 7. 12, 21, 87, 97. 108,
Semántica compositiva. 272
1~9. J 33, 134
Semántica de Mundos Posibles, 17,302.
Roscnschcin, S., 185, 252,265
309
Rueda Cognitiva, 340, 341
Semántica de Situaciones, 17, 298. 308.
Rumain, B.. 210. 226 309,310,311,314
Rurnelhart. D.E .. 7. 12, 21. 67, 73, 87, Semántica de los lenguajes de programa-
135, \57. 158. 165. 166, 167, 232, ción, 364. 365
234,266 Semántica del lenguaje natural. 185. 276.
Russell, B.. 26 314
Russell, 1.. 217.226 Semántica formal, 198
Ryle, G., 170, 189,328,348 Semántica léxica. 27 t
Semántica matemánca. 274
Semántica modelo-teórica. 8. 17. 276.
s 277, 278. "279. 285. 286. :!(n. 298.
307,30R
Sacerdoti, E.D., 251. 252. 262, 266 Shadbolt, N.• 198, 226
Sag, i., 196, 226, 262 Shepard, R.N .. 6'6. 7.3
Sagalowicz, D .. 262 Shepherd. R.N .. 163. 167
SAM,231 Shiffrin. R.M., 97. 134
Sanford, A., 194. 226 Shivers, O.G .. 134
Satisfacción de restricciones, 139. 146, SHRDLU, 230,231
147, 150. 151, 152,246 Shwartz, S.P.• 55, 72
Scha, R.. 238,265 Sidner. t.c., 8. 16. 2 L 229. 230. 232.
Schank, s.c., 72, 188, 194. 200. 226, 233, 235, 236, 238-245. 250. 254.
338.348,350,355,366,367 257.259.262,266,304
Schiele, F., 212, 222 Siegel, V.M., 99, 133
Significado. 10, 16,27.29,30.79.81.84.
Schiffrin, D.. 232. 266
85, 88, 152. 193. 196, 198, 209. 210.
Schrnidt. c.n. 249, 266
217, 229, 230. 231. 232, 239. 244.
Schneider, W., 97, 134
247, 248, 270, 271, 272, 273, 278.
Schneiderman, B., 226
279. 280, 286, 299, 301, 302. 303.
Schoenfeld, W.. 262 306. 307, 308, 310, 312, 313. 322.
Schwab. T., 261 349.351,360.364,365.366
Schwartz, D.• 165 Silverman, K.. 239, 266
Searle. J.R., 18, 21, 249, 266, 319, Similaridad, 146, 154, 155, 156.269
349-367 Sirnon, H.A.• 9. 10,21,44,58.72.73,87,
Sejnowski, T.I., 63,164,166,167 100.108,129,133,134.189.191,224
Selfridge. 0 .. 344.348 Sintagma de entrada, 237. 238. 239

378
Sintagma nominal, 242, 245, 246, 283, Teoría de centrado, 243
2gS. 291. 306,313 Teoría de la circunscripción, 254
Sintagma predicativo. 283. 288. 289. ter Meulen. A .. 223
290,291.293 Test de Turing. 7, 10.75.77,78. 79. ~O.
Sisternaticidad. 31. 37 8~.g3,S5
Skinner, T.. 16, 21 Thagard, P. ~Ol, 215,222
Slocurn, 1., 262
Thomason, R., 21. 316
Slornan, A.. 7. 13,22,169,172,181,182,
Thompson, R., 108, 132
188.189.365,366,367
Thompson, S.A., 233, 235.238,264
Slovic. P. 223, 226
Todd. P., 161. 167
Smith. s.c., 126. 362. 363. 364. 365. 367
Smith, E.R., 201. 219.226 Tono. 209, 239
Smolensky, P.. 167 Touretzky, D., 166, 167
Soar, 12.!n, 10~-ID, l15-119, 121.122. Townsend, J.T., 62, 73
12~. 129, 1~(). 133. 13·1-,225 Traugott, e.e. :!23
Solla, B.. 165 Turing, M.A., 7. 10, 1R.22, 24,26,27, 2R,
Soloway, E., 211. 226 29,36,52,55.59,60,69,73,75-80.
Solso. R.. 221 82,83, 85, 100. 104, 114, 365
Spcnccr Brown. G .. 56 Tversky, A., 197, 201, 208, 213. 223, 226
Spencer-Smith, R.. 198. 126 Tyler. L.K .. 58. 72, 264
Sperling, G., 42. 73
Sridharan. N.S .. 266
Stalnaker, R., 307. JWL.3 [6
Sreele. G.L.. 1:2. U.+
u
SleeJ~. B" 367
Ullman, J.D.. 91. 99. 133
S!e"nk. M.. 252,266
Ullrnan, S.. 39.40,66.73
Steicr. D.E., 129. 134
Underwood. G .. 125
Steinberg,261
Unidades de procesamiento, J 37. 139.
Stenning. K., 198. 226
140, 142, 141
Sternberg, R.J .. 209,222.223,226
Sternberg, S., 42, 73, 127, 128 Unruh, A., 134
Stevens, A.L.. 211. 220. 221, 222, 224.
227
Stevcns, K.A., 39, 73 v
Stcvcns, R.. 225
Stich, s.c., 36J, 367 van Benthern, J., 316
Stokhof, M.. 223.263 van der Veer, G.c., 222
STRIPS,251.261,347 van Dljk, T.A., 196. 198.2:23. 227, ~J-l. ~66
Supuesto de rama única, 254 VanLehn, K., 97, 134
Vasta. R., 133
Verdad cognitiva, 298
T
Verdad lógica. 294, ~q6-300. 309, 310
Tate. A.. 252.266 Vicente, A., 7
Técnicas de reconocimiento incremental, von Cranach, M., 96. 134
257 von Stechow, A., 225
Teoría de actos de habla. 255 Vosniadou, S., 132, 221, 222

379
/

w Wilkins, D.E., 252. 267


Wilks, y, 198, 227
Walkcr. D., 23l, 262, 266 Williams, D., 157, 158. 166
Walker, E.C.T., 71 Winograd, T., 217, 227,230,267
Wall. R., 316 Winston, P.H., 72, 132, 133.224
Wallach, H., 39, 73 Wittgenstein, L., [93. 227, 320
Waltz, D.L., 227 Wittner, B., 165
Ward, G.L.. 239, 263 Woodfield, A., 347
Wason, P.c., 199.201,220,223,225.227 Woods, \V.A., 230, 267
Wassennan, G.S., 64,70,73 Woolridge, D .. 348
Watson,J.B .. 16,278,279,280,299
Webber, B.L., 198, 227, 143, 245, 247,
262,266,267 y
Weil. E.M., 209, 226
Weinreb, D.L.. 134 Yost, G.R.. 134
Weinstein, S., 243. 262, 263 Young, R.M., 58, 73, 212,227
Wertheirner, M.• 214, 227 Yovitts, A" 72
Weyraych. R-W., 227
White, R., 188
Whitehead, A., 26 z
Widrow, G., 145, 156, 167
Wilensky. R., 250, 258, 267 Zipser, D., 162, 165

380

Anda mungkin juga menyukai