FILOSOFICAS DE
CIENCIA COGNITIVA
159.955
Selección de Artículos
2. El Test de Turing.
D. Davidson.
Extraído de Newton-Srnith. W.H. and K. V. Wilkes (eds.), Modelling the
Mind. Oxford: Oxford University Press 1990. pp. 13-26. Reimpreso en:
D. Davidson, Problems of Rationalitv. Oxford: Clarendon Press, 2004,
pp. 77-86. (Traductor: Jesus Mari Larrazabal) . . . . . . . . . . . . . . . . . . . . 75
7. El Discurso.
B. Grosz, A1. Pollack. and C. Sidner.
Extraído de Michael I. Posner (ed.), Foundations (Jj Cognitive Science (19lN).
pp. 437-468. The MIT Press. (Traductor: Kepa Korta) . . . . . . . . . . . . . . 229
8. La Semántica "Modelo-Teórica.
J. Barwise and 1. Etchemendy.
Extraído de Michael l, Posner (ed.), Foundations ofCognitive Science (1989),
pp. 207-244. The MIT Prcss. (Traductor: Fernando Migura). . . . . . . . . . . . 269
8
ALGUNAS CUESTIONES CLAVE PARA
ENTENDER Li\ CIENCIA COGNITIVA ACTUAL
Luis A. Pérez Miranda
Introducción
9
de los organismos inteligentes (animales y humanos), al modo en que se
llevan a cabo en psicología experimental. O incluso podríamos estudiar
la inteligencia exhibida por los ordenadores tratando de comprender los
principios que subyacen a la organización y conducta de los programas
inteligentes (cf, Simón. ] 989). El reconocimiento y uso de esta variedad
de métodos y enfoques diversos en el estudio de los procesos cognosci-
tivos es 10que ha dado lugar al nacimiento de la disciplina que nos ocu-
pa. Partiendo del análisis de algunos artículos considerados ya clásicos
en el estudio de la cognición en sus distintas facetas, trataremos de dar
algunas de las claves que nos sirven para entender la evolución que está
sufriendo la Ciencia Cognitiva en nuestros días.
10
de establecer el papel de la computación en la compresión de la mente
humana. Pylyshyn ha defendido la idea de que los ordenadores son de
hecho los únicos mecanismos conocidos que tteHefl un comportamiento
lo.suñcientememe flexible ·como para ajustarse a la plasticidad de 1ft
~ humana. Además éstos serían los únicos mecanismos capaces de
producir un comportamiento que pudiera ser descrito como dependiente
de conocimiento. Por todo ello cabe considerar a la computación como
el mejor candidato para explicar la cognición en términos mecanieistas;
y también en lo referente a otros aspectos, como por ejemplo. el hecho
de que pueda influirse sistemáticamente sobre el comportamiento indu-
ciendo diferencias en las creencias o los fines.
Si, no obstante. nos ciñéramos a los relativamente escasos resulta-
dos obtenidos hasta la fecha por los enfoques computacionales en los
estudios de la mente, podríamos llegar a la conclusión equivocada de
que este paradigma ha fracasado estrepitosamente en relación a buena
parte de sus objetivos. Ahora bien, no puede pasar por alto que muchos
de estos estudios se encuentran todavía en sus primeros estadios y que
existe un gran desconocimiento acerca de lo que realmente es la mente
humana en relación a muchas de sus propiedades esenciales.
I1
explicara (y quizás fuera capaz de simular) tanto las categorías gene-
rales de la intencionalídad como las distintas capacidades psicológicas
que sobre-elias-;e-f~ndW;entan.Debería dar cuenta no sólo de la psi-
cología humana sino también de cualquier forma inteligente, fuera ésta
natural o artificial (cf, Boden, 1990)3. Y más aún, debería decimos si la
;,' inteligencia puede ser implementada sólo en algún tipo de arquitectura
L u v similar a la del cerebro, o si, en su caso, esto puede ser llevado a cabo
c"
" ~u mediante algún otro tipo de arquitectura (cf. Boden, 2006). Lo impor-
- \.r tante sería la función como tal y no tanto el substrato material sobre el
cual se realiza. En este sentido los procesos cognitivos no tendrían por-
[1'
qué ser modos de operar exclusivos del cerebro,
Arquitecturas Computacionales
12
están inspirados neuronalmente y realizan una computación de estilo
cerebral, por 10 que resultan más apropiados para la teorización cog-
nitiva. Frente a las arquitecturas -clásicas - que son seriales, las co-
'>~~,..se caraesenzan por realizar un procesamíemomeeívo en.
paralclo. La analogía neuronal se refleja en el hecho de que utiliza
unas unidades básicas o nodos que se hallan interconectados entre sí
de forma múltiple.
Es conveniente señalar, no obstante, que hoy en día podemos encon-
tramos con modelos explicativos de procesos cognitivos de alto nivel
basados en arquitecturas híbridas. que comparten características tanto
de las ar~uitectºr~s_simbó~s E~sica~" como de las arquitecturas co-
nexionistas~--Lo qt.i"epuedenser ventajas propias de un tipo de arqui-
tectura en algunos dominios de problemas se convierten en desventajas
frente a otros dominios de problemas (cf. Clark, 1989).
Una labor fundamental para saber lo que realmente somos pasa se-
guramente por investigar. modelar y diseñar sistemas y arquitecturas
para el procesamiento de la información no sólo en los ordenadores. sino
también en los cerebros, las mentes, la ciencia. y también en la sociedad.
A. Slomaa, en su conocido trabajo Motivos, Mecanismos y Emociones,
esbozó las líneas maestras de lo que deberían ser los estudios cognitivo-
computacionales, y su correspondiente metodología, en el ámbito de
las emociones y sentimientos. Para una completa explicación de estos
episodios y disposiciones, dice Sloman, necesitamos una teoría acerca
del modo en que los estados mentales son generados y controlados. y
del modo en que éstos conducen a la acción -es decir, una teoría acer-
ca de los mecanismos mentales. Al mismo tiempo una teoría de estas
características debería ser capaz de explicar cómo deberían ser construi-
das, almacenadas, comparadas y usadas las representaciones internas de
modo que nos permitieran llevar a cabo inferencias. formular planes. o
controlar acciones. Sloman señala cuáles deberían ser las restricciones
en el diseño para el caso de animales o máquinas inteligentes. Al mismo
tiempo indica las soluciones de diseño en relación a la estructura de las
emociones humanas y a los mecanismos computacionales que subyacen
a los estados emocionales habituales. Se trataría en definitiva de en-
contrar la arquitectura cognitiva que mejor sirviera como soporte a los
procesos mentales que queramos modelar.
13
A diferencia de lo que ocurre en las investigaciones sobre CC, para
muchos de Ios.investigadores de IA su labor es, principalmente, un ejer-
cicio ingenieril, y sólo muestran un interés por el estudio de las capa-
'. - cidades y procesos cognitivos humanos en la medida que éstos puedan
ser útiles para la construcción de sus propios diseños. Para el científico
cognitivo puro, por el contrario. el objetivo de la investigación consiste
en encontrar buenas explicaciones de las capacidades y comportamien-
tos de los agentes inteligentes ex istentes.
Psicología Cognitiva
14
la representación del conocimiento y de las distintas habilidades prác-
ticas han hecho referencia todas ellas a versiones de la hipótesis de
los modelos mentales. La idea de que nuestras operaciones mentales
descansan sobre modelos mentales fue sugerida por Kenneth Craik en
1943. Craik sugirió la idea de que la mente humana construye modelos
a pequeña el escala a partir de la percepción, la imaginación, o la com-
prensión del discurso que le sirven para anticiparse a las situaciones ve-
nideras. Los defensores de los modelos mentales sostienen que éstos no
sólo descansan sobre imágenes visuales sino que también pueden ser
abstractos. representando situaciones que no pueden ser visualizadas.
;>I Cada modelo mental representa una posibilidad. Los modelos mentales
serían similares a los modelos de los arquitectos o a los diagramas de
~ los físicos en el sentido que su estructura es análoga a la estructura de
! la situación que representan.
i
Uno de los procesos mentales que siempre ha llamado la atención
en el marco de las ciencias cognoscitivas es el del pensamiento y. por
extensión, el del razonamiento. ESTO es, el modo en el que los agentes
racionales pasamos de una información dada a otra, no necesariamente
explícita. mediante algún proceso de inferencia. Los psicólogos cogni-
tivos han tratado de explicar cómo es posible que razonadores no adies-
trados en lógica sean, sin embargo. capaces de juzgar la validez (o co-
rrección) de razonamientos deductivos. En su opinión el razonamiento .
puede ser entendido como un proceso en el que se manipulan modelos ---:r
mentales, para lo cual no haría falta disponer de una competencia lógica.
Estos modelos servirian a su vez de soporte para las representaciones
del conocimiento". La controversia ~ acerca de si--llevamos
-
a cabo razo- ~:'c', ~
"'"'- ---.. -,,"-
~ na~~~~~zs ~~~~~-~9_C!~]gJ~~~i~~_~ _ Qe-I!i(~~~'n~~~ además dé haberse
<Iílatado e-n el tiempo, ha sido fructífera en cuanto a resultados. Dicha
controversia ha conducido a diseñar mejores experimentos. a hacer más
explícitas las teorías psicológicas mediante su implementación en pro-
gramas informáticos, así como a desarrollar otras teorías del razona-
miento en nuevos dominios.
Les psicólogos cognitivos han estudiado además cómo los niños de-
sarrollan tales modelos, cómo los modelos construidos para un dominio
pueden servir COlllO analogía para otro dominio. cómo éstos dan lugar al
") Sobre la teoría de los modelos mentales en castellano véase «Razonamiento y ra-
cionalidad» de M. Jet Carmen Ayuso (1997). El libro incluye además la traducción de
dos trabajos de autores reconocidos en el campo de la psicología cognitiva: Johnson-
Laird y Byrne.
15
nacimiento de emociones. y cómo diseñar sistemas de computación para los
cuales es fácil construir modelos (cf, Johnson-Laird & Byrne, 2(02).
Lenguaje
16
señalar. no obstante, que en este trabajo los autores toman como centrales
las cuestiones computacionales o de procesamiento del discurso.
En el artículo Semántica Modelo-Teórica. Barwise (t) y Etche-
mendy, autores entre cuyas aportaciones hemos de destacar las relati-
vas a los fundamentos y desarrollo de la Semántica de Situaciones. nos
presentan, de manera sintética, algunos de los enfoques adoptados en
la ingente empresa de dotar a los lenguajes naturales de una semántica
adecuada, que esté, a su vez. definida de manera clara y rigurosa. Para
ello consideran en primer lugar la semántica extensional modelo-teó-
rica clásica, señalando sus limitaciones; para posteriormente, abordar
otros acercamientos que suponen alguna extensión o modificación de
la misma. Así. distinguen una extensión en la que se toma en serio el
papel del contexto y. a modo de modificaciones de la perspectiva clá-
sica. nos remiten sucesivamente a la Semántica de Mundos Posibles
-conocida por su productividad en el ámbito de la lógica modal- y
a la novedosa Semántica de Situaciones. Como cabría esperar, estiman
que esta última se encuentra en una posición óptima -debido a su
refinamiento y ftexibilidad- para hacer frente a dicha empresa. Con
el objeto de mostrar los problemas que se generan, en mayor o menor
grado, con cada uno de estos enfoques, se sirven de fragmentos de un
lenguaje diseñado por ellos mismos para tal fin. Éste contará con una
sintaxis fácil de especificar pero. al tiempo, será lo suficientemente pa-
recido a los lenguajes naturales como para exhibir mediante ejemplos
concretos las virtudes y limitaciones de cada perspectiva.
Para poder explicar algún día los procesos cognitivos inteligentes
principales, no parece que pueda prescindirse de las técnicas e instru-
mentos de las ciencias de la computación, pero tampoco del trabajo
desarrollado en otras áreas de conocimiento. Por poner un ejemplo,
¿.cómo vamos a ser capaces de explicar los mecanismos que subyacen
al procesamiento y a la comprensión del lenguaje natural o del discurso,
si desconocemos su naturaleza? Sin la colaboración de informáticos,
neurocientñicos. psicólogos, lógicos y lingüistas seria seguramente un
proyecto abocado al fracaso.
Problemas Filosóficos
17
la mente y, en menor escala, sobre la filosofía del lenguaje y la episte-
rnología", El escrito de D. Dennett Ruedas Cognitivas: El Problema del
Marco de la Inteligencia Artificiat está considerado ya como uno de
los clásicos acerca del -problema del marco-o Dennett distingue aquí
entre un problema del marco restringido (tal como ha sido tratado en el
campo de la lA por Mcf.arthy y Hayes, por ejemplo) y otro más amplio
y de mayor calado, que excede el marco estricto de la lA y constituye un
problema epistemológico profundo, el problema de la relevancia. Den-
nett trata de hacernos ver que las dificultades en el tratamiento del pro-
blema restringido tienen que ver con el problema profundo en sentido
amplio. Además, extiende las consecuencias de estas consideraciones a
las perspectivas de la ciencia cognitiva en general.
El famoso artículo de M. Boden Escapando de la Habitación China
es una réplica al trabajo de John Searle, Mentes, Cerebros y Programas,
donde se sostiene que las teonas computacionales nada tienen que apor-
tar a la psicología. Boden, en la línea funcionalista que le caracteriza,
pretende demostrar que las objeciones de Searle están mal fundadas.
En su opinión. el análisis de la computación ayuda a la explicación de
la representación y la comprensión. Incluso el programa de computa-
ción más simple exhibiría características básicas fundamentales para la
comprensión. La llegada de los ordenadores programables replanteó la
manera de mirar al viejo problema mente-cuerpo. Los contrarios a la
tesis de que las máquinas podían pensar tuvieron que esgrimir nuevos
argumentos para demostrar por qué la apariencia de inteligencia no era
tal cosa. Por su parte, aquellos que sostenían la idea de que las máqui-
nas eran capaces de pensar tuvieron que establecer criterios operativos,
como por ejemplo el test de Turing, para verificar la presencia de inte-
ligencia. Además de todo esto, hay que tener en cuenta que muchos de
los confusos argumentos filosóficos expresados en el lenguaje natural
resultan menos ambiguos cuando pasan por el tamiz de los programas
informáticos que permiten su explicitación (cf. Posner, 1989).
18
logía, biología. neurociencia, filosofía, lógica, lingüística, sociología
(entre otros) y los de lA, en la búsqueda de estrategias de investigación
complementarias. Piénsese además que el estudio de estas capacida-
des y comportamientos inteligentes no se reduce a los de un agente
individual en un contexto determinado. sino que incluye también el
tipo de acciones inteligentes derivadas de las relaciones interpersona-
les cotidianas entre los individuos que integran un colectivo. Tal es así
que en la actualidad los proyectos de investigación, congresos, semina-
rios. publicaciones, etc. sobre Sistemas y Organizaciones Multiagentes
han aumentado de manera considerable. Los modelos teóricos en este
campo de trabajo se toman normalmente prestados tanto de las cien-
cias sociales como de las ciencias de la vida: mientras que los modelos
computacionales encuentran su apoyo no sólo en la matemática sino
también en las ciencias físicas. Muchos de estas investigaciones tratan
de mostrar cómo pueden ser representados y procesados los distintos
tipos de organizaciones, sean estas últimas estáticas o dinámicas, pro-
gramadas o emergentes.
19
y también nuestras casas. Nadie duda de sus múltiples ventajas, que
son muchas, pero pocas veces se analizan sus consecuencias negativas.
Quizás exista un servilismo excesivo hacia las nuevas tecnologías, una
especie de «esnobismo tecnológico» por ponernos al día, aunque, en
muchos casos, no sepamos, y ni tan siquiera nos planteemos, el porqué
o el para qué de tales cambios. El cambio por el cambio seguramente no
nos lleva sino al mayor de los absurdos. No parece aceptable desde un
punto de vista ético que las necesidades propias del mercado informáti-
ca o telemático primen, más que nunca, por encima de las necesidades
reales, sean éstas domésticas o profesionales. Que una buena parte de
las investigaciones punteras en este ámbito se estén desarrollando en las
propias multinacionales, y no en las universidades, es cuando menos un
síntoma preocupante que obliga a la reflexión.
Referencias Bibliográficas
20
JOHNSON-LAIRD, P. N(l989): «Mental Models», en Michael 1. Posner (ed.),
Foundations of Cognitive Science (1989), pp. 469-500. Cambridge, Mass.:
The MIT Press.
JOHNSON-LAIRD, P. N. & R. Byrne (2002): -Conditionals: a theory ofmeaníng.
pragmatics. and inference-. Psvchologica! Review. {09, 646-678.
:tV1ARTÍNEZ MANRIQUE, F. (1998): Del conexionismo a la hibridación en ciencia
cognitiva: fundamentos conceptuales. Tesis doctoral. Universidad del País
VascolEuskal Heniko Unibensitatea.
MONTAGUE. R. (1974): Formal Philosophy. Selected Papen qf Richard Mon~
tague. edited and with an introduction h.y Richard Thomason. New Haven:
Yale University Press.
MCCULLOCH. W. S. & W. H. PITIS (]965): «A Logical Calculus of the Ideas
Irnmanent in Nervous Activity». en \v. S. McCulloch (cd.), Embodiments o]
/t.1ind, Cambridge. Mass.: The MIT Press.
NEWELL A., Paul S. ROSENBLOOM, y John E. LAIRD (1989): «Syrnbolic Ar-
quitecturcs for Cognition», en Michael r. Posner (ed.). Foundations
of Cognitive Science (l989). pp. 93-132. Cambridge. Mass.: The MfT
Prc~~.
?YLYSHYN, Z. W. (1989): «Computation in Cognitive Science», en Michael I.
Posner (ed.), Foundations ofCognitive Science (1989). pp. 49-92. Cambrid-
ge. Mass.: The MIT Press,
RUMELHART D. (1989): «The Architecture of the Mental: a Conexionist
Approach- en Michael 1. Posner (ed.), Foundations of Cognitive Science
(1989). pp. 133-160. Cambridge, Mass.: The MIT Press.
SEARLE. J. (1980): «Minds, Brains and Programs». The Behavioral and Brain
Sciences 3 (1980),417-424.
SIMON, H. el al. (1989): Foundations of Cognitive Science. en Michael 1. Posner
(~d.)( 1989): Cambridge, Mass.: Thc MIT Press,
- SLOMAN, A., «Motives, Mechanisrns and Emotions», Cognition and Emotion 1
U 987). 217-33.
TUR1NG, A. (1950): -Cornputing Machinery and Intelligence», Mind. vol. 59
(1950), n. 23ó.
21
Quiero agradecer, por un lado, a los editores de las revistas y a los
autores de los trabajos originales por habemos permitido traducirlos al
castellano. Por otro, al grupo de profesores e investigadores del ILCLI
(Instituto de Lógica. Cognición, Lenguaje e Información de la Univer-
sidad del País Vasco/Euskal Herriko Unibertsitatea), por su esfuerzo y
buena predisposición en las tareas de traducción, lo que ha permitido
que este modesto proyecto llegara finalmente a buen puerto.
22
LA COlVlPUTACIÓN EN CIENCIA COGNITIVA
Zenon W. Pylyshyn
Nadie duda de que los ordenadores han tenido una profunda influen-
cia en el estudio de la cognición humana. La misma existencia de una
disciplina llamada ciencia cognitiva es deudora de esta influencia. Una
de las principales características que distingue a la ciencia cognitiva de
los estudios más tradicionales sobre la cognición es el alcance de la
influencia tanto de las ideas como de [as técnicas de la computación.
Puede suponer una sorpresa para el profano. por tanto, descubrir que
no hay unanimidad dentro de la ciencia cognitiva ni en cuanto a la na-
turaleza (yen algunos casos deseabilidad) de la influencia, ni en lo que
sea la computación, ni siquiera en su carácter esencial. en relación a la
ciencia cogn iti va.
23
En la última sección de este capítulo, examinaremos las metodolo-
gías asequibles para validar los modelos computacionales como mode-
los fuertes de procesos cognitivos. Aunque muchas de estas técnicas se
discuten también en otros capítulos de este libro (por ejemplo, capítu-
los J y 7), mi discusión tiene la intención de mostrar cómo .se relacio-
nan algunos de estos métodos con la noción de equivalencia fuerte de
procesos.
Hagamos notar que la opinión de que la computación es relevante
para la comprensión de la cognición. o el comportamiento inteligente en
general, e~ tan antigua como la propia idea de computación. El artículo
original de Turing (1937) sobre computabilidad contiene una sección en
la que Turing intenta proporcionar alguna motivación intuitiva para su
noción de «procedimiento efectivo» observando lo que hace un mate-
mático en el curso de la resolución de un problema y destilando este pro-
ceso a sus esencias. Más tarde Turing (l 950) arguyó que un ordenador
debidamente programado podría en principio exhibir comportamiento
inteligente. El argumento descansa en el propio descubrimiento de Tu-
ring de la existencia de una máquina Turing universal. un autómata abs-
tracto que puede imitar cualquier otro ordenador especificable formal-
mente. La pertinencia de la máquina universal para la ciencia cognitiva
se plantea brevemente más tarde.
Los ordenadores son relevantes para la cognición de muchas mane-
ras. Newell (1970; ver también Newell 1973a) ha discutido un abanico
de teorías sobre la posible relación entre la computación y la cognición.
Estas varían desde la opinión de que los ordenadores proporcionan una
nueva metáfora interesante, hasta la opinión -que yo defiendo-e de
que la cognición es literalmente una especie de la computación. efectua-
da en un tipo particular de mecanismo biológico. En lo que sigue, hago
un boceto de dos de las formas principales en que la computación e~
pertinente para el estudio de la cognición. Después elaboro y defiendo
ambas proposiciones generales y argumento que han sido decisivas en el
desarrollo de la ciencia cognitiva, incluso aunque haya habido muchas
discusiones acerca de los detalles -e incluso los supuestos fundamen-
tales - tras ellas.
Al nivel más abstracto la clase de mecanismos llamados ordenado-
res son los únicos mecanismos conocidos que tienen un comportamien-
to 10 suficientemente plástico como para ajustarse a la plasticidad de
la cognición humana. Son también los únicos mecanismos capaces de
producir un comportamiento que puede ser descrito como dependiente
24
del conocimiento. A causa de tales propiedades la computación se man-
tiene como candidato principal para cumplir con la doble necesidad de
explicar la cognición en términos mecanfsticos y otros aspectos, por lo
demás, problernáticox de la cognición -en particular el hecho de que
puede influirse sistemáticamente sobre el comportamiento induciendo
diferencias en las creencias o 105 fines.
A un nivel más concreto los ordenadores proporcionan un modo de
manejar una serie de problemas que atestan el esfuerzo por entender la
cognición. Entre ellos está la complejidad de los procesos que subya-
cen a la cognición y la necesidad de una teoría que haga de puente a
través del salto desde el procesamiento interno a los ejemplos reales de
comportamiento. Se dice en ocasiones que una teoría así responde a la
condición suficiente. Esta condición impone un requisito particularmen-
te restrictivo sobre la medida de adecuación de una teoría. Fuerza asi-
mismo al teórico a afrontar directamente ciertas cuestiones que de otro
modo podrían darse por sentadas o presupuestas. Entre ellas sobresale la
distinción arquitectura-proceso (y la naturaleza de la arquitectura cog-
nitiva) y la cuestión íntimamente relacionada de la estructura de control
subyacente al procesamiento cognitivo.
1. ¿Qué es computar?
25
almacenamiento, recuperación, y alteración de instancias de códigos
simbólicos.
Esta noción de mecanismo apareció en conjunción con intentos
de desarrollar unos fundamentos para las matemáticas completamente
formales, libres de contenido. El programa de Hilbert fue uno de los
intentos más ambiciosos de construir las matemáticas por medios pu-
ramente formales; sin importar cuestiones sobre de acerca de qué fuera
el formalismo. Parte de esta empresa encontró fruto en el trabajo de
Frege y Russell y Whitehead, Por otro lado uno de los mayores logros
intelectuales de nuestra era fue la demostración por medios puramente
formales de que el fin de la formalización completa era por principio
imposible (esto fue realizado originariamente por Gódel y subsecuente-
mente por Turing, Church, Post y otros; véase la colección de artículos
en Davis 1965).
El mismo trabajo que proporcionó demostraciones de las particula-
res limitaciones por-principio de la formalización proporcionó asimis-
mo demostraciones de su universalidad. Así, Ajan Turing, Emil Post,
y Alonzo Church. de manera independiente, desarrollaron distintos
formalismos que mostraron eran completos en el sentido de que eran
suficientemente potentes para generar formalmente (esto es; «rnecáni-
camente») todas las secuencias de expresiones que podrían interpretarse
como pruebas y por esto podían generar todos los teoremas demostra-
bles de la lógica. En el caso de Turing, esto tomó la forma de mostrar
que existe un mecanismo universal. una máquina de Turing particular
llamada máquina universal (MU), que podía simular cualquier mecanis-
mo describible en su formalismo. Hace esto aceptando una descripción
del mecanismo a simular, y entonces lleva a término un procedimiento
cuyo comportamiento inputloutput es idéntico al que habría sido gene-
rado por la máquina de la que se había proporcionado la descripción.
Decirnos que la MU computa la misma funcián que la máquina en cues-
tión, donde «la misma función» significa los mismos pares inputloutput
o la misma extensión de la función. No existe requerimiento alguno para
que la Ml,l lleve a cabo los mismos pasos que la máquina objetivo. Eso
sería un sentido más fuerte de equivalencia.
Lo que es interesante sobre el último trabajo. desde nuestro punto
de vista, es que para derivar estos resultados (sobre la universalidad e
incompletud de ciertos sistemas formales). era necesario entender las
nociones de prueba y deducción en un sistema formal en términos de
manipulación de instanciaciones de símbolos o marcas en un trozo de
26
papel. donde la manipulación se especificaba «mecánicamente» de una
forma totalmente independiente de cómo fueran interpretados los sím-
bolos. La lógica se convirtió en un juego jugado con particulares de
símbolos sin significado de acuerdo a ciertas regla~ formales (esto es,
reglas sintácticas).
Fue el desarrollo de la noción de la universalidad de los mecanismos
formales, presentada por primera vez en el trabajo sobre fundamentos
de las matemáticas en los años 30, lo que proporcíonó el ímpetu ini-
cial para ver la mente como un sistema de procesamiento de símbolos.
La universalidad implica que un mecanismo formal de procesamiento
de símbolos puede producir cualquier función inputloutput arbitraria
que podamos especificar con el detalle suficiente. En términos más fa-
miliares, una máquina universal puede ser programada para computar
cualquier función formalmente especificada. Esta plasticidad extrema
de comportamiento es una de las razones por las que se ha visto a los
ordenadores como artefactos que podrían ser capaces de desplegar in-
teligencia. Mucha gente que no estaba familiarizada con esta idea ha
malinterpretado la capacidad de las máquinas. Por ejemplo, el psicólogo
de la Gestalt Wolfgang Kohler (1947) percibió a las máquinas como
demasiado rígidas para servir de modelo de la actividad mental. Esta
última, dijo, está gobernada por lo que llamó factores dinámicos -de
los cuales un ejemplo son los efectos de autodistribución de campo,
como los efectos que causan que se redistribuyan los campos magnéti-
cos cuando introducimos nuevos trozos de metal- en oposición a los
factores topográficos, quc son estructuralmente rígidos. Escribió (Koher
]947, p. 65):
27
un comportamiento inteligente. Por ejemplo, dedicó un artículo filosófi-
co temprano e importante (Turing 1950) a exponer esta idea. Turing ar-
gumentó que en principio se podría hacer que un ordenador desplegara
actividad inteligente hasta un grado arbitrario. Afirmó que una máquina
debería ser calificada de inteligente si pudiera desarrollar con éxito el
«juego de la imitación» -esto es, engañar a un observador humano, con
el que podría comunicarse sólo a través de un teclado y una terminal, de
tal modo que el observador no pudiera discriminar entre él y otra perso-
na. La posibilidad de que un ordenador sea capaz de pasar con éxito lo
que se ha venido a conocer como test de Turing se basa por completo en
el reconocimiento de la plasticidad de comportamiento implicada en los
sistemas simbólicos, que pueden ser programados para comportarse de
acuerdo a una función finitamente especificable.
Los artefactos que Ilamamos ordenadores toman formas muy di-
ferentes -la mayor parte de las cuales tienen una apariencia bastante
distinta a la que Turing desarrolló en su análisis matemático. Es por lo
tanto apropiado preguntarse qué es lo que hace de un sistema un orde-
nador. Esta es una cuestión particularmente relevante desde el momento
en que una hipótesis de trabajo de gran parte de la ciencia cognitiva es
la de que la mente es literalmente un tipo de ordenador. Uno podría co-
menzar preguntando: ¿en virtud de qué propiedad consigue la máquina
de Turing la universalidad o programabilidad que la recomienda como
modelo de inteligencia?
Newell (1980) proporciona una opinión interesante sobre una de las
características que son esenciales para que un artefacto sea universal o
programable. Para que un mecanismo sea universal, sus inputs deben
ser divididos en dos componentes distintos, a uno de los cuales se le
asigna una interpretación privilegiada como instrucciones o como una
especificación de alguna función inputloutput particular, mientras que el
otro es tratado como input de esa función. Esta división es esencial para
definir una máquina de Turing universal. De esta forma, sólo puede ha-
ber una plasticidad de comportamiento arbitraria si algunos de los inputs
y outputs del sistema son interpretados (o, como lo expresa Newell, si
tienen la capacidad de «designar» algo extrínseco).
La designación es de hecho una de las ideas centrales de la computa-
ción. En los ordenadores los símbolos deben designar de varias formas:
proporcionan acceso a otros símbolos, pueden causar que un intérprete
realice la acción designada por ese símbolo, o pueden designar otras
cosas extrínsecas. Por ejemplo, pueden designar los objetos abstractos
28
llamados números, o pueden designar objetos de razonamiento (por
ejemplo. objetos en el mundo o en la imaginación, proposiciones, predi-
cados, etc.), o pueden incluso designar fines. De hecho, dado que lo que
los símbolos designan no necesita existir (por ejemplo. unicornios o el
caldero de oro al final del arco iris) la propia noción de desígnación, con
el sentido de «referir a», es problemática en tanto en cuanto la gente sue-
le entender que «referir» sólo se aplica cuando existe un objeto al que se
refiera. Por ello normalmente hablamos de la relación entre los símbolos
y lo que simbolizan como semántica, o hablamos del significado de un
símbolo. En cualquier caso, semántica y significado son términos rele-
vantes usados para describir propiedades de los estados de los ordena-
dores (y personas) pero no de otros muchos sistemas complejos que no
funcionan como ordenadores (por ejemplo, la galaxia Andrómeda).
Los sistemas a los que se les ha llamado clásicamente ordenadores
(por ejemplo. la máquina de Turing) comparten una serie de propiedades.
La idea de que algunas de estas propiedades son propiedades constituti-
vas de la computación (y consecuentemente, son también constitutivas
de la cognición, en tanto la cognición es una especie de la computación)
es llamada la visión clásica (por Fodor y Pylyshyn 1988). En la siguien-
te sección tomo en consideración algunas de estas propiedades, admi-
tiendo que este punto de vista no se mantiene de forma unánime entre
los científicos cognitivos (véase. por ejemplo, el capítulo 4).
29
semántica, esto es, son códigos de algo. o significan algo. Por lo tanto,
las transformaciones de las expresiones están diseñadas para mantener
coherentemente este significado o asegurar que las expresiones conti-
núen teniendo sentido cuando sean interpretadas semánticamente de un
modo coherente.
Por ejemplo, si las expresiones son numerales como 19. 1011, XIX.
o expresiones en otras notaciones numerales, sirven normalmente como
códigos para números. En tal caso cuando el ordenador transforma estas
expresiones, pueden referir a distintos números. Si se consigue que el
ordenador las transforme- sistemáticamente de la forma apropiada, las
transformaciones pueden corresponder a operaciones matemáticas úti-
les como la adición y la multiplicación. Consideremos un ábaco. Los
patrones de cuentas representan números. La gente aprende reglas para
transformar estos patrones de cuentas de modo tal que la interpretación
semántica de los pares antecedente - y -- consecuente corresponde a
una función matemática útil. Pero no hay nada intrínsecamente mate-
mático en las propias reglas: son tan sólo reglas para mover las cuentas.
Lo que convierte a las reglas en útiles es que tenemos la seguridad de
que existe una cierta correspondencia continuada entre los patrones for-
males o sintácticos de las cuentas y objetos matemáticos (tales como
números). La manera en que puede asegurarse la correspondencia se
ilustra mediante un ejemplo en la siguiente sección.
En computación científica, así como en la historia de las aplicacio-
nes de los ordenadores hasta los setenta. el dominio de representación
encontrado con mayor frecuencia era sin duda el de los números, y con-
secuentemente las transformaciones sobre expresiones más comunes
eran aquellas que reflejan funciones matemáticas sobre números. Pero
si las expresiones simbólicas codificaran proposiciones o creencias o
conocimiento, tal y como podría ocurrir si fueran expresiones en alguna
lógica simbólica. entonces el ordenador podría transformarlas en for-
mas correspondientes a pruebas o inferencias, o quizás una secuencia
de «pensamientos» que tienen lugar durante el razonamiento ordinario.
Lo importante es que, de acuerdo a la visión clásica, ciertos tipos de
sistema, incluidos tanto mentes como ordenadores, operan sobre repre-
sentaciones que toman la forma de códigos simbólicos.
Hay una propiedad aún más importante que tales códigos simbólicos
deben tener. según la visión clásica. En los sistemas simbólicos clásicos
el significado de una expresión compleja depende de forma sistemática
de los significados de sus partes (o constituyentes). Este es el modo en
30
que funciona el lenguaje ordinario, la lógica formal, e incluso el sistema
numeral, y hay buenas razones para creer que deben funcionar de esa
forma tanto en la computación práctica como en la modelización de la
cognición. En el caso de la cognición estas razones tienen que ver con
la productividad y la sistematicidad del pensamiento y el razonamiento.
dos cuestiones discutidas ampliamente en Fodor y Pylyshyn (1988).
Así pues, en resumen la visión clásica asume que tanto los ordena-
dores como las mentes tienen por lo menos los siguientes tres niveles
de organización:
l. Nivel semántico (o de conocimiento). En este nivel explicamos
por qué la gente, o los ordenadores programados adecuadamen-
te. hacen ciertas cosas diciendo lo que saben y cuáles son sus
objetivos, y mostrando que están conectadas en ciertas formas
significativas e incluso racionales.
2. Nivel de símbolo. Se asume que el contenido semántico del co-
nocimiento y los objetivos vienen codificados por expresiones
simbólicas. Estas expresiones estructuradas tienen partes. cada
una de las cuales también codifica cierto contenido semántico.
Los códigos y su estructura, al igual que las regularidades a tra-
vés de las cuales son manipulados, son otro nivel de organiza-
ción del sistema.
3. Nivel físico (o biológico). Para que todo el sistema funcione tiene
que ser realizado en alguna estructura física. La estructura y los
principios a través de los cuales el objeto físico funciona corres-
ponden al nivel físico o biológico.
Esta organización a tres niveles define lo que denomino arquitectu-
ra clásica o cognitiva.
Para ilustrar la afirmación de que son distintos los principios que se
aplican en cada uno de estos niveles. consideremos el siguiente ejem-
plo. Supongamos que tienes una calculadora con un botón para las raí-
ces cuadradas. Sí quieres explicar por qué da respuestas extrañas o no
funciona cuando las pilas están descargadas o cuando cortas uno de los
cables de dentro o cuando la temperatura es baja. tienes que hacer re-
ferencia a las propiedades físicas de la calculadora. al nivel físico. Si
quieres explicar por qué tienen lugar ciertos errores de cálculo en los
dígitos de orden menor de la respuesta. o por qué tarda más en computar
la respuesta de algunos problemas más que la de otros, tienes que hacer
referencia a la forma en que los números están codificados simbólica-
31
mente y a qué secuencia particular de transformaciones siguen estas ex-
presiones simbólicas (esto es, al algoritmo empleado). Se trata de una
explicación al nivel simbólico. Pero si entonces quieres mostrar que el
algoritmo siempre va a dar la respuesta correcta, tienes que hacer refe-
rencia a hechos y teoremas de teoría de números, esto es. a la semántica
de los símbolos.
Uno podría preguntarse cómo es posible que mantengan las ex-
presiones simbólicas y las reglas su interpretación semántica, que se
mantenga la coherencia de la semántica de las expresiones. Uno de los
descubrimientos más importantes de la lógica formal es el de que uno
puede especificar reglas que operen sobre expresiones simbólicas de tal
forma que la secuencia de expresiones corresponda siempre a una de-
mostración. En computación (yen ciencia cognitiva en general) uno no
está únicamente interesado en las secuencias lógicas. o preservadoras
de la verdad. sino también en aquellas secuencias que preservan propie-
dades semánticas como las desplegadas en el razonamiento heurístico o
dirigido a fines.
El siguiente ejemplo numérico muestra cómo uno puede definir una
operación sobre expresiones simbólicas y una función semántica (que
llamaré 5F) de símbolos a números de forma que la operación pueda
ser interpretada consistenternente como adición. A fin de realzar la ge-
neralidad del siguiente ejemplo (para que, llegado el caso, se pudiera
aplicar a algún sistema distinto que un ordenador clásico). lo presento
en su forma más abstracta. Supongamos que tenemos una determinada
función de instanciación IF de clases de equivalencia de estados físicos
de un sistema determinado (tal vez únicamente las partes del sistema
llamadas registros de memoria) a expresiones simbólicas. Para ser más
precisos, digamos que las expresiones consisten en símbolos atómicos
o y x colocados en cadenas de una longitud arbitraria. En este ejemplo
entonces los estados de los registros de memoria corresponderían a ex-
presiones tales como o, x, ox, xx , oox. oxo, OXX, XOX, xxo. xxx. xooo,
etc. Cada una de estas expresiones corresponde a algún estado posible
de cada uno de los registradores de memoria de la máquina.
Supongamos además que cuando algún patrón (a] que llamo #) ocu-
rre en una parte de la máquina Hamada su registro de instrucciones, los
registradores de memoria de la máquina cambian sus estados de acuerdo
a una cierta regularidad especificable. Por ejemplo. cuando la porción de
la máquina que llamamos registrador l se encuentra en el estado que se
corresponde a la cadena xox, y el registrador 2 está en el estado que se
32
corresponde a la cadena xxo, entonces el registrador 3 cambia su estado.
de cualquiera que se encuentre. al estado que corresponde a la cadena
xoxx.
Este tipo de regularidad podría ra/( mah I~ mente usarse para repre-
sentar la adición de números, toda ver que adoptemos una función se-
mántica SF apropiada y que la regularidad cumpla ciertos requisitos. En
este caso la función semántica requerida es fácil de definir -resulta ser
la función que asigna cadenas de os y xs a números. empleando el habi-
tual sistema numeral binario. Al definir la SF formalmente, además. pro-
porcionarnos una manera de enunciar los requisitos que debe cumplir la
regularidad ~i es que va a ser interpretable como adición de números.
33
Esto constituye un ejemplo de una función semántica, definida rc~
cursivarncntc sobre la estructura de las cadenas de símbolos. Es análoga
al método de Tarski para definir la semántica de oraciones de un cálculo
formal en términos de sus propiedades combinatorias. Esta función de
asignación es no trivial. De hecho. define la interpretación semántica de
una notación numeral posicion-vulor.
Para que esta función semántica sea útil, sin embargo, deben existir
regularidades en los cambios de estado del ordenador que correspon-
dan a las operaciones matemáticas definidas sobre las interpretaciones
de los símbolos en el dominio deseado. En otras palabras, deben exis-
tir transiciones de estado que preserven la interpretación SF deseada.
Se ha propuesto ya una regularidad de este tipo, que fue asociada con
la presencia de # en el registro instrucciones. Para que # corresponda
a la adición (o alternativamente para que sea consistentemente inter-
pretable como adición). las transiciones de estado deben preservar la
interpretación semántica de las cadenas de símbolos bajo la operación
matemática definida de la adición (definida, por ejemplo, en términos
de los axiomas de Peano). En otras palabras. algo como lo siguiente
debe ser cierto:
Si el ordenador está en el estado caracterizado por la descripción
34
el caso de la cognición, incluso aunque nuestra experiencia subjetiva
sugiera que lo que ocurre en la mente rueda ser diferente. Los hechos
ernpirico-, y el requisito de adecuación explicativa, sin embargo, exigen
lo:'. tr~s distintos nivele, (físico, simbólico y semántico) en el caso de la
cognición humana, exactamente de la misma forma en que los necesi-
tamos en el caso del ordenador. Aunque los argumentos sobrepasan el
marco de este capítulo (véase Pylyshyn 1984), parece que para explicar
el comportamiento humano inteligente. necesitamos hacer referencia a
los tres niveles de organización.
l. Necesitamos el nivel de conocimiento para explicar por qué al-
gunos objetivos y creencias tienden a llevar a ciertos comportamientos.
y por qué los comportamientos pueden cambiarse de formas racionales
cuando. diciendo cosas, se incorporan nuevas creencias. Por ejemplo,
para explicar por qué estoy sentado aquí en esk momento apretando es-
ta~ teclas del teclado en concreto. uno debe hacer mención a mis creen-
cia~ sobre la ciencia cognitiva, mis creencias sobre lo que terminará
siendo este manuscrito. y mis objetivos generales de proporcionar in-
formación Veraz a aquellos que puedan leer el libro en el que aparecerá
este capítulo. Sin este nivel no podríamos capturar regularidades tales
como, por ejemplo, el hecho de que si tuviera la creencia de que se
ha cancelado la publicación del libro, desplegaría un comportamiento
bastante diferente al margen de 10.\ «estímulos» concretos que pudieran
haberme llevado a esu¡ ipresutniblemente falsa¡ creencia. Este tipo de
maleabilidad del comportamiento caracterizablc semánticamente se de-
nomina penetrabilidad cognitiva y se ha empleado para diagnosticar el
comportamiento que requiere explicación al nivel de conocimiento (más
sobre esto en la sección 2.3, y en Pylyshyn 1984 l.
2. Necesitamos el nivel de símbolo para explicar cosas tales como
por qué algunas tareas llevan más tiempo o generan más errores que
otras. La psicología del procesamiento de la información está llena de
casos en los que se descubre que la forma de la representación produce
una diferencia en su comportamiento en los experimentos. Por ejemplo,
('11 los experimentos de solución de problemas existe una diferencia en-
tre codificar el hecho de que todos los objetos en una caja son rojos yel
hecho equivalente de que ningún objeto es azul.
3. Obviamente, necesitamos el nivel biológico para explicar cosas
como los efectos de las drogas o el «jet lag» o los daños cerebrales en el
comportamiento. Es igualmente posible que podamos necesitar el nivel
biológico para explicar otras cosas también. como posiblemente la na-
35
turalcza del desarrollo cognitivo o la maduración o las psicopatologias.
y quizás algunos cambios que hoy en día se llaman aprendizaje; qué
hechos exactamente caen bajo cada uno de los tres niveles es en buena
medida una cuestión empírica abierta.
36
que son las propiedades físicas de los códigos lo que causa los compor-
tamientos en cuestión.
Lo que Fodor y Pylyshyn (198B) han añadido a este enunciado
general es el argumento de que el sistema de códigos ha de estar es-
tructurado de forma muy semejante a un lenguaje (como de hecho
ocurre en los varios cálculos lógicos que se han desarrollado). El ar-
gumento surge en parte de observar que tanto la capacidad represen-
racional como la capacidad inferencia! en los sistemas inteligentes es
sistemática. Las capacidades repre sentacionales o infcrenciales no son
puntuales - no tienen lugar aisladamente: la capacidad de representar
ciertas cosas o de llevar a cabo ciertas inferencias va de la mano de la
capacidad de representar otras cosas o de llevar a cabo otras inferen-
cias. Por ejemplo, un sistema inteligente que e . . capaz de representar
ciertas situaciones (por ejemplo, que John ama a Mary, o que una pe-
lota roja pequeña está en una caja azul grande) debe ser también capaz
-se ejercite o no esta capacidad- de representar otras situaciones
que impliquen los mismos componentes conceptuales (por ejemplo,
que Mary ame i.l John o que una pelota azul grande esté en una caja
roja pequeña). De forma similar cualquier sistema inteligente que pue-
de tlevar a cabo ciertas inferencias (por ejemplo, que pueda inferir de
saber que hace sol y calor y humedad que hace sol; esto es, inferir P de
P y Q y R) pueda también llevar a cabo otras inferencias relacionadas
(por ejemplo, pueda inferir de saber que hace sol y calor que hace sol;
esto es, inferir P de P y Q).
Este tipo de sistematicidad se: sigue automáticamente del uso de ex-
presiones simbólicas estructuradas para representar el conocimiento y
servir de base para la inferencia. En otras palabras es un efecto colateral
de una arquitectura clásica. En contraste es una propiedad que debe ser
esti pulada por el teórico (esto es, es un parámetro empírico libre) en
otras arquitecturas no simbólicas.
Debe hacerse hincapié que en el momento presente no existe alter-
nativa a lo que Newell (1980) ha llamado el supuesto del sistemafisico
simbólico para tratar el razonamiento de un modo mecánico, aunque
haya muchas discusiones especulativas sobre cómo se podría llegar a
prescindir de los símbolos. Por lo tanto. incluso si uno no acepta los dis-
tintos argumentos que se han dado en favor de la necesidad de estructu-
ras simbólicas, la estrategia racional es continuar con el supuesto clásico
hasta que haya una alternativa mejor. Al menos, ésa es la extrategia que
se adopta en cualquier otra ciencia madura.
37
2. Metodologías computacionales en ciencia cognitiva: la vía alta y
la vía baja
39
Nótese que tal resultado matemático no se basa en un estudio deta-
llado del proceso de la percepción humana, sino sólo en el hecho de que
tiene una cierta capacidad. a saber, la capacidad de percibir una estruc-
tura )-D única a partir del movimiento de ciertos puntos (esto es, en la
existencia del efecto de profundidad cinética). El resultado matemático
nos dice las condiciones bajo las que tal logro es posible. Así. nos dice
algo acerca de los requisitos internos de esa tarea: requisitos que de
alguna forma debe cumplir el sistema visual. En el caso de Ullman la
función fue también descrita de un modo constructivo -esto es, de un
modo que le permitía ser computada a partir del tipo de información
asequible a un ordenador equipado con transductores apropiados. Esta
última propiedad es también una parte importante del programa compu-
tacionalista. Desde luego. la forma en la que el sistema visual humano
compute esa función es una cuestión cuya respuesta depende de consi-
deraciones empíricas ulteriores. Nótese, en cualquier caso, que simple-
mente conocer algunas de las propiedades de la función que computa
el sistema visual le permite a uno comprender por qué la percepción es
generalmente verídica aunque. contrariamente a Gibson, sepamos que
el paso de la activación de sensores a la percepción implica un proceso
falible (un proceso parecido a la inferencia que, sin embargo, e~ insen-
sible al conocimiento general del mundo). La razón por la que es gene-
ralmente verídico es que las condiciones bajo las que esta asignación
Inversa cuasi-inferencial es válida, son unas que de hecho se cumplen
frecuentemente en nuestro tipo de mundo -esto es. el supuesto de rigi-
dez es generalmente verdadero. al menos en una primera aproximación,
en nuestro mundo (aunque pueda no ser generalmente verdadero en,
digamos, un mundo habitado por peces).
Por lo que Marr abogaba es un caso especial de estrategia de inves-
tigación de arriba a abajo, en la que uno procede intentando descubrir
las líneas maestras más generales del dominio de un problema ames de
resolver alguno de los sub-problemas detallado". Este tipo de abordaje
se practica sistemáticamente en ciencias de la computación.donde -al-
guna vez bajo el nombre «programación estructurada» - se la considera
la estrategia de elección en el diseño de sistemas computacionales. Con-
secuentemente, es la estrategia que caracteriza los abordajes de la inteli-
gencia artificial para entender la cognición. Marr fue incluso más allá al
defender que uno no debería preocuparse por desarrollar un sistema que
desplegara la actuación en cuestión hasta que al menos hubiera intentado
desarrollar una teoría de la tarea (una teona tipo 1), y consecuentemente
que uno debería trabajar primeramente en dominios (como quizás la vi-
40
sión) que permitieran una teoría tipo L en lugar de en dominios como el
razonamiento ordinario donde puede que no haya una teoría tal. Arguyó
y'ue si uno comienza hipotetizando un algoritmo en particular empleado
por un organismo sin entender primero exactamente qué es lo que se
supone que está computando el algoritmo. uno corre el peligro de imitar
sin más fragmentos de comportamiento sin entender sus principios o
los objetivos que está satisfaciendo el comportamiento. Esto es similar
a la recomendación de Chomsky y otros de no hipotetizar mecanismos
de aprendizaje para la adquisición de ciertas habilidades hasta que lino
tenga una teoría sobre el estado estable de la propia habilidad.
Aunque poca gente en ciencia cognitiva toma una postura tan extre-
ma como la de Marr, continúa habiendo diferencias en estilo de enfoque
en la investigación en ciencia cognitiva. Hay diferencias entre gente
que se ocupa de la generalidad y con la búsqueda de principios genera-
les, en contraste con los que desean explicar la variación experimental.
Hay también diferencias entre enfoques que dan la mayor prioridad al
criterio de suficiencia. y por ello construyen programas de trabajo que
cubren algún dominio de habilidades, en contraste con aquéllos que se
ocupan de decidir entre un" o dos opciones gcn~rales (por ejemplo, de-
cidir si un cierto fenómeno, digamos. el reconocer que un estímulo es
miembro de un conjunto previamente memorizado, es el resultado de
una búsqueda paralela, una búsqueda serial auto-terminada. o una bús-
queda exhaustiva serial).
Hasta un cierto punto cuál de estas estrategias se siga depende del
área de investigación o los fenómenos empíricos concretos que se inves-
tiguen. As], el estudio de la visión temprana se persigue frecuentemente
intentando Implementar algoritmos y explorar su:' implicaciones. Los
problemas asociados a la comprensión del lenguaje y procesamiento del
discurso ~e llevan a cabo a menudo también dentro de esa tradición.
Por otro lado. el estudio del aprendizaje, la memoria. y la resolución
de problemas se han abordado con éxito tanto por la vía alta como por
la baja. En tanto el fenómeno empírico de interés pueda ser atribuido
a algún mecanivmo o proceso ai ..lado, cabe establecer empíricamente
la naturaleza del proceso llevando a cabo una serie de experimentos.
Pero en el punto en que el fenómeno surge de la interacción de muchos
procesos, puede que no Se3 posible explicarlo sin un modelo más ge-
neral que incorpora el conjunto completo de los procesos relevantes.
Los peligros de intentar responder cuestiones generales aislando efectos
y atribuyendo fenómenos a caracterísricas particulares del proceso han
sido bien documentadas por Newell (197.3c), quien arguyó (como dice
41
el título de su artículo) que L<No puedes jugar 3 las veinte preguntas con
la naturaleza y g,lIlar,>.
A pesar de estos peligros parece posible estudiar ciertos sub-proce-
sos específicos con detalle en algunos casos sin construir modelos a gran
escala. De hecho el área de la ciencia cognitiva conocida en ocasiones
como p..icología del procesamiento de la información ha estado domi-
nada por la validación empírica de mini-modelos. El análisis en fases de
los procesos cognitivos usando cronometría mental (ver. por ejemplo.
Posncr 1978) e~ un buen ejemplo. La metodología de un análisis de
lo" procesos cognitivos tan minucioso se discute en el capítulo 7. Para
coger un ejemplo concreto. parece ser po.. . ible estudiar aspectos de la
memoria a corto plazo sin desarrollar modelos a gran escala (ver, por
ejemplo. Sperling ] 967). De hecho. como los modelos son de una esca-
la tan pequeña. la teorización en este área típicamente no ha implicado
implementar modelos en la forma de programas de ordenador.
Pero incluso aquí se ha de ser cuidadoso al concluir que no se gana
nada al implementar realmente modelos de pequeña escala. Newell
1] 973b) proporcionó un ejemplo excelente de cómo el intento de diseñar
un modelo en ordenador para explicar algunos fenómenos empíricos de
la memoria a cono plazo puede en sí mismo llevar a nuevas hipótesis
que podrían de otro modo no haber surgido. En ese ejemplo concreto el
intento de implementar un modelo en una arquitectura motivada inde-
pendientemente llevó a una forma concreta de explicar los resultados
de Stemberg (1970) sobre búsquedas en la memoria a corto plazo, la
así llamada hipótesis de descodificación. (¡UC no implica ni búsqueda
exhaustiva ni auto-terminada (las dos opciones que ~e han investigado
en una gran parte de la investigación empírica) y contiene lamo compo-
nentes seriales como paralelos (dos opciones que también se ha asumido
que completan las posibilidades).
42
cognitiva que no estuviera constreñida por la suficiencia computacio-
nal. De hecho. uno de las principales críticas que Se elevaron contra el
trabajo pionero de psicólogos cognitivos como Tolman fue que sus teo-
rías trataban sólo las representaciones del organismo (mapas mentales),
pero que carecían de un modo de explicar cómo estas representaciones
podían conducir a la acción. Por ejemplo. en una crítica temprana a este
enfoque cognitivista Guthrie (1935. p. ] 72) escribía. «En su interés por
lo que ocurre en la mente de la rata, Tolman ha rechazado predecir lo
que..' hará la rata. Por lo que concierne a la teoría, la rata está absorta en
el pensamiento; si consigue la caja de comida al final. es su problema.
no el de la teorfa.»
Se requiere mucho más para comprender las estructuras de con-
trol que saber cómo están secuenciadas las operaciones. Estamos tan
habituado" a pensar acerca de los procedimientos como secuencias de
instrucciones que siguen su curso fijo hasta que alguna operación condi-
cional ramificada detecta una condición especificada, que no nos vienen
fácilmente a la cabeza organizaciones alternativas. Sin embargo, éste es
sólo un tipo posible de organización del control - uno en el que se paso
el control a lo largo de una secuencia linear de operación a operación:
cuando una operación termina. pasa el control a la siguiente operación
en la línea. En ciencias de la computación e inteligencia artificial. sin
embargo, hay un gran interés en esquemas de control muy diferentes
-algunos que pueden cambiar el modo de pensar de los psicólogos
acerca del abanico de posibilidades asequibles para convertir represen-
taciones en acciones.
En lo que sigue. reviso brevemente algunas de las cuestiones que
surgen cuando lino considera el problema de controlar la forma en que
se despliegan los procesos en respuesta a la, representaciones. reglas.
y contingencias del enlomo. Mi propósito no es describir el abanico de
estructuras de control que se estudian en estos momentos en ciencias de
la computación. sino meramente proporcionar un sentimiento intuitivo
de cuáles son algunas de las distinciones en este campo y sugerir que
la ciencia cognitiva tiene mucho que aprender de este úrea de desarro-
llo. Consideraciones como éstas no surgen sin existir un compromiso
con la realización del proceso modelo en un ordenador. 'Y dado que las
cuestiones sobre el control son una de las áreas de estudio centrales de
la... ciencias de la computación, el progreso en el desarrollo de modelos
computacionales de procesos cognitivos a buen seguro dependerá de
ideas técnicas con origen en las ciencias de la computación (y más en
concreto en inteligencia artificial).
43
Uno de los avances en la comprensión de la naturaleza del control
fue la articulación de la idea de retroalimentación del entorno a contro-
lar. Con esto se restablecía un cierto equilibrio entre el artefacto y su en-
torno: Aunque sólo se acredita al artefacto con la posesión de objetivos,
la responsabilidad por el comportamiento es compartida. En ocasiones
cuando el entorno es pasivo, la iniciativa parece provenir primariamente
del artefacto. mientras que otras veces el entorno parece intervenir. y la
iniciativa parece ir en la dirección opuesta. La noción de la responsabili-
dad de la iniciación de diferentes acciones es fundamental para entender
el controL En el caso de la mayoría de los programas de ordenador, la
idea mas común ha sido la del control moviéndose de punto en punto. o
de instrucción en instrucción. de una forma ampliamente predetermina-
da. Tal secuenciación de instrucciones hace la noción de flujo de control
bastante natural. y las instrucciones ramificadas hacen igualmente na-
tural pensar en pasar o mandar el control a otro lugar. Cuando el paso
del control ~e combina con una facilidad primitiva de paso de mensa-
jcs (para pasar argumentos). se hacen posibles las sub-rutinas. Y como
las sub-rutinas pueden ser anidadas -esto es. las propias sub-rutinas
pueden mandar control a otras sub-rutinas aún inferiores con la segu-
ridad de que el control encontrará eventualmente su camino de vuelta
-también hace su aparición la noción de unajerarqufa de control Mi-
llcr, Galantee y Pribram ( 1960) vieron In importancia de la idea de las
sub-rutinas jerárquicas; las llamaron unidades comprobar-operar-com-
probar-salir (test-opcratc-test-exit], o TOTE, y sugirieron que deberían
ser vistas como la unidad teórica básica de la psicología. reemplazando
al omnipresente arco reflejo. Esta idea ha sido muy influyente en la con-
formación del pensamiento de los psicólogos sobre la cognición.
Hay unas cuantas buenas razones por las que un sistema jerárquico
de control es un concepto tan potente. Manteniendo sencillas (en tér-
minos tanto de cuándo se pasa el control y de qué mensajes se envían
junto con él) las interacciones entre rutina y sub-rutina. se hace más
fúcil pensar en cada sub-rutina como un sub-sistema casi independiente;
yeso hace que el sistema completo sea más fácil de añadir. modifi-
car, y comprender (véase la discusión clásica sobre la importancia dc la
organización jerárquica en la naturaleza en Simon 1969). Cada rutina
en la jerarquía puede pensarse como definiendo algún (subjobjetivo en
un sistema total dirigido-u-obietivos. Pasar el control a una sub-rutina
equivale a activar un sub-objetivo, y el control es devuelto cuando ese
sub-objetivo está consumado. Es tan potente esta idea que sus carencia,
han pasado desapercibidas durante muchos años.
En año tan temprano como 1962, sin embargo, Allen Newell
(Newell 1962) resaltó parte de la rigidez de tal organización. En tanto
cada sub-rutina sea un «especialista- estrecho, tal como una rutina
para buscar una lista, la usual comunicación altamente restringida
entre rutina y sub-rutina funciona bien: puedes sin más pasar 10'\ ar-
gumentos y una dirección de retorno a esa sub-rutina y darle control.
Entonces volverá con una respuesta cuando haya acabado. Pero si la
sub-rutina no es un especialista tan estrecho, podría ayudar a poder
comunicar cada tarea en términos más flexibles. Más aún, podría ayu-
dar si la evolución de las sub-rutinas pudiera ser observada sobre la
marcha para evitar que use una cantidad no garantizada de tiempo y
recursos (por ejemplo. memoria) en alguna tarea relati vamente menor
o en una tarea que algún otro proceso pudiera poder determinar que
está abocada al fracaso. Del mismo modo, ayudaría si la sub-rutina
pudiera informar de sus resultados más flexiblemente: especialmente
si pudiera informar acerca de lo que ha ido mal en los casos en los que
ha fallado. Cómo convertir estos desiderata en formas computaciona-
les eficientes ha sido una de las principales preocupaciones de diseño
a la hora de desarrollar lenguajes de prograrnacion en inteligencia
artificial.
Se puede caracterizar una variedad de distintas estructuras de con-
trol en términos de dos distinciones: ( 1) entre enviar control (cuando
la in iciati va res ide en el locus a 11/ig LlO) y capturar contra I (e uando la
iniciativa reside en el locus nuevo). y (2) entre dirigir un mensaje a
un receptor especificado y difundirlo a todas las rutina" o «módulos»
de una vez. Por ejemplo, en el caso estándar de jerarquia-subrutina, el
control siempre es enviado (por la rutina que ya 10 tiene), y se dirige un
mensaje (que contiene parámetros y una dirección de retorno) especí-
ficamente a la rutina a la que se le da control; y cuando el sub-objeti vo
se consigue. el control es enviado de vuelta, junto con un mensaje de
resultado. En la llamada de procedimiento invocada por patrones, tale--
como las empleadas en Planner o Prolog, cuando se necesita realizar
una tarea, se difunde un mensaje describiendo el objetivo. y entonces
el control es capturado por algún módulo diseñado para responder a
ese mensaje de objetivo particular. Esta es también la idea básica de lo
que a veces se llama UIl3 estructura de control de pizarra. de la cual el
viejo sistema Pandemónium (véase, por ejemplo, Lindsay y Norrnan
1977) Y el más novedoso sistema de reconocimiento del habla Hear-
say-II (Erman. Hayes-Roth, Lexser. y Reddy 19XO) son ejemplos.
4.5
Los sistemas de producción son casos especiales de procedimientos
ele llamada de procedimiento invocada por patrones. En los sistemas de
producción los mensajes son también difundidos, y el control es captu-
rado. Pero cuando finaliza la producción, de nuevo simplemente difunde
un mensaje. Su ciclo de control básico se llama ciclo de reconocimiento-
acción. en contraste con el ciclo más convencional de carga-ejecucián
de la computación convencional. El trabajo actual sobre sistemas de
producción .se describe en el capítulo 3.
46
ción de procedimientos hasta que sea asequible el contexto apropiado.
Varias propuestas para tratar problemas lingüfsticos como la opacidad
referencial dependen de esta noción de retener la ejecución a la espera
del contexto apropiado. Por ejemplo. la discusión de la comprensión
del lenguaje de Davies y Isard (1972) pone un énfavis considerable en
la importancia de retener la evaluación de procedimientos que intentan
identificar los referentes de varias partes de un enunciado hasta el mo-
mento apropiado. De esta forma hay un creciente reconocimiento entre
los investigadores interesados en los problemas de la psicología cogniti-
va de que una variedad de cuestiones relacionadas con el control han de
jugar un papel prominente.
Para los psicólogos ha sido fundamentalmente el intento de propor-
cionar un sistema que funcione lo que ha obligado a prestar atención a
estas cuestiones. Sin la necesidad de pensar en términos de un sistema
que funcione, la gente se ha centrado típicamente en lo que a veces se ha
llamado reglas «permisivas-.. -como las reglas de la lógica o de la gra-
mática- que especifican las relaciones entre representaciones que son
permisibles. En ese caso no hay necesidad de ocuparse de las condicio-
nes bajo las cuales se invocan reglas particulares o de las implicaciones
de tales cuestiones del control para la arquitectura cognitiva.
No se niega LJLJe el sistema de reglas permisivas sea importante. Sin
una distinción entre lo LJue Chornsky llama una teoría de la competencia
y una teoría de la actuación, o 10 que McCarthy y Hayes (1969) denomi-
nan los problemas epistemológicos y los heurísticos de la inteligencia.
podemos llegar a encontramos simplemente imitando el comportamien-
to más frecuente en lugar de infiriendo 10-; mecanismos subyacentes. Sin
embargo, de acuerdo a la visión computacional. comprender un proceso
requiere también tener una teoría de qué es lo que hace que el proceso se
despliegue como lo hace en ocasiones concretas, yeso a su vez requiere
que ~e aborden también cuestiones del control y de la arquitectura cog-
nitiva apropiada.
Sin tener en cuenta si uno apuesta por la vía alta o por la vía baja,
en ciencia cognitiva uno está en último término interesado en si el mo-
delo computacional es válido empíricamente -si se corresponde con
los procesos cognitivos humanos. «Corresponderse», sin embargo, no
47
es una noción simple; la correspondencia puede tener lugar en muchos
niveles. Si un proceso computacional va a ser un candidato serio como
modelo explicativo del procesamiento mental, se requiere alguna teoría,
tan explícita como sea posible. de cómo este modelo se relaciona con el
dominio de fenómenos que debe explicar. Es tarea de la teoría que instan-
cia el modelo especificar las afirmaciones empíricas implicadas por éste.
Una teoría tal podría. por ejemplo. afirmar simplemente que el modelo
realiza la misma función itiputioutput que el organismo modelado, que
es quizás una teoría de esa función o una teoría tipo 1 en tenninología
de Marr. Como hemos visto al discutir [a metodología de vía alta en la
sección anterior, incluso en este nivel más general de correspondencia,
la teoría ha de hacer una contribución sustantiva a la comprensión del
proceso proporcionando una teoría de las exigencias de la tarea.
48
codificación de un algoritmo concreto en un lenguaje de programación.
Son posibles niveles de comparación incluso más tinos entre sistemas
computacionales cuando están implementados en ordenadores reales.
Por ejemplo, podríamos tener programas idénticos que fueran imple-
mentados en ordenadores físicamente diferentes, y así sucesivamente.
Así, la variedad de las posibles afirmaciones que una teoría puede hacer
sobre el nivel de correspondencia entre modelo y dominio empírico es
amplia, como la es la de las afirmaciones sobre qué propiedades del
modelo tienen «realidad psicológica». Claramente. si el sistema com-
putacional ha de verse como un modelo del proceso cognitivo. en lugar
de como una simulación del comportamiento cognitivo, debe corres-
ponderse con el proceso mental en mayor detalle de lo que implica la
equivalencia débil. Por otra parte, está igualmente claro que como los
ordenadores no sólo están hechos de distinta materia que lo cerebros.
sino que también los detalles de cómo realizan operaciones concretas
(digamos por ciertas vías de transferencia entre registros y usando me-
canismos binarios y operaciones de desplazamiento de bits) son dife-
rentes del modo de funcionar de los ccrcbrox. La correspondencia entre
modelos computacionales y procesos cognitivos parece quedar en algún
lugar entre estos extremos.
49
terminadas por su estructura (en lugar de por los contenidos instantáneos
de su memoria). propiedades tales como los recursos funcionales que el
cerebro facilita (por ejemplo, qué operaciones son primitivas, cómo SL'
organiza y se accede a la memoria. qué secuencias están permitidas, qué
limitaciones existen en el paso de los argumentos y en las capacidades
de las diversas memorias intermedias, etc.). Especificar la arquitectura
funcional de un sistema es muy parecido a proporcionar un manual que
defina un lenguaje de programación concreto.
50
cional del artefacto. Artefactos con distintas arquitecturas funcionales
no pueden en general ejecutar directamente los mismos algoritmos. Sin
embargo, los típicos ordenadores disponibles comercialmente parecen
tener una arquitectura funcional que difiere significativamente de la de
los cerebros. Por esto, es de esperar que al construir un modelo en orde-
nador de la arquitectura mental. éste habní primero de ser emulado (es
decir, modelizado él mismo) antes de que el algoritmo mental pueda ser
implementado.
Para que un algoritmo sirva de modelo de un proceso cognitivo,
debe presentarse en una forma o notación canónica, por ejemplo, como
un programa en algún lenguaje de programación. Lo que normalmente
se pasa por alto cuando hacemos esto e~ hasta qué punto la clase de
algoritmos que pueden tomarse en consideración viene condicionada
por los supuestos de los qu~ partimos acerca de qué operaciones básicas
son posibles. cómo pueden interaccionar, cómo están secuenciadas las
operaciones. qué estructuras de datos son posibles, etc. Estos supuestos
....011 parte intrínseca de nuestra elección de un formalismo descriptivo
porque el formalismo descriptivo define lo que he venido denominando
la arquitectura funcional del sistema.
Sin embargo, el abanico de lenguajes de programación o arquitec-
turas funcionales disponibles es más bien restringido. La gran mayoría
de las arquitecturas disponibles son las basadas en registro iregister ha-
sed), donde los símbolos son almacenados y recuperados por sus «direc-
cienes. numéricas o simbólicas, el control se transfiere secuencialmente
a través de un programa (a excepción de las instrucciones ramificadas),
y las operaciones sobre los símbolos se realizan recuperándolos de la
memoria, colocándolos en un registro determinado, aplicándoles uno de
los comandos primitivos, y después almacenando el símbolo resultante
de nuevo en la memoria. Aunque existen variantes de este patrón bási-
co, la idea principal de un proceso secuencial procediendo a través de
una serie de operaciones «carga», «ejecución» y «almacenamiento» ha
sido la dominante desde los comienzos de la computación digital l ver
la sección anterior para una discusión de las alternativas consideradas
en la investigación en ciencias de la computación). Esto vale tanto para
hardware como para softvvare (ver una discusión de 10 segundo en Bac-
kus 1978).
51
ser ejecutados por las arquitecturas pertenecientes a esta clase limitada.
Sin embargo, esto es engañoso por cuanto que, como he hecho notar,
diferentes arquitecturas permiten la ejecución de distintos algoritmos.
Esta opinión puede ilustrarse mejor tomando en consideración ejem-
plos de varias arquitecturas simples. Tal vez la arquitectura de maqui-
na más primitiva sea la máquina de Turing binaria original. Aunque esta
máquina es universal. en el sentido de que puede ser programada para
computar cualquier función computable. cualquiera que haya intentado
escribir procedimientos para ella se habrá dado cuenta de que la mayoría
de las computaciones son increíbleme-nte complejas. Más importante. sin
embargo: la complejidad de In secuencia de operaciones que debe atrave-
sar varía con cosas tales como la tarea y la naturaleza del input en modos
que son bastante diferentes de los de máquinas con una arquitectura más
convencional. Por ejemplo, el número de pasos básicos requeridos para
mirar una cadena de símbolos en una máquina de Turing se incrementa en
proporción al cuadrado del mimero de cadenas almacenadas.
En contraste con ~sta arquitectura, en lo que se llama una arquitec-
tura de registro (una arquitectura que tiene lo que normalmente se de-
signa memoria de acceso arbitrario. en la que recuperar un símbolo por
nombre o por «referencia» es una operación primitiva). la complejidad
del tiempo para mirar un símbolo en una tabla puede. en ciertas condi-
ciones. ser independiente del número de cadenas almacenadas. Debido
a esto, una arquitectura registradora puede ejecutar directamente cier-
tos algoritmos (por ejemplo, el algoritmo hash-coding lookup¡ que son
imposibles en una máquina de Turing - 3 pesar del hecho de que la
máquina de Turing es universal y por consiguiente puede computar la
misma funcion que el algoritmo o ser programada para ser «débilmente
equivalente» al algoritmo. En otras palabras puede computar la misma
función lookup, pero no con el mismo pcrtil de complejidad y por ello
no mediante el LISO del mismo algoritmo hash-coding,
Por supuesto. podría hacerse que una máquina de Turing imitara la
secuencia de estados glJC atraviesa la máquina registradora haciéndola
primero computar las funciones realizadas por cada operación indivi-
dual de la máquina registradora o en otras palabras simular cada paso
individual qu~ da la máquina registradora al ejecutar su algoritmo. Pero
en ese caso la máquina de Turing en primer lugar emularla la arquitec-
tura de la máquina registradora y después ejecutaría el algoritmo en la
arquitectura emulada. una cuestión muy diferente a computarla directa-
mente en la máquina de Turing.
52
La distinción entre ejecutar directamente un algoritmo y ejecutarlo
primero emulando alguna otra arquitectura funcional es crucial en cien-
cia cognitiva. Concierne al problema central acerca de qué aspectos de
la computación pueden tomarse literalmente como parte del modelo y
qué aspectos han de considerarse como meros detalles de implementa-
ción (como el color y lo, materiales con los que se construye un modelo
físico de la doble hélice de ADN). Esperamos naturalmente que habrá
formas de implementar operaciones cognitivas primitivas en ordenado-
res. y que los detalles de cómo se haga puedan tener poco contenido
empírico.
53
Considérense casos como el siguiente: Se ha sugerido ocasional-
mente que los sujetos no necesitan poseer conocimiento de propiedades
relacionales como. digamos, la transitividad, al hacer ciertas inferencias,
como en lox problemas de series de tres términos (por ejemplo, «Juan
es más alto que Maria y Juan es más bajo que Pedro. ¿Quién es el más
alto?»). De acuerdo a esta opinión, todo lo que han de hacer Jos -ujetos
es poner en orden las tres unidades (bien en una lista () en una imagen) y
leer de ella la respuesta - simplemente, se dan cuenta de qué objeto es
el primero (o el último) en la lista. Pero por supuesto incluso si un sujeto
puede resolver el problema de esta manera. eso no quiere decir 4ue no
sea necesario el conocimiento t.icito de las propiedades formales (por
ejemplo, transitividad) de la relación «más alto que».
Hay al menos dos razones por las que uno podría tener que pos-
tular el conocimiento de relacione" formales. Primero, la decisión de
representar «más alto» mediante algo como «más adelante en la lista»
debe basarse en el reconocimiento tácito de que la do, relaciones eran
del mismo tipo formal (una lista no sería adecuada para representar por
ejemplo la relación '<está casado con»). Segundo. aunque ordenar tres
nombres en una lista y después examinar la lista en busca de la posición
de un nombre concreto pueda parecer directo y libre de deducción ló-
gica, pensándolo un poco se puede mostrar que la capacidad de llevar
a cabo esta operación mentalmente, en oposición a ffsicamente, presu-
pone muchas cosas sobre las operaciones mentales primitivas disponi-
ble". En particular. apelar a la existencia de una <dista mental» (o una
estructura parecida) implica ciertos supuestos acerca de las propiedades
que tal estructura posee intrínsecamente. Por ejemplo, si el sujeto tiene
una representación mental de las unidades A, B Y C y razones (según la
teoría) para colocar A y B en un orden determinado y entonces añadir e
a la secuencia. el modelo debe asumir que colocar e siguiendo a B deja
la relación entre A y B intacta y la relación de Ay e (con B entremedio)
continúa siendo la misma con respecto a la relación relevante represen-
tada (esto es, la altura) como aquélla entre A y B.
54
la transitividad. como pone de relieve el primer punto. Por tomar otro
ejemplo actual, las estructuras de matrices de datos se han empleado
frecuentemente para representar las propiedades espaciales de las imá-
genes (ver, por ejemplo, Kosslyn y Shwartz, 1977, Funt 1980). Esta
es una manera conveniente de representar la composición espacial. en
parte porque tendemos a pensar en las matrices en términos espaciales
de todos modos. Además. esta estructura parece convertir en asequibles
ciertas consecuencias sin necesidad aparente de ciertos pasos deducti-
vos que impliquen referencia a conocimientos de geometría. Por ejem-
plo, cuando representamos las ubicaciones de lugares imaginados 1•.'11
nuestro modelo llenando celdas de una matriz. podemos «Iccr- hechos
como qué lugares son adyacentes, qué lugares están a la izquierda, a la
derecha, encima, o debajo de un lugar dado. y qué lugares están entre
un par dado de lugares. Más aún. cuando se mueve un objeto particular
a un lugar nuevo. sus relaciones espaciales con otros lugares no tienen
por qué ser re-computados. En un sentido importante esto está implíci-
to en la estructura de datos. Estas propiedades hacen de la matriz una
representación mucho más natural que, digamos. una lista de asertos
especificando la forma de I()~ objetos y "lUS ubicaciones con respecto a
otros objetos.
55
queda» de la representación sea una operación primitiva (no deducti-
va). Además. debe haber predicados primitivos que, cuando se aplican a
nombres. evalúan Ias direcciones relativas de lugares correspondientes a
esos nombres (por ejemplo. predicados diádicos como derecha-de ha de
ser primitivo en la arquitectura). Esto a su vez implica que hayal menos
Jos ordenamientos totales independientes sobre el conjunto de nombres,
Aparte, si la distancia relativa entre lugares tiene que ser significativa
en esta representación. entonces podría tener que haber más operaciones
primitivas que puedan aplicarse a colocar nombres para evaluar, diga-
mos, el tamaño relativo (por ejemplo, el predicado más-grande-quev.
Todo este abanico de propiedades se encuentran en todas las arqui-
tecturas de ordenadores normales porque todas usan expresiones nu-
méricas para registrar (esto C~. colocar) nombres y tienen operaciones
aritméticas primitivas incorporadas. Pero estas propiedades son parte de
tales arquitecturas por razones que no tienen nada que ver con las nccc-
sidades teóricas de la ciencia cognitiva, Cuando ceras características son
ex pi atadas al cons tru ir mode Ios cogn iri vos. asu m j mos tácitamente que
estas operaciones son parte de la arquitectura cognitiva de la mente -un
supuesto que claramente debe ser motivado y justificado independien-
tementc. Raramente se han proporcionado argumento-, para cualquiera
de tales propuestas, Entre las pocas sugerencias para aspectos de la ar-
e¡ uitectura tan abstractos que yo he v i ~ ro ,e de be n a Brouwer ( 1964) Y
Nicod (1970), quienes, por razones bastante diferentes propusieron que
se viera la sucesión como un primitivo cognitivo. y G. Spencer Brown
( 1<)6<). quien propuso que hacer una distinción (binaria) - una suer-
te de separación conceptual universal figura-fondo- C"I una operación
primitiva de la mente. Desde luego. una gran cantidad del programa de
investigacicin reciente en ciencia cognitiva -al menos desde el artículo
seminal de Newell sobre sistemas de producción (Newell 1973h)- se
ha ocupado de proponer características específicas de la arquitectura
cognitiva (ver. por ejemplo. el capítulo ~).
Al elegir una arquitectura concreta. uno adquiere compromisos accr-
ca de qué funciones son los parámetros libres que pueden ser diseñados
para ajustarse a situaciones específicas. y cuáles se fijan sobre una deter-
minada gama de influencias o son sub-funciones compartidas por todos
los procesos de una cierta clase. Tener restricciones en la disponibilidad
de ciertas funciones computacionales primitivas es una virtud si nuestro
objetivo es proporcionar una explicación. Cuanto más constreñida esté
una notación o arquitectura. mayor sera el poder explicativo de los mo-
delos resultantes.
56
Este es exactamente el problema de reducir los grados de libertad
disponibles a fin de ajustar el modelo a las observaciones. Cada función
que puede atribuirse a la arquitectura funcional. en lugar de al programa
flexiblemente alterable. alcanza el estatuto de constante en lugar del de
parámetro empírico libre en el modelo. Proporciona una razón de princi-
pio de por qué en alguna ocasión particular el modelo toma una determi-
nada forma en oposición a otras Iogicamente posibles. Es precisamente la
falta de tal razón 10 que convierte a algunos modelos computacionales en
ad !70c. Un objetivo al desarrollar modelos cognitivos explicativos sería
entonces rijar tantas propiedades como sea posible introduciéndolas en la
arquitectura cognitiva fijada. En oposición a este objetivo. sin embargo.
está la necesidad de explicar la notable flexibilidad de la cognición huma-
na. Esto a su vez nos lleva a atribuir las regularidades conductuales a la
manera en que se emplea la arquitectura -esto es, a los programas y el
conocimiento que permiten a la relativamente rígida arquitectura ser ex-
plotada en la generación de un comportamiento que es altamente plástico.
La independencia-del-estímulo de la cognición proporciona una de las
razones más fuertes para atribuir gran parte de su comportamiento ma-
nifiesto al conocimiento tácito de varios tipos en lugar de a las clases de
propiedades funcionales tijas que se han propuesto con frecuencia.
57
todos los estados básicos de representación .. porque cada uno de estos
estados es esencial en la historia rcpresentacional, Así las transiciones
entre estados represernacionalcs no deben de implicar ellos mismos e~
tados representacionales: esta __ transiciones han de ser realizadas direc-
tamente por la arquitectura cognitiva. Por ello. cualquier evidencia de la
existencia de tale.'! estados representacionales intermedios es evidencia
del carácter no primitivo del sub-proceso en cuestión. Hay varios méto-
dos para obtener tal ev idcncia,
Uno de los primeros métodos pam descubrir estados intermedios en
la resolución de problemas conlleva grabar los pensamientos expresa-
dos por los sujetos durante la resolución del problema (Duncker 1935).
Newell y S imon (1972) desarrollaron esta técnica, que llamaron aná-
lisis de protocolos, hasta un alto nivel de precisión. Aunque el método
sólo puede usarse con ciertos. tipos, lentos y deliberados. de tareas de
resolución de problemas (incluidos problemas que incluyen imaginería
visual: compárese Baylor 1972, Farley 1974. Moran 1973), proporciona
evidencia para estados intermedios que de otra forma podrían no ser
asequibles para restringir el modelo. Cuando se combinan con observa-
ciones adicionales intermedias, tales como protocolos de movimientos
obtenidos de grabaciones de vídeo (Young 197:1) Y grabaciones de mo-
vimientos oculares (Just y Carpenter 1976). este método puede propor-
cionar datos extremadamente útiles. El Uf..O de este método se discute
con mayor amplitud en el capítulo l.
60
computan la misma función inputloutput, y por ello la equivalencia en
complejidad representa una restricción de la relación de equivalencia
débil. Aunque la equivalencia en complejidad captura un aspecto im-
portante de la noción intuitiva de «mismo algoritmo», no es en sí misma
suficiente para definir la equivalencia fuerte. Es, en otras palabras. una
condición necesaria pero no suficiente para la equivalencia fuerte.
Penetrabilidad Cognitiva
61
sugiere que los fenómenos no nos hablan de la arquitectura sino más
bien de algunos procesos gobernados por representaciones - algo que
en otras palabras continuaría siendo verdadero incluso aunque la arqui-
tectura fuera diferente de la hipotetizada.
Por ejemplo. éste parece ser el caso en ciertos tipos de fenómenos
de imaginería, tales como la fetación lineal entre el tiempo de reacción
y la distancia en una imagen mental que se «explora» mentalmente (más
sobre este caso. ver Pylyshyn 19R 1). Esto es debido a que el incremen-
to lineal puede hacerse desaparecer cambiando las instrucciones, por
ejemplo. pidiendo ZI los sujetos que imaginen una <iruación en la que no
crean que habría ningún incremento en el tiempo de reacción como fun-
ción de la distancia (esto es, en la que creyeran que J1() habría relación
entre tiempo y distancia en la situación real que tienen que imaginar).
En general. mostrar que un cierto fenómeno es cognitivamentc pe-
netrable proporciona una razón poderosa para interpretar ese fenómeno
como surgiendo de la naturaleza de las representaciones y de proce~o~
cognitivos operando sobre esta~ representaciones En la práctica siern-
pre está la cuestión de exactamente qué estadio del proceso es afectado
por las instrucciones. pero éste no es un problema único del criterio de
penetrabilidad. Ser capaz de determinar si algún fenómeno se Jebe a
propiedades de la arquitectura o al proceso gobernado por la represen
raciones es crítico para evaluar la equivalencia fuerte porque nos da una
forma de determinar si hemos descompuesto los pasos del proceso en
lo," elementos primitivos adecuados.
62
supone que se trata de un indeterminismo aparte del indeterminismo
científico, en el que un cuerpo finito de datos nunca determina de modo
único la teoría verdadera.
En primer lugar, debe hacerse ver que nadie quiere excluir los da-
tos psicohiológicos como fuente de evidencia para evaluar teorías de In
cognición (ver, por ejemplo. las discusiones de Sejnowsk i y Churchland
en el capítulo X). Pero la cuestión de si deben incluirse o no, no tiene
relevancia alguna para los argumentos del indeterminismo porque los
modelos cognitivos no son modelos acerca de cómo el cerebro reali-
la procesos en el tejido neural, son teorías que describen mecanismos
cognitivos que proce\an representaciones cognitivas. La evidencia neu-
rotisiológica puede. y en ocasiones así lo hace, ayudar a decidir sobre
cuestiones psicológicas. pero contrariamente a lo que alguna gente pa-
rece pensar. este tipo de evidencia es tan indirecta y falible como la me-
dición de tiempos de reacción: no podemos observar más directamente
un mecanismo cognitivo con los métodos de la biología que con los
métodos de la psicofisica (o. para eso, por introspección). Si ese es el
caso, ¿cómo podernos esperar hacer nada mejor que seleccionar uno de
los modelos que son débilmente equivalentes (además de quizás apelar
a criterios externos tale como parsimonia y elegancia -como algunos
han sugerido (Anderson 1978) ?
La respuesta que sugiero (Pylyshyn 1978b) para este tipo de indeter-
minación es la siguiente: Aunque en un sentido todo lo que tenemos es
comportamiento. no todo el comportamiento es de la misma clase desde
el punto de vista de la construcción de teorías. Distinguiendo entre dis-
tintas clases de medidas conductuales e interpretando estas medidas de
distintas maneras motivadas independientemente. podemos hacer algo
mucho mejor que con la equivalencia débil.
Nótese que dar diferentes interpretaciones de la conducta observa-
da es rutinario en toda la psicología experimental. Por ejemplo. un in-
vestigador puede recoger observaciones primarias en un cierto dominio
-digamos. concernientes al comportamiento de una persona al resol-
ver un problema. Hay observaciones que podría esperarse que explicara
una teoría constructiva de ese dominio generando un comportamiento
similar como su output. Pero el investigador típicamente también re-
coge observaciones de un tipo secundario (que podría ser denominado,
sin una distorsión demasiado seria de I~ terminología, observaciones
metaconductuales). de las que podrían inferirse ciertas propiedades del
propio proceso de resolución de problemas. Este es el caso, por ejemplo.
63
cuando los sujetos proporcionan protocolos «pensando-en-voz-alta». Es
también el caso cuando se realizan observaciones que son interpretadas
como indices de cosas tales como procesar complejidad ola demanda de
atención de la tarea. En tal caso no se espera que una teoría o un modelo
generaría realmente tal conducta como parte de su output. Más bien. la
idea es que el modelo debería generar el comportamiento toutpurv pri-
mario de una forma que reflejara ciertas propiedades de procesamiento
en tiempo real indicadas por observaciones en la clase secundaria,
Considérese el siguiente ejemplo en el que la metodología en desa-
11'0110 de la ciencia cognitiva ha conducido a un cambio gradual en la
manera en que se interpreta un aspecto importante del comportamiento
observado. El ejemplo concierne al que es probablemente la medida
dependiente más ampliamente empleada en psicología cognitiva, a sa-
ber, el tiempo de reacción. Esta medida se ha interpretado a veces como
simplemente otra respuesta, a explicar por un modelo cognitivo de la
misma forma que el modelo explica registros de respuesta tales como la
secuencia de los botones que se apretaron. Desde el trabajo pionero de
Donders (llevado a cabo en los 1860 y reeditado como Donders J 969)
~e ha interpretado ampliamente también como una medida más o menos
directa de la duración de los procesos mentales (Wasserman y Kong
1979). He argumentado (Pylyshyn 1979a, 1984) que ninguna de estas
interpretaciones es correcta en general; el tiempo de reacción puede ver-
se en general ni como el output computado de un proceso cognitivo ni
como una medida de la duración de un eventu mental o una operación
mental.
64
piel. o registros pletismográficos. o como se ven medidas de distracción
(ver. por ejemplo. Brown 19(2). a saber como un índice, o un correla-
to observable. de alguna propiedad agregada del proceso. En particular
el tiempo de reacción ~e ve frecuentemente como un índice de lo que
llamo complejidad computacional. que normalmente se entiende que
corresponde a propiedades del modelo tales como el número de opera-
ciones llevadas a cabo. Un proceso que meramente computara el tiempo
como un valor de parámetro no explicaría el tiempo de reacción visto de
e~ta manera particular porque el parámetro no expresaría la complejidad
computacional de proceso.
He discutido varios casos en los que es posible decidir. entre dos al-
goritmos diferentes, cuál se está utilizando examinando el número rela-
tivo de pasos primitivos que se han dado cuando se proporcionan inputs
diferentes. Ahora bien, si existe alguna razón para creer que la cantidad
de tiempo (real) que lleva es proporcional a (o al menos una función
monótonamente creciente de) el número de tales pasos primitivos del
algoritmo, entonces las medidas del tiempo relativo tomadas podrían
proporcionar la evidencia requerida para decidir entre los algoritmos
putativos. Pero en este caso necesitamos de una razón independiente
para creer que el tiempo de reacción es un índice válido del número de
pasos primitivos de la arquitectura cognitiva. Estas razones indepen-
dientes son asequibles normalmente, como. por ejemplo, cuando las re-
gularidades inferidas en base al supuesto de que el tiempo de reacción
es un indicador hable de complejidad de procesamiento son corrobora-
das por otros métodos. Cuando tales patrones de consistencia continúan
apareciendo bajo metodologías convergentes, entonces tenemos una ra-
zón prima facie para esperar la validez de esos métodos, permaneciendo
lo demás igual (compárese Posner 197R).
Sin embargo. debería tenerse presente que cuando hacemos inferen-
cias acerca de la naturaleza del algoritmo a partir de los datos, el tiempo
de reacción (o cualquier otra medida fisicas. dependemos siempre de la
validez de hipótesis auxiliares. Tales hipótesis podrían en principio ser
falsas. Hay muchas ...ituacione... en que las medidas de propiedades de
los eventos físicos subyacentes pueden decirnos poco sobre el algoritmo.
Podrían, en su lugar. hablamos bien sobre la forma en la que el proceso
se instancia físicamente (esto e~, neurotisiológicarnente) en alguna oca-
síón particular o en un individuo concreto. bien sobre el conocimiento
tácito de los sujetos o sobre la naturaleza de la propia tarea. Por ejemplo,
he argumentado (Pylyshyn 1981, 1984) que muchos de los fenómenos
de la investigación de imaginería mental (por ejemplo, los a~í llamados
resultados de exploración mental de Kosslyn I <.)gO) son precisamente
de este tipo. En estos casos parece que los patrones concretos de tiempo
de reacción observados son el resultado directo no de propiedades de
la arquitectura sino Jel conocimiento tácito de los sujetos sobre lo que
sucedería en las situaciones imaginadas y su habilidad para duplicar as-
pectos de estas situaciones (por ejemplo, su duración) imaginariamente.
El argumento para esto se basa en el criterio de penetrabilidad cognitiva:
si el patrón de comportamiento puede alterarse de una forma racional
cambiando las creencias de los sujetos acerca de la tarea. entonces po-
seemos evidencia prima facie de que el proceso implica inferencia. Es
más, carecemos de razones para hipotetizar propiedades arquitectónicas
de propósito específico si podemos explicar el patrón de tiempos de re-
acción meramente en términos de las creencias de los sujetos junto con
su habilidad psicofísica para generar los intervalos de tiempo relevantes.
Esto por supuesto no se aplica a casos donde está claro que la actuación
de los sujetos no e~ explicable en términos de sus creencias -como, por
ejemplo. cuando operan al límite de su habilidad. como es el caso de la
mayoría de estudios llevados a cabo en la tradición del procesamiento
de la información, incluidos algunos de los experimentos de manipula-
ción de imaginería, como los que conllevan «rotación mental» (como en
Shepard y Cooper 1982).
Hay otros tipos de casos en los que Jos tiempos de reacción obser-
vados no nos dicen demasiado acerca de la naturaleza de la arquitectura
cognitiva. Por ejemplo, UlIman (1984) ha sugerido que la razón por la
que ciertos tipos de procesos visuales (que él llama rutinas visuales) se
llevan a cabo serialmente no es la naturaleza de la arquitectura cogniti-
va. sino que la naturaleza de la propia tarea lo requiere. En ese caso el
hecho de que el proceso sea serial no puede atribuirse a requisitos im-
puestos por la arquitectura (al menos, no enteramente), aunque muestra
que la arquitectura es capaz de operar serialmcnre.
66
de las fronteras de un dominio científico es un proceso gradual, que re-
quiere de conjeturas provisionales mientras se va avanzando.
La ciencia cognitiva se ha visto como el estudio del dominio natu-
ral de la cognición, donde cognición incluye fenómenos proptotípicos
de percepción, resolución de problemas, razonamiento, aprendizaje.
memoria. y así sucesivamente. En el momento presente la hipótesis de
trabajo parece ser que lo que éstos tienen en común es que conllevan
actividad inteligente en algún sentido general.
Una hipótesis más arriesgada es que la cognición es el dominio de
fenómenos que pueden verse como procesamientos de información na-
turales, lo que en términos actuales significa que son computacionales,
siendo ésta la única noción de información mecanística autónoma que
poseemos. Esto a su vez significa que los fenómenos en este dominio
pueden explicarse al menos en tres niveles diferentes, como sugiere
lo que hemos llamado la visión clásica. De acuerdo con esta hipótesis
(que podemos llamar la visión computacional realista), no podemos
estipular a priori qué fenómenos empíricos resultaran ser cognitivos
en el sentido técnico (significando susceptibles de explicación com-
putacional). Sería al mismo tiempo sorprendente y problemático si de-
masiados de los que pretcóricamente tenemos corno casos claros de
cognición acabaran siendo omitidos en el proceso. Pero tampoco sería
enteramente sorprendente que algunos de nuestros candidatos favori-
tos a fenómenos cognitivos quedara fuera. Por ejemplo, podría resultar
que la consciencia no sea algo de lo que se pueda dar cuenta computa-
cionalmente. De modo similar. ciertos tipos de aprendizaje estadístico,
aspectos del desarrollo ontogenético, el efecto de humores y emocio-
nes. y otros muchos fenómenos imporatnres e interesantes podrían sim-
plemente acabar no siendo susceptibles de explicación computacional.
Componentes sustanciales de tales fenómenos podrían, por ejemplo,
requerir una explicación no computacional. digamos, en términos de
°
bioquímica alguna otra ciencia.
En este respecto podria resultar que ciertos fenómenos no pudie-
ran surgir del procesamiento de símbolos. en contra de las asunciones
previas. En ese caso las afirmaciones conexionistas de que los sistemas
simbólicos no son necesarios (ver, por ejemplo, Rurnelhart, McClelland
et al. 1986) podrían resultar adecuadas para esos fenómenos. Por otro
lado. hay muy buenas razones para mantener que el razonamiento y
otros procesos dependientes del conocimiento o racionales requieren el
procesamiento de símbolos, y además que estos procesos son extrema-
67
damente dominantes en los fenómenos estudiados en ciencia cognitiva.
Sólo el tiempo e investigación ulterior dirá qué fenómenos podrían ex-
plicarse mejor por modelos que no se conforman a las nociones clásicas
de computación.
Notas
68
como parte de la definición de la tarea (ver la discusión de las restric-
ciones empíricas implícitas en la investigación de inteligencia artificial
en Pylyshyn 197R)
5. Aunque al discutir la distinción entre una leuda computacional y
un algoritmo Marr traza la analogía entre las teorías matemáticas. como
la temía del análisis de Fourier, y algoritmos concretos. como el algo-
ritmo rápido de transformación de Fuurier, los ejempos de su propio
trabajo en la visión no parece que cuadren en la analogía. De hecho, lo
que se llama una «teoría de la computación» (o una teoría tipo 1) es típi-
camente una teoría que liga una función (tal como computar estructura
a partir de movimiento o sombreado) a una historia teleológica. Marr
estaba preocupado por la cuestión de ¿Para qué sirve la computación? o
¿Qué información útil sobre el mundo proporciona al organismo? Esto,
"in embargo, no proporciona una base para una distinción de principio
entre niveles. Es claramente sólo una heurística útil para animar al teó-
rico a buscar motivaciones independientes y unidades funcionales más
amplias al formular una teoría en algún dominio.
6. Podemos lomar esta afirmación como un punto de dcfinción para
los propósitos actuales. aunque hay algunas cuestiones técnicas aquí que
deberían afrentarse en una discusión más detallada. El criterio para ser
el mismo algoritmo está íntimamente ligado a la idea de ejecución direc-
ta. Por ejemplo, podemos cambiar trivialmente un algoritmo (digamos,
añadiendo un número fjo de operaciones redundantes como «no ops~> a
cada operación original), sin embargo para nuestros propósitos podemos
no querer contar con esta variante como un algoritmo distinto - esto es.
podemos querer contar con cualquier máquina que ejecute la variante
como llevando a cabo el mismo proceso que la ejecución de la máquina
original del algoritmo original. Para desarrollar esta idea. podemos ne-
cesitar conceptos como el de descripción canónica de un proceso (por
ejemplo, en la linea de lo que he dibujado en Pylyshyn 1984).
7. Aunque. como he sugerido, la hipótesis de trabajo de la mayor
parte de la ciencia cognitiva es que, sea como sea el aspecto detallado
de la arquitectura funcional. continuará entrando en la clase de arquitec-
turas procesadoras de símbolos o clásicas, tal y como fueron concebidas
por Turing, y es cierta de todos los sistemas que llamamos ordenado-
res digitales hoy. La razón es que para tener tamo suficiente capaci-
dad reprcscntacional corno el tipo correcto de plasticidad conductual
semánticamente coherente, el sistema computacional debe leer. escribir
y transformar expresiones simbólicas estructuradas que tienen propie-
69
dades semánticas combinatorias (estas cuestiones se argumentan con
cierto detalle en Fodor y Pylyshyn 1988).
8. El término conocimiento tácito se emplea aquí del modo usual
para referir al conocimiento real que tienen los sujetos incluso aunque
no sean conscientes de tenerlo y usarlo -una idea no problemática en
la ciencia cognitiva contemporánea, en donde se da por hecho que los
sujetos no necesitan consciencia o «rnetaacceso» a la mayoría de estruc-
turas y procesos cognitivos. El término no tiene nada que ver con el uso
de Polanyi (lY64) de la misma expresión.
Referencias
ANDER~ON. J .R. (1978): « Argumente conceming rcpresentations for mental
imagery». Psvchologicul Review 85:249-277.
B/\CKUS. J. (19 78): «Can programming be liberatcd frorn the von Neumann
style? A funcrional style and ih algebra of programs». Communications of
the Association Jor Computing machinery 21: 6l3-64].
70
BAYLOR, G.W. (l972i: A treatise 011 the mind's eye: An empirical investigation
01 visual mental imagerv. Ph.D. diss.. Carnegie Mellón University, Pius-
burg, PA. Ann Arbor. MI: University Microfilms. no. 72-12,699.
BRA]\;SFORD. J.D. and JCJHNSON, M.K. (1973): «Considerations ot sorne pro-
blcrns of cornprehenvion». In W. CHASF. (cd.): Visual Infornuuion Prores-
sing, Ncw York: Acadcmic Prcss.
BROlWER, L.E. (( <)64): «Intuuionisrn and forrnalisrn». In P. BENACERRAF and
H. PUTNAM (eds.j: Phvlosophv (d Mathcmatics. Englewood Cliffs, NJ:
Prent ice- Hall.
BRO\V~, li.S. (1<)6<)): Laws ojForm. London: Allen Unwin.
BROWN, ] .D. ( IY62,: «Measuring the "~pace mental capacity" of car drivers by
a subsidiary auditory task». Ergonomics 5: 247-250.
DAVIES, DJ.M. and IsAlw. S.D. (1972): «Utterances as programs», In B. MEL-
TZER and D. MICHIE (eds.): Machine lntelligence 7. Edinburgh: Edinburg
University Pre..;s.
DAV1S. M. (ed.) (1965): The Undecidable: Basic Papers on Undecidable Pro-
positions. Unsolvable Probletns and Computable Functions. Hewlwtt, NY:
Raven Press.
DONDERS, EC. ( 1969): «On the speed 01' mental processes (1868-1869)~>, AClu
Psychologica 30: 412-431.
DUNCKI::.R, K. (1935): «On problem solving», Psychological Monographs 58
(270): 5.
ERMAN, L.D.; HAYES-RoTH, F; LESSER, V.R. and REDDY, D.R. (19RO): ~<The
HEARSAY-lI speech understanding systcrn: Intcgrating knowlcdge ro re-
solve uncertainty». Computing Surveys 12: 213-253.
FARLEY. A. (1974): A. visual imagery and perception system. Ph.O. diss .. Car-
negie mellón University, Pittsburg, PA.
FOlJOR. l.A. (1975): The Language of Thought. New York: Crowell.
FODOR. J.A. and PYLYSHYN, Z. \V. (1988): «Connectioni sm and cogniti ve arch i-
tecture: A critical analysis», Cognition 28: 3- 71.
FORSTER. K.I. (1979): «Levels of processing and the structure of the íanguage pro-
ccssor». In W.E. COOPER and E.c.T. WAL"'ER (eds.): Sentence Processing:
Psycholinguistic Studies Presented ro Merrill Garrett. Hillsdale. NI: Erlbaum.
FRAZIER. L. and FODOR. J .0. (1978): «The sausage machine: A new two-stage
parsing model». Cognition 6: 291-325.
FUNT, B.v. (1980): «Problem-solving with diagrammmic representarions» . .4.1'-
tificial Intelligence 13(3): 201-230.
JUST. M.A. and CARPENTER. P.A. (1976): «Eye fixation ... and cognitive proc~5'
ses», Cognitive Psvchology 8: 441-4~W.
KNUTH. O.E. (1968): Fundamental Algorithms. The Art nf Computer Pro-
gramming, Vol. l. Reading. MA: Addison-Wesley.
KOHLER. W. í 1947): Gestalt Psvchology, An lntroduction ro New Concepts in
Modern Psychologv, New York: Liveright.
71
KOSSLYN, 5.1,,1. (19~O): Image and Mind. Cambridge. MA: Harvard University
Press.
KO~~L I [\, S.M. and S HWARTZ. S. P. ( 1977): «A data-dri ven simu Iation of visual
irnagery •• , Cognitivo Sciencvc 1: 265-296.
LJNDSAY, P.H. and NORMAN. D.A. (]977): Human lnformation Processing: An
Introduction lO Psvcliolog....·. 2nd ed. New York: Acadcmic Press.
MARR. D. and Por;crn. T ( 1979): A computational theorv 01 human stereo \'i-
sion. Proceedings 01 Royal Societv, London B ~04: 301-328.
MARSU:J\-WILSON, \V', and TVU".R. L.K. (19RO): «The temporal structure of
spoken language understanding... Cognition 8( 1): 1-71,
MCCARTY, 1. and HAYES. P. (1969): «Sorne philosophical problcms frorn the
srandpoint of artificial inrelligence .). In B. MELTLER and O, MrCHIE (eds.):
Machine tntelligence 4. Edinburgh, Edinburgh University Press.
MU.LER. G.A.: GALANTER, E. and PRIBRAM, K.H, (1960): Pland and thc Struc-
turr ofBehavior. New York: Holt, Rinehart and Winston.
MORAN. T. (1973 \: The svmbolic imagerv hvpothesis. A production systctn mo-
del. Ph.D. diss.. Carnegie Mellan Univcrsity, Pinsburgh, PA.
NEWUJ., A. (19f)~): «Sorne problerns of ba..~ic orgnization in problern-solving
progntm~». In r; Yovius, G.T. lACORI ano G.D, GOLDSTE'~ (eds): Self-Or-
ganiting Systems. New York: Spartan.
NEWELL, A. (1(70): «Rernarks on thc relationship betwccn artificial intelli-
gcncc and cognitive psychology». In R. BA[\;ERJl ami M.D. t\,·1ESARO\IO
(eds): Thcoretical Approachcs 10 Non-Numerical Problem Solving, New
York: Sringer-Vcrlag.
NEWI:-JJ .. A. (1973a 1: «Artificial intelligence and thc conccpt of rnind». In
R.e. SCHAf\'K ami". COLB y reds.): Compute¡ Models (d" Thought and /.,¡JJ1-
~lIag{'. San Francisco: \V'. H. Freeman.
N l:.WI::LL. A. (1973b): Production systcms: Models oí" control structures». In
,1
RUI\IELHART, D.E. and MeO I-I.I.AND, J.L. and thc PDP RESE.'\RCH GROUP
(1986): Parallel Distributed Processing, Cambridge t",fA: MIT Prcss A
Bradford Book.
SHEPARD, R.N. and COOPER, L.A. (1982): Mental lmages and Their Trunsfor-
mations. Cambridge. MA: MIT Pre5.s. A Bradford Book.
SIMüN, H.A. ([ 969): The Science (Jf rfu.' Aruficial, Cambridge. MA: MIT
Press,
SPERLlNG, G. (1967): «Succesive approxirnations 10 a model for short-tcrm
memory". Acr Psych%:5, ira 27: 285-292.
Sn.I{[\·Rf-.RCJ, S. ( 197m: «Mental scanning: Mental procesves rcvcaled by reac-
tion time cxperiments-. In J.S. ANTROBUS (ed.): Cognition and A.llee!. Bos-
ton: Litlc. Brown.
STEVEj\;~, K.A. (llJ81): «Thc visual interpretation of surface conrours». ArtUt-
cial lntelligence 17: 47-74.
TOWNSEND. J.T (1974): « lssues and mode!s concerning the procesxing \)1" a ti-
nite nuniber of inputs». In B.H. K.-\r-.;TOWITL (ed.): Human lnjornuition
Processing: Tutoria!s in Performance and Cognition. Hillsdale. NJ.: ErI-
baurn,
TLRI:-'¡C¡, M.A. (1937): «On computable numbers. with an application to thc
Entscheidungs-problem ". Procccdins 01 London Mathenuitical Socictv 42:
230-265.
Tl'RI:"JG, I\1.A. (1950): «Cornputing machinery and intelligence». In Mind: re-
printed in 19A4 in A.R. A~DER~ON (ed.): Minds and Muchines. Englewood
Clifh. NJ: Prenticc Hall.
ULl.MAN. S. (1979): tt« lnterprctation (~f Visual 1\40tí011. Cambridge, MA:
MIT Press.
ULL:vlAN, S. (1984): «Visual routines». Cognition 18: 97-159.
W ALLACH, H. and Ü'C01'<NElL. D.N. (195.3): ·<The kinctic dcpth effect». Jour-
nal oj Experimental PJYc/¡%~y 45: 205-217.
W AS~ERMAN. G.S. and Kt IN~i, K.L. (1979): -Absolute timing of mental activ ¡-
ties». Behavioral ami B1"(.1;'1 Sciences 2(2): 243-JO~.
YOUNG, R.M. (1973): Children's scriution behovior: A production SYSTl'JII
analvs¡s. Ph.D. diss., Department of Psychology, Carnegie Mellen Univer-
sity, Pittsburgh. PA.
73
EL TEST DE TURING
Donald Davidson
I Mind. 59 (1950). p. 442. Todas las referencias posteriores a este artícu!o en el texto
están entre paréntesis,
75
Turing especificó 411~ las máquinas que debían ser testadas debían
ser ordenadores digitales, en parte porque a él le resultaban familiare-, y
creía que un ordenador digital correctamente diseñado podría pasar su
test. Deseaba asimismo evitar un problema al dar una definición general
de máquina. El problema era que él quería permitir a su diseñador que
tuviera mano libre con «las técnicas de ingeniería», pero pensó que esto
podría permitir la producción de un objeto biológico. especialmente si
el equipo de ingeniería incluía a ambos sexos. Incluso con la restricción
de los equipos a un sexo, pensaba que resultaría posible «erigir un in-
dividuo completo a partir de una sola célula de la piel de una persona».
No estaríamos inclinados -dice- a tomar esto como la «construcción
de una máquina pensante». Me parece que debería haberse preocupado
también acerca de la posibilidad de configurar las cosas de modo que el
circuito del sistema nervioso de una persona fuese reproducido en un
ordenador digital. mediante un método que no requiriese ninguna idea
acerca de cómo o por qué el programa resultante del ordenador diese al
ordenador 10 que fuesen o pasasen como pensamientos. Esta posibilidad
(teórica) muestra, creo yo, que Turing no fue muy claro acerca de sus
razones para restringir el test a los ordenadores digitales. Pero esto no
importa en lo que respecta a la evaluación de su test. ya que el Test en sí
mismo puede ser aplicado a cualquier objeto.
El diseño del Test muestra inmediatamente esto. El Test pone un
interrogante ante dos teleimpresora... (o terminales de ordenador), una
conectada a una terminal operada por una mujer, la otra conectada a un
ordenador. Mujer y ordenador están ocultos para el interrogante. Éste
teclea pregunta, dirigidas a los dos objetos con el fin de determinar
quién es quién; la mujer trata de ayudar al interrogante, mientras "lue el
ordenador está programado para tratar de engañarlo. La prueba termina
cuando el interrogante especifica qué terminal cree que está conectada
a la mujer y cuál al ordenador. La puntuación del ordenador C"i el por-
centaje de pruebas en las que el ordenador es tomado como si fuera la
mujer. ~ Está claro lJlIC' a cualquier objeto se le puede apl icar este test.
Incluso un guijarro. conectado de manera que no dé respuesta, podría
conseguir una puntuación (y quizá no baja; podría ser tomado corno una
mujer especialmente malhumorada). Turing no dice qué haría con un
, El te~t reul dé Turim; ce. diferente. En primer Jugar encuentra hasta que punto acier-
ta el interrogante cuando trata de distinguir a la mujer servicial del hombre t"ngarlo~o.
Dcspuc-, pregunta <;i el imerroguntc hace algo mejor cuando escoge entre Id mujer y d
ordenador.
76
ordenador que fuese escogido consistentemente como mujer más que la
mujer; parece que habría tomado esto como un caso de ordenador «ga-
nador». pero también podría ser considerado como un fallo por parte del
ordenador de .1\ imu lar con éxita el pensam lento humano (temen ino).
El aspecto sexista del Test es obviamente adventicio y precisamente
de modo tan obvio puede ser eliminado haciendo la elección entre una
persona y una máquina. Supongamos que este cambio ha sido hecho. No
obstante, subsiste una dificultad. ya que Turing nunca es completamente
explícito acerca de una característica especial de su diseño experimen-
tal: las instrucciones que hay que dar al interrogante. Hagamos que las
instrucciones fuesen leidas a~í: «Uno de estos terminales está conectado
a una persona, el otro a una máquina. Tiene x minutos para interrogarles
a través de estos terminales y decidir qué terminal está conectado a la
persona». Una dificultad consiste en que la respuesta quedará afectada
por lo que quien interroga tome como incluido en la palabra «máquina),
Lo mismo será cierto si «ordenador digital>, viene a sustituir a «rna-
quina». Sería aún peor preguntar cuál de las terminales está conectada
a algo que piense, ya que Turing cree que un ordenador debidamente
construido podría pen~ar.
Dicho con más cuidado: Turing no está seguro de si el uso estándar
u ordinario permite a la palabra «pensar» ser correctamente o incluso
significativamente aplicada a las máquinas: en efecto, dice que la pre-
gunta ,<¿Pueden pensar las máquinas» es en dcrnaxia carente de sentido
para merecer una discusión» (p. 442). El Test de Turing está diseñado
para separar lo que considera aspectos interesantes o significativos del
pensamiento de los menos interesantes. Lo hace negando al interrogante
todo conocimiento de los aspectos "faltos de interés». Turing piensa que
hay otros rasgos que distinguen a la gente de las máquinas y que pueden
afectar al juicio del interrogante. aunque no sean de importancia. rasgos
como tener voz o lucirse en concurso de belleza; el Test retira de la con-
sideración esos rasgos.
E~ difícil no simpatizar con Turing en todo esto; el modo en el que
un objeto es producido y los materiales con los que est:-:í construido. aun-
que no estén sin relación con el modo en el que usamos la palabra «pen-
sar», parecen susci lar cuesti ones que un ti losoto o psicólogo podrían
desear separarlas de asuntos «más profundos». Si yu descubriese que mi
mejor amigo hubiese nacido saliendo de un huevo o que hubiese sido
concebido mediante un proceso que hubiese requerido la colaboración
activa de tres criaturas de diferentes sexos, probablemente ello no influi-
77
ría en mi opinión de que él o ella podría pensar. Y es difícil ver cómo
los materiales podrían tener importancia. Claro. nosotros creemos, con
fundada razón. que sólo las criaturas con cierta constitución biológica
piensan realmente; pero si mi amigo cambiase (tras todos estos años)
a que fuera hecho de silicona. yo modificaría mi parecer acerca de los
materiales con los que una persona puede ser hecha. pero no mi juicio
de que era una persona, Por eso, resulta apropiado. por parte de Turing,
ordenar su test de manera que deje al interrogante con ignorancia de la
rnayor parte de los rasgos físicos del objeto colocado frente a la persona
que va a ser testada.
Desde luego. el interrogante debe saber al menos una cosa sobre los
aspectos Iísicc», de los objetos que está juzgando; el observador debe
saber que son ellos los que son físicamente responsables de las claves de
la observación. Por ello. el interrogante debe saber que cada uno de los
objetos tiene capacidad causal para producir la evidencia disponible.
Esta restricción de la evidencia ha sugerido a algunos críticos que
el Test de Turing asume la validez del conductismo, Si el conductisrno
110 entraña más que el hecho de que la evidencia esté disponible para los
otros, además de para la persona o aparato que va a ser testado, entonces
el Test de Turing es conductista. Turing no insiste en que el pensamiento
(o la «conciencia» como tiende a llamarlo en e~te contexto) debe ser
detectable en principio, pero señala que. a menos que la presencia del
pensamiento pueda ser determinada sobre la base de evidencia externa,
la cuestión de si una máquina puede pensar no tiene especial interés,
ya que la misma cuestión puede ser planteada a cualquier (otro) objeto.
Por eso, a menos que la cuestión sea la del solipsismo, el conductismo
en el más amplio sentido debe ser aceptado. El Test de Turing no es
conductista en ningún otro sentido habitual. No hay ninguna sugerencia
en el sentido de que los términos mentalistas deberían ser eliminados
sobre la base de 10 que es inmediatamente observable: el asunto del Test
es ver si - Y sobre q LIé base - los hombres normales que se forman
juicios son capaces o quieren asignar atributos mentales a las máquinas.
De manera igualmente clara, Turing no especifica en qué términos debe
ser descrita la evidencia. Los terminales despliegan letras (digámoslo
así). Corresponde al interrogador establecer si esto debería ser descrito
como «comportamiento». Mi conclusión es que el Test de Turing no es
conductista en ningún modo que limite su interés.
No se sigue de ello que el Test sea adecuado para determinar la pre-
sencia de pensamiento en un objeto. Si es inadecuado. esto sólo puede
78
ser porque la evidencia ha quedado desprovista de elementos vitales
para la detección del pensamiento.
79
Llegado a este punto parece acertado suprimir de la consideración el
«control» de Turing. Pedir al interrogante que distinga el ordenador de
la persona puede contribuir i.l un mejor diseño experimental. pero aparta
del problema subyacente de varias maneras. En primer lugar. concede
un énfasis indebido a la estrategia: a corto plazo todo tipo de trucos pue-
den engañar incluso al interrogante más astuto. En segundo lugar, derna-
siado queda dependiente de cuán inteligente o informada es la persona.
Pero -y esto es 10 imponante- lo que nos interesa es la naturaleza del
pensamiento y nosotros podríamos tomar 11 un objeto como pensante
incluso si fuera fácilmente distinguible de una persona. Si simplificu-
mos el Test tornando un solo objeto para estudiarlo, ello contribuirá a
la mejora de nuestra capacidad para centramos en la cuestión del pen-
samiento: al interrogante le será solicitado ahora que decida si el objeto
piensa () no. Debe reconocerse inmediatamente que esto no es el mismo
test que el de Turing. E~ un test mejor si lo que queremos saber es cuáles
son los criterios (del interrogante) para determinar el pensamiento. No
es tan bueno si lo que (lueremos saber es hasta qué punto puede un or-
denador dado imitar las respuestas verbales de una persona. Puesto que
estoy aquí interesado en la primera cuestión, en lo sucesivo considerar¿
d Test MoJificado en vez del Test de Turing.
Supongamos que el objeto testado produce lo que parecen ser ora-
ciones en inglés en respuesta a preguntas expresadas en lnglé:"l. ¡,Cómo
puede el interrogante decir que el objeto entiende inglés, esto es, que
esní «hablando» en inglés? Un tipo de evidencia consiste simplemen-
te en que las respuestas se parecen exactamente a oraciones en inglés:
tienen la sintaxis correcta. Otro tipo de evidencia radica en que la« re-
laciones entre las preguntas y las respuestas y entre las respuestas entre
sí parecen apropiadas; las respuestas muestran un conocimiento claro
del mundo. Sería excesivo suponer que lodo esto es accidental. El cono-
cimiento del inglés y del mundo deben ser los responsables de IJS pro-
ducciones del objeto. Sería inadecuado quejarse de que esta conclusión
no está obligada por la evidencia; no tendríamos mejor evidencia si el
objeto fuese una persona hablante del inglés.
Aceptaríamos. entonces. que hay una razón adecuada para suponer
que el pensamiento es el responsable de las contestaciones del objeto. Lo
que e~ incierto es si el objeto piensa. No sería el caso. por ejemplo, sí una
persona supervisara las preguntas del interrogante y después escribiera
las contestaciones en los circuitos de una máquina. Esta posibilidad puede
~t:'r descartada informando (de veras) JI interrogante de que el objeto es
autónomo: las respuestas no est..'í.n mediadas por ninguna persona.
Supongamos que el objeto bajo test produce lo que parecen ser ora-
ciones en inglés, en respuesta a preguntas hechas en inglés. ¿Cómo pue-
de el interrogante decir que el objeto entiende el inglés, esto es, que está
«hablando» inglés? Un tipo de evidencia es sencillamente que las res-
puestas se parecen exactamente a oraciones en inglés: tienen la sintaxis
correcta. Otro tipo de evidencia es que las relaciones entre las preguntas
y respuestas y entre las respuestas parecen apropiadas; las respuestas
muestran un manifiesto conocimiento del mundo. Sería excesivo supo-
ner que todo esto es accidental. El conocimiento del inglés y del mundo
debe ser el responsable de las producciones del objeto. Sería inapropia-
do quejarse de que esta conclusión no es obligada por la evidencia; no
podríamos tener mejor evidencia si el objeto fuese una persona hablante
del inglés.
Dcberfamos aceptar, por tanto, que hay razón suficiente para supo-
ner que el pensamiento es el responsable de las respuestas del objeto. Lo
que es incierto es si el objeto está pensando. No lo estaría, por ejemplo.
~i una persona estuviese controlando las preguntas del interrogante y
luego tecleando las respuesta" en ]01\ circuitos de una máquina. Esta po-
sibilidad puede ser descartada informando (con verdad) al interrogante
de que el objeto es autónomo: las respuestas no se dan mediante una
persona.
El interrogante no puede aún decir si el objeto piensa: en otras pala-
bras. no puede decir lo que el objeto da a significar mediante cualquier
cosa que cause lo que sea presentado al interrogante. La razón por la que
el interrogante no puede decirlo es sencilla: no tiene ningún indicio de
la semántica del objeto. No hay ninguna manera para poder determinar
la conexión entre las palabras que aparecen en la pantalla del objeto y
los sucesos y cosas del mundo. Tiene que haber, desde Juego, alguna
conexión: no \uy otro modo para dar cuenta de la inteligibilidad del
inglés del objeto. Lo que está en duda es la naturaleza de la conexión.
Es perfectamente posible que la conexión entre palabras y cosas fuera
establecida por alguien que programó el objeto y luego le proporcionó
conexiones puramente sintácticas entre las palabras para que las mane-
jara. En este caso es el programador quien ha suministrado la semántica,
quien ha entendido el inglés y quien ha dado significado a las palabras
producidas por el objeto. El interrogante hace completamente bien al
tomar las producciones del objeto como dotadas de significado, pero el
objeto no da a significar nada y no hay ninguna razón para considerarlo
como pensante.
81
Con el fin de descubrir si el objeto tiene alguna semántica. el inte-
rrogante debe saber más sobre las conexiones entre el output del objeto
y el mundo. El Test, sea el test de Turing original o sea el Test Modifi-
cado, impide al interrogante obtener la información que necesita acerca
de esas conexiones semánticas. En el curso normal de las cosas tenemos
dos maneras de saber lo que la gente da a significar por medio de lo que
dice. Simplemente observando que se trata de gente, podemos (legíti-
mamente inferir) que han aprendido su lengua a través de los procesos
normales de condicionamiento, que conectan cosas y sucesos con pala-
bras. Desde luego, las conexiones son, en definitiva, causales. Sabiendo
la lengua de la persona, sabemos (por lo general. indirectamente) la na-
turaleza general de las conexiones entre las palabras de la persona y el
mundo. O podemos descubrir esas conexiones directamente a través de
la observación de las interacciones causales relevantes entre el hablante.
el mundo y la audiencia del hablante. Si para empezar no entendemos la
lengua del hablante y no tenemos acceso a ningún traductor, entonces el
método directo es el único de que disponemos.
El Test de Turing y su versión modificada son, por tanto, inapro-
piados para descubrir si un objeto autónomo piensa o no. La razón de
eso -dehería ser resaltada- no es porque el Test restrinja la evidencia
disponible a lo que puede ser observado desde fuera, sino porque no
permite que sea observado suficientemente lo que está fuera. El Test
es inadecuado porque el interrogante no puede dar por sentado lo que
el objeto da a significar (si da algo) y no hay disponibilidad de ningún
traductor.
Lo que se necesita es evidencia de que el objeto usa sus palabras
para referir cosas del mundo, de que sus predicados son verdaderos en
relación a cosas del mundo, de que conoce las condiciones de verdad
de sus oraciones. La evidencia para eso sólo puede venir de un conoci-
miento más profundo de la naturaleza del objeto. de un conocimiento
de cómo algunas de sus respuestas verbales están ligadas a sucesos y
aspectos del mundo, sucesos y aspectos conocidos también por el inte-
rrogante. El modo más fácil para disponer de esta información es per-
mitir que el interrogante observe al objeto interactuando con el mundo.
El interrogante quiere saber no sólo como responde el objeto a sus pre-
guntas. sino también cómo esas respuestas dependen de los sucesos.
cambios y objetos.
Está claro, pues, que las cnrncterísticas físicas del objeto tendrán gran
importancia. Ya hemos señalado que una característica física era esencial:
82
el objeto debía ser causalmente responsable de los «mensajes» observa-
dos por el interrogante. Pero ahora vemos que el «cuerpo» del objeto tiene
importancia por razones que van más allá, ya que el objeto debe ser capaz
de ser sensible a muchos de los mismos rasgos del mundo que pueden ser
tomados en cuenta por el interrogante y deber ser posible que éste vea o, si
no, sepa que el objeto está siendo sensible a esos rasgos. Para que el objeto
tenga una semántica debe operar en el mundo de una cierta manera y para
que algún otro comprenda esa semántica tiene que haber una interacción a
tres bandas entre objeto. interrogante y mundo compartido. No está claro
hasta qué punto un objeto debe parecerse a una persona para ser inteligible
-para tener pensamientos; realmente tiene el mayor sentido pensar que lo
propio del pensamiento es una cuestión de grado. como con certeza acune
en el desarrollo del niño, Demasiada diferencia en lo que puede ser perci-
bido pondrá límites a la posibilidad de comunicación y de pensamiento, así
como grandes diferencias en movilidad, tamaño yen la capacidad de reve-
lar emociones y pensamientos mediante el movimiento y la expresión. Pero
la capacidad de percibir cosas no depende de los detalles de los órganos
sensoriales (el ciego puede percibir las mismas cosas que percibe el de vista
normal) y las emociones pueden ser expresadas de muchas maneras.
Ahora es evidente que el Test de Turing es radicalmente defectuoso: no
puede proporcionar a un interrogante suficiente información para decidir
lo que un objeto da a significar o piensa y, por tanto, si piensa o no. Tu-
ring quería que su test trazara « ••• una línea completamente fuerte entre las
capacidades físicas y las intelectuales del hombre» (p. 434). No existe tal
línea. Turing continuaba: «Ningún ingeniero o químico dice ser capaz de
producir una materia que sea indistinguible de la piel humana. Es posible
que dentro de algún tiempo eso pudiera hacerse, pero suponiendo incluso
que este invento estuviese disponible nos daríamos cuenta de que avanza-
ríamos poco intentando hacer una «máquina pensante» más humana re-
vistiéndola con tal superficie artificial» (p. 434). Turing puede estar en lo
cierto acerca de la piel; pero hay más en la cuestión que lo que el pensó.
El Test debe ser modificado una vez más. El objeto debe ser sacado
a relucir, de manera que sus conexiones causales con el resto del mundo,
así como con el interrogante, puedan ser observadas por éste, (Sí parece
deseable restaurar el aspecto comparativo con el «juego de imitación»
de Turing, entonces el objeto debe ser hecho indistinguible de la persona
desde el punto de vista del interrogantc.)
¿Puede el interrogante ahora decir lo que piensa el objeto? La res-
puesta es que depende de cuánto puede preguntar y observar al objeto.
8 -~. .
Supongamos que el interrogante da con que el objeto usa las palabras
como el mismo lo hace: las conexiones con el mundo son, hasta lo que él
puede decir, ]0 que exige la semántica del inglés. Infiere el interrogante
(supongamos que correctamente) que las disposiciones lingüísticas del
objeto son similares a las suyas en modos relevantes.' En el caso de una
persona el interrogante estaría justificado al asumir que esas disposicio-
nes fueron adquiridas de modo normal: en los casos básicos mediante
relaciones causales pasadas con cosas y circunstancias del tipo al que la
persona está ahora dispuesta responder. Asumimos justificadamente que
una persona que csrú ahora dispuesta para sostener que «es un perro»
es verdadero aplicado a los perros llegó a tal disposición a través de las
experiencias con los perros. Pero la suposición no está justificada en
el caso de un ordenador: puede haber sido provisto de un programa y
de mecanismos sensoriales que le causen responder «Eso es un perro»,
cuando le es preguntado y hay un perro a su alcance. En algún punto de
In historia del ordenador (es una suposición sin riesgo) el conocimiento
de los perros desempeñó un papel, pero ese papel no puede justificar la
idea de que el ordenador conoce algo acerca de lo-, perros o da a signifl-
car algo cuando produce la oración «Eso es un perro».
A veces el tema se hace ver imaginando a una persona que dice «Esto
es un perro» cuando está enfrente de un perro. no debido a que la persona
alguna vez haya visto perros u oído hablar de ellos, sino porque ha tenido
experiencia de animales que no son perros, pero que les son similares en
todos los aspectos. Llamemos a esos animales «terros». El hablante, si bien
sus disposiciones lingüísticas son las mismas que (as de alguien que da a
significar lo que nosotros damos con la palabra «perro», no da a signifi-
car lo que nosotros damos con tal palabra, Su palabra «perro- ~e aplica a
«terros». no a perros. Se equivocó llamando <'perro,> :1 un perro.' El orde-
nador, que nunca ha tenido la experiencia de lo que es un perro y no tiene
memoria acerca de los perros, no puede dar a significar perro mediante
el uso de la palabra «perro»; no ha) razón para pensar que dé a significar
algo, sea 10 que sea, El pensamiento y el significado requieren una historia
de tipo especial. Sabemos mucho, en general. acerca de las historias de la
Esto no quiere decir que el objeto y d interrogante deben estar di-puc-to-, para pro-
ferir Id" mixrnas palabras bajo lít~ misllla~ condiciones, ')II\O que están dispuestos para
sostener que las mismas oraciones con verdaderas bajo las micmas condiciones.
J Este argumento c-ui en H il;lry Putnam. «Thc Meaning of "Mcaning" en Phi/f)-
sophica! Papers», Vol. 11: Mind. l.anguag«. and Realit«. Cambridge University Prc «.
147'..
84
gente (claro, podemos estar equivocados en ello), pero a menos que se nos
diga o podamos observarlo actuando en el tiempo. no tenemos bases para
conjeturar cómo un ordenador llegó a tener las disposiciones que tiene.
No está claro exactamente qué tipo de historia es necesaria para los
varios tipos de pensamiento o significado. lo mismo que había incerti-
dumbre sobre el tipo de interacción causal necesaria para suministrar
evidencia actual de la semántica de un objeto. Pero nuestras intuicio-
nes son suficientemente claras en muchos casos. No puedes recordar la
Guerra Civil si naciste mucho después de que terminara, independien-
temente de cuánto hayas oído hablar acerca de ella. No conoces a una
persona que nunca has visto o hablado o estado en correspondencia con
ella; y no entiendes una lengua si no hay numerosas conexiones entre tu
uso de las palabras y experiencias como las de conocer y recordar.
Puede parecer que. al final, las mentes son inescrutables si ninguna
observación actual de su operación puede revelar lo quc cstán pensando.
Pero no e~ ésta la consecuencia, desde luego. En el caso de la gente, una
observación actual muy pequeña nos dice mucho sobre su historia; en el
caso de un artefacto. esto no puede ser verdadero. Pero incluso la mente
de un artefacto puede ser entendida, si es que la tiene; sólo que requiere
más tiempo. el suficiente para que alguna historia sea observada. ya que
no puede ser inferida.
En estas reflexiones nada sugiere que un artefacto, un ordenador por
ejemplo, no podría pensar. Pero, si estoy en lo cierto, sólo piensa si su
pensamiento puede ser comprendido por un intérprete humano y esto es
posible sólo si el artefacto se parece físicamente a una persona en as-
pectos importantes y tiene una historia apropiada.' El Test de Turing es
inadecuado porque priva al interrogante humano - al intérprete- del
conocimiento que debe tener para decidir ]0 que el objeto piensa y da a
significar. Tras esta inadecuación subyace el pensamiento equivocado
de que la realización física de un programa tiene muy poco que ver con
sus facultades mentales. Por otro lado, Turing, en mi opinión. estaba en
lo cierto al considerar como único test de la presencia de pensamiento y
significado las facultades interpretativas y las capacidades de un intér-
prete humano.
" Turing considera la idea de programar un ordenador como <;1 fuera dar a la mente
de un niño los órganos sensoriales adecuados y dejar al ordenador que aprenda como lo
hace un niño (pp . .t54-60). Pero él concibe esto simplemente como una forma económica
de producir un mecanismo con pensamientos maduros; no lo ve como una forma única.
85
ARQUITECTIJRAS SI~IBÓLICAS
PARA LA COGNICIÓN
ABen Newell, Paul S. Roscnbloorn and John E. Laird
87
brevemente qué tienen que ver las teorías sobre la arquitectura con otros
estudios en ciencia cognitiva. Concluiremos con algunas cuestiones
abiertas
I Este usu técnico del término a menudo 1>e extiende para incluir combinaciones de
software y hardware que producen un sistema que puede programarse. Este uso amplio
se ve alentado por el hecho de 105. sistemas de software <'1 menudo presentan una estruc-
tura que xc pretende que :-oca nju. de modo que el ordenador con el ,10/;\ 1'are opera tal y
como ~i [constituyera] el hardware. En este capítulo. sin embargo. -iernpre tornamos
arquitectura en el sentido técnico má<; estrecho.
Pr'.x€sador - - - - - - - MemOria primaria
Memoria secundarla
(diSCO)
Input - - - -
4--+---- Output - - - -
(bus)
PROCESADOR MEMORIA PRIMARIA
Programa A
Re';llstrildores
[cargar I ;:]81
IRecjl'..H ador general! [añadir I 632J
IRegls1 rador general] ,...... [test>O 12310J
IReglstrador general! [guardar I 800J
Programa B
[Registrador de drreccrón]
[leer 1100)
Interpretador
[guardar 18101
!
[Reqrstr ado r I nstruCClon~.L~
Unidad de -datos Programa e
_._-
FIGURA 3.1
Estructura de un ordenador digital simple
La arquitectura de la "(Ignición
91
que navegar. Sin embargo. resulta difícil percibir las consecuencias con-
ductuales de una arquitectura. porque se encuentra muy recubierta por
los programas que ejecuta. Y es extremadamente difícil comparar dife-
rentes arquitecturas, puesto que cada una presenta su propio marco total
que puede dividir el mundo de manera radicalmente distinta. A pesar de
estas dificultades, la ciencia cognitiva precisa determinar la arquitectura
que subyace a la cognición humana y la sostiene.
La arquitectura no determina por sí misma la conducta. Los restantes
colaboradores principales son: la meta que intenta conseguir la persona,
el entorno de tarea en el que ésta está actuando y el conocimiento que
tiene. La primera no es solamente el conocimiento de las condiciones
o situación deseadas. sino también el compromiso de dirigir la conduc-
ta para alcanzar tales condiciones. El segundo es la situación objetiva.
junto con las restricciones objetivas sobre el modo en que la persona
puede interactuar con la situación. El tercero es la situación subjetiva de
la pc-rsona en relación a la tarea. El conocimiento implicado para llevar
a cabo una tarea cualquiera es variado y extenso, y deriva de múltiples
fuentes. Estas fuente" incluyen el enunciado o las indicaciones con que
se presenta la tarea, la interacción inmediatamente anterior con la situa-
ción de la tarea, la experiencia a largo plazo con situaciones análogas o
sirni lares. la educación previa, incluyendo la adquisición de destrezas, y
la socialización y culturización que proporcionan la orientación general.
Todas estas fuentes de conocimiento efectúan su contribución.
La meta, la tarea y. por supuesto. el conocimiento constituyen la
caracterización de una persona en el nivel del conocimiento. El papel
principal de la arquitectura es hacer esto posible al sostener el procesa-
miento de representaciones simbólicas que portan el conocimiento. Si lo
hiciera de modo perfecto, la arquitectura no aparecería como un factor
independiente para determinar la conducta, lo mismo que no lo hacen
la acetilcolina o los átomos de azufre. Sería simp1cmente el andamiaje
que explica cómo se realizan en nuestro mundo físico los determinantes
efectivos (tarea y conocimiento).
Pero la caracterización del nivel del conocimiento dista de ser perfec-
ta. Como acostumbraban a decir los lingüistas, puede haber una gran dis-
tancia entre la competencia y la actuación. La arquitectura se transparenta
de muchas maneras, tanto grandes como pequeñas. Sin duda, buena parte
de la psicología cognitiva consiste en calcular esas maneras: velocidad de
procesamiento, errores de memoria, lapsus lingüísticos, ilusiones percep-
tivas. fallos de racionalidad en la toma de decisiones, efectos de interfe-
92
rencia del material aprendido. etc, etc. Estos factores se basan en parte en
la arquitectura. Algunos aspectos de la conducta pueden también tener su
origen en mecanismos y estructuras definidos a niveles inferiores: funcio-
namiento neuronal, propiedades de los músculos. imperfecciones en la
lente de la córnea. la estructura macromolecular de las drogas. los efectos
del ascenso de la temperatura, etc. Sin embargo. cuando la arquitectura no
logra sostener adecuadamente una conducta orientada a metas basada en
el conocimiento da lugar. por lo general, a características que considera-
mos psicológicas. Visto de este modo, buena parte de la psicología supone
la investigación de la arquitectura.
Lo que suministra la noción de arquitectura e~ el concepto de sistema ((J-
tal de mecanismos que se requieren para conseguir una conducta inteligente
flexible. Normalmente las investigaciones psicológicas operan aisladamente
aunque con una sensación justiticada de que los mecanismos que se inves-
tigan (memoria, aprendizaje, recuperación de la memoria o lo que sea) son
necesarios e importantes. La arquitectura añade el contexto de sistema total
dentro del cual operan tales mecanismos separados. proporcionando res-
tricciones adicionales que determinan la conducta. La arquitectura también
trae a primer plano mecanismos adicionales que deben estar implicados y
que han recibido menos atención en psicología experimental, por ejemplo,
las operaciones elementales y el control. Este requisito de integración no es
simplemente un condimento agradable. Toda actuación humana comple-
ta recurre a muchas de las funciones psicológicas que investigamos pieza
por pieza: percepción. codificación. recuperación, memoria. composición
y selección de respuestas simbólicas, toma de decisiones, órdenes motoras
y respuestas motoras efectivas. En la teoría y experimentación psicológica
se h311 corrido riesgos considerables al concentrarse en una porción de con-
ducta, mientras se deja el resto como fondo inarticulado.
Una teoría de la arquitectura es una propuesta de un mecanismo
cognitivo total, más que de un único aspecto del mecanismo. Una en-
carnación que Se proponga para una arquitectura, como un sistema de
simulación, pretende ser un mecanismo completo para la cognición hu-
mana. La forma de su memoria encama una hipótesis sobre la forma de
las especificaciones simbólicas humanas para la acción; el modo en que
se crean () modifican sus programas encama una hipótesis sobre el modo
en que se crean o modifican las especificaciones de la acción humana; y
así suces i varnente (Newe 11 1487),
Para resumir, el papel de la arquitectura en ciencia cognitiva es el
de ser el elemento central en una teoría de la cognición humana. No es
93
el determinante único. ni siquiera el predominante, de la conducta de
la persona, pero es el determinante de lo que hace a 13 conducta p,:,i-
cológica, antes que un reflejo de las metas de la persona a la luz de su
conocimiento. Tener una teoría de la cognición es tener una teoría de la
arq u i tectu ra.
94
ponder de la manera que se precise, a duras penas puede ser inteligente.
La única finalidad de esta lista, desde luego. es ir más allá del primer
ítem, (2) La flexibilidad por sí misma es tan sólo un medio: debe estar
al servicio de metas y relacionada racionalmente con la obtención de
los objetos y condiciones que permiten que el organismo sobreviva y se
propague. (3) La cognición debe operar en tiempo real. Esta exigencia
del entorno es a la vez importante y omnipresente. Choca directamente
con el requisito de flexibilidad, donde el tiempo de computación es un
recurso esencial, (4) El entorno en el que hahitan los humanos tiene
importantes caracterfsticas. aparte de ser dinámico: es rico en combi-
naciones y detallado, cambia simultáneamente en muchos frentes, pero
con muchas regularidades en cada escala temporal. Esto afecta al sis-
tema cognitivo de varias maneras. (a) Debe haber múltiples sistemas
perceptivos que exploten los múltiples aspectos dinámicos; todos ellos
deben operar de modo concurrente y dinámico, y algunos deben tener
un ancho de banda elevado. (b) Deben existir memorias muy extensas
puesto que el entorno proporciona la oportunidad de conocer muchas
cosas relevantes, y en un mundo en evolución, y por tanto competitivo,
las oportunidades que el mundo ofrece a algunos origina requisitos para
lodos. Ce) Un sistema motor que se desplace e influya en un mundo com-
plejo requiere una determinación continua de muchos grados de libertad
a un ritmo dictado por el entorno.
(5) La cognición humana es capaz de usar símbolos y abstracciones,
(6) También es capaz de usar un lenguaje, tanto natural como artificial.
Estos dos requisitos podrían venir a ser la misma cosa, o bien podrían
imponer exigencias un tanto distintas. Ambos se encuentran íntimamen-
te relacionados con el requisito de flexibilidad y podrían ser redundantes
respecto a éste. Pero podrían existir aspectos adicionales de importancia
en cada uno de ellos. No es preciso resolver todo esto para la lista, que
trata de conseguir cobertura más que parsimonia o independencia.
(7) Los humanos deben aprender del entorno, no de modo ocasional
sino continuamente y no un poco sino bastante. Esto también proviene
de la multitud de regularidades a diversas escalas temporales que se
encuentran disponibles para el aprendizaje. (8) Es más, muchas de nues-
tras capacidades se adquieren durante el desarrollo. Cuando el neonato
aparece por vez primera se encuentra, ciertamente. carente de muchas
capacidades, pero éstas parecen ser exactamente las capacidades de alto
nivel necesarias para adquirir las capacidades adicionales que necesita.
Asf que se da una restricción de «la gallina y el huevo», que hace alu-
sión a una especialización ~igniflcatjva que haga posible el desarrollo.
95
Al igual que con los requisitos de símbolos y lenguaje, la relación entre
aprendizaje y desarrollo es oscura. Cualquier cosa que ésta resulte ser,
ambos requisitos tienen su puesto en la lista.
(g) Los humanos deben vivir de modo autónomo dentro de una co-
munidad social. Este requisito combina dos aspectos. Un aspecto de la
autonomía es la capacidad para verse libre de las dependencias del en-
torno. En relación a la autonomía de los ordenadores y robots actuales.
esto implica que necesitamos capacidades substancialmente incremen-
tadas. Por otra parte. mucho de lo que hemos aprendido de la erologia
y de la teoría social habla a favor de la dependencia de los individuos
hacia las comunidades en la, que se han criado y residen (von Cranach,
Foppa. Lcpinies & Ploog 1979). Las capacidades adicionales para una
autonomía de bajo nivel no invalidan la amplia necesidad de sociali-
zación y de inserción en una estructura social de apoyo. Si los huma-
nos abandonan sus comunidades. se vuelven ineptos y disfuncionales
en muchos respectos, (10) El requisito de autoconciencia e~ un tanto
oscuro. Ciertamente tenernos un sentido del yo. Pero no resulta evidente
qué papel funcional juega la autoconciencia en la organización total de
la mente. La investigación ha subrayado la importancia de la metacog-
nición, teniendo en cuenta las capacidades del yo en relación al entorno
de tarea. Pero el vínculo entre la rnctacognición y la noción completa de
un sentido del yo permanece oscuro.
Se puede considerar la cognición humana como un sistema de pro-
cesamiento de información que constituye una solución para todos los
requisitos de la lista y quizás para otros de los que aún no tenemos cono-
cimiento. La flexibilidad. el fundamento para afirmar que la cognición
humana está construida sobre una arquitectura. es sin duda un punto
destacado, pero dista de ser el único. Cada uno de los otros juega algún
papel para hacer de (a cognición humana lo que es.
El problema de este capítulo no es qué forma toma la cognición en
conjunto en respuesta a estos requisitos. ése es el problema de la ciencia
cognitiva en conjunto. Nuestro problema es qué es lo que implica la lista
para la forma de la arquitectura. Para cada requisito existe un corpus de
conocimiento científico y general. más o menos bien desarrollado. Pero
la cognición es siempre el resultado de la arquitectura más el contenido
de las memorias, combinados bajo el distintivo de ser adaptativo. Esto
tiende a ocultar la estructura interna y revela sólo la conducta del nivel
del conocimiento. Así pues, extraer las implicaciones para la arquitectu-
ra requiere un análivis,
96
Hay distintos enfoques posibles para tales análisis, aunque aquí sólo
podemos mencionarlos brevemente. El más importante es el de acer-
carse a la arquitectura en el plano temporal; si la conducta programada
cuenta con poco tiempo para actuar entonces hay una posibilidad de
que la arquitectura se trasluzca. Un buen ejemplo es la exploración de
la conducta de respuesta inmediata que ha establecido un terreno de
conducta automática, como algo distinto del terreno de la conducta con-
trolada, más deliberada (Schneider & Shiffrin 1977, Shiffrin & Schnei-
der 1977). Otro enfoque es el de buscar regularidades universales. Si se
transparenta alguna regularidad a pesar de todos los tipos de variación,
puede que refleje algún aspecto de la arquitectura. Un buen ejemplo es
la ley potencia de la práctica, según la cual el tiempo que lleva realizar
una tarea repetida, sin que importe casi qué tarea, mejora de acuerdo a
una ley potencia del número de intentos (Newell & Rosenbloorn 1981).
Se han hipotetizado mecanismos de arquitectura para dar cuenta de ella.
(Rosenbloom & Newell 1986). Aún otro enfoque es el de construir ar-
quitecturas experimentales que sostengan algunos de los requisitos de
la lista. Estas ayudan a generar potenciales mecanismos que cumplan
varios requisitos, pero también revelan la auténtica naturaleza del requi-
sito. Muchos de los esfuerzos en lA y en el desarrollo de herramientas
y entornos de software para lA encajan en este molde (una conferencia
reciente (VanLehn 1989) proporciona una buena muestra).
Los requisitos funcionales no son las únicas fuentes de conocimien-
to acerca de la arquitectura cognitiva. Sabemos que la arquitectura cog-
nitiva se encuentra realizada sobre tecnología neuronal y que fue creada
por la evolución. Ambos factores tienen efectos Importantes sobre la
arquitectura. Tampoco los vamos a estudiar. [Otros capítulo" de este vo-
lumen tratan sobre las consecuencias de la estructura neuronal del cere-
bro], y las consecuencias de la evolución, aunque seductoras. resultan
difíciles de discernir.
3. La naturaleza de la arquitectura
97
nur las funciones centrales. Así que no ha surgido ningún conjunto de
estructuras y mecanismos que sean 10 bastante necesarios para llegar a
ser los rasgos de criterio. El carácter puramente funcional de las arqui-
tecturas es especialmente importante cuando nox movemos desde los
ordenadores digitales actuales hacia la cognición humana. Aquí. la tec-
nología del sistema subyacente (circuitos neuronales) y la tecnología
de construcción (evolución) son muy diferentes, de modo que podemos
esperar encontrarnos con que las funciones se realizan de modo bien
distinto al de (a tecnología digital actual.
1, Memoria:
J. Contiene estructuras que contienen ejemplares (tokens) de
símbolos.
b. Modificable de modo independiente a Lilgún nivel de detalle.
c. Memoria suficiente.
2. Símbolos:
él.Patrones que proporcionan acceso a estructuras simbólicas
distales.
b. Un ejemplar de un símbolo es la aparición de un patrón en una
e",truct ura.
c. Símbolos suficientes,
98
.3. Operaciones:
a. Procesos que toman estructuras simbólicas como entrada y
producen estructuras simbólicas como salida.
b. Cornposicionalidad completa,
-+. Interpretación:
a. Proceso" que tornan estructuras simbólicas como entrada y
producen conducta al ejecutar operaciones.
b. Interpretabilidad completa.
5. Interacción con el mundo externo:
u. Interfaces perceptivos y motores.
b. Memoria intermedia e interruptores.
c. Exigencias de acción en tiempo real.
d. Adquisición continua de conocimiento,
Resaltamos que estas funciones son sólo las que se conocen en la
actualidad. Especialmente con sistemas naturales como la cognición hu-
mana, pero incluso con sistemas artificiales, no conocemos [Odas la~
funciones que ~e realizan." Las fuentes básicas de nuestro conocimiento
de las funciones de la arquitectura es precisamente lo que "C ha omitido
en el apartado anterior, esto es, la evolución de las arquitecturas de los
ordenadores digitales y la correspondiente teoría abstracta de máquinas
que se ha desarrollado en informática. No vamos a fundamentar la lista
detalladamente en estos antecedentes. pero quien pretenda trabajar se-
riamente en arquitecturas cognirivas debería estar al corriente de ellos
(Minsky 1967, Bell & Newell J 971. Hopcroft & Ullman 1979, Siewio-
rek, Bell & Newell 1981, Agrawal 1996. Fernández & Lang 19Ró, Gajs-
ki, Milutinovic. Siegel & Furth 1987). A continuación nos ocuparemos
de los elementos de esta lista.
Sistemas simbólicos
99
lisis de las máquinas universales existentes. Sin embargo, hay muchas
variedades de sistemas universales. En efecto. un rasgo notable de la
historia de la investigación de la computación universal ha sido la crea-
ción de muchas formulaciones alternativas e independientes de la uni-
versalidad, que han resultado ser todas equivalentes. Máquinas de Tu-
ringo algoritmos de Markov, máquinas de registro, funciones recursivas,
redes neuronales de Pitts-Mcf.ulloch, producciones de Post. sistemas de
etiquetas, además de todo tipo de organizaciones de ordenadores digi-
tales: todas ellas encierran un modo de formular una máquina univer-
sal. Estas máquinas universales son todas equivalentes en flexibilidad y
pueden simularse mutuamente. Pero al igual que las arquitecturas (y por
las mismas razones) cada formulación es por sí misma un marco, y a
menudo presentan un diseño bastante específico e idiosincrático, como
la cinta. la cabeza lectora y el formato de instrucciones por quíntuplas
de una máquina de Turing. Aunque no le falte cierto encanto (¡cspecial
pero muy generll.Jl), esto tiende a oscurecer las funciones generales que
se requieren. La formulación que hemos elegido es el sistema simbáli-
cu:: (Ncwcll 1980), que es equivalente a todas las demás. Sin embargo,
el papel destacado que otorga a los símbolos ha resultado útil en las dis-
cusiones sobre la cognición humana y, al evitar los detalles específicos
de operación, resulta menos idiosincrática que otras formulaciones.
Los cuatro primeros elementos de la lista de funciones proporcionan
la capacidad para ser un sistema simbólico: memoria. simbolos, operacio-
JU'S e interpretación. Sin embargo, ninguna de estas funciones (ni siquiera
los símbolos) es la función de representación del mundo externo. Cier-
tamente los símbolos, proporcionan una función de representación inter-
na. pero la representación del mundo externo es una función del sistema
computacional en conjunto, de modo que la arquitectura sostiene esa re-
presentación, pero por 'lí misma no la propore iona. (Véase el capítulo f2]
para comprender cómo es posible esto, y cómo nos movemos del nivel del
conocimiento, que se refiere al mundo externo. hacia el nivel simbólico,
que contiene los mecanismos que proporcionan la capacidad de referencia
taboumesss.
Memoria y estructuras de memoria. El primer requisito es memoria,
es decir, estructuras yue persistan a lo largo del tiempo. En los ordena-
\ Se les ha llamado sistemas simbolicos fisicos (Ncwcll & Sirnon \976) para enfa-
tizar que su noción de símholo deriva de la infórmatica y de la inteligencia artificial.
por coruraposición con la noción de símbolo en las artes y humanidades. que puede que
resulte o no la misma. AqUÍ nos bastará con la expresión abreviada.
lOO
dores hay una jerarquía de memoria que se extiende desde los registros
de trabajo del procesador central (como el registro de direcciones), a los
registros usados para estados temporales (como un acumulador o una
pila de operandos, a la memoria primaria (que es de acceso aleatorio y
que contiene los programas y datos activos), a la memoria secundaria
(discos), a la memoria terciaria (cintas magnéticas). Esta jerarquía se
caracteriza por sus constantes temporales (velocidad de acceso. velo-
cidad de escritura y tiempo estimado de residencia) y por su capacidad
de memoria, en relación inversa: cuanto más lenta sea la memoria, más
cantidad disponible de ella habrá. La memoria más rápida es una parte
esencial de la dinámica operacional del sistema y ha de considerarse
conjuntamente con él. La memoria a largo plazo, de mayor capacidad.
satisface la exigencia de gran cantidad de memoria que se precisa para
la cognición humana.
La memoria se compone de estructuras, llamadas estructuras sim-
bólicas porque contienen ejemplares de símbolos. En los ordenadores
todas las memorias contienen los mismos tipos de estructuras. esto es.
vectores de bits (bytes y palabras). aunque ocasionalmente se encuentran
múltiplos mayores de tales unidades (bloques y registros). A un nivel de
detalle Jo bastante grande. las estructuras de memoria deben poder mo-
dificarse de modo independiente. Hay dos razones para esto. En primer
lugar. la variedad del mundo externo es combinatoria: comprende mu-
chas dimensiones independientes. con múltiples valores, situadas (e ite-
radas) por todo el espacio y el tiempo. Sólo una estructura de memoria
combinatoria puede mantener información acerca de un mundo seme-
jante. En segundo lugar, las dependencias predefinidas en la estructura
de memoria. al tiempo que facilitan ciertas computaciones, tienen que
dificultar finalmente la habilidad del sistema para computar de acuerdo
a los dictados del entorno. Al no reaccionar a las dependencias del en-
torno, las dependencias de la memoria se convierten en un estorbo. aun
cuando quizá sea posible compensarlo mediante computación adicional.
Desde luego. dentro de ciertos límites (que aquí llamamos el nivel de
detalle) las estructuras pueden exhibir diversas dependencias, lo cual
puede resultar útil."
Símbolos y ejemplares de símbolos. Los ejemplares de símbolos son
patrones en las estructuras simbólicas que proporcionan acceso a csrruc-
J Nótese, sin embargo. que en 10$ ordenadores que existen ha demostrado ser funcio-
nal llevar la independencia tan abajo como sea posible. hasta el bit.
101
turas de memoria distales, esto es, a estructuras que se encuentran en
otra parte de la memoria.' En las arquitecturas de ordenador estándar un
símbolo e~ una dirección de memoria y un ejemplar de un símbolo es una
cadena concreta de bits en una palabra concreta que se puede usar como
una dirección (transportándola hasta el registro de dirección de memoria.
como en la figura [3.1 J). La necesidad de símbolos'' se plantea debido a
que no es posible que toda la estructura implicada en una computación
sea ensamblada anticipadamente en el espacio físico de la computación.
Así que es necesario desplazarse a otras partes (distales) de la memoria
para conseguir la estructura adicional. En términos del nivel del cono-
cimiento esto e~ lo que se requiere para hacer que tollo el conocimien-
to del sistema ~e involucre en el logro de una meta. No es posible, en
general, conocer de antemano todo el conocimiento que va a usarse en
una computación (pues esto implicaría que la computación ya ha sido
llevada a cabo). Por tanto los ingredientes para un mecanismo simbólico
son algún patrón dentro de las estructuras qLle se están procesando (el
ejemplar) que puede usarse para abrir una ruta de acceso a una estructura
distal (y que puede suponer una búsqueda en la memoria) y una ruta de
recuperación por medio de la cual se puede comunicar con la estructura
distal para que informe el espacio local de la computación."
Operaciones. El sistema e~ capaz de realizar operaciones sobre es-
tructuras simbólicas para componer nuevas estructuras simbólicas. Hay
muchas variaciones de tales operaciones en cuanto a aquello que hagan
cuando construyen estructuras nuevas o cuando modifican estructuras
viejas, y en cuanto al modo en que dependen de otras estructuras de
símbolos. La forma que toman tales operaciones en los ordenadores es-
tándar es la aplicación de un operador a un conjunto de operandos. tal
y como ~e especifica en un formato fijo de instrucción (véase la figu-
~ Las estructura ... de acceso pueden estar consuuidas (y lo están en abundancia) den-
tro del softwar« M un ~i . . rema; nosotros estudi.rmos la capacidad básica de la arquircc-
tura que so-..Iiene tales mecanismos de software.
" Nótese que el término 5(ml'4>{0 se usa aquí para un tipo de estructura y de mcca-
nismo dentro de un sistema simbólico y 110. corno en simbolizar, corno un sinónimo
para ~i1go que representa. Esta noción de simbolo. sin embargo. requiere al menos repre-
-entación interna: las direcciones designan estructuras de memoria, los estímulos de entrada
deben proyectarse a e ...tructuras internas tijiJ. y los códigos de operador designan opera-
l,
c ronc-;
7 E~ concebible que esto pueda extenderse para incluir el mundo externo como un
nivel distal en la jerarquía de memoria del sistema (má~ allá dd nivel terciario), Los
ejemplares de símbolo'> especificarían direcciones en el mundo externo. y las rutas de
acceso y recuperación implicanan actos perceptivos y motores.
102
fa r3.l l). Los lenguajes de programación de alto nivel generalizan esto
a todo el alcance de un tormalivmo aplicativo. donde (F xl' x.?' .... x)
ordena al sistema que aplique la función F a los operandos x/' .... x" para
producir una estructura 11l1Cva.
Interpretación. Algunas estructuras (no todas) tienen la propiedad
de determinar que se produzca una secuencia de operaciones simbólicas
en estructuras Simbólicas específicas. Estas estructuras se conocen de
diversos modos. como codigos, programas, procedimientos, rutinas o
planes. El proceso de aplicación de las operaciones ~e conoce como
interpretación de la estructura simbólica. En los ordenadores estándar
esto se produce por medio del ciclo de extracción-ejecución (compárese
con la figura r3.ll l, mediante el cual se accede a cada instrucción. sus
operandos se descodifican y se distribuyen en diversos registros. y se
ejecuta la operación. La simplicidad de este esquema corresponde a la
simplicidad del lenguaje máquina y viene dictada por la complejidad de
aquello que pueda realizarse de modo eficiente y fiable directamente so-
bre el hardware. Se pueden compilar lenguajes procedimentales (de alto
nivel) más complejos en un programa elaborado en un lenguaje máquina
más simple, o se pueden ejecutar sobre la marcha (esto es, interpreta-
tivamente) por el microcódigo de un subcomputador simple. Hay otras
alternativas posibles, por ejemplo, construir una máquina específica de
propósito especial que incorpore las operaciones del programa y activar
entonces la máquina. Todas ellas vienen a ser lo mismo: la capacidad
para convertir estructuras simbólicas en conducta.
El sistema integrado. Tenemos ya todos los ingredientes de un sistema
simbólico, Estos son suficientes para producir conducta indefinidamente
flexible (requisito 1 de la lista). La figura [3.2] muestra la interacción
básica. Las operaciones pueden construir estructuras simbólicas que se
pueden interpretar para especificar nuevas operaciones que construyan
aún más estructuras simbólicas. Este bucle asegura la construcción de
conducta arbitraria en función de otras exigencias. Los únicos requi-
sitos adicionales son ciertas propiedades de suficiencia y complctud.
Sin suficiente memoria y suficientes símbolos el sistema será incapaz
de realizar tareas que exijan datos y referencias intermedias lo bastante
voluminosas, simplemente porque se quedará sin recursos. Sin comple-
tud en ~I bucle no se podrán producir ciertas secuencias de conducta.
Esto tiene dos caras: una composicionalidad completa. de modo que los
operadores puedan construir cualquier estructura de símbolos, e inter-
pretabilidad completa, de modo que sea posible que haya estructuras de
símbolos interpretables para cualquier disposición de las operaciones.
(03
Memoria
\ t
\ /
\ /
\\// \ /
Operaciones \
\ /
/
01-l'H Juones Op12r,;¡cIUlltoS
FIGURA 3.2
El bucle básico de interpretación y construcción
x Corno han mostrado los famosos resultados de Turing. Church y otros. este límite
no incluye toda posible dependencia funcional sino sólo una extensa subclase dc ellas,
conocida como funciones computables.
]04
primera lista. Para la adaptabilidad (requisito 2) proporcionan la habili-
dad de representar metas y de hacer que la acción se condicione a ellas.
Para el empleo de enormes cantidades de conocimiento (requisito 4.b),
proporcionan estructuras simbólicas en las que se puede codificar el co-
nocimiento, así como memorias arbitrariamente extensas con la habili-
dad añadida de acceder al conocimiento distal cuando se precise. Para
los símbolos. abstracciones y lenguaje (requisitos 5 y 6) proporcionan
la habilidad de manipular representaciones. Para el aprendizaje (requi-
sito 7) proporcionan la habilidad de crear estructuras simbólicas a largo
plazo.
105
y de qué caracterfsticas dependeré de las constantes temporales y de las
tasas de las múltiples entradas y salidas. Si los transductores son mucho
más lentos que el procesamiento interno el mismo transductor, por su-
puesto, se conviene en una memoria lo bastante precisa. Ademas deben
existir mecanismos de interrupcion para hacer frente a la transferencia
de procesamiento entre múltiples fuentes de información asíncronas.
La tercera función surge del carácter de las exigencias en tiempo
real del mundo externo (requisito 3 de la primera lista). El ambiente
proporciona un caleidoscopio de oportunidades y amenazas que cam-
bia continuamente, con ~us propias constantes temporales. Una conse-
cuencia pam la arquitectura es que haya capacidad de interrupción, de
modo que el procesamiento pueda cambiar a tiempo para las nuevas
exigencias. Ya ~e ha postulado la mecánica de la interrupción, pero las
exigencia." en tiempo real dejan igualmente claro un requisito de eva-
luación prccognitiva, esto es. de evaluación que tenga lugar antes de la
evaluación por parte del sistema cognitivo. Una exigencia que es más
difícil de especificar con exactitud. pero que no obstante e:-; real, es que
el procesamiento se oriente hacia una obtención rápida de respuestas.
Esta no puede ser una exigencia incondicional, si consideramos fijas
las constantes temporales de la tecnología de implementación (para la
cognición humana I()~ circuitos neuronales), puesto que computar más
rápido algunas cosas implica computar más lentamente otras y, más en
general. ex istcn complejidades computacionales intrínsecas. Aún así, se
recomiendan las arquitecturas que proporcionan una computación efec-
tiva con límites de tiempo.
La cuarta función surge como consecuencia de un entorno cambian-
te: el sistema no puede conocer de antemano todo lo que precisa saber
sobre un entorno semejante. Por tanto, el sistema debe adquirir conti-
nuamente conocimiento del entorno (parte del requisito 7) y debe hacer-
lo en constantes temporales dictadas por el enlomo (una forma menos
obvia del requisito 3). Los sistemas <imbólicos tienen la capacidad de
adquirir conocimiento. así que al menos en este respecto no está invo-
lucrada ninguna función nueva de la arquitectura. Sin embargo, el co-
nocimiento que se va a adquirir entra desde el entorno en tiempo real y
no bajo el control del sivtema. Se sigue que el aprendizaje también debe
acontecer esencialmente en tiempo real. Esto es en parte simplemente
la dinámica de la bañera: por término medio la cantidad de agua que
entra a una bañera (aquí. la experiencia codificada) debe ser igual a la
cantidad que ~e desagua (aquí. la experiencia procesada para convertirse
en conocimiento). Pero a esto se asocia el hecho de que el agua nunca
IOh
cesa de fluir al interior. a,í que no hay ocasión para que se procese en
los ratos libres.
Resumen
107
darte de la arquitectura de metanivel y de la reflexión (los artículos en
Maes & Nardi 1988 proporcionan una buena muestra). Las funcionali-
dades estudiadas incluyen cómo puede un sistema modelarse, controlar-
se, modificarse y razonar sobre sí mismo. Las técnicas para el manejo de
excepciones resultan ser un caso especial de la habilidad de un sistema
para razonar sobre sí mismo y modificarse. En el aspecto psicológico el
trabajo sobre metacognición nos ha hecho conscientes del modo en que
afecta a la actuación el conocimiento (o desconocimiento) de las propias
capacidades de una persona (Brown 1978). Hasta ahora. este trabajo no
parece tener claras consecuencias para la arquitectura, dado que está en-
focado en el desarrollo y uso de estrategias adaptativas que no parecen
requerir un acceso especial al estado de ejecución instantáneo del siste-
ma, que es obviamente la cuestión del soporte de arquitectura.
Visión general
108
segunda lista. La figura l3.3] nos da la estructura básica de Act, Hay una
memoria declarativa a largo plazo en forma de red semántica. Hay una me-
maria procedimental a largo plazo en forma de producciones. Se asocian
fuerzas a cada elemento de la memoria a largo plazo (tanto en Jos nodos
de la red como en las producciones) en función de su uso. Cada produc-
ción tiene un conjunto de condiciones que examinan los elementos de
una memoria de trabajo y un conjunto de acciones que crean nuevas es-
tructuras en la memoria de trabajo. La memoria de trabajo está basada
en la activación: contiene la porción activada de la memoria declarativa
y estructuras declarativas generadas por el disparo de las producciones y
por la percepción." La activación se propaga automáticamente (en fun-
ción de la fuerza del nodo) a través de la memoria de trabajo y de ahí a
otros nodos conectados en la memoria declarativa. La memoria de tra-
bajo puede contener meta:' que sirven como importantes fuentes de ac-
tivación. La activación. junto con la fuerza de la producción, determina
la rapidez con que se desarrolla el emparejamiento de producciones. La
selección de las producciones que se dispararán es un proceso competi-
tivo entre las producciones que encajan con los mismos datos. Se crean
nuevas producciones al compilar los efectos de una secuencia de dis-
paros de producciones y de recuperaciones de la memoria declarativa.
de modo que las nuevas producciones puedan ir directamente desde las
situaciones iniciales a los resultados finales. 10 Cada vez que se crea un
nuevo elemento en la memoria de trabajo. hay una probabilidad tija de
que se almacene en la memoria declarativa.
La figura (3.4] ofrece la correspondiente visión general de Soar, Hay
una única memoria a largo plazo. un sistema de producciones, que se
usa tanto para el conocimiento declarativo como para el procedimen-
tal. Hay una memoria de trabajo que contiene una jerarquía de metas,
información asociada con la jerarquía de metas, preferencias acerca de
lo que debe hacerse, información perceptiva y órdenes motoras. La inte-
racción con el mundo exterior se produce a través de interfaces entre la
109
4.pllUlClón
M~ml,r¡a ¡\1f:'II1QTta
dpc arativa productiva
-------
Alm;¡cenóje Encaje
t\llemorld
ReclIpe raoon dé trabajo Ejecución
- ~
r r;
Actuaciones
t'.'1undo E:xlerno
FlfilIR.'\ ~.~
I
I
l
Tlol eo
s .,ten-,ilS
11
)\S~éfílr\1)
percepuvGS .notores
'----- ~
I ~ \1 sculo"
¡Mundo externo !
FICil ;RA :3.4
Vista general de la arquitectura cognitiva Soar
110
memoria de trabajo y uno o más. sistemas perceptivos y motores. Todas
las tareas se formulan como búsquedas en espacios de problemas, esto
es, se parte desde algún estado inicial en un espacio y se encuentra un
estado deseado aplicando operadores que abarcan el espacio. En vez de
tornar decisiones acerca de qué producción ejecutar - todas las produc-
cienes yue se emparejan con éxito se disparan en paralelo- se toman
decisiones acerca de qué espacios de problemas, estados y operadores se
utilizan. Estas decisiones están basadas en preferencias recuperadas en
la memoria de trabajo desde la memoria de producciones. Cuando una
decisión resulta ser problemática (porque el conocimiento es incomple-
to o inconsistente). la arquitectura crea automáticamente una submcta y
la solución de problemas se torna la tarea de resolver el impasse en la
toma de decisiones. Esto genera una jerarquía de metas y, por tanto, de
espacios de problemas, Se crean continuamente nuevas producciones a
partir ele las huellas de la experiencia de Soar con la solución de proble-
mas basada en metas (un proceso llamado troceo (chunkingí);
Memoria
111
de almacenamiento y de acceso (aunque no puede conducir directamente
a la acción). Soar tiene sólo una memoria permanente de tamaño ilimita-
do. la memoria de producciones. que se usa tanto para el conocimiento
declarativo como para el procedimental. Soar no utiliza fuerzas.
La imagen expuesta es que Act' tiene dos memorias totalmente
distintas y que Soar tiene una que es similar a una de las memorias de
Act": Sin embargo, esta descripción superficial típica oculta algunos
aspectos importantes. Uno es que las producciones de Act" y Soar no
funcionan del mismo modo en sus sistemas respectivos (a pesar de que
tengan esencialmente la misma forma condición-acción). Las produc-
ciones de Act ' corresponden a operadores de solución de problemas.
Este es esencialmente el modo en que se usan las producciones en el
mundo de la lA y de los sistemas expertos. Las producciones de Soar
operan como una memoria asociativa. La parte de la acción de una
producción contiene las estructuras de símbolos que se mantienen en
la memoria: la parte de la condición proporciona la ruta de acceso a
estas estructuras ximbólicus. El disparo de una producción de Soar
es el acto de recuperar sus estructuras simbólicas. Los operadores se
implementan en Soar por medio de colecciones de producciones (o
búsqueda en las submetas). Otro rasgo oculto e~ que la memoria de
producciones de Act" se realiza como una estructura de red similar
en muchos aspectos a su red semántica. El efecto principal es que
la activación gobierna el ritmo de emparejamiento de producciones
del mismo modo en que la activación se propaga a 10 largo de la red
declarativa. Así que estas dos memorias no son tan distintas como
podría parecer.
Tanto en Act como en Soar el nivel de detalle de la memoria a largo
plazo (la unidad modificable de modo independiente) es relativamente
lino. al tratarse de la producción individual y, para la memoria declara-
tiva de Act", del nodo y la conexión. Esta es una unidad mucho mayor
que la palabra en ordenadores convencionales (en unos dos órdenes de
magnitud) pero mucho menor que el marco o el esquema (de nuevo en
unos dos órdenes de magnitud). Esla una característica importante de la
arquitectura. El marco y el esquema se han introducido bajo la hipótesis
de que la unidad de organización de la memoria tiene que ser relati-
vamente grande para expresar el carácter organizado del pensamien-
to humano (Minsky 1975). No es fácil hacer comparaciones de tamaño
entre unidades de organización de la memoria porque este es un punto
en el que se pone especialmente de manifiesto la naturaleza de cosmo-
visión idiosincrática que tienen las arquitecturas, y toda organización
112
de memoria tiene diversas unidades jerárquicas mayores y menores. No
obstante, tanto Act" como Soar se encuentran del lado del nivel fino de
detalle.
Las estructuras de memoria de Act" y Soar son las estructuras sim-
bólicas discretas familiares a partir de sistemas como Lisp. Existen di-
ferencias de detalle. Soar tiene una disposición uniforme de objetos con
conjuntos de atributos y valores. Act" tiene varias estructuras de datos
primitivas: atributos y valores (que se consideran el código proposicio-
nal abstracto), cadenas (que se consideran el código temporal) y matri-
ces tarravs) métricas <que se consideran el código espacial). El requisito
primario de una estructura de datos es et de variabilidad combinatoria
y todas estas estructuras 10 poseen. Las consideraciones secundarias se
refieren a las operaciones que se requieren para leer y manipular las
estructuras de datos, de acuerdo a lo que vengan a representar las estruc-
turas. Así pues. los ordenadores estándar tienen invariablemente rnülti-
pies estructuras de datos. cada una de ellas con operaciones primitivas
asociadas, por ejemplo. para la aritmética o el procesamiento de textos.
Acr' se inspira aquí en esta práctica estándar.
Símbolos
113
Resul ta útil identificar el par de características que dan MI sabor particu-
lar al acceso simbólico en los sistemas de producción. La primera caracte-
rística es el carácter dependiente del contexto que tiene el emparejamiento
de producciones. Las direcciones de máquina simples actúan como símbo-
10S independientes del contexto. No importa qué otras estructuras existan.
la dirección hace qll~ la información se recupere de la misma posición, I I
En un sistema de producciones un patrón particular puede ser un símbolo
que da como resultado un acceso independiente del contexto a las estructu-
ras de memoria, o (de modo más típico) puede conjugarse con patrones de
contexto adicionales para formar un símbolo más complejo que rr-stringe el
acceso parn que se produzca sólo cuando está presente el contexto.
El segundo rasgo e~ el carácter de reconocimiento que tiene el cmpa-
rejamicmo de producciones. Los ordenadores tradicionales acceden a la
memoria bien a través de punteros de posiciones de memoria arbitrarias
(de acceso aleatorio), bien por el acceso secuencial a posiciones adyacen-
tes (grandes almacenes secundarios]. En los sistemas de producciones los
símbolos se construyen con el mismo material que se procesa para la tarea,
de modo que el acceso a la memoria tiene un carácter de reconocimien-
to. asociativo o accedido por el contenido. Todas los esquemas pueden
sostener la universalidad; sin embargo, el esquema de reconocimiento
responde a J.o~ requisitos cognitivos adicionales. Primero. el acceso en
(aproximadamente) tiempo constante a la totalidad de la memoria respon-
de al requisito de tiempo real. Esto incluye acceso aleatorio y memorias
de reconocimiento. pero excluye a los sistemas de acceso secuencial tales
como las máquinas de Turing. Pero deben construirse esquemas de acceso
espectficos relevantes para la tarea. o el sistema quedará condenado a ope-
rar por generación y prueba (y lo mismo podría <cr una máquina de cinta).
Las memorias J~ reconocimiento construyen las rutas de acceso a partir de
los ingredientes de la tarea y por consiguiente evitan los actos deliberados
de construcción, que son precisos para 10S esquemas de posición-puntero.
Este puede ser en realidad un requisito esencial para un sistema de aprendí-
zajc que tenga LJue desarrollarse enteramente por sí mismo. La programa-
ción estándar implica programadores inteligentes que inventen esquemas
de acceso específicos basados en un análisis profundo de una tarea.!"
114
Operaciones
115
En Act' y Soar el almacenamiento de información en la memoria a
largo plazo está separado del acto de computación en la memoria de tra-
bajo. Viene incorporado en forma de aprendizaje de nuevas produccio-
nes, que se llama compilación de producciones en Act" y troceo en Soar
pero que son. no obstante. operacíones similares. El contexto de adqui-
sición de producciones es la ocasión en que se da satisfacción o término
a una meta. y la producción que se construye abarca desde las condi-
ciones que se daban antes de la n.. eta hasta las acciones que provocaron
la resolución tinal. La producción se añade simplemente a la memoria
de producciones a largo plazo y resulta indistinguible de cualquier otra
producción. Esta producción es funcional y produce en un paso lo que
originalmente precisaba muchos pasos. También constituye una forma
imp lícita de general ización en tanto que sus condiciones se e xtraen del
contexto total de la memoria de trabajo en el momento del aprendizaje,
y así pueden ser evocadas en situaciones que pueden ser arbitrariamente
distintas de forma irrelevante para estas condiciones. La compilación
de producciones y el troceo van bastante más lejos del soporte mínimo
para el aprendizaje a partir de la experiencia que proporciona un sistema
simbólico estándar. Sin que medie un esfuerzo o elección deliberados.
adquieren automáticamente conocimiento nuevo que está en función de
su experiencia respectiva.
Act' tiene otras formas de memoria aparte de las producciones y debe
tener necesariamente operaciones de almacenamiento en cada una de ellas.
Todas ellas son operaciones automáticas que no se producen bajo el control
deliberado del sistema. Una es la fuerza de las producciones. que gobierna
la rapidez en que se procesan y. por consiguiente. si se volvenin activas en
una situación concreta. Cada disparo con éxito de una producción aumenta
un poco su fuerza y, pur tanto. aumenta la probabilidad de que se dispare si
es que es satisfecha (otra forma de aprendizaje de la experiencia). La segun-
da e~ el almacenamiento en la memoria declarativa. Aquí hay simplemente
una probabilidad constante de que un elemento recién creado se convierta
en parte pennancnte de la memoria declarativa. El aprendizaje declarativo
responde al requisito de aprendizaje del contexto. En Soar el troceo realiza
esta función además de su función de aprendizaje de la experiencia.
interpretación
11 (l
su memoria a largo plazo, en particular, de las estructuras que el propio
sistema creó anteriormente. Un modo aparentemente equivalente es en-
contrar qué estructuras de memoria corresponden al programa en los
sistemas de ordenador típicos, es decir. las estructuras simbólicas que
especifican una secuencia de operaciones: haz esto, después haz lo otro,
después haz aquello, aunque también admite condicionales y llamadas a
subprocedimientos. Esto e" s.e buscan estructuras de símbolos compac-
tas que controlen la conducta a 10 largo de un intervalo prolongado.
Buscaremos en vano estructuras de símbolos semejantes en las des-
cripciones básicas de las arquitecturas de Act' y Soar, (Por supuesto,
pueden existir estructuras de programa, pero requieren intérpretes del
software). Sin embargo, se produce claramente conducta dependiente de
la memoria y se deriva de múltiples fuentes: sistemas de producciones.
conocimiento de control para la solución de problemas y estructuras de
metas.
La primera fuente es en ambos sistemas la forma de la interpretación
inherente a los sistemas de producciones. Un sistema de producciones
desmenuza el control en trozos (chunks) independientes (las produccio-
nes indi v iduales) diseminados por toda la memoria de producciones, y
a cada ciclo entran elementos de datos de la memoria de trabajo. Este
régimen de contra] a menudo se conoce como dirigido por los da/mi.
por contraste con el dirigido por las metas, pero esta caracterización
pasa por alto algunos aspectos importantes. Otro modo de enfocarlo
es como un ciclo rcconocitniento-acciún por contraste con el clásico
ciclo extraccion-eiecucion que caracteriza a los ordenadores estándar.
De acuerdo con e~te enfoque, una dimensión importante de la inter-
pretación es la cantidad de toma de decisión que tiene lugar entre los
pasos. El ciclo extracción-ejecución tiene básicamente un solo puntero
en un plan y tiene que dar pasos deliberados (realizando pruebas y rami-
ficaciones) para conseguir alguna condicionalidad en absoluto. El ciclo
reconocimiento-acción abre la interpretación en cada momento a todo
aquello que la actual memoria de trabajo pueda sugerir. Esto sitúa al
emparejamiento de producciones dentro del ciclo de interpretación.
La segunda fuente e~ el conocimiento de control que se usa para
seleccionar operadores de solución de problemas. En Act' las produc-
ciones son los operadores de solución de problemas. Como se ha des-
crito en el párrafo anterior, la selección de producciones está en función
del emparejamiento entre los elementos de la memoria de trabajo y las
condiciones de la producción. Sin embargo. también entran en juego al-
117
gunos factores adicionales para determinar el ritmo de emparejamiento
y, por tanto. el que una producción se seleccione para su ejecución. Un
primer factor e~ la activación de los elementos de la memoria de trabajo
que se emparejan. Un segundo factor es la fuerza de la producción que
se empareja. Un tercer factor es la competición entre producciones que
encajan con los mismos elementos de la memoria de trabajo de maneras
diterentcs.
En Soar los operadores de solución de problemas se seleccionan
a través de un ciclo de decisión de dos fases. Primero, durante la fase
de elaboración se accede a la memoria de producciones a largo plazo
repetidamente (las recuperaciones iniciales pueden evocar recuperacio-
nes adicionales) y en paralelo (no hay resolución de conflictos). hasta
alcanzar la aquiescencia. Puede recuperarse cualquier elemento. pero
entre éstos hay preferencias que dicen qué operadores son aceptables.
rechazahles o preferibles a otros. Cuando se ha acumulado toda la in-
formación posible. el procedimícnto de decisión criba las preferencias
disponibles y toma la siguiente decisión, que así conduce al sistema ni
siguiente ciclo.
En realidad Soar usa ~ste mismo intérprete básico para algo más
que la mera selección del operador a ejecutar. Siempre está tratando de
tomar la decisión precisa para operar en un espacio de problemas: para
decidir qué espacio Je problemas usar. qué estado usar en ese espacio
de problemas. qué operador usar en ese estado y qué estado usar como
resultado del operador. Esto es lo que obliga él que toda la actividad
tenga lugar en los espacios de problemas. Esto contrasta con el ordena-
dor estándar. que asume que toda la actividad se produce al seguir un
programa arbitrario.
La tercera fuente de conducta dependiente de la memoria es el uso
de estructuras de meta. AcC proporciona un soporte especial de arqui-
tectura para una jerarquía de metas en su memoria de trabajo. La meta
actual es una fuente importante de activación que opera. por tanto. cen-
trando la atención al hacer destacar las producciones que la tienen entre
sus condicione". La arquitectura se encarga de las tareas de guardar las
submetas completadas con éxito y de mover el foco hacia subsiguien-
tes submetas, proporcionando un recorrido de búsqueda en profundidad
por la jerarquía de metas. Así pues. caracterizar el procesamiento como
dirigido por los datos vs dirigido por las metas es un tanto erróneo. Act"
es un ejemplo paradigmático de un sistema de lA que usa metas y mé-
todos para lograr la adaptabilidad (requisito 2 de la primera lista). Las
118
tareas complejas se controlan por medio de producciones que constru-
yen la jerarquía de metas al añadir conjunciones de metas que hay quc
lograr en el futuro.
Soar usa una e...trategia mucho menos deliberada para la generación
de metas. Cuando el procedimiento de decisión no puede producir una
única decisión a partir de la colección de preferencias que vengan a acu-
mularse (porque. por ejemplo, no quedan opciones aceptables o quedan
varias opciones indistinguibles) se alcanza un impasse. Soar asume que
esto indica una carencia de conocimiento: con conocimiento adicional
de sus preferencias se habría alcanzado una decisión. P(1r tanto, crea
una subrneta para resolver este impasse. lJ n impasse se resuelve en el
momento en que se generan preferencias, de cualquier naturaleza. que
conducen a una decisión de un nivel superior. Así pues. Soar genera sus
propias subrnetas a partir de los impusses que pueda detectar la arqui-
tectura, en contraste con Act, que genera sus sub metas a través de la
acción deliberada de sus producciones. El efecto de las submeras delibe-
radas se logra en Soar por la combinación de un operador, que S~ genera
y selecciona deliberadamente, y un impasse que se produce si no existen
producciones que implementen el operador. En la submeta para este im-
passe el operador actúa corno la cspcciticación de una meta a alcanzar.
119
tivamente como sistema motor, aunque se encuentran ligados tan sólo
en la vertiente de la acción física. Como en Act", la memoria de trabajo
sirve como memoria intermedia entre el entorno y la cognición central.
El sistema total consiste en algo más que ir de la percepción a la
cognición central y de aquí al sistema motor. Hay producciones. cono-
cidas como producciones de codificacion y producciones de dcscodi-
ficacion. Son idénticas en estructura y forma a las producciones de la
cognición central. Difieren sólo en su independencia del ciclo de deci-
sión: sencillamente van por libre. En el aspecto de la entrada, i:l medida
4ue los elementos llegan autónomarnente desde el sistema perceptual,
las producciones de codificación proporcionan lo que podríamos llamar
un análisis sintáctico tparsing) perceptivo. que deja los elementos en
una forma que la cognición central pueda considerar. En el aspecto de
la salida, las producciones de descodificación proporcionan In que' po-
dríamos llamar la descodificación en un programa motor de las órdenes
emitidas por el sistema cognitivo en la forma que use el sistema motor.
El propio sistema motor puede devolver elementos a la memoria de tra-
bajo (posiblemente analizados por las producciones de codificación),
permitiendo que sean monitorizados y ajustados.
Toda esta actividad no está bajo control: estas producciones recono-
cen y ejecutan a voluntad, de modo concurrente entre sí y con la cognición
central. El control e~ ejercido por la cognición central, que ahora podernos
ver que consta básicamente de la arquitectura del mecanismo de decisión.
del cual fluye el ciclo de decisión. los irnpasses, la pila de metas y la or-
ganización del espacio de problemas. Además, la cognición central opera
esencialmente como una forma de control supervisor localizado que se
ejerce sobre las actividades autónomas y continuas de la memoria de tra-
bajo generadas por los sistemas perceptivos. los sistemas motores, y sus
producciones de codificación y descodificación asociadas.
Esto permite comprender una cuestión de arquitectura que ha con-
sumido mucha atención. a saber. ¡.dónde reside el carácter serial de la
cognición? La cognición central es sin duda serial. que es a lo que obliga
el mecanismo de decisión, y por tanto sólo puede tomar en considera-
ción parte de lo que suceda en la memoria de trabajo. El sistema serial
se encuentra i 111 puesto sobre L1n mar de acti vidad paralela autónoma para
asumir el control. esto es, para que el sistema pueda evitar que ocurran
acciones que no son de su interés. Así pues, la serialidad es un rasgo de
diseño del sistema. La scrialidad puede producirse también por otras ra-
zones. que se pueden resumir en líneas generales como restricciones de
120
recursos o embudos. Tales embudos pueden provenir de la naturaleza de
la tecnología subyacente y ser por tanto una limitación del sistema.
Las capacidades de interrupción se identificarán al hallar dónde pue-
de cambiar la conducta de una línea a otra que es radicalmente diferente.
En Act" el cambio ocurre por medio de la propiedad básica de selección
máxima que tiene un mecanismo de activación: el proceso que pueda
ofrecer la mayor activación puede hacerse con el control de la conducta.
En Soar el cambio se produce por medio del ciclo de decisión: podrá
controlar la conducta aquello que pueda poner en orden las preferencias
convenientes comparadas con las alternativas que compiten. El cambio
puede así producirse en un nivel fino de detalle. Tanto para Act" como
para Soar su mecanismo básico de cambio es también un mecanismo de
interrupción. puesto que las alternativas procedentes de todo el sistema
compiten en pie de igualdad. Esto surge del carácter abierto de los sis-
temas de producciones que contactan con la totalidad de la memoria a
cada ciclo. Así que a cada instante pueden producirse cambios radica-
les de rumbo. Esto contrasta con los ordenadores estándar. Aunque es
posible que haya cambios arbitrarios a cadu instrucción (por ejemplo,
bifurcarse en cero a un programa arbitrario), tales cambios deben deter-
minarse deliberadamente y por medio del programa (preconstruido) que
ya tiene el control. Por tanto. la cuestión para el ordenador estándar es
cómo interrumpirse. mientras que la cuestión para Soar y Act" (y presu-
miblemente para la cognición humana) es cómo mantenerse enfocado.
El aprendizaje a partir del ambiente conlleva el almacenamiento a
largo plazo de estructuras que están basadas en las entradas al siste-
ma. Act" almacena nuevas entradas en la memoria declarativa con una
probabilidad fija, a partir de la cual las entradas pueden ingresar en la
memoria de producciones por medio de la compilación, un proceso LJue
debería poder ir al ritmo de las exigencias de un entorno cambiante.
Soar almacena nuevas entradas en la memoria de producciones a través
del troceo. Esto implica que una entrada debe usarse en una submeta
para llegar a almacenarse y que el ancho de banda del entorno hacia la
memoria a largo plazo evtará en función del ritmo al que puedan usarse
las entradas del entorno.
Resumen
121
ferencias para evidenciar cómo realizan estas funciones sus estructuras.
L("\~ puntos comunes de Act y Soar son considerables, principalmente
porque ambas están construidas alrededor de sistemas de producciones.
Hemos visto que lo." sistemas de producciones o. de modo más general,
las arquitecturas basadas en el reconocimiento son una especie de ar-
quitectura que responde al requisito de tiempo real, que es claramente
uno de los que moldean más poderosamente la arquitectura, aparte de la
necesidad básica de computación simbólica.
El paso hacía los sistemas de producciones es, sin embargo. sólo el
primero de tres avances importantes que han desplazado a Act ' y Soar
conjuntamente hacia una parte del espacio de arquitecturas muy dife-
rente de la de todos los ordenadores clásicos, El segundo avance es el
abandono del formalismo de aplicación que supone aplicar operaciones
a los operandos. Este abandono no es una parte intrínseca de los sis-
temas de producciones, como lo evidencia el uso casi universal de la
aplicación en la parte de la acción de las producciones. Este segundo
avance encierra las operaciones realizadas sobre estructuras simbólicas
dentro de los actos de recuperación de la memoria. El tercer avance es la
separac ión del ac to de almacenar estructuras sim bó Iiras en la memoria a
largo plazo, los mecanismos de aprendizaje de Act ' y Soar, de los actos
deliberados de realizar tareas.
Hay algunas diferencias de arquitectura entre Act y Soar, aunque
no todas parecen ser diferencias substanciales cuando se las examina
cuidadosamente. Un ejemplo es la memoria dual declarativa y proce-
dimental de Act" frente a la memoria única de producciones de Soar.
Otra es el uso de la activación en Act" frente al uso de ejecuciones de
producción acumuladas (la fase de elaboración) de Soar, Una tercera es
el compromiso con espacios de problemas múltiples y el mecanismo
de impasse de Soar frente al entorno de espacio único con submetas
deliberadas de Act". Así pues. estas arquitecturas difieren lo bastante al
explorar una región del espacio de arquitecturas.
La desventaja de usar para la exposición dos arquitecturas estre-
chamente relacionadas es que 110 conseguirnos hacer que se aprecie lo
variado y rico en alternativas que es el espacio de arquitecturas. For-
zando un poco podríamos afirmar que hemos tocado tres puntos en el
espacio de arquitecturas: arquitecturas clásicas (von Neurnann). sis-
temas clásicos de producciones y Act" y Soar, Pero podríamos haber
examinado de modo provechoso lenguajes de aplicación (por ejemplo,
Lisp; cf. Steele 1984), lenguajes de programación lógica (por ejemplo,
122
Prolog; cf. Clocksin & Mcllish 1984), sistemas de marcos (o de esque-
mas) (por ejemplo. KLONE; cf. Brachman 1979). arquitecturas de pizarra
(por ejemplo. SS 1: cf. Hayes-Roth 1985), y también otras. Así mismo,
podríamos haber explorado el efecto del paralelismo. que tiene por sí
mismo muchas dimensiones relativas a la arquitectura. Esto ultimo se
ha excluido porque viene motivado principalmente por la necesidad de
explotar o compensar la tecnología de implementación. aunque (como
se ha señalado muchas veces) puede servir también como respuesta al
requisito de tiempo real.
123
científicos cognitivos: el tamaño de la memoria a corto plazo, el tiempo
que precisa una operación elemental, el tiempo para realizar un mo-
vimiento en un espacio de problemas y el ritmo de adquisición de la
memoria a largo plazo:
FIGURA ~.5
125
única memoria dentro de la cual se distingue la información sólo por la
profundidad en la que se ha procesado (Craik & Lockhart 1972).
126
operación. Si la actuación es posible en absoluto, probablemente será
única: hay un solo modo de comprobar la identidad de nombres en una
única operación básica. aunque es concebible que una arquitectura pu-
diera ofrecer un número finito de alternativas. A medida que aumenta el
tiempo disponible, aumenta lo que puede llevarse a cabo y aumenta el
número de modos de real izar una determinada tarea. Si se dispone de
100 scg. entonces hay probablemente varios modos de determinar si dos
nombres son idénticos. No obstante, la restricción vuelve a darse si las
exigencias de actuación aumentan deprisa.
Por tanto, hay una región en la que conocer la arquitectura posi-
bilita plantear conjeturas plausibles acerca de las secuencias de ope-
ración que usarán los humanos en una tarea. Consideremos la tarea
de búsqueda en la memoria explorada pur Sternberg y [discutida por
Bower & Clapper en el capítulo [7]] en relación a la metodología de
factores aditivos. El sujeto ve en primer lugar un conjunto de irerns H,
p YZ y después un ítem de prueba Q y debe decir lo más rápido posible
si el Ítem de prueba era uno de los de la secuencia. Hay tres regulari-
dades que hicieron famoso a este experimento. Primero, el tiempo de
respuesta es lineal respecto al tamaño del conjunto inicial (tiempo de
respuesta = 400 + 3 . 40 = 520 ms para el caso de arriba). ]0 cual su-
giere poderosamente el empleo de búsqueda (y prueba) serial a 40 ms
por ítem. Segundo, se mantiene la misma relación lineal con la misma
pendiente de 40 ms por Ítem tanto si el Ítem está en la lista como si no.
Esto contradice la estrategia obvia de finalizar la búsqueda cuando ~e
encuentre un ítem que coincide con el de prueba, lo cual conduciría a
una aparente tasa media de búsqueda para items de prueba positivos
que fuera la mitad que la de los items negativos: por término medio
se examinaría sólo la mitad de la lista para un ítem de prueba positivo
antes de encontrarlo. Tercero. la tasa de búsqueda (40 ms por ítem) es
muy rápida: los humanos emplean más de 100 ms por letra para decirse
el alfabeto a sí mismos.
reamo nos informan Bower & Clapper [capítulo 7J,J esta situación
experimental se ha explorado de muchas maneras diferentes y ha dado
lugar a un importante método experimental (el dcfactores aditivosv para
evaluar cómo toman parle los diferentes factores en los fenómenos. Para
nosotros el foco se centra en la velocidad a la que parecen suceder las
cosas. Los acelerados tiempos de reacción de unos 400 ms se acercan
ya a la arquitectura. y los fenómenos que suceden un orden de magni-
tud más rápido (40 ms por ítem) deben acercarse al límite inferior de
la arquitectura. Esto es especialmente patente cuando se considera que
[27
las neuronas son esencialmente dispositivos de l-rns, de modo que los
circuitos neuronales son dispositivos de ID-rus.
128
Conexiones ocultas
129
Eliminación de! grados teóricos de libertad
6. Conclusiones
130
cognitiva. Estas cuestiones tienen sus raíces en aspectos más generales
de la ciencia cognitiva. pero nuestra atención ~e Centra en las consecuen-
cías para la arquitectura cognitiva.
La lista de requisitos que podrían moldear la arquitectura contiene
algunos elementos cuyos efectos sobre la arquitectura no conocemos
aún, en particular las cuestiones de adquirir capacidades durante el de-
sarrollo, de vivir autónornamcntc en una comunidad social y de exhibir
autoconciencia y un sentido del yo (requisitos g-l O).
Otra cuestión es el efecto sobre la arquitectura del hecho de ser una
creación de la evolución biológica que se originó a partir de estructuras
previas moldeadas por los requisitos de la función previa. Así pues, es-
peraríamos que la arquitectura estuviera acusadarnente moldeada por la
estructura de los sistemas perceptivo y motor. De hecho, sabernos por
los estudios anatómicos y fisiológicos que extensas cantidades del ce-
rebro y la médula espinal están dedicadas a estos aspectos. La cuestión
L~ qué tipo de arquitectura se desarrolla !'li evoluciona a partir de los
sistemas perceptivo y motor de Jos mamíferos. que existen como contro-
ladores sofisticados pero incapaces aún de la flexibilidad que proviene
de la programabilidad completa. Por debajo del nivel de la organización
de los sistemas perceptivo y motor. por supuesto, está su realización en
grandes circuitos neuronales densamente interconectados. Aquí. con los
esfuerzos conexionistas (capítulo [41) se está intentando vigorosamente
comprender cuales son las consecuencias para la arquitectura.
Una cuestión análoga es la relación de la emoción, el sentimiento y
el afecto con la cognición. A pesar del interés recientemente despena-
do y de una larga historia en la psicología (Frijda 1986 L no existe aún
una integración satisfactoria de estos fenómenos en la ciencia cognitiva.
Pero el sistema mamífero está claramente construido como un sistema
emocional, y necesitarnos entender de qué modo moldea esto la arqui-
tectura, si es que lo hace en absoluto.)}
Concluimos indicando que la mayor cuestión abierta con respecto a la
arquitectura en ciencia cognitiva no reside en todos estos fenómenos cuyo
impacto en la arquitectura sigue siendo oscuro. Más bien es nuestra falta
casi total de experiencia en trahajar con arquitecturas cognitivas comple-
las. Nuestras teorías cuantitativas y razonablemente precisas han sido es-
l' Los sentimientos y emociones pueden tratarse como análogos a las sensaciones
de modo que pudieran afectar al contenido del sistema cognitivo. incluyendo incluvo
...eñalcs insistentes. pero sin afectar de todos modos él la forma de la arquitectura.
131
trechas; nuestras teorías generales han sido amplias y vagas. Incluso donde
nos hemos aproximado a una arquitectura razonablemente comprehensiva
(Act' es el ejemplo principal). trabajar con ella ha sido lo bastante arcano y
difícil para que no hayan emergido comunidades de científicos cualificados
en su arte. Así que sabemos poco acerca de qué rasgos de una arquitectura
dan cuenta de qué fenómenos, qué aspectos de una arquitectura conectan
qué fenómenos con otros, y cómo son de sensibles a las variaciones en la
arquitectura las diversas explicaciones. Prácticamente la única experiencia
que tenemos con los usos de las arquitecturas descritos en la sección [51 es
el análisis con parámetros generales.
Estos tipos de comprensión no emergen de un solo estudio o de
muchos estudios realizados por un único investigador. Provienen de que
haya mucha gente que explora y ajusta la arquitectura para muchos pro-
pósitos diferentes hasta que las derivaciones de los diversos fenómenos
de la arquitectura se hacen estándar y se comprenden. Provienen. como
con tantos aspectos de la vida. de vivirlos.
Referencias
132
BROWN. A. L 1978. «Knowing when, where, and how to rernember: A problem
in metacognition». In R. Glaser, ed. Advances in Instructional Psvcholoey.
Hillsdale, NJ: Erlbaum.
CARD, S., MORAN. T. P., and Nr-.WELL. A. 1983. The Psychologv of HU11ILlII-
Computa lnteraction. Hillsdale. NJ: Erlbaum.
CLOCKSLN, W. F., and MCLLlSH, C. S. 19~4. Programming in Prolog. 2nd ed.
New York: Springer- Verlag.
CRAIK, E I. M., and LocKHART. R. S. [(H2. «Levcls of processing: A framework for
memory research». Journal of verbal Learning and Verbal Behavior 11: 671-
684.
FUGENB;\l'M, E. A .. and SIMON, H. A. 1984. «El'Alvl-like models ofrecognition
and learning-. Cognitive Science ~: 305-336.
FERNANDEZ. E. B.. and LAN<i, T. 1986. Software- Orirnted Computer Architec-
ture. Washington, DC: Computcr Society Press.
FRIJDA\ N. H. 198h The Emotions. Cambridge, Engl.: Cambridge University Prcss.
GAJ5¡":1. D. D.. MILUTINOVIC, V. M" SIEGEL, H. J., and FURHT. B. P. 1987. Com-
puter Architecturc, Washington, DC: Computer Society Press.
HAYES-RoTH, B. 1985. «A blackboard architecture for control». Artificial Inte-
lligence 26: 251-321.
HOPCROFf. J. E., and U LLMAN . J. D. 1979. lntroduction to Automata Theorv,
Languages and Computution. Reading. MA: Addison-Wesley.
KLAHR. D. 1989. «lnformation processing approaches to cognitive develop-
ment». In R. Vasta. ed. Annals of Child Development. Greenwich. CT: JAl
Prcss, pp. 131-183.
LAIRD, J. E., NEWELL, A .. and ROSENBLOOM. P. S. 1987. Soar: «An architecture
for general intelligence», Artificial lntelligence 33(1): }-64.
L~IR(). J. E., ROSENBLOOM, P. S., and NEWELL, A. 1986. «Chunking in Soar: The
anatorny of a general learning rnechanism». Machine Learning 1: 11-46.
MAE~, P., and NARDI, D .. eds, 1988. Meta-Leve! Architectures and Reflection.
Arnsterdarn: North-Holland.
MIN~KY. M. 19(,7. Computation: Finite and infinite machines. Englewood
Clirf~. NJ: Prentice-Hall.
MINSKY, M. I Q75. «A framework for the reprcscntation of knowledge». In P.
Winston. ed. The Psvchology of Computer Visiono New York: McGraw-HilL
NEWELL, A. 1973. «Production systcrns: Models uf control structures». In W. e.
Chase, ed. Visual Information Processing, New York: Acadcmic Prcss.
NEWELL, A. 19xO. «Physicaí syrnbol systems», Cognitivo Science 4: 135-183.
NEWELL, A. 1987 (Spring). Un ified theories of cognition. The William James
lectures. Available in videocassette, Psychology Departrnent, Harvard Uni-
versity, Cambridge. MA.
NEWELL A .. and ROSENBLOOM. P. S. (Q81. «Mechanisrns of skill acquisition
and the law of practico». In J. R. Anderson, ed. Cognitive Skills and Their
Acquisition. Hillsdalc. NJ: Erlbaum.
133
NI-:WI-JL A.. and SIMON, H. A_ 1972. Human Problcm Solving, Englewood
CJiff~. NJ: Prcnlice-Hall.
NEWELL, A., and SI\lOl\, H. A. 1976. «Computer sciencc as cmpirical enquiry:
Symbols and -carch-: Communications (~I tlic ACM 19(3): 113-126.
Pnl K, T. A.. and NE\\/I-J .1.. A. 1988 (August). -Modeling human syllogistic rea-
soning in Soar». ln Prorc__ -cdings Cognitivc Sciencc Annual Conjcrence- J 988.
Cognitivo Science Socicty, pp. 181- un.
RnsENBLoOM. P. S.. and Nl:Wl:LL. A. 1986, «Thc chunking of goal hicrarchies:
A generali/cd modcl of practice». In R. S. Michalski, J. G. Carbonell. and
T. M. Mitche!l. cd. Machine Leurning : ..111 Artificial lntelltgencc Approach,
Vol. .2. Los Altos. CA: Margan Kaufrnann Puhlishers. Inc.
ROSENRLOOM, P. S.. and NFwcLL. A. 1988. «An iniegratcd computational model uf
stirnulus-response rornpatibility and practice». In G. H. Bowcr, ed. Tite Psv-
cholog.-I,' of Learning 1I1lJ Motivation. Vol. 21. New York: Acadernic Press.
R()~t.NULOO~. P. S. L.o\JRD. J. E .. and NEWELL. A. 198R. «The chunking of skill
und knowledgc». In H. Bouma and B. A. G. E1sendoorn. eds. l-l.'orkillg Mo-
deis ot Human Pcrception. London: Acadernic Prcss, pp. 391--+-+0.
SCHr-.;ElDER. W.. ano SIIIlTRl:\. R. M. 1977_ «Controlled and automatic human
informa/ion processing: 1. Detection. search and artention». Psvchological
Rel'Ú'H' 8-k 1-66.
SH IFFR IN. R. M., anJ SCH1\l--ll)l,~. Vi. 1977. «Controllcd and autornatic human
inforrnation processing: 11. Perceptual Icuming. autorn atic attending. and á
general theory». Ps.....clwloJ.:iclIl Review ~4: 127---190.
SIL \\IOREK. D.. BELI.. G.. and NEWEU .• A. 1981. Computa Structures: Principles
í/1IlI Examples. Ne\V York: McGraw-HilJ.
STEELL G. L.. JI'.. ed .. wirh contributors FAHLMAN. S. E., GABRIl:L. R. P., MüON.
D. A.. and Wi::.lf\,'REB. D. L. 1994. C0J111110/l Lisp: Tite Languugc. Marlboro,
MA: Digital Pres~.
STEII--.R, D. E.. LAIRD. J. E.. Nl:WtLL. A.. ROSENBLOOM. P. S .. FLYt-:N. R. A.. GOL-
D1NG. A .. POLK, T. A .. SHIVERS. O. G.. UNRUH, A., and Yos'i. G. R. 1987
(June,. «Varieties of learning in Soar: 1987~~. In Proi eedings of the Fourth
lntrrnational WorkshoIJ 0/1 Maclune Lcarning, Los Altos, CA: Morgan Kau-
frnann.
V-\NLEHN. K., ed. 1989. Architccturesfor lntelligcncr. Hillsdale, NJ: Erlbaurn.
VON CI<¡\l\¡\CII. M .. Foppa. K., Lepinies. \Y., and Plogg, D., eds, 1979. Human
Etltologv: Claims and Liniits ola NeH' Discipline. Cambridge. Engl.: Cam-
bridge Univcrstiv Press.
]34
LA ARQUITECTURA DE LO MENTAL:
UN ENFOQUE CONEXIONISTA
David E. Rurnelhurt
Recuerdo vivamente una clase que yo impartí hace unos quince años
donde expuse la noción de s istcrna cognitivo entonces vigente. Un estu-
diante particularmente escéptico desafió mi descripción, que se apoyaba
en conceptos extraídos de las ciencias de la computación e inteligen-
cia artificial. preguntando mi opinión acerca de si mis teorías hubieran
sido diferentes en el caso de que los computadores fuesen paralelos en
lugar de seriales. En mi respuesta, recuerdo, concedí que nuestras teo-
rías bien pudieran haber sido diferentes, pero añadiendo que ello no
supondría nada malo. Señalé que la inspiración para nuestras teorías y
para nuestra comprensión de los fenómenos abstractos siempre se hava
en la experiencia con la tecnología de cada época. Aristóteles concebía
la memoria como una tabla de cera; Leibniz contemplaba el universo
corno un sistema de relojeria; Freud usó un modelo hidráulico para el
flujo de la libido a través del sistema, e incluso el modelo de inteligencia
como una centralita telefónica ha desempeñado un importante papel.
La teorías propuestas por las generaciones anteriores habían sido útiles
- sugerí- a pesar de haberse basado en las metáforas de su tiempo. Por
consiguiente. argumenté. era natural que nuestra generación -la gene-
ración del ordenador serial- se hubiese inspirado a partir de analogías
con los desarrollos tecnológicos más avanzados de nuestro tiempo. No
135
recuerdo ahora sí mi respuesta dejó satisfecho al estudiante, pero no
me cabe duda de lo mucho que hemos ganado con el uso de conceptos
extraídos de nuestra experiencia con Jos ordenadores.
En adición a su valor como fuente de metáforas. el ordenador tie-
ne notables diferencias con respecto a anteriores tecnologías: puede ser
utilizado para simular sistemas cuyas operaciones son muy diferentes a
los ordenadores en los que se realizan tales simulaciones. De este modo.
podemos utilizar ordenadores para simular sistemas con los cuales de-
seamos experimentar. proporcionando de ese modo una ruente de expe-
riencia que puede ser aprovechada para dotarnos de nuevas metáforas
acerca de cómo pueden llevarse a cabo lal:¡ operaciones mentales. Este es
el uso que los concxionistas hemos hecho del ordenador. La arquitectura
que exploramos no ~e basa en la arquitectura von Neumann de nuestra
actual generación de ordenadores. es más bien una arquitectura basada
en consideraciones acerca de corno podrían funcionar Jos propios cere-
bros, PUl' consiguiente, nuestra estrategia consiste en ofrecer un modelo
abstracto y general de la arquitectura computacional de los cerebros.
desarrollar algoritmos y procedimientos. adecuados a tal arquitectura.
simular dicha arquitectura y tales procedimientos en ordenadores, y
examinarlos como hipótesis acerca de la naturaleza del sistema de pro-
cesamiento de información humano. Decimos que estos modelos están
inspirados neuronalmentr, y denominados a la computación que tiene
lugar en tales sistemas computación de estilo cerebral. En dos palabras.
nuestro objetivo es reemplazar la metáfora del ordenador por la metá-
fora del cerebro.
136
o Apple. estaremos usando ordenadores de idéntico diseño general. Si
consideramos una arquitectura esencialmente diferente, veremos que la
arquitectura supone una diferencia importante. La arquitectura deterrni-
na qué clase de algoritmos pueden ser ejecutados más fácilmente en la
máquina en cuestión. La arquitectura es la que determina la naturaleza
esencial del programa mismo. Por consiguiente, resulta razonable co-
menzar por preguntarnos qué conocemos acerca de la arquitectura del
cerebro y cómo ésta podría configurar los algoritmos subyacentes a la
inteligencia biológica y a la vida mental humana.
La estrategia fundamental del enfoque concxionista es adoptar como
unidad básica de procesamiento algo parecido a una neurona abstracta.
Imaginarnos que la computación se lleva a cabo a través de interaccio-
nes simples entre dichas unidades de procesamiento. La idea consiste
esencialmente en que esos elementos de procesamiento Se comunican
enviando números a través de las líneas que los conectan entre sí. Esta
identificación proporciona ya algunas restricciones interesantes sobre la
clase de algoritmos que podrían subyacer a 11.} inteligencia humana.
Así pues. las operaciones en nuestros modelos pueden '1er caracte-
rizada~ mucho mejor como «inspiradas neuronalmentc». ¿.C6mo afecta
a nuestra concepción la sustitución de la metáfora del ordenador por la
del cerebro como modelo de lo mental? Este cambio de orientación nos
conduce a una serie de consideraciones que informarán y restringirán
nuestros esfuerzos modelistas, Quizá el más importante es el tiempo. Las
neuronas son notablemente lentas si las comparamos con los componen-
tes de los ordenadores modernos. Las neuronas operan en una escala de
milisegundos. en cambio, los componentes de los ordenadores operan
en la escala de nanosegundos -es decir, un factor l O" más rápido. Esto
significa que los procesos humanos que consumen aproximadamente
un segundo o menos sólo pueden emplear cien pasos o menos. Dado
que la gran mayoría de los procesos que hemos estudiado -percep-
ción, recuperación de memoria. procesamiento del habla, comprensión
de oraciones. etc ... - consumen más O menos un segundo, tiene sentido
imponer lo que Feldman (1985) denomina la restricción del «programa
a ]00 pasos». Es decir. buscamos explicaciones para aquellos fenóme-
nos mentales que no requieren más de cien operaciones secuenciales
elementales aproximadamente. Dado que los procesos que intentamos
caracterizar son con frecuencia tremendamente complejos y pueden
requerir dar cuenta de un gran número de restricciones simultáneas.
nuestros algoritmos tienen que incluir un paralelismo considerable. Por
tanto, aunque pudiera diseñarse un ordenador serial a partir de los com-
137
ponentes representados por nuestras unidades, tal implementación vio-
laría seguramente la restricción del programa a 100 pasos incluso en el
caso de los procesos más simples. Alguien podría argumentar que, aun-
que resulta obvio que el paralelismo se encuentra presente en la mayoría
de 1()~ procesos de información humanos. tal hecho por sí mismo no
tendría por qué modificar demasiado nuestra concepción. Pero ésto es
poco probable. La velocidad de los componentes supone una restricción
crítica para el diseño. Aunque el cerebro tiene componentes lentos, tie-
ne muchisimos. El cerebro humano contiene miles de millones de tales
elementos de procesamiento. En lugar de organizar la computación con
muchos. muchísimos pasos seriales, como hacemos con lov sistemas
cuyos paso~ -on muy rápidos. el cerebro tiene que desarrollar muchí-
"irnos elementos de procesarnicnto que funcionan coopcrativamcntc
y en paralelo para llevar a cabo su actividad. Entre otras cosas. estas
caractensticas de diseño conducen. en mi opinión, a una organización
general de la computación que difiere- de forma drástica de aquélla a la
que estamos acostumbrados.
Una consideración adicional establece diferencias entre nuestros rno-
delos y los inspirados en la metáfora del ordenador -a saber. el hecho de
que todo el conocimiento reside en/as conexiones. Por nuestra experien-
cia con los ordenadores programables convencionales estamos acostum-
brados a pensar acerca del conocimiento como almacenado en el estado
de determinadas unidades en el sistema. En nuestros sisterna« suponemos
que solamente puede darse en los estados de las unidades un almacena-
miento a muy corto plazo; el almacenamiento a largo plazo tiene lugar
en las conexiones entre la~ unidades. En realidad. son las conexiones -o
quizás las reg las para fonnarl as mediante l a ex periencia - lo que disti11-
gue fundamentalmente un tipo y otro de modelos. Se [rata de una pro-
funda diferencia entre nuestro enfoque y los más convencionales, pue~
supone que casi todo el conocimiento se encuentra implicito en la estruc-
tura del sistema que ejecuta la tarea, en lugar de hallarse explícito en los
estados de las propias unidades. El conocimiento no resulta accesible
directamente para su interpretación por parte de algún procesador sepa-
rado, sino que está construido dentro del procesador mismo y determina
directamente el curso del procesamiento. Se adquiere mediante el ajuste
de las conexiones a medida que éstas se emplean en el procesamiento, en
lugar de estar formuladas y almacenadas como hechos declarativos.
Estas y otras hipótesis de trabajo inspiradas ncuralmente han ccns-
tituido una importante fuente de hipótesis subyacentes al programa de
investigación conexionista. No han sido éstas las únicas consideraciones.
138
A partir de nuestras creencias acerca de la naturaleza del procesamiento
humano de información considerado a un nivel más abstracto. computa-
cional, surge un segundo tipo de restricciones. Consideramos los fenó-
menos que hemos estado investigando como productos de una clase de
procedimiento de satisfacción de restricciones en el que un gran número
de restricciones actúan ximultáneamente para producir la conducta, Así
pues, vemos la mayor parte de la conducta. no como el producto de un
componente del sistema cognitivo sólo. separado, sino como el producto
de un enorme conjunto de componentes interactivos. que se restringen
mútuarnente. contribuyendo cada uno en su medida a la conducta global
observable del sistema. Es [HUY difícil utilizar algoritmos seriales para
implementar esta concepción. y sin embargo, resulta natural utilizar al-
goritmr», de elevado paralelismo. Estos problemas pueden ser caracteri-
zados frecuentemente como problemas de optimiracián (best-motchs. Tal
y como Minsky y Papert (1969) señalaron, resulta muy difícil solucionar
los problemas de optimización de forma serial. Sin embargo. éste es pre-
cisarnente el tipo de problemas yue se implementa fácilmente utilizando
algoritmos de gran paralelismo como los que investigarnos nosotros.
Así pues. el uso de sistemas de estilo cerebral brinda buenas pers-
pectivas, no sólo para caracterizar cómo los cerebros llevan a cabo real-
mente ciertas tareas de procesamiento de información. sino que ofrecen
soluciones a los problemas computacionales que parecen tener una di-
fícil solución en los sistemas computacionales tradicionales. El valor
último de los sistema.. concxionistas debe ser juzgado precisamente u
este respecto.
Hemos comenzado este capítulo con un esbozo más o menos formal
del marco computacional de los modelos conex ionistas, continuando
con una discusión general acerca de los tipos de problemas cornpuracio-
nales que los modelos conexionistas ~e encuentran especialmente bien
preparados para abordar. Por último, vamos a describir brevemente la
situación actual en la modelización conexionista.
El marco conexionista
I.N
- una función output para cada unidad que aplica su estado de ac-
tivación en un output;
- un patrán de conectividad entre las unidades;
una regla de activación para combinar los inputs que llegan a
una unidad con su estado en ese momento para producir un nue-
vo nivel de activación en la unidad;
una regla de aprendizaje según la que los patrones de actividad
resultan modificados por la experiencia;
un entorno dentro del cual el sistema tiene que funcionar.
La figura 4.1 ilustra los aspectos básicos de estos sistemas. Hay un
conjunto de unidades de procesamiento, indicado normalmente en los
diagramas mediante círculos; en todo momento cada unidad 1I¡ tiene un
valor de activación. señalado en el diagrama como a, (1); este valor de
activación produce un valor output 0i (1) a través de una función t. El
valor output puede verse como pasando a través de un conjunto de co-
ncx iones unidireccionales (indicadas mediante líneas o flechas en los
diagramas) hacia las demás unidades del sistema. Cada conexión va
asociada a un número real, habitualmente denominado peso o fuerza de
la conexión, que se designa mediante \-\·11' que determina el efecto de la
primera unidad sobre la segunda. Así pues, todos los inputs tienen que
combinarse, y los inputs combinados con una unidad (normalmente de-
nominada la red input para la unidad), junto con su valor de activación
en ese momento, determinan su nuevo valor de activación mediante una
función F. Estos sistemas se consideran plásticos en el sentido de que
el patrón de interconexiones no se encuentra fijado para todo momento:
al contrario. los pesos ~e modifican en función de la experiencia. De
este modo, el sistema evoluciona. Lo que representa cada unidad puede
cambiar con la experiencia, y el sistema llega a comportarse en formas
subs tanci al mente di terentes.
140
()
I".{~J
-11\ O' .Ift
':[l]
..... o
nn::llhald Chup\I¡ 11#1. - l",,"}!')
FII..et;" Sipo.d ~c,i_¡a"
r"'C'f'iGft
FIGURA 4.1
Los componentes básicos de un sistema de procesamiento
distribuido en paralelo
141
de fuentes exteriores al sistema bajo estudio. Estos pueden ser inputs
sensoriales, o bien inputs procedentes de otras partes del sistema de pro-
ccsam icnto en e I que está incluido el modelo. Las unidades O1l1¡>1I1 envían
seilaks fuera del sistema. Pueden afectar directamente a los sistemas mo-
tores. o simplemente influir en otros sistemas externos a aquéllos que nos
encontramos modelando. Las unidades ocultas son aquéllas cuyos inputs
y outputs se encuentran dentro del vistcrna bajo modelización. No resul-
tan «visibles» para los sistemas externos.
142
sobre otra a no ser que su activación supere detcnninado valor. Otras veces
se supone que la función/es una función estocástica en la tIue el output de
la unidad depende de sus valores de activación de forma probabilística.
143
estado de la unidad en ese momento para producir un nuevo estado de
activación. Se necesita una función E YUC' toma a(t) y los inputs de la
red, net I = L. \1' 11out J\.1 produce un nuevo estado de activación. En los
I
144
aprendizaje sugerida por Hcbb (1949) en su libro ya clásico Organiza-
tion of Behavior. La idea básica de Hebb es la siguiente: si una unidad
u, recibe un input de parte de otra unidad uJ' entonces, si ambas se en-
cuentran muy• activas, el peso w 'J dc uJ a u debería reforzarse. Esta idea
J
Esta es una regla utilizada por Grossberg (1976) y otros para el es-
tudio del aprendizaje competitivo. En este caso habitualmente sólo a las
unidades con mayor fuerza de activación les está permitido aprender.
145
el espacio de patrones input. Es decir. suponemos que en cada instante
temporal existe alguna probabilidad de que cualquiera de los posibles
conjuntos de patrones input se encuentre afectando a las unidades input.
Esta función de probabilidad dependerá. en general, de la historia de los
inputs del sistema así como de sus outputs. En la práctica, la gran mayo-
ría de los modelos conexionistas admite una caracterización del entorno
mucho más simple. Típicamente. el entorno es caracterizado mediante
una distribución cstanle de probabilidad sobre el conjunto de los patro-
nes input posibles con independencia de los inputs anteriores y de las
correspondientes respuestas dadas por el sistema. En este caso podemos
imaginarnos haciendo un listado del conjunto de inputs posibles para el
sistema y enumerándolos de 1 a M. Entonces el entorno se caracteriza
mediante el conjunto de probabilidades P, para i = 1, ... , ~1. Dado que
cada patrón input puede ser considerado como un vector. a veces resul-
ta úti] caracterizar estos patrones con probabilidades distintas de cero
como constituyendo conjuntos de vectores ortogonales \.1 linealmente
independientes.
En resumen. el marco concxionista no sólo consiste ~n un lenguaje
formal. sino también en una perspectiva acerca de nuestros modelos.
Otras consideraciones cualitativas y cuantitativas que surgen a partir
de nuestra comprensión del procesamiento cerebral y de la conducta
humana se combinan con el sistema formal para ofrecer lo que podría
ser contemplado como una estética para nuestra empresa de con ..truir
modelos.
146
Satisfaccián de restricciones. Buena parte de los problemas de la
ciencia cognitiva son conccptualizados con frecuencia como problemas
de satisfacción de restricciones. donde la solución viene dada por me-
dio de la satisfacción de un gran número de restricciones mutuamente
mteractivas. El problema es dar con un algoritmo computacional capaz
de implementar un sistema de este tipo de forma eficiente. Los sistemas
I....onexionistas son óptimos para la implementación de un sistema tal de
147
hipótesis acerca de un vértice en una línea de un cubo de Necker. La red
está compuesta de dos subredes interconectadas -correspondientes a
cada una de las dos interpretaciones globales de un cubo de Necker. Se
supone que en cada una de las redes cada unidad recibe sus inputs de la
región de la figura input -el cubo- correspondiendo a SLl localización
en la red. Cada unidad en la figura 4.2. es etiquetada con una secuencia
de tres letras que indica si su vértice se concibe como estando delante o
detrás (F o B), arriba o abajo (U o L), y a la derecha o a la izquierda (R
o L). As], por ejemplo. se supone que la unidad más baja a la Izquierda
de cada subred recibe su input del vértice izquierdo más bajo de la fi-
gura input. La unidad en la red izquierda representa la hipótesis de está
recibiendo inputs del vértice izquierdo más bajo de la superficie frontal
del cubo (por eso es etiquetada FLL), mientras la unidad en la red dere-
cha representa la hipótesis de que está recibiendo inputs del vértice iz-
quierdo más bajo de la superficie trasera del cubo (BLL). Como existe
la restricción de que cada vértice sólo tiene una interpretación. las dos
unidades anteriores están conectadas por una conexión negativa fuerte.
Dado que la interpretación de cualquier vértice se halla restringida por
las interpretaciones de sus vecinos. cada unidad en una subred se co-
necta positivamente con cada una de sus vecinas en la red. Finalmente,
existe la restricción de que sólo puede haber un vértice de una clase
individual (por ejemplo, sólamcntc puede haber un vértice izquierdo
abajo en el plano frontal FLL). Existe una conexión negativa fuerte en-
tre aquellas unidades que representan la misma etiqueta en cada subred.
Por tanto cada unidad tiene tres vecinas conectadas positivamente, dos
competidoras conectadas negativamente, y un input positivo a partir
del estímulo. Para este ejemplo las fuerzas de las conexiones han sido
dispuestas de tal forma que dos inputs negativos equilibran exactamen-
te tres inputs positivos. Además se supone que cada unidad recibe un
inpnt excitatorio a partir del patrón estímulo ambiguo, y que cada una
de esas influencias excitatorias es relativamente pequeña. Por consi-
guiente. si las tres vecinas de una unidad se encuentran activadas y
sus competidoras también. sus efectos se cancelarán completamente
el uno al otro; y si se diese un input pequeño desde fuera, la unidad
tendría tendencia a activarse. Por otra parte, si se activan menos de tres
vecinas y las dos competidoras también lo hacen. la unidad tenderá a
desactivarse, incluso en presencia de un input exciratorio proveniente
del patrón estímulo.
En el párrafo anterior nos hemos concentrado en las unidades indi-
viduales de la red. No obstante. con frecuencia resulta útil prestar aten-
148
FIGURA 4.2
Una red simple que representa algunas restricciones implicadas
en la percepción de un cubo de Necker
149
para su actualización. A no ser que se encuentre en competición directa
con la primera unidad. también se activará. Eventualmente se activará
una coalición de unidades vecinas. Estas unidades tenderán a activar
más unidades entre sus vecinas en la misma subred y a desactivar a sus
competidoras en la otra subred. El sistema terminará (en la mayor parte
de los casos) en una situación en la que todas las unidades en una ."L1-
bred se encuentren completamente activadas y no lo esté ninguna de las
unidades pertenecientes a la otra subred. Es decir. el sistema terminará
interpretando el cubo de Necker desde la perspectiva izquierda. o bien
desde 1;) derecha. Cuando el sistema alcanza un estado y pennanece en
él, hablamos de estado estable o de puntofijo de la red. Las restricciones
implícitas en el patrón de conexiones entre las unidades determinan el
conjunto de los estados estables posibles del sistema, y por consiguien-
te. el conjunto de interpretaciones posibles de los input..,.
Hoptield (] 9~2) ha mostrado que resulta posible dar cuenta de modo
gener<ll de la conducta de sistemas como el anterior (con pesos simérri-
cos y actualización asincrónica). Concretamente, Hopfield ha dernostru-
do que tale, sistemas pueden ser conceptualizados como minimizando
una medida global. que él denomina la energia del sistema. mediante
un método de descenso de gradiente (gradient descentv. 0, de modo
análogo, maximizar las restricciones satisfechas mediante el método de
subir la cuesta ihil! climbingv. En particular. Hopfield ha hecho ver que
el sistema opera de forma tal que siempre se mueve de un estado que
satisface pocas restricciones a otro que satisface m.is. la medida de ~a
risfacción de restricciones viene dada por
Off) = LLW
II
a (l)a I (t) + ~input
'1 / I
u) a.tt¡
l· I •
150
de activación debería decrecer hacia O. Por supuesto, las restricciones no
serán totalmente consistentes por lo general. A veces una unidad deter-
minada puede tener que ser activada con el fin de incrementar la función
en algunos aspectos y sin embargo disminuirla en otros. Lo importante es
4u~ es la suma de todas esas contribuciones individuales lo que el sistema
trata de maximizar, Por consiguiente. para cada estado del sistema -todo
patrón posible de activación sobre las unidades- el patrón de los inputs
y la matriz \V de conectividad determinan un valor de la función de ex-
celencia de encaje. El sistema proc6a su input subiendo de un estado al
adyacente hasta que alcanza un estado de excelencia máxima. Cuando al-
canza tal estado estable o punto .fijo, permanecerá en éL y entonces puede
decirse que ha «encontrado» una solución al problema de satisfacción de
restricciones. o alternativamente, en nuestro ejemplo, ha «encontrado una
interpretación» para el input.
Es importante ver entonces que operaciones computacionales com-
pletamente locales. en las que cada unidad ajusta su activación hacia
arriba o hacía abajo sobre la base de su input, sirven para permitir a la
red la convergencia hacia estados yuc maximizan una medida de exce-
lencia global o grado de satisfacción de restricciones. La contribución
más relevante de Hoptield a este análisis fué señalar este punto básico
acerca de la conducta de las redes con conexiones simétricas y actuali-
zación asincrónica de las activaciones.
En resumen, existe un subconjunto muy amplio de modelos co-
nexionistas que pueden considerarse como modelos de satisfacción de
restricciones. Estas redes pueden ser descritas como ejecutando su pro-
cesamiento de información mediante el ascenso a estados de satisfac-
ción máxima de las restricciones implícitas en la red. Un concepto muy
útil que' aparece alcontemplar las redes de este modo, es que podemos
describir su conducta no sólo en términos de la conducta de las unida-
des individuales. sino también en términos de las propiedades de la red
misma. Un concepto básico para comprender las propiedades de esas
redes es el de horizonte de excelencia de encaje sobre el que se mue-
ve el sistema. Una vez descrito correctamente este horizonte, habremos
descrito las propiedades operacionales del sistema - procesara infor-
mación ascendiendo hacia la máxima excelencia. El máximo particular
que hallará el sistema viene determinado por su inicio y por las distor-
siones del espacio inducidas por el input. Uno de los más importantes
descriptores del horizonte de excelencia es el conjunto de máximos qu~
puede encontrar el sistema, el tamaño de la región que contribuye a cada
máximo, y la altura del propio máximo. Los estados mismos correspon-
151
den a posibles interpretaciones, los picos en el espacio corresponden a
las mejores interpretaciones, la medida de las laderas o falda alrededor
de un pico particular determinan la probahilidad de hallar la cima. y la
altura del pico corresponde a los grados en que las restricciones de la
red son realmente satisfechas. o alternativamente, a la excelencia de
la interpretación asociada con el estado correspondiente.
152
datos almacenados como consistiendo en colecciones de aspectos. Cada
unidad oculta corresponde a una hipótesis relativa a la configuracián de
aspectos presente en un patrón almacenado. La hipótesis a la que co-
rresponde una unidad oculta concreta viene determinada por [a regla de
aprendizaje exacta utilizada para almacenar el input y las características
del conjunto de patrones almacenados. La recuperación en una red de
este tipo equivale a activar algunas de las unidades visibles (un intento
de recuperación) y a dejar que el sistema obtenga la mejor interpreta-
ción a partir del input. Este es un tipo de cornplección de patrones. Los
detalles no son demasiado importantes en este caso debido a que una
variedad de reglas de aprendizaje dotan a 1:1" redes de las importantes
propiedades que siguen:
153
Generalitacián automática .v representación directa de similaridad.
Uno de los mayor~s reproches en contra de los programas de Inteligencia
Artificial es su «fragilidad». Habitualmente los programas funcionan muy
bien en aquello para lo que han sido programados. pero responden de for-
ma no inteligente o extraña cuando deben enfrentarse a situaciones nuevas.
Aparentemente, hayal menos dos motivos para esta fragilidad. En los siste-
mas simbólicos convencionales la similaridad es representada de forma in-
directa. En consecuencia. normalmente son incapaces de generalizar. Ade-
más la mayoría de los prograrnas de lA no pueden auto-modificarse, por ]0
que no son capaces de adaptarse a su entorno. Por el contrario. en nuestros
sistemas conexionistas el contenido es representado directamente en el pa-
trón. y los patrones parecidos tienen efectos similares -por consiguiente,
la generalización es una propiedad automática de los modelos conexionis-
taso Debe tenerse en cuenta que el grado de similaridad entre patrones viene
dado, aproximadamente. por el producto de los vectores que representan
los patrones. Así pues, las dimensiones de generalización vienen dadas por
las dimensiones del espacio de representaciones. Habitualmente ello lleva-
rá a las generalizaciones correctas. Hay situaciones en las que este proce-
so conduce a generalizaciones inapropiadas. En tales casos tenemos que
permitir al sistema aprender su representación apropiada. En la siguiente
sección se describe como puede aprenderse la representación adecuada de
modo que se realicen automáticamente generalizaciones correctas.
154
TABLA 4.1
Problema XOR
00 o
01 1
10 1
ti ()
TABLA 4.2
XOR con un tercer hit redundante
000 ----7 O
010 ----7 I
100 ----7 1
111 ~ O
155
primeros valores también tienen 1, un sistema de dos capas sena capaz
de resolver el problema. tal y como se muestra en la figura 4.2.
Minsky y Papen (l969) nos dejaron un análisis cuidadoso de las con-
diciones bajo las que estos sistemas son capaces de llevar a cabo las (0-
rrespondencias adecuadas. Mostraron que las redes de este tipo son inca-
paces de resolver problemas en muchos casos interesantes. Por otra parte,
como estos mismos autores también observaron, la existencia de una capa
de unidades ocultas del simple tipo del perceptrón, tal y como se muestra
en la figura 4.3, con la que podría aumentarse el patrón input original, per-
mitiría siempre realizar una recodificación (es decir, una representación
interna) de los patrones input en las unidades ocultas, donde la similaridad
de los patrones entre las unidades ocultas admite cualquier corresponden-
cia requerida de las unidades input a las unidades OUlpW. Por consiguiente,
si disponemos de las conexiones conectas desde las unidades input a un
conjunto suficientemente grande de unidades ocultas, siempre podremos
encontrar una representación que ejecutará cualquier correspondencia del
input al output a través de las unidades ocultas. En el caso del problema
de la disyunción exclusiva, la adición de un aspecto que detecta la con-
junción de las unidades input modifica la estructura de similaridad de los
patrones lo suficiente corno para posibilitar que la solución sea aprendida.
Como se muestra en la figura 4.4, ello puede hacerse simplemente con una
unidad oculta. Los números de las flechas representan las fuerzas de las
conexiones entre las unidades. Los números escritos dentro de los círculos
representan los umbrales de las unidades. El valor + 1.5 para el umbral de
la unidad oculta garantiza que sólo se activará en el caso de que las dos
unidades input están activadas. El valor 0.5 de la unidad output asegura
que se activará sólamente cuando reciba un input positivo neto mayor que
0.5. El peso de - 2 de la unidad oculta a la unidad output garantiza que
ésta unidad no se activará cuando las dos unidades input se encuentran ac-
tivadas. Debe observarse que, desde el punto de vista de la unidad output.
la unidad oculta es tratada simplemente como otra unidad input. Es como
si los patrones input consistieran en tres unidades, en lugar de dos.
La existencia de redes como la anterior ilustra el poder potencial
de las unidades ocultas y las representaciones internas. El problema es,
como observaron Minsky & Papert, que así como tenemos garantizada
una regla de aprendizaje muy simple para todos los problemas que pue-
den ser resueltos sin unidades ocultas. por ejemplo, el procedimiento
de convergencia de I perceptrón (o la variante propuesta originalmente
por Widrow & Hoff. 1960), no contamos con una regla de aprendizaje
igualmente poderosa para las redes multicapa.
l56
Oulpul p,ltema
Intern"
Rept.. enl~OI'I
UIIJI.
Inpul Patlema
FIGURA 4.3
Una red multicapa en donde los patrones input son recodificados
por unidades de representación internas
Hldden Unll
Inpul Unll.
FIGURA 4.4
Una red simple XOR con una unidad oculta
157
mm. hecho. Hemos desarrollado una generalización del procedimiento de
aprendizaje del perceptrón denominado la regla delta generalizada, que
capacita 31 ... isterna para aprender a computar funciones arbitrarias. Las.
restricciones aplicables a las redes sin representaciones internas automo-
diticadoras ya no resultan aplicables. El procedimiento básico de apren-
dizaje consiste en un proceso a dos pasos. En primer lugar, se aplica un
input a la red; entonces. después de que el sistema haya estado procesando
durante algún tiempo, determinada... unidades de la red son informadas
de los valores que debieran tener en ese momento. Si han obtenido los
valores deseados. los pesos no se modifican. Si difieren de dichos valores.
entonces se modifican los pesos de acuerdo con la diferencia entre el valor
real obtenido por las unidades y los valores a obtener. Esta diferencia se
convierte en una señal de error. Esta señal de error tiene que ser remitida
entonces a las unidades que contactan ron las unidades output. Cada una
de estas unidades recibe una medida de error que es igual al error de todas
las unidades con las que conecta por el peso de la conexión con la unidad
output. Entonces, sobre la base de la señal de error. se modifican los pe-
sos de las unidades dentro de esa «segunda capa», después de lo cual la
señal de error es remitida a otra capa. Este proceso continúa hasta que
la señal de error llega a las unidades input, o hasta que es retro-pasada
un número fijo de veces. Entonces se presenta un patrón il1¡>1I1 nuevo ~
el proceso se repite. A pesar de que este proceso puede parecer difícil.
es realmente muy simple y fácil de implementar en estas redes. Como se
muestra en Rumel han, Hinton y Wi11 iams. 1986. este proceso siempre
modificará los pesos de tal forma que la diferencia entre los valores output
reales y los deseados irá reduciéndose. Además se puede demostrar que
este sistema funciona en cualquier red.
158
Aunque nuestros resultados sobre el aprendizaje no garantizan que
vayamos a encontrar una solución para todos los problemas resolubles,
nuestros análisis y resultados de simulación han demostrado que, en la
práctica, este esquema de propagación de error alcanza soluciones en
virtualmente cualquier caso. En dos palabras, creemos haber respon-
dido al desafío de Minsky y Papert y hemos dado con un resultado de
aprendizaje lo suficientemente poderoso como para demostrar que su
pesimismo acerca del aprendizaje en las máquinas multicapa estaba
eq uivocado,
Una forma de considerar el procedimiento anteriormente descrito es
como un computador paralelo al que. habiéndole sido mostrados ejem-
plares adecuados inputloutput especificando alguna función, se progra-
ma a ~í mismo para computar dicha función en general. Es bien conoci-
do que los computadores paralelos son muy difíciles de programar. Aquí
tenemos un mecanismo del que no necesitamos conocer de hecho cómo
escribir el programa que permita al sistema hacerlo.
, El estado de la cuestión
159
putación. ingenieros. neurocientíficos y otros científicos cognitivos. Se
han organizado numerosos congresos nacionales e internacionales que
se reúnen cada año. En estas circunstancias resulta difícil dar cuenta de
un campo que se desarrolla tan rápidamente. Aún así. la lectura de la
producción reciente indica unos pocos ternas en esta actividad. Estos
temas incluyen el estudio del aprendizaje y la generalización (especial-
mente el uso del procedimiento de aprendizaje de retro-propagación).
aplicaciones a la neurociencia. propiedades matemática", de las redes
-tanto en términos de aprendizaje como en relación con el problema de
las relaciones entre el estilo conexionista de computación y los paradig-
mas de computación más convencionales- y finalmente, el desarrollo
de una base implementacional para la realización física de los sistemas
conexionistas de computación. especialmente en los campos de la óptica
y la VSLI analógica.
Aunque existen otros muchos desarrollos interesantes e importan-
tes, voy a concluir con un breve resumen del trabajo al que yo mismo
me he dedicado fundamentalmente durante los últimos años. es decir, el
estudio del aprendizaje y la generalización en las redes rnulticapa. Aún
cuando este resumen debe ser necesariamente selectivo, debería servir
como ejemplo de buena parte del trabajo actual en el campo.
Aprendizaje y generalización
I Nota lid traductor: Parstng signiñca analizar las oraciones en sus componentes
simples. Puesto que esta palabra. aunque es inglesa. es de uso corriente en los dominios
de ciencia cognitiva y lenguaje. hemos optado por dejarla tal cual en la traducción.
160
del éxito de algunas de sus aplicaciones, queda un buen número de im-
portantes problemas abiertos. Los problemas teóricos de interés básico
pertenecen a tres áreas principales: (1) El problema de la arquitectura
- ¿Existen arquitecturas útiles más allá de las redes habituales de tres
capas que se usan en la mayor parte de estas áreas, adecuadas para
determinadas áreas de aplicación? (2) El problema del escalamiento
(scaling)- ¿Cómo podemos reducir el abundante tiempo de aprendi-
zaje que parece necesitarse en las áreas de aplicación más difíciles e
interesantes? (3) El problema de la generalización - ¿Cómo podemos
estar seguros de que una red entrenada sobre la base de un subcon-
junto de un conjunto de ejemplos va a generalizar correctamente a un
conjunto completo de ejemplares?
Una arquitectura
161
PLAN
FIGURA 45
Una red recurrente del tipo de las de-sarrolladas por Jordán (1986)
para aprender a ejecutar secuencias
162
aplicaciones sucede que estos aspectos proporcionan una descripción
compacta de los patrones. Se han investigado otras muchas arquitec-
turas. El espacio de arquitecturas útiles e interesantes es amplio y su
investigación continuará durante muchos años.
163
OUtpul Unlta
r
I
I
I
Hldden Unfts
I
I
I
I
t:fJ
Input Unlta ContextUntts
FIGURA 4.6
Una red recurrente del tipo de las desarrolladas por Elman (1988)
para aprender a reconocer secuencias
El problema de la generalización
1M
observar que para la mayor parte de los problemas existen suficientes
grados de libertad en la red como para que se de un ámplio número
de soluciones a los problemas. todas genuinamente diferentes, y cada
solución constituye una forma diferente de generalizar los patrones no
vistos. Es evidente que no todas ellas pueden ser correctas. Yo he pro-
puesto una hipótesis que desvela ciertas esperanzas de promover una
generalización mejor (Rumclhart, 1988). La idea básica es la siguiente:
el problema de la generalización es esencialmente el problema de la
inducción. Dado un conjunto de observaciones. cuál es el principio ade-
cuado para aplicar a todos los casos. Debe notarse que la red puede ser
contemplada en cualquier intervalo temporal como una especificación
de la hipótesis inductiva. He propuesto que sigamos una versión de la
navaja de Occam y seleccionemos la red más simple y más robusta que
resulte consistente con las observaciones realizadas. El supuesto de la
robustez es simplemente la plasmación de un tipo de hipótesis de conti-
nuidad en el sentido de que las variaciones pequeñas en los patrones in-
put deberían tener poco efecto en el output yen la conducta del sistema.
El supuesto de simplicidad consiste únicamente en escoger -de entre
todas las redes que dan cuenta correctamente de los datos input- la red
con menos unidades ocultas. menos conexiones. más simetrías entre los
pesos, y así sucesivamente. He formalizado este procedimiento y modi-
ficado el procedimiento de aprendizaje por retro-propagación de forma
que prefiere las redes simples y robustas, y en igualdad de condiciones,
seleccionará dichas redes. En muchos casos sucede que esas redes son
precisamente las que mejor realizan el trabajo de generalizar.
Referencias
16)
FELDMAN. 1. A. (1935) Connectionist rnodels and thcir applications. Introduc-
tion, Cognitive Scicnce, 9: 1-2.
GROSSRFRG, S. (1C)76) «Adaptive pattern classification and universal recoding:
Part 1. Parallel development and coding of neural fe atu re detectors». Biolo-
gical Cvbernctics 23: 121-134.
HERR. 0.0. "19'+9) The organizution oi Belutvior, New York: Wiley,
HIN"JON. G. E.. & SEJNOSWKI. T. (1986) «Leaming and relearning in Boltzmann
machines». In D. E. Rumelhart, J. L. Mcf lelland. and ihe PDP Research
Group. Parallel Distributed Proccssing: Explorations in the Microstruc-
tura o] Cognition. volume 1: Foundations. Cambridge, MA: MIT Press, A
Bradford Book.
HOPrI[LD. J. J. (1982) «Neural Nctworks and physical systems with cmcrgent
collective cornputaiional abi Iiries», Proceedings ofthe National Academv of
Sciences. USA 79:255~-2558,
J ORDAN. M. 1. (1986) «A ttractor d ynam ics and parallel i sm í n a connectioni . \t
sequential machinc». Proccedings ofthe Eighth Annual Meeting ofthr Cog-
nitive Science Socictv, Hilh,d<}le: NL Erlbaum.
J ORDAN. M. 1. (1986) (1 9~9) S upefv ised Leaming and systerns \\0' ith excess
N
166
RL'\1ELH,\RT & MCCLEr .LAND. J. & PDP Research Group (1986): Parallel Distri-
buted Processing: Explorations in the Microstructure of Cognition, Vol. 1:
Foundations. Cambridge, Mass: MJT.
SEJ'JOWSKI. T. And ROSENBERG. C. (1987) «Parallel Nctworks that Icarn no pro-
nounce Eng 1i~h text», Complex Systems 1: 145-168.
SHEPHERD, R. N. (1989) «Intcrnal representation of universal regularities: A
Challenge for conncctionism». En L Nadel, L A. Cooper, P. Calicover, and
R. M. Harnixh, cds. Neural Connections, Menta! Computation. Cambridge,
MA: MIT Pró~. A Bradford Book.
S\tOLENSKY. P. r lqR6) «Inforrnation processing in dynarnical systems: Foun-
dations of the harmony theory», En Rumelhart & Mcclelland. J. & PDP
Research Group (1986) Parallel Distributed Processing: Explorotions in
the Microstructure (JI Cognition, Vol. 1: Foundations. Cambridge. Mass:
MIT Press. A Bradford Book.
TODO. P. (1989) <.A sequential network design for musical applications»,
D. Tourctzky. G. Hinton and T. Sejnowski, Eds. Connectionist Models. San
Mateo. CA.: Morgan Kaufrnan.
WIDROW. G. And HOFF, M. E. (1960) u Adaptive swirching circuits». En lnstitu-
te oj Radio Engeeneers, We.Hern Electronic 5/10)1' ami Convention Record.
Pan 4, pp. 96-104.
167
MOTIVOSI, lVIECANIS~IOS y El\fOCIONES
Aaron S loman
l. Introducción
1 Nota del traductor: El contexto en el que se utiliza el termino inglés «motive>' pa-
rece ser de más amplio alcance que el correspondiente al uso ordinario del termino cas-
tellano <' motivo». Por ejemplo. cuando en inglés se dice «the motive has heen violated».
por lo general ~e hace referencia ,1 un <cntimicnto. y de este modo dcbcrtamos traducirlo
al castellano por '<el sentimiento ha sido violado» No obvtantc. el autor uti liva dicho
término de forma casi general para referirse a sentumentos en tanto que motivadores de
acciones. por lo que en todos esto- CJ~O~ hemos JeciJiJn traducir «motive» ptlr mativ»,
Dicho en otras palabras. cuando en el texto ori g.lIla 1 el término inglés «motive- hace
referencia a un sentimiento motor que impele a la JCC1Ón lo traduc irnos inequívocamente
por 111Otj\'O.
169
tamos ampliar el1enguaje coloquial mediante una terminología con ba-
ses teóricas que pueda ser usada para establecer distinciones y describir
posibilidades normalmente no comprendidas por la gente corriente. Por
ejemplo, veremos que el amor es una actitud, no una emoción. aunque
el amor profundo pueda fácilmente desencadenar estados emocionales.
En la jerga de los filósofos (Ryle 1949), las actitudes son disposiciones.
las emociones episodios. si bien con elementos dispositivos.
Para una completa explicación de estos episodios y disposiciones
necesitamos una teoría acerca del modo en que los estados mentales son
generados y controlados, y del modo en que conducen a la acción -una
teoría acerca de los mecanismos de la mente. La teoría deberla explicar
cómo deberían ser construidas, almacenadas. comparadas, y usadas las re-
presentaciones internas para hacer inferencias. formular planes, o controlar
acciones. Las líneas maestras de la teoría son expuestas a continuación. En
primer lugar se señalan las restricciones de diseño para animales o máqui-
nas inteligentes, a continuación las soluciones para el diseño son puestas
en relación a la estructura de las emociones humanas y los mecanismos
computacionales subyacentes a los estados emocionales habituales.
Las emociones son analizadas como estados en los que motivos po-
derosos responden a las creencias relevantes desencadenando los meca-
nismos que precisan los sistemas inteligentes con limitación de recursos.
Los nuevos pensamientos y motivos pasan a través de varios filtros y
tienden a entorpecer otras actividades ya en marcha. Los efectos pueden
entrar en conflicto con otros procesos físicos y mentales, o modificar la
operación de los mismos. unas veces con éxito y otras no. Estos estados
resultantes son producto de los cambios. Los cambios fisiológicos no
necesitan ser tenidos en cuenta. Las emociones contrastan de manera su-
til con otros estados y procesos relacionados tales como la sensación. el
impulso. el estado de ánimo. la actitud, el temperamento; sin embargo no
hay espacio suficiente para una discusión completa del tema aquí,
Bajo este punto de vista no necesitamos proponer subsistemas es-
peciales para explicar las emociones puesto que los mecanismos sub-
yacentes a la inteligencia son suticientes (cf. Oatley y Johnson-Laird
1985). Si los estados emocionales surgen a partir de los mecanismos
precisos para enfrentarse de manera inteligente a un mundo complejo
y rápidamente cambiante, esto pone en entredicho la distinción común
entre la emoción y la cognición. Esto se aplica igualmente tanto a los
seres humanos como al resto de los animales. o a las máquinas inteli-
gentes venideras.
170
2. Restricciones de diseño para una mente
171
lIisID> de toma de decisiones. Las dos opciones principales son un esque-
ma de votación «democrática». y un tomador de decisiones centralizado.
Si no todos los subsistemas tienen acceso a la totalidad de la información
almacenada disponible o no todos tienen capacidades semejantes para el
razonamiento. una organización «democrática» puede ser peligrosa. En
su lugar, un mecanismo central especializado se hace necesario para las
decisiones más importantes (Slornan 1978: caps. 6 y 10). Este parece ser
el modo en el yue están organizadas las mentes humanas normales,
Restricciones semejantes determinan el diseño de artefactos inte-
ligentes. Las limitaciones físicas de los equipos computacionales sean
biológicos o artificiales exigen repartos importantes de las funciones,
que incluyen la asignación del control de más alto nivel a una parte con
acceso a la totalidad de la información ya la mayoría de los mecanismos
inferenciales. Sin embargo, una necesidad ocasional urgente de llevar
a cabo una acción drástica exige reflejos de tipo hardware o software
complementarios que operen independientemente del control de alto ni-
vel --un mecanismo que permita los procesos emocionales descrito en
los apartados siguientes.
172
Una representación de un estado de cosas funciona como un objeti-
vo ~í tiende (sometido a muchas cualificuciones) a producir una conduc-
ta que cambie la realidad conforme con la representación.
Una representación funciona como una creencia si ésta es producida
o modificada por procesos perceptivos o de razonamiento que tienden
(sometidos también a muchas cualificaciones) a alterar las representa-
ciones conforme con la realidad.
(Lo que «conformar» quiere decir aquí no puede ser explicado sin
una digresión en profundidad.) Las mismas representaciones pueden ser
usadas también para otras funciones. como instrucciones. situaciones
hipotéticas, reglas, etc.
Algunos objetivos nuevos subsirven a un objetivo anterior y son
generados por procesos de planificación. Algunos son respuestas a la
nueva información, tales como querer saber cuál fue la causa del fuerte
ruido procedente de la esquina. Los objetivos no son desencadenados
sólo a través de sucesos externos: un pensamiento. una inferencia, o un
recuerdo pueden tener el mismo efecto.
¿Cómo puede ser producido un objetivo a partir de una creencia o
un pensamiento? Si los objetivos conllevan estructuras simbólicas, una
explicación computacional podría ser que una regla del tipo condición-
acción «generadora de objetivo» hubiera sido utilizada. Por ejemplo,
una regla benevolente podría ser: «Si X está preocupado generar el ob-
jetivo (X no está preocupado»). Un generador de un objetivo retribu-
tivo que subyaciera a un estado de ira podría ser «Si X me hace daño
generar el objetivo (X sufre)». Un análisis completo debería describir
varios «generadores de objetivos», «generadores de generadores de ob-
jetivos», y así sucesivamente. Un sistema con capacidad para aprender
produciría nuevos generadores de objetivos a la luz de la experiencia.
usando generadores de generadores.
173
objetivos son en consecuencia necesario!'! para la selección entre los
diferentes fines.
Algunos comparadores aplican la restricción entre objetivos en pla-
nificación, por ejemplo usando una regla de «minimización de costes»
para seleccionar el menos costoso de entre dos sub-objetivos. Otros di-
rectamente ordenan fines, por ejemplo una regla según la cual salvar la
vida es siempre más importante que ningún otro fin, pero no porque haya
una medida aplicable a ambos, Así como hay fuentes de motivación in-
conmensurables diferentes y diferentes bases para la comparación, no
existe la necesidad de que haya una resolución óptima de un conflicto.
174
Las Variedades de Motivadores
175
que pasan más fácilmente a través de los filtros de interrupción. depen-
diendo del conjunto de probabilidades relacionado con las actividades
ordinarias.
Los objetivos que pasan a través de los filtros no necesitan ser com-
parados para evaluar su importancia relativa. Este orden (a veces par-
cial) es determinado por la" creencias y los comparadores, y puede cam-
biar si ellos lo hacen. En estos casos pueden ser necesarias inferencias
complejas. La importancia de un objetivo deliberativo está relacionada
con la~ creencias acerca de 10\\ efectos para alcanzarlo o no alcanzarlo.
La insistencia está ligada a la probabilidad con la que un objetivo debe
pasar a través del filtro de interrupción de cara a que sea tenido en cuen-
ta, mientras que la importancia tiene que ver con la probabilidad con la
que éste debe ser adoptado para que algo sea alcanzado si es tenido en
cuenta. La insistencia debe ser evaluada muy rápidamente, y en ocacio-
nes debe estar correlacionada con la importancia pero en ocasiones no.
Un mal filtro asignará prioridades bajas a los objetivos de importancia.
y viceversa. Un deseo de estornudar no se va al trastre sólo porque el si-
lencio sea esencial para la supervivencia. (No todos los animales tienen
sistemas motivacionalcs tan complejos.)
La urgencia es una medida de la cantidad de tiempo que se puede
dejar pasar antes de que sea demasiado tarde. Esto no es lo mismo que
la insistencia o la importancia: algo no demasiado deseado puede bien
ser urgente, y viceversa.
La intensidad de un objetivo determina en qué medida de actividad
o vigorosidad éste debe ser perseguido ~i es adoptado. Está relacionada
de modo parcial con la importancia y la urgencia, y es parcialmente in-
dependiente de ellas. Los obstáculos para un objetivo tienden a ser trata-
dos más como un reto que como una razón para su abandono. A menudo
un objetivo importante a largo plazo saldrá perdedor frente a otro menos
importante pero más intenso-e-la edad avanzada produce conflictos en-
tre el deseo y la obligación. Idealmente la insistencia. la intensidad, y la
importancia deberían estar correlacionadas, pero una relación semejante
puede verse influida por interacciones urgentes y por la manera en que
las asignaciones de insistencia o intensidad relativas a los reflejos se
derivan de las experiencias anteriores o de los ongenes evolutivos.
Otro modo de medir (la fuerza de) un motivo es calcular el grado de
preocupación o interrupción que supone su consecución. Otra cosa di-
ferente es calcular el grado de satisfacción derivado de su consecución.
176
Este puede ser evaluado en función del grado de esfuerzo que supone la
preservación del estado de cumplimiento. o del hecho de volver a alcan-
zarlo más adelante. Ambos son normalmente expresados como el grado
de «preocupación» de alguien y están relacionados con el potencial para
generar estados emocionales tal y como son descritos más adelante.
177
10. Las interrupciones -abandono o suspensión.
11. La comparación con los nuevos objetivos,
12. La modificación del pi an o de Ia acción a la luz de la nueva in-
formación o de los objetivos, incluyendo cambios de velocidad,
estilo, o sub-objetivos.
13. La satisfacción (completa o parcial).
14. La frustración o violación.
15. La monitorización interna (autoconocimiento).
16. El aprendizaje - modificación de los generadores y comparado-
res a la luz de la experiencia.
Estos son los procesos computacionales, que pueden ser expresados
en términos de la manipulación gobernada por reglas de las represen-
taciones de varios tipos. si bien completar los detalles no es tarea fácil.
Ahora trataré de indicar cómo se relacionan con las emociones. La his-
toria completa es muy compleja.
Un Ejemplo: la ira. Qué se quiere decir mediante «X está enojado
con y». Esto implica que X cree que hay algo que Y hizo o no hizo y
como resultado de lo cual uno de los motivos de X ha sido violado. Esta
combinación entre la creencia y el motivo no es suficiente para (expli-
car) el estado de ira, puesto que X podría "implemente lamentarse de ]0
sucedido o no estar de acuerdo con Y. sin estar por ello iracundo. La ira
exige también un nuevo motivo en X: el deseo de hacer daño o herir a Y.
La mayoría de la gente y de los animales parecen tener generadores de
motivos retributivos que reaccionan de esa manera. lamentablemente.
El nuevo motivo no es seleccionado para la acción por intenso que pu-
diera ser: el miedo a las consecuencias y los comparadores apropiados
pueden mantenerlo inoperativo.
Ni tan siquiera la producción de un nuevo deseo es suficiente para
explicar la ira. X puede tener el deseo. aunque puede bien quitárselo de
la cabeza y volver tranquilamente sobre alguna otra cosa: En este caso
no está iracundo. De modo alternativo, el deseo de X de hacer algo que
resulte desagradable para Y puede ser del todo derivativo: nada más que
una medida práctica para reducir la probabilidad de que vuelva a ocurrir
en el futuro, sin ningún sentimiento negativo hacia Y. Entonces si de al-
gún modo se le asegura a X que no va a haber reiteración, el sentimiento
desaparecerá. Eso no es la ira.
La ira implica un deseo no-derivan vo intenso e insistente de hacer
algo que haga sufrir a Y. La alta insistencia SIgnifica que el deseo fre-
cuentemente pasa a través de los filtros de X para «reclamar su aten-
178
ción» por parte de los procesos de «toma de decisión» de X. Así incluso
después de ser rechazado por los comparadores. el deseo frecuentemen-
te vuelve a los pensamientos de X. haciendo difícil su concentración
en otras actividades. Los filtros de velocidad diseñados pueden ser de-
masiado estúpidos para rechazar motivos ya eliminados en los niveles
altos. Además. el deseo debe ser no derivativo. de tal manera que ~ea un
sub-objeti vo lo que desaparezca si un super-objetivo es cambiado. En
agentes socialmente sorixticados. la ira puede incluir una creencia segun
la cual la acción de Y no tendría justificación social o ética.
De este modo las emociones son estados producidos por los motiva-
dores. y entrañan la producción de nuevos motivadores.
La violación del motivo original. y la insistencia del nuevo motivo,
pueden estar asociados con efectos secundarios adicionales. Por ejem-
plo. si X sabe que está iracundo esto le puede hacer sentirse mal consigo
mismo. Si otra persona percibe su estado, esto también puede afectar a
la naturaleza de la emoción. El episodio puede hacer revivir recuerdos
de otras situaciones que provoquen la ira.
Algunas veces. en los seres humanos. los estados emocionales tam-
bién producen disturbios fisiológicos, probablemente como resultado de
la operación de reflejos físicos y químicos dirigido':' por estrategias 113-
madas rules-of-thumb, como ya fue sugerido más arriba. Sin embargo.
si X satisfizo en número suficiente otras condiciones podría ser adecua-
damente descrito como muy furioso o iracundo, incluso sin ningún tipo
de síntomas físicos. La ira fuerte puede existir sin ningún tipo de efectos
colaterales en la medida en que ésta se entromete constantemente con
los pensamientos y decisiones de X. y en la medida en que aquél desea
con insistencia que Y sufra, y sufra lo suyo. Aunque la ira de carácter
no-físico podría ser denominada como «rrta». conserva sin embargo to-
dos los aspectos socialmente relevantes de la ira.
La ira es parcialmente disposicional en tanto que de lucho no ne-
cesita entrar en interferencia con los otros sentimientos: por ejemplo. si
se acula sobre la base del nuevo motivo de castigar a Y. no se necesita
que haya más perturbación. Sin embargo, la ira tiene el potencial para
perturbar otras actividades si el nuevo motivo es de insistencia alta.
La ira es en ocasiones sentida, como resultado de la auto-monito-
rización. Sin embargo, es posible estar iracundo, o estar en otros esta-
dos emocionales, sin ser conocedor del hecho. Por ejemplo, sospecho
que los perros y niños de muy corta edad no son conocedores de su ira
179
(aunque sí mucho más conocedores de cualquier cosa que la pudiera
provocar).
Las emociones como la ira pueden variar a lo largo de diferentes
dimensiones cuantitativas y cualitativas, tales como: cuánto de seguro
está X acerca de lo quc Y ha hecho. cuánto de preocupado está X acerca
de esto (es decir, cuánto de importante y de intenso es el sentimiento
violado); cuánto daño quiere X hacer a Y: cuánta es la importancia de
este nuevo deseo, cuánto de intenso es, cuánto de insistente, cuánto de du-
radero; cuánto es el disturbio mental producido en X; cuánto de distur-
bio fisiológico hay: de qué aspectos del estado es X conocedor; cuántos
motivos y acciones secundarias son generadas. Dimensiones diferentes
serán apropiadas para emociones diferentes.
Las variaciones en los diferentes estadios del escenario se corres-
ponden con los diferentes estados. algunos de los cuales no son emocio-
nales. Cuando no hay deseo de hacer daño a Y.la emoción se parece más
a la exasperación que a la ira. Si no hay atribución de responsabilidad.
entonces la emoción es simplemente alguna forma de enfado. y si el sen-
timiento que es violado es muy importante. y no puede ser rápidamente
satisfecho por alguno alternativo, entonces la emoción se convierte en
decaimiento. Puesto que pueden estar implicados lln número arbitraria-
mente elevado de motivos. creencias, y generadores de motivos, con
nuevas reacciones desencadenadas por los efectos de otras viejas, el
abanico de variantes cubierto por esta teoría está condicionado a ser
más rico que el conjunto de usos habituales en el lenguaje ordinario.
También será más rico que el abanico de las respuestas fisiológicas.
180
de si Ml es satisfecho o violado; (e) si B 1 tiene que ver con el pa-
sado. presente, o futuro: (d) si B 1 implica incertidumbre o no; (e)
si el agente es conocedor de su emoción o no; (f) si se considera
que otros agentes están implicados o no (cf. Roseman 1979).
4. En situaciones más complejas algunos motivos interactúan con
las creencias, es decir, una situación donde B 1 implica que mo-
tivos importantes M 1(a) y !VII (b) son inconsistentes, es decir,
constituyen dilemas.
5. Algunas veces !vII y B l ponen en marcha un generador que
produce un motivo secundario, M2, por ejemplo un deseo de
arreglar las cosas, preservar un capricho, castigar a un tirano,
o informar a otros. Este a su vez puede interactuar con otras
creencias, entorpecer, interrumpir, o afectar de otra manera a los
procesos cognitivos. Este sería un estado emocional de «nivel-
dos», Son posibles distintos niveles.
6. En ocasiones M I Y B 1 desencadenan algunos generadores de
motivos simultáneamente. Las interacciones resultantes pueden
ser muy complejas especialmente cuando nuevos motivos están
en conrlicto. por ejemplo un deseo de deshacer el daño y atrapar
al culpable.
7. En ocasiones los motivos recientemente generados entran en
contlicto con los ya existentes.
8. Los nuevos motivos con alta insistencia pasan a través de los fil-
tros de interrupción y tienden a producir (aunque no necesitan de
hecho producirlo) un disturbio, es decir, interrumpiendo de ma-
nera continuada los pensamientos y las decisiones. e influyendo
sobre las percepciones y los criterios en la toma de decisiones.
9. Los pensamientos al igual que los motivos tienen capacidad
para interrumpir. Incluso sin ningún motivo nuevo pueden sin
más incidir sobre 1\1) y B 1. Esto es especialmente cierto en
emociones como el dolor, que implican lo que no puede desha-
cerse. Una incidencia compulsiva semejante podría derivarse
del desencadenamiento de mecanismos de aprendizaje automá-
ticos relativos a los generadores de re-programación.
10. Los nuevos motivos no necesitan ser seleccionados para la ac-
ción. :M2 puede ser considerada y desestimada como sin impor-
tancia, aunque continúe pasando a través de filtros de interrup-
ción si la insistencia es alta.
11. En algunos estados emocionales, como el susto, M2 desencade-
na un acción refleja, pasando por encima de la deliberación y la
planificación, e interrumpiendo otras acciones (Slornan 1978:
181
cap. 6). Los «reflejos del software» se denominan acciones «im-
pulsivas». Los reflejos hacen posible llevar a cabo acciones de
solución muy rápidas o aprovechar oportunidades repentinas.
En ocasiones resultan desastrosos, sin embargo. Algunos refle-
jos son puramente mentales: una barrera completa de pensa-
mientos y sentimientos puede ser desencadenada,
12. Algunos estados emocionales surgen de los propios pensamien-
tos o acciones de los individuos, por ejemplo, el miedo gene-
rado por la contemplación de posibles errores. Los motivos se-
cundarios pueden ser generados para extremar las precauciones,
cte. Estos motivos pueden generar tanto disturbio que pueden
conducir al desastre.
13. Algunas emociones implican la interrupción y rcdirccción de
muchos procesos en marcha. por ejemplo, procesos de control
de las diferentes partes del cuerpo en la recuperación del equili-
brio. Si los detectores sensoriales guardan los cambios locales,
la percepción del sistema de su propio estado sed. alterada.
14. Los procesos de auto-monitorización pueden o no detectar el
nuevo estado interno. Si no, X no será consciente de. o no sen-
tirá, la emoción. L~ monitorización interna no necesita producir
reconocimiento, es decir, esquemas relevantes podrían no haber
sido aprendidos (S loman 1978: Cap. lG). Las personas tienen que
aprender a discriminar y reconocer estados internos complejos.
mediante el uso de procesos visuales no menos complejos que el
reconocimiento de una cara o una máquina de escribir.
15. El reconocimiento de una emoción puede producir efectos pos-
teriores. es decir. \i el estado interno satisface o viola algún
motivo. Este puede activar motivos o generadores de motivos
adormecidos y posiblemente conducir de modo sucesivo a emo-
cienes de más alto nivel (escalamiento recursivo).
Las interrupciones, lo'> disturbios. y las desviaciones de la racio-
nalidad que caracterizan a algunas emociones son una consecuencia
natural de los tipos de mecanismos que surgen de las constricciones de
diseño de los sistemas inteligentes, especialmente la inevitable estupi-
dez de los filtros ele interrupción con limitación de recursos que tienen
que actuar rápidamente. Un robot con un ordenador infinitamente rá-
pido y conocimiento perfecto y poder predictivo no necesitaría tales
mecanismos. Sin embargo. no todas las emociones son disfuncionales:
al caminar sobre un borde estrecho es importante no olvidarse de los
nesgos.
182
Estos mecanismos permiten tantos sub-procesos diferentes en situa-
cienes diferentes que ninguna tabla simple de tipos de emociones puede
hacer justicia a su variedad. La misma rica variación podría caracterizar
la detallada fenomenología de las emociones en robots inteligentes con
habilidades para la auto-monitorización.
Una completa explicación de cómo las personas usualmente sien-
ten ira. júbilo, miedo. etc. debería de incluir conocimientos corporales.
Aunque lo que convierte a muchas emociones en importantes en nues-
tras vida no es esta suerte de detalle, sino la estructura cognitiva más
global. La ira es importante porque puede producir acciones que causan
dolor al que odia y al odiado. no porque haya tensión física y sudor.
El dolor es importante porque se ha perdido al hijo querido. no porque
tengamos un nuevo sentimiento en el vientre. De este modo sería razo-
nable para nosotros usar términos como «temeroso». «decepcionado»,
«estático». o «afligido por el dolor» para describir el estado mental de
un alienígena, o incluso de un robot lo suficientemente sofisticado. sin
las respuestas fisiológicas (contrastar con Lyons ]980).
183
que pudieran afectar a su bienestar. La fuerza del cariño determina la
importancia e interrumpe niveles de prioridad asignados a tales obje-
tivos. El egoísmo es una actitud parecida hacia uno mismo. En comu-
nidades de sistemas inteligentes. capaces de pensar y preocuparse por
los estados mentales de 10-; otros, la riqueza y variedad de las actitudes
los hace un tópico inagotable para el estudio de los poetas, novelistas, y
científicos sociales. Las actitudes se confunden a menudo con las emo-
ciones. E~ posible amar. compadecerse de alguien, admirar u odiar a una
persona sin estar en ningún caso en un estado emocional. Las actitudes
son expresadas como tendencias a la hora de realizar ciertas elecciones
cuando las oportunidades surgen. pero no necesitan incluir un continuo
disturbio de pensamientos y decisiones. Uno puede amar a sus hijos sin
tenerlos constantemente en mente, aunque noticias de peligro acerca de
los seres queridos pueden desencadenar emociones.
El carácter y la personalidad incluyen actitudes a largo plazo. La ge-
nerosidad, por ejemplo. no es un objetivo sino un racimo de generadores
de objetivos que produce nuevos objetivos en respuesta a la información
acerca de las necesidades de otro y de comparadores que los seleccio-
nan sobre objetivos más auto-centrados. El hipócrita produce objetivos
parecidos pero nunca los adopta para la acción. Una personalidad o ca-
rácter es. una vasta colección de disposiciones generales desenfocadas
para producir cienos objetivos en situaciones especfficas. El conjunto de
tales colecciones es demasiado rico para los adjetivos ordinarios. Toda
una novela puede ser necesaria para retratar una personalidad compleja.
Más generalmente, el espacio de los posibles estados y procesos menta-
les es demasiado rico y complejo como para que etiquetas coloquiales
tales como «actitud». «emoción>', «estado de ánimo» sobrevivan en una
teoría cientítica adecuada.
Hay muchos tipos de experiencias profundas y motivadoras que des-
cribimos como emociones, a falta de un vocabulario más rico. más reti-
nado: por ejemplo, el disfrutar de un paisaje, el leer poesía. el escuchar
música, el estar absorto con una película o un problema. Estos entra-
ñan interacciones poderosas entre la percepción y un amplio número de
procesos adicionales. tanto físicos como mentales. El escuchar música
puede producir una tendencia al movimiento físico y también una gran
cantidad de «movimiento» mental: recuerdos. percepciones, murmullos
por asociación. todo controlado por la música. Tales proceso'> podrían
ser explicados en términos de los aspectos del diseño de los sistemas
inteligentes no discutido aquí, tales como la necesidad de memoria aso-
ciativa y de formas sutiles de integración y sincronización en el control
lR4
de los movimientos físicos. La sincronización es necesaria tanto en un
individuo como entre los individuos involucrados en tareas cooperati-
vas. La música parece tener control sobre algunos de esos procesos.
Conjeturo que los mecanismos señalados aquí son capaces de gene-
rar estados que generalmente describimos como emocionales -el mie-
do, la ira, la frustración. la excitación, el decaimiento, el dolor. el júbilo.
etc. Estos mecanismos son generativos en el sentido que los motivos.
las creencias. los planes. y los contextos sociales relevantes pueden ser
j ndefi TIidamente cornple jos y variados (Abe lson 1973; Dyer 1981; Le h-
nert, Black y Reiser 1981). Esto significa que ninguna taxonomía simple
y limitada de los estados emocionales puede comenzar a captar la varie-
dad de las oraciones del inglés (cf. Roseman 1979).
185
ra, una máquina capaz de entender el lenguaje ordinario y simular (a
comunicación humana necesitará al menos una comprensión implícita
de la teoría.
Implicaciones
186
son inalcanzables o sólo alcanzables a un enorme coste, Los motivos
adormecidos, o remporalmente suspendidos pueden ser desatendidos
demasiado a menudo porque los procesos de monitorización fallen al
detectar oportunidades, quizás debido al uso de índices inadecuados. La
permisibilidad de las «rules ofthumb» para enfrentarse con información
Inadecuada. la limitación de recursos, y la necesidad de velocidad. pro-
porcionan un amplio margen para el mal funcionamiento del sistema. El
escalamiento recursivo de las emociones podría explicar algunos de los
estados catatónicos.
La ínevitabilidad de los tipos familiares de falibilidad debería cons-
tituir un foco de atención para aquellos que desean que las decisiones
importantes puedan ser tomadas muy rápidamente por máquinas en un
futuro no demasiado lejano.
De hecho. si las personas son tan complejas e intrincadas como he-
mos sugerido. es sorprendente que tantas sean estables y civilizadas.
Quizás esta teoría revele tipos de disturbio que previamente no podía-
mos reconocer.
La teoría implica que procesos de aprendizaje y desarrollo cogniti-
vo, tienen lugar en un marco de una colección de motivadores compleja
y frecuentemente cambiante. Estos y los procesos que generan deben
tener una profunda influencia sobre lo que es aprendido y cuándo es
aprendido, y es de prever que haya enormes variaciones entre los in-
dividuos. Las implicaciones para los educadores tiene que ser todavía
explorada.
6. Conclusión
187
una explicación del modo en el que las personas difieren entre sí y res-
pecto a otros sistemas de comportamiento reales o posibles. (En relación
a la explicación de las posibilidades. ver Sloman t 978: cap. 2)
La comprensión de los mecanismos computacionales detrás de los
procesos mentales familiares puede permitirnos reducir el sufrimien-
to derivado de los disturbios emocionales, de las incapacidades para el
aprendizaje, y de una amplia variedad de inadecuaciones sociales. Algu-
nos problemas pueden ser debidos a daños cerebrales o 3. disfunciones
neurales. Otros problemas parecen semejarse más a lo fallos del soft-
ware en un ordenador. Conjeturo que muchas personas emocionalmente
enajenadas experimentan esos «desaguisados» del software.
El análisis todavía presenta muchas lagunas. En concreto, la falta de
una explicación para el placer y el dolor. y tampoco estoy en condicio-
nes de ofrecer un análisis aceptable de lo que debe ser encontrar algo
divertido, Hay estados como disfrutar de la alta velocidad. ponerse me-
lancólico por una puesta de sol. echar a llorar mientras se lee un libro o
se ve una película, que necesitan un análisis más en profundidad. No he
discutido los muchos aspectos de la vida emocional humana que surge
contingentemente de nuestra historia evolutiva y que no debería encon-
trarse necesariamente en robots bien diseñados. Así que queda todavía
mucho por hacer. Sin embargo, la teoría proporciona un marco para
pensar acerca de un abanico de tipos posibles de si...temas inteligentes.
naturales y artificiales -- parte de nuestro estudio general del espacio de
las mentes posibles. Al tratar de probar las ideas en simulaciones por
ordenador que funcionen seguramente se descubrirán lagunas y puntos
débiles.
Referencias
188
CROUCHER, M. (1985). «A Computational Approach to Emotions», Unpublihed
thesis. LJ niversity of Sussex.
DENNEET. D. e. (1985). Brainstorms. Hassocks, Sussex: Harvestcr Press.
DYER. M. G. (1981), «Thc Role ofTAUs in Narratives». Proceedings Cognitive
Science C onference, pp. 225-7. Berke ley. Cal.
EDELSON, T. ( 19&6l...Can a System to Be 1ntelligent if It Never Gi ves a Damn ',1"
Proc. 5th Nat. Con! A1 (AAAI-8l\). pp. 298-302. Philadelphia,
HEIDER. F. (1958). The Psvchologv ofInterpresonal Relations. New York: \Vi-
ley.
LEHNERT. W. G., RLAC'K, 1. B.. and REISER, B.l. (1981.1. «Summarising Narrati-
ves». Proc, 71h /JeA/ Conterence, pp. 184-9. Vancouver. Be.
LYONS. W. (1980). Emotion. Cambridge: Cambridge University Press.
OATLEY. K. and JOHNSON-LAIRD, P. N. (19~5). «Sketch for a Cognitive Theory
of Emotions». Cognitive Science Research Paper No. CSRPJJ.IS. Universiry
01' Sussex, Cognitive Studies.
Pv LYSHYN. Z. W. (19~6 l. Computation and C ognition: Toward a Foundation
for Cognitive Science. Cambridge, Mass.: MIT Press.
RúsEMAN. 1. (1979i, «Cognitivo Aspects of Ernotions and Emotional Beha-
viour». Paper presented to the l".7th Annual Convention 011he American
Psyrhologica! Association.
RYLE, G. (19-.+9). The Concept ofMind. London: Hutchinson.
SI_~fON, H_ A. (1979). «Motivational and Emotional Controls of Cognition».
In H. A. Simon. Models of Thoughi, pp. 23-28. New Haven, Conn.: Yale
Univcrsity Press.
SI OMA~. A. (1969), « How to Derive «Better» from «Is»?». American Philoso-
phical Quaterlv 6: 43~52.
- . ( 1978). The Computer Revol ution in Ph ilosophy: Phi losophy. Se iencc, and
Modcls of Mind. Hassocks. Sussex: Harvester Press.
-. (1981). «Skills, Learning, and Parallel isrn». Proceedings Cognitive Science
Conference, pp. 2g4-S. Berkeley, Ca1if.
-. (1984). «Why 'A;e Need Many Knowledge Representation Forrnalisms». In
M. Bramer (ed.). Reseach and Development in Expert Svstems. pp. 163-183.
Cambridge: Cambridge University Press.
-. ()985). «Real-Time Mulriple-Morive Ex.pert Systerns». In M. Merry (ed.),
Expert Svstems R5. pp. 213-24. Cambridge: Cambridge University Prcss.
-, and Croucher. M. (1981). «Why Robots Will Have Emotions». Proc. Zth
IJCAU Conference, pp. IQ7-202. Vancouver, Be.
IR9
l\'IODELOS MENTALES
P.N. Johnson-Laird
191
tan extraordinaria que parecen tener poco en común si exceptuamos la
mera referencia a representaciones simbólicas de algún tipo. Así las ex-
plicaciones sobre la percepción visual. la comprensión del discurso, el
razonamiento. y la representación del conocimiento y de las habilidades
han hecho referencia todas ellas a versiones de la hipótesis de los mode-
los mentales. Mi propósito en este capítulo es poner algún orden entre
tanta diversidad. Aunque muchos escritores se han empeñado en esta-
blecer distinciones entre conceptos alternativos de modelos mentales,
las teorías pueden diferir más de lo que sería conveniente porque al fin
y al cabo todas ellas se ocupan poco mas o menos de la misma realidad
subyacente. Es algo así como si los exploradores siguieran informan-
do de la existencia de un animal desconocido hasta Ia fecha. pero sus
avistamientos fragmentarios del mismo les convencieran de que están
observando diferentes criaturas.
Comienzo señalando el papel (que juegan) los modelos en la per-
cepción y el discurso. Luego examino el razonamiento como un proce-
so en el que se manipulan modelos y después sus roles en cuanto que
representaciones del conocimiento. Finalmente presento una crítica de
la teoría de los modelos mentales y perfilo algunos de los problemas
principales en su desarrollo.
192
características del campo visual, como por ejemplo una expansión rápi-
da según la mosca se acerca a una superficie (ver Rcichardt y Poggio).
La visión humana. tal y como han destacado David Marr y sus colegas,
depende de la construcción de una serie de representaciones simbólicas
que culminan en un modelo tridimensional de las relaciones espaciales
entre los objetos (ver Marr 1982). Este modelo hace explícito el qué (es
lo que está) y el dónde (se encuentra) para nuestros procesos conscientes
de juicio, permitiéndonos de ese modo seguir nuestro camino a través
del mundo al tiempo que eliminamos obstáculos e imprevistos.
Nuestros modelos necesitan integrar la información procedente desde
todos estos sentidos y desde el conocimiento general -los signos. soni-
dos. olores, y las posibilidades que el mundo ofrece. Nuestra capacidad
para prever diferentes situaciones no parece tener límite, no obstante el
cerebro no puede contener un número infinito de episodios. La larga va-
riedad de modelos mentales debe ser construida sobre la base de medios
finitos -sobre los sfrnbolos primitivos y los procesos básicos que operan
sobre ellos. En el caso de la visión, los procesos cognitivos llevados a cabo
por el cerebro convierten la respuesta de la retina a la luz en un modelo de
los objetos que reflejan esa luz, y estos procesos incorporan restricciones
basadas sobre la naturaleza del mundo (Marr 1982). Nuestra experiencia
fcnomenológicu del mundo es un éxito de la selección natural. Parece
que percibimos el mundo directamente, no una representación del mismo.
Aunque esta fenomenología es ilusoria: lo que percibimos depende tanto
de lo que hay en el mundo como de lo que hay en nuestras cabezas -de
10 que la evolución ha «instalado- en nuestros sistemas nerviosos y de 10
que conocemos como resultado de la experiencia. Los límites de nuestros
modelos son los límites de nuestro mundo.
193
«instancias» mentales. correspondientes a la mesa y a la estufa. inte-
rrelacionadas de tal modo que se corresponden con la relación espacial
entre e IIas. Dicho brevemente, los rnode los mentales de I discurso hacen
explícita la estructura /10 de los enunciados sino de las situaciones tal y
como las percibimos o imaginamos (Johnson-Laird 1983. p. 419).
Una razón para creer que la gente construye modelos es que la hipó-
tesis explica un rasgo característico central para la comprensión. El con-
tenido implícito de un discurso es usualmente sólo un diagrama de un
estado de cosas: le corresponde al lector o al oyente dar con los detalles
que faltan. Este tipo de inferencias «puente» son rápidas y automáticas.
y las personas rara vez son conscientes de ellas aunque pueden hacerse
presentes al ser llamadas en el discurso (ver Clark 1977). Estas infcren-
cias en ocasiones dependen del conocimiento general, tal y como algu-
nos científicos de la computación han defendido (por ejemplo, Schank y
Abelson 1977. Sanford y Garrod 198]). Pero el hecho clave e~ que llegan
a explicaciones de un tipo que sólo serían explícitas en los modelos de las
situaciones, Bransford y sus colegas han demostrado este fenómeno en
una serie de estudios. Por ejemplo. Bransford, Barclay, y Franks ( 1972)
observaron que cuando a los sujetos se les presentaba el enunciado
194
y Johnson-Laird 1982, Oakhill y Garnham 1985l. Kannan Mani y yo
hemos mostrado en términos similares que los pasajes que exigen un
modelo simple de composición espacial son más fáciles de recordar que
las descripciones indeterminadas que son consistentes con más de una
composición (Mani y Johnson-Laird 1982). Así la descripción
1\j5
otros experimentos. Así cuando dos expresiones con diferentes signifi-
cados. tales como
196
Hay una mesa grande de madera enfrente de la estufa.
Esta tiene cuatro sillas, una a cada lado.
Una razón mayor para postular los modelos discursivos tiene que
ver con la manida cuestión de la verdad. Las teorías basadas sólamente
sobre representaciones lingüísticas no dicen nada acerca de cómo las pa-
labras se relacionan con el mundo (Johnson - Laird, Herrrnann, y Chaf-
fin 1984). Hasta que tales relaciones sean establecidas, la cuestión de si
una descripción es verdadera o falsa no puede tener lugar. Los modelos
mentales son estructuras simbólicas, y la relación de un modelo con el
mundo no puede simplemente ser leída de un tirón a partir del modelo.
¿Cómo es pues juzgada la verdad o falsedad de una aserción con respec-
to al mundo? La respuesta es que un discurso será juzgado como vcrda-
dero si su modelo mental puede ser incluido en el modelo del mundo.
Así. por ejemplo. juzgarás mi comentario sobre la mesa yue está enfren-
te de la estufa como verdadero si se corresponde con tu percepción del
mundo, esto es, un modelo basado sobre la aserción puede ser incluido
dentro de un modelo perceptivo de la situación (J ohnson - Laird 1983.
pp. 247. 441), Por tanto cuando juzgas una aserción como verdadera,
o bien has relacionado su representación lingüística inicial, o bien un
modelo basado sobre esta representación. con un modelo del mundo.
Y. lo que es más importante. sabes que es verdadera: eres conocedor de
haber hecho una comparación, y ese conocimiento a su vez depende del
modelo de tu propia realización.
197
El caso para los modelos mentales ya ha sido tratado en semántica for-
mal (Kamp 1981, Spencer-i-Smith 1987), en lingüística (Karttunen 1976,
Re ichgelr 1981, Shadbolt 1983, Fauconnier 1985), en inteligenc ia arti tI-
cial (\Vebher 1978. Wilks y Bien 1979), y en psicolingüística (Stenning
1978, Johson-Laírd y Gamham 1980. Garnham 1981, 1987, Garnham
y Oakhill 1989, van Dijk y Kintsch 1983. Glenberg. Meyer, y Lindern
1987). Pero hay un problema serio para las teorías psicológicas. Una aser-
ción tal como «Una mesa está enfrente de la estufa» puede ser verdadera
para un número infinito de situaciones posibles diferentes. Por tanto en se-
mántica formal los teóricos postulan que una aserción tiene un número in-
finito de modelos. o «mundos posibles». en los que podría ser verdadera.
Dejando por sentado que la mente tiene sólo una capacidad finita, enton-
ces un número infinito de modelos. como ha observado Partee (1979). no
puede quedar fijado en la cabeza de nadie. Un3 solución a este problema
es asumir que la representación lingüística inicial de una aserción es usada
para construir nada más que un modelo (Johnson - Laird 1983, cap. 11),
pudiendo este modelo servir como muestra representativa y provisional
para el conjunto infinito de todos los modelos posibles de la aserción.
Este puede sustituir al modelo correcto, asumiendo que el hablante tiene
un estado específico de cosas en la mente, puesto que puede ser revisado
a la luz del discurso subsiguiente. Describiré en la sección siguiente cómo
podría funcionar el proceso inferencial para tales revisiones.
En resumen la teoría de los modelos discursivos está basada sobre
tres ideas principales:
l . Un modelo mental representa la referencia de un discurso, esto
es. la situación que el discurso describe.
2. La representación lingüística inicial de un discurso. junto con la
maquinaria para construir y revisar rnodelo- discursivos a partir
de ella, recoge el significado del discurso. esto es, el conjunto de
todas las situaciones posibles tlue podría describir.
3. Un discurso es juzgado como verdadero ~i hayal menos un modelo
del mismo que puede ser incluido en un modelo del mundo real.
198
premisas puedan estar mentalmente representadas en forma de mode-
lo. es natural preguntarse cómo podrían los modelos tomar parte en los
procesos inferenciales. La naturaleza de estos procesos. sin embargo, es
altamente controvertida tanto en inteligencia artificial como en psicolo-
gía cognitiva. Si bien los argumentos dados en las dos disciplinas son
ampliamente independientes entre sí, no obstante corren en paralelo en
un grado notable. Aquí también tenemos los mismos tres puntos de vista
principales.
La primera clase de teorías asume que el razonamiento depende de
reglas formales de inferencia. semejantes a las de un cálculo lógico. El
uso de la lógica en inteligencia artificial ha sido defendido por Hayes
(1977), Y una serie de sistemas formales han sido implementados (ver,
por ejemplo. Robinson 197':>. Reiter 1973). El lenguaje de programa-
ción Prolog está basado sobre la misma filosofía (Kowalski 1979). En
psicología también hay muchas teorías del razonamiento que postulan
una «lógica mental» que consiste en reglas formales de inferencia (ver.
por ejernplo.Tnhelder y Piaget 1958, Osherson 1975. Braine 1978. Rips
1983). Las reglas formales trabajan de un modo puramente sintáctico,
y en este sentido son ciegas en cuanto al contenido de una premisa,
que depende sólamente de su llamada forma lógica - una noción que
también es LJ sada en 1a teoría 1i ngü í stic a (ver Chornsky 1977, Homstein
1986). A diferencia de tales reglas, sin embargo, las personas son alta-
mente sensibles al contenido de las premisas cuando hace inferencias.
Tales efectos sobre las inferencias de la vida cotidiana han sido descu-
biertos de fonna independiente por investigadores tanto en inteligencia
artificial como en psicología cognitiva.
Por un lado los psicólogos han encontrado que la dificultad de un
problema deductivo, y la naturaleza de las respuestas al mismo. pueden
verse profundamente afectadas por su contenido (ver, por ejemplo, Wa-
son y Johnson- Laird 1972. Evans 1982). Por otro lado existe un hiato
entre lo que es válido en lógica y en la vida cotidiana. La lógica. por
ejemplo, garantiza la inferencia desde
a la conclusión
199
10 que es claramente una inferencia que va en contra del sentido común.
En lógica, sin embargo, un condicional es considerado como verdadero
siempre que su antecedente sea falso (o su consecuente sea verdadero),
y de este modo si la premisa aquí es verdadera. la conclusión debe ser
verdadera. La lógica es en efecto «monótona» dado que la validez de
una inferencia no se ve afectada por cualesquiera que sean las premisas
adicionales añadidas. Varios intentos han sido realizados para formular
lógicas «no-monótonas» que se correspondan con la inferencia de la
vida cotidiana (ver, por ejemplo, rvlcDermott y Doylc 19XO). No obs-
tante, el problema surge usualmente a partir del contenido de las pre-
misas, no de su forma lógica, por lo que es improbable que pueda ser
subsanado mediante un remedio formal (Davis 1990). Lo que es peor,
muchas inferencias verbales en la vida cotidiana no son en modo alguno
derivables dentro de un cálculo lógico. Algunas dependen de la situa-
ción particular a la que hacen referencia las premisas (Johnson-Laird
198~. pp. 2-l0. 261 ): otras son plausibles sobre la base de conocimiento
general. pero pueden ser desbaratadas por información específica que
afirme lo contrario (ver Minsky 1975, Schank y Abelson 1977): algunas
derivan de premisas que no pueden nunca hacerse lo suficientemente
completas como para asegurar la validez (Johnson - Laird 1987); y al-
gu nas son ¡nd ucc iones (ver cap ítulo 13). El hecho de que una gran parte
del razonamiento no sea deductivo ha llevado a un anterior defensor de
las reglas formales a abandonarlas (McDennott 1986).
La segunda clase de teorías reconoce directamente la importancia
del contenido. Postulan reglas de inferencia de contenido especifico.
Uno de los orígenes de tales teorías descansa en los lenguajes de pro-
gramación, tales como PLANNER (Hewitt 1(71). Y los sistemas de
producción (Newell 1973) que permiten que las aserciones generales
sean expresadas bajo la forma de reglas condicionales. tales como
200
que son diseñados para ayudar a sus usuarios en la toma de decisiones
correctas acerca de cuestiones tales como el diagnóstico médico, el aná-
lisis químico, o dónde perforar para encontrar minerales. Los sistemas
expertos están basados sobre una gran base de reglas de conocimiento
que han sido obtenidas mediante la consulta a expertos humanos y a par-
tir de procedimientos que usan estas reglas para hacer inferencias acerca
de casos específicos (ver. por ejemplo, Buchanan y Feigenbaum 1978,
Michie 1979, Davis y Lenat 1982, Feigcnbaum y l\t1cCorduck 1984).
La idea de basar teorías psicológicas del razonamiento sobre re-
gl as de contenido específico fue discutida por J ohnson - La i rd y Wa-
son ( ] 977), y, varios tipos de tales teorías han sido propuestos ~ ver. por
ejemplo. Anderson 1983, E. R. Smith 1984. Chcng y Holoyoak 1985,
y Holand, Holoyoak, Nisbert, y Thagard 1986). Una idea afín es que
el razonamiento depende de la acumulación de ejemplos específicos
dentro de un marco conexionista, donde la diferencia entre inferencia y
llamada es borrosa.
La cuestión más importante en cuanto a las reglas formales es que
explican cómo en principio la gente puede razonar acerca de cualquier
cosa sin atender a su comen ido, incluyendo dominios desconocidos y
abstractos. Pero por supuesto es necesario explicar tanto estos fenóme-
nos. como también las inferencias no-deductivas. siendo aquí la más
relevante la tercera clase de teorías - aquéllas basadas sobre modelos
mentales. Estas no emplean reglas de inferencia de ningún tipo, ni for-
males ni de contenido específico, sino que asumen en su lugar que el
razonamiento depende de la manipulación de modelo, mentales.
Esta clase de teorías han sido formuladas para distintos dominios
(ver, por ejemplo, de Klee r y Brown 198 L Kahnernan y Tversky 1982,
JohnsonLaird 1983). Algunos individuos poco corrientes parecen haber
desarrollado una estrategia consciente basada sobre esta técnica. Tal y
como ]0 explicó recientemente Richard Feynman (Feynrnan y Leighton
1985).
Tenía un esquema. que todavía lI~O cuando alguien explica algo que
trato de entender: Sigo construyendo ejemplos. Pongamos el caso de
que los matemáticos se estuvieran enfrentando a un terrorífico teorema,
y que todos estuvieran excitados. Según me dicen las condiciones del
teorema, construyo algo que cumple todas las condiciones. Ya sabes,
tienes un conjunto (una bola) -disjunto (dos bolas). Entonces. según
van introduciendo más condiciones, en mi cabeza las bolas cambian de
color. les crece pelo, o cualquier otra cosa. Finalmente establecen el teo-
201
rema, que es algo extraño acerca de mi bola. que no es verdadero para
mi bola de pelo verde, así que digo, [Falso!»
La misma idea sirve para las teorías del razonamiento basadas sobre
modelos mentales, que ilustro en primer lugar en términos de inferencia
silogística.
o su conversa igual mente vál ida. Otros silogismos, sin embargo, son
mucho más difíciles - tan difíciles de hecho que la mayoría de los adul-
tos falla al derivar conclusiones correctas. Dadas las premisas
202
círculos de Euler, donde los conjuntos son representados por círculos
que pueden o no superponerse (ver Erickson 1974. Guyote & Stenberg
1981). Un rasgo distintivo de esta propuesta es que no hay necesidad
de introducir un símbolo especial para la negación. Otros teóricos con-
vienen en que las nociones abstractas tale- corno la negación deberían
ser sólo codificadas en representaciones lingüísticas (1 nder 1987, J ac-
kendoff 1987). Los círculox de Euler, sin embargo. no pueden repre-
sentar aserciones que contengan más de un cuantificador. por ejemplo,
'<Algunos de los atletas conocen a todos los artistas», y pueden llegar a
la explosión combinatoria porque muchas premisas exigen algunas re-
presentaciones separadas. Además hay una objeción determinante a Jos
modelos que carecen de elementos abstractos. Estos modelos no pueden
representar aserciones tales como «Ben sabe que sus regalos no fueron
dejados por Santa Claus». puesto que tales «actitudes proposicionales»
como muestra el ejemplo a menudo tienen un contenido negativo. Otra
versión de la teoría de los modelos mentales hace la importante asun-
ción de qu~ cualquier actitud proposicional puede ser ella misma repre-
sentada por su componente correspondiente dentro del modelo mental
(Johnson - Laird 1983). Para representar una proposición negativa. por
ejemplo. un símbolo especial para la negación es introducido directa-
mente en el modelo. No hay nada impropio en cuanto a una maniobra
semejante puesto que las rutinas para evaluar la verdad de los modelos
tienen un procedimiento adecuado para el símbolo (ver Kamp 1981;
Iohnson - Laird 1983, pp. 423-442), Ciertamente los diagramas de
Venn son una notación tradicional que explota precisamente un instru-
mento parecido. es decir, los espacios entre tres círculos superpuestos se
ensombrecen para representar la inexistencia de cienos conjuntos (ver
Newell 1981 para un algoritmo para el razonamiento con diagramas de
Venn, y Polk y Newell 1988 para la defensa de modelos que contienen
elementos proposicionales).
Mis colegas y yo hemos defendido que los modelos usados en el
razonamiento no son ni círculos de Euler ni diagramas de Verm, porque
están muy lejos de representar las situaciones de las estructuras percibi-
das. Asumimos que los modelos son en su lugar los modelos discursivos
discutidos en la sección previa. La premisa
203
vagos que son mentalmente etiquetados de algún modo para indicar que
son disjuntos, por ejemplo,
atleta
atleta
vago
vago
vago
atleta
atleta
v'Ugll =: dependiente
vugo > dependierne
(vag.o)
204
1971 j. No hay necesidad de manipular algunos de los individuos por sí
mismos en tanto que no tienen incidencia sobre la conclusión. El modelo
sólo tiene un número finito de instancias, y sólo hay un número finito de
reformulacioncs posibles de éstas. Al no existir un modo de establecer
identidades entre los atletas y los dependientes que también viole las pre-
misas, la presente conclusión es válida. De hecho incluso si no se llevara a
cabo ningún intento de prueba. la respuesta seguiría siendo correcta.
Las cosas son muy distintas en el CLlSO del problema en el que la
segunda premisa es
atleta
atleta
vago == dependiente
vago > dependiente
(vago)
atleta = (dependiente)
atleta = (dependiente)
vago = dependiente
vago::: dependiente
(vago) (dependiente)
105
¿Podemos estar seguros de que los sujetos siguen tales principios
en el razonamiento? Los procesos cognitivos de más alto nivel tienden
a ocurrir de maneras! muy diferentes, y algunos individuos pueden cons-
truir un modelo inicialmente erróneo y después revisarlo, mientras que
otros pueden apreciar la existencia de modelos posibles diferentes desde
el mismo comienzo. Una cosa es cierta: sin un entrenamiento en lógi-
ca. los individuos corrientes no disponen de un procedimiento sencillo
estándar para hacer frente a Jos silogismos. Por tanto aquellas premi-
sas que llevan sólo a un modelo simple son claramente más fáciles que
aquellas que ofrecen una elección entre modelos. El número preciso de
modelos diferentes que un sujeto construye en cada ocasión es incierto.
!VEs colegas y yo hemos desarrollado algunos programas de cómputo
que modelan el razonamiento silogístico y que discrepan en este punto
(ver. por ejemplo. los dos programas descritos en Johnson-Laird y Bara
19"4). No obstante. podemos estar seguros de que muchos sujetos cons-
truyen inicialmente modelos erróneos -derivan conclusiones inválidas.
Asimismo cuando se les da a los sujetos la posibilidaJ de pensar (k llue-
vo tras un breve intervalo de tiempo (10 segundos) en los que formular
la conclusión, a menudo éstos cambian de opinión (Johson-Laird y Bara
1984). Un experimento no publicado llevado a cabo por Ruth Byrne y
yo mismo es de relevancia aquí: cuando se les da a los sujetos un test de
reconocimiento inesperado de las conclusiones que han derivado para
una serie de silogismos, un error común es seleccionar Ja conclusión
pronosticada por el modelo inicial en lugar de la conclusión más recien-
te (y correcta) de los sujetos. Este error es por supuesto pronosticado si
los sujetos derivan una conclusión inicial de acuerdo con un modelo,
que entonces revisan después de que hayan construido otro modelo.
No hay duda de que las personas son capaces de buscar contrae-
jemplos a las conclusiones, pero los procesos se ven afectados por la
carga cognitiva de la tarea (ver Oakhill y Johnson-Laird 1985). Lo que
es más difícil de identificar son los procesos reales mediante lo" cuales
tales modelos son construidos. Allen Newell en sus clases sobre Willian
James en la Universidad de Harvard en 1987 defendió que los modelos
mentales pueden ser tratados como representaciones mentales dentro
del espacio de un problema. Así cuando alguien resuelve, digamos. el
problema de los misioneros y los canibales, él o ella aplican una serie
de operaciones para transformar un modelo del estado inicial de cosas
a través de una sucesión de modelos que representan estados interme-
dios hasta que el objetivo es alcanzado. Esta formulación es útil en la
caracterización de la secuencia de estados conscientes de los que un in-
206
dividuo es conocedor al resolver un problema. Una de las singularidades
del razonamiento deductivo, no obstante, es que la gente apenas puede
acceder de modo consciente al proceso de cómo llega a una conclusión.
A no ser que usen imágenes visuales, no tienen acceso consciente a los
propios modelos - una deficiencia introspectiva que los críticos de los
modelos mentales citan como contraria a la teoría (Martín Braine. en
comunicación personal, 1988). Puesto que la representación de los indi-
viduos a los que la referencia anafórica puede ser hecha es igualmente
inaccesible -tiene que existir una representación semejante- no pien-
so que la inaccesibilidad cuente decisivamente en contra de la teoría. Lo
que queda claro. no obstante. es que poco se sabe acerca de la naturaleza
de los procesos que generan contraejemplos. Algunos de los procesos
pueden ocurrir en paralelo y de este modo violar un análisis directo en
términos del espacio del problema de Newell. que asume que sólo ope-
raciones sencillas llevan de un estado al siguiente dentro del espacio.
La cruz es si una conclusión válida llama a más de un modelo para
que sea construido. Siempre que hay una elección entre modelos. los
individuos corrientes están en serio peligro de caer en un error, puesto
que carecen de un procedimiento inferencia! sistemático.
207
ver al segundo pa~o y tratar de construir una nueva conclusión
verdadera para todos los modelos construidos hasta entonces. Si
no está clara la existencia de un modelo semejante, entonces la
conclusión puede ser aceptada provisionalmente o expresada me-
diante alguna calificación modal o probabilista (ver Kahneman y
Tversky 198~). aunque puede estar sujeta a revisión a la luz de la
información subsiguiente.
La búsqueda de contraejemplos resuelve el rornpecabezns de cómo
un modelo puede servir P;l[d un número infinito de situaciones posibles
diferentes. Siempre que una aserción es interpretada puede ser necesario
hacer una asunción arbitraria para construir un modelo simple. Si una
aserción subsiguiente es falsa relativa a este modelo. entonces puede ser
falsa al entrar en conflicto con algo que depende de la aserción arbitra-
ria. En consecuencia puede hacerse un intento de revisión del modelo de
modo que sea consistente con la nueva aserción mientras sigue siendo
un modelo adecuado Jel discurso previo. De esta manera las asunciones
arbitrarias anteriores pueden ser corregidas. o bien. la revisión debería
ser imposible, al detectarse una contradicción entre la última aserción y
el discurso previo. Este procedimiento está por supuesto estrechamen-
te relacíonado con la búsqueda de contraejemplos en el razonamiento
deductivo: allí el propósito consiste en hacer falsa una aserción ordi-
nariamente verdadera para comprobar su validez; aquí el propósito es
hacer verdadera una aserción ordinariamente falsa para comprobar su
consistencia. El mismo mecanismo puede ser usado para razonar no-
monótonamente. Si una asunción es incorporada al modelo sobre la base
de información por defecto o prototípica, por ejemplo. «mi perro tiene
tres patas». En este caso hay un intento de revisión del modelo. Tales
rev isiones pueden deshacer asunciones por defecto (tanto como las de
carácter arbitrario), pero no pueden deshacer aquellas condiciones que
son necesarias para un concepto.
La teoría de la inferencia basada sobre modelos mentales ha sido
explorada en varios dominios. Ciertamente el estudio de problemas de
series de tres términos. tales como
208
dores forman una cornpoxtcron mental de los individuos en el orden
serial adecuado. Otra investigación reveló una imagen más complicada,
Así Clark (]969) mostró que un adjetivo comparativo como «más alto)
es más fácil de entender que sus converso «más bajo), porque el prime-
ro es esencialmente neutro y afirmativo en tono, mientras que el último
es contrastivo y negativo en tono. Una complicación adicional es que
los sujetos parecen desarrollar diferentes estrategia" para enfrentarse
con tareas experi menta les (comparar con Sternberg y \Veil 1980. Egan
y Grines-Farrow 1982).
El razonamiento espacial depende de relaciones más complejas que
los problemas de series de tres términos. Considérese, por ejemplo, la
siguiente inferencia:
209
Se sigue de esta definición que, digamos. 4 > 2, porque hay un nú-
mero 3, tal que 4 es su sucesor y 3 > 2 (porque 3 es el sucesor de 2). El
principio de transitividad no es claramente parte de la definición. pero
cualquier modelo basado sobre el significado de las premisas a > b y
b > e da la conclusión a> c.
La emergencia de las propiedades lógicas de los significados es un
principio general. Esto se aplica a las relaciones que tienen lugar entre
proposiciones, incluyendo relaciones simples tales corno «y» y «o», y
relaciones causales y condicionales más complicadas. Como en la nega-
ción la clave para la representación de estas relaciones abstractas es la
introducción de procedimientos apropiados para interpretar elementos
especiales dentro de los modelos. Un discurso puede describir una si-
tuación real, una situación posible. o una situación ficticia o hipotética.
Debe haber por tanto algún modo de representar el status de un discur-
so y simbolizarlo dentro de un modelo. Una aserción condicional, tal
como
concluyen falazmente Ella JlO se moja. ¿Por qué no postular una regla
formal que se corresponda con la falacia? Porque, dicen los defensores
de la lógica de la mente. la inferencia puede ser suprimida propor-
cionando una premisa adicional adecuada que sugiera que hay otros
modos de mojarse, por ejemplo, si nieva. ella se moja (Rurnain, Con-
nell y Braine 19R3). Byrne (1989) ha mostrado, sin embargo. que una
premisa adicional puede también suprimir el uso de la regla central
de la lógica formal, el modus ponens. Así dado el siguiente conjunto de
premisas:
210
Sí llueve, ella se moja.
Si ella sale fuera. se moja.
Llueve.
211
Los teóricos han usado el término «modelo mental» en estos con-
textos para referirse primariamente al contenido de una representación
mental. Pero. aunque los modelos mentales pueden diferenciarse nota-
blemente en cuanto a su contenido, no hay evidencia que ~ugiera que di-
fieran en su formato represcntacional o en los procesos de construcción
y manipulación. Lo que constituye una cuestión importante es cómo los
sujetos desarrollan esos modelos según un individuo pasa de ser un no-
vato a ser un experto. y si hay alguna ventaja pedagógica en proporcio-
nar a los sujetos modelos para las tareas que están intentando aprender.
112
el razonamiento cuantitativo apropiado exige el modelo más abstracto.
Una moraleja parecida puede sacarse del trabajo de Tversky y Kahne-
man acerca de 10;; juicios probabilistas. Los individuos inexpertos razo-
nan sobre la base de simulaciones mentales que exigen la construcción
de modelos que representen secuencias típicas de hechos (Kahneman y
Tversky 1982); el razonamiento cuantitativo apropiado exige un modelo
más abstracto que recoja factores tajes como las probabilidades a priori de
los eventos, las variancias de las distribuciones, y así sucesivamente.
Un modelo de un dominio puede ser incompleto e inadecuado, y sin
embargo resultar todavía útil (Norman 1983; Johson - Laird 1983, cap. 1)
-del mismo modo que un reloj puede ser útil incluso sin ser del todo
exacto ni constituir una representación completa de la rotación de la tierra.
Un modelo erróneo puede obviamente llevar a conclusiones erróneas y dar
por ciertas ilusiones cognitivas persistentes. Así, por ejemplo, mucha gente
cree que si giramos una moneda de aniba abajo alrededor del borde de
otra moneda que está fija, la primera acabará invertida (ver diSessa 1983).
Muchos estudiantes creen que si se hace dar vueltas a un objeto colocado
al final de una cadena, y la cadena se rompe, entonces la trayectoria del
ohjeto (ignorando la gravedad) es una espiral (ver Mcf.loskey, Caramazza
y Green 1980). No obstante los modelos erróneos no son siempre fuen-
tes de error y en ocasiones pueden ser una mejor guía que otros modelos
más sofisticados. Kernpton (1986) señala que hay dos modelos comunes
de termostatos. Uno de los modelos asume que un termostato se comporta
como un aparato de retroalimentación que mide la temperatura y enciende
o apaga el calentador para mantener una temperatura dada. El otro mode-
lo. más primitivo. considera al termostato como una válvula que controla
directamente el calor al modo del mando giratorio de una cocina de gas.
Un modelo de «retroalimentación) puede conducir a error al dejar el ter-
mostato a bajo nivel durante la noche. si esto implica que el ahorro de fuel
queda compensado por el gasto extra que se produce al recalentar la casa
por la mañana. Este error no se produce con el modelo de «válvula» dado
que dejar el termostato a bajo nivel siempre reduce el uso del calentador.
La fuente de error en un modelo puede ser mera ignorancia, como
en muchas concepciones equivocadas acerca de la fuerza en los sistemas
físicos. En ocasiones. sin embargo, el error surge de un fallo al apreciar
la situación adecuadamente o al tener en mente varias posibilidades. de
manera particular en inferencias deductivas difíciles. Un buen ejemplo
del fallo en la apreciación de una situación ha sido descrito por Hinton
~ 1q79L La tarea consiste en imaginarse un cubo en equilibrio sobre uno
de los vértices con el otro vértice diametralmente opuesto en posición
213
vertical sobre él y entonces indicar los lugares de los otros vértices del
cubo. La realización correcta es inusual sin una experiencia previa COI1-
siderable con cubos. Mucha gente considera que sólo hay otros cuatro
vértices que descansan sobre el mismo plano horizontal.
214
ejemplo, el modelo de un termostato entendido como una válvula. Gent-
ner (1983, 1989) argumenta que la mera semejanza de las estructuras
entre un dominio y otro seguramente no puede dar cuenta del uso de un
dominio como una analogía para el otro. Lo que se tiene que tener en
cuenta son las relaciones semánticas de alto nivel, tales como el marco
causal. Así por ejemplo la analogía de Rutherford entre el sistema solar
y el átomo, las funciones entre el sol y los núcleos del átomo, y las fun-
ciones entre los planetas y los electrones. Las propiedades de] sol. tales
como su calor. no son consideradas, mientras que las relaciones de alto
nivel son tenidas en cuenta. Por tanto la relación
la atracción del sol sobre los planetas causa que éstos giren a su
alrededor
produce la inferencia
la atracción del núcleo sobre los electrones causa que éstos giren
a su alrededor.
215
mente de aquéllos comprometidos con la lógica mental. Una objeción
frecuente se ha presentado en forma de pregunta: ¿Qué es con exactitud
un modelo mental? Si el que pregunta exige una definición que funcio-
ne, entonces un modelo mental puede ser definido como una representa-
ción de un cuerpo de conocimiento -o bien a largo o bien a corto plazo
que cumple las siguientes condiciones:
l. Su estructura se corresponde con la estructura de la situación que
representa.
2. Puede constar de elementos correspondientes sólo a las entidades
perceptibles, en cuyo caso puede ser realizado como una imagen.
perceptiva o imaginaria. Alternativamente puede contener ele-
mentos correspondientes a nociones abstractas; su significación
depende crucialmcnte de los procedimientos para la manipula-
ción de modelos.
J. A diferencia de otras formas de representación propuestas, no
contiene variables. Así una representación lingüística de. diga-
mos. Todos los artistas son guardianes podría tomar la forma
216
necesidad de suplementarIas con modelos mentales para dar cuenta del
razonamiento y de la comprensión del discurso.
El gran peligro para las teorías de la representación e~ que cometan
la falacia simbólica de que el significado no es más que una cuestión de
relacionar un conjunto de sfrnbolos con otro. Como dijo Lewis (1972),
traducir un enunciado a una representación lingüística no proporciona
más explicación de las condiciones de verdad en las que ésta es verda-
dera que una traducción al latín. Una reacción extrema aquí es decir,
en efecto, tanto peor para las condiciones de verdad. Así Rips (1986)
escribió: «La psicología cognitiva tiene que arreglárselas sin nociones
semánticas como verdad y referencia que dependen de la relación entre
las representaciones mentales y el mundo exterior». Pero, si rechazamos
la verdad y la referencia, no queda nada de la vida mental, y no pode-
mos incluso dar cuenta de la comprensión y verificación del discurso.
En contra de la prescripción metodológica de Rips muchos autores han
puesto de manifiesto que un problema principal para la ciencia cognitiva
es explicar cómo los símbolos refieren al mundo (comparar Hofstadter y
Dennet 1981, Haugeland 1985, Russell 1987). La teoría de los modelos
mentales propone una solución a este problema, aunque algunos co-
mentaristas creen por error que considera la interpretación del lenguaje
como nada más que la traducción de emisiones en los modelos y repudia
la cuestión de cómo se relacionan los modelos con el mundo (ver Oden
1987). Como hemos visto. sin embargo, la solución es que los modelos
mentales del mundo pueden ser también construidos como resultado de
la percepción, la experiencia interna, y la interacción social. Un discurso
se considera verdadero si un modelo basado sobre su representación lin-
güística puede ser sumergido en un modelo semejante (Johnson-Laird
198~. pp. 247,441).
117
y Flores 1986). La naturaleza llamativa del conocimiento puede hacer
difícil -incluso imposible- para nosotros la construcción de máqui-
nas inteligentes (mediante algún método diferente al biológico original).
Pero esto no tiene incidencia directa en cuanto a la realizabilidad de la
ciencia cognitiva, porque una explicación científica de cómo se adquiere
el conocimiento, se guarda, y se usa en la interpretación del mundo no
hace necesariamente referencia a una especificación completa de todo el
conocimiento. Además. como Hayes y otros teóricos de cuestiones liga-
das a la mente han argumentado, puede ser posible verter conocimiento
intuitivo de un modo completamente explícito. La empresa puede llevar
muchísimo tiempo. pero si existen barreras insuperables para la misma,
éstas están todavía por descubrir.
Un forma más seria de incompletud tiene que ver con las propias
teorías de los modelos mentales. Así las teorías de la visión no ofrecen
una completa explicación de cómo los estímulos retinales se relacionan
con los modelos dinámicos del tipo que construye el sistema perceptivo
humano. Del mismo modo que las teorías del discurso dan cuenta tan
sólo de cómo fragmentos del lenguaje pueden ser traducidos a los mode-
los, las teorías del razonamiento sólo han sido propuestas para dominios
finitos. Y sólo un pequeño número de sistemas expertos han explotado
el razonamiento basado en modelos a pesar de sus aparentes ventajas
para tratar inferencias no-deductivas. Una razón para tales deficiencias
es la dificultad compartida para formular teorías. especialmente cuan-
do el teórico se ve forzado a analizar las condiciones de verdad de las
expresiones-una cuestión que puede ser retinada dentro de redes se-
mánticas u otras formas de representación lingüística.
6. Conclusión
218
su conocimiento perceptivo como de sus descripciones. Estas dos for-
mas de conocimiento deben ser conmensurables, de otra manera nunca
sabríamos de qué estamos hablando o si lo que decimos es verdadero.
Retenemos dicho conocimiento en la memoria a largo plazo como la
base de nuestra habilidad para enfrentarnos con el mundo; y podemos
razonar acerca de una parte de nuestro conocimiento si su fuente es la
percepción, el discurso, o la memoria.
En breve, a pesar de la diversidad de las teorías, si tenemos que
hacer justicia con las representaciones mentales, la evidencia sugiere
que aquellas que construimos a partir del discurso son semejantes en
estructura a aquellas que construimos por medio de otros medios. y que
el razonamiento explota el mismo tipo de modelos. Los modelos menta-
les son símbolos internos, y así una pregunta queda por formular: ¿Qué
otros tipos de símbolos hay ahí? Las imágenes, como señalé, son un tipo
especial de modelo - una representación bidimensional que e~ proyec-
tada a partir de un modelo tridimensional subyacente. Por tanto la teoría
invoca un inventario SImple de tres partes: las representaciones menta-
les, los modelo", y los procedimientos para manipularlos.
Cuando Craik (1943) argumentó que las personas razonan llevando
a cabo experimentos mentales sobre modelos mentales, la idea parecía
peligrosamente heterodoxa. Ahora el abanico de fenómenos para los que
se usan los modelos mentales está creciendo rápidamente. Estos incluyen
la metacognición (Gilhooly 1986), la conciencia y el yo (Oatley 1981),
el comportamiento intencional y la libre elección (Johnson-Laird 1988),
y la psicopatía (Power y Champion 1986). Lo que queda quizás como el
principal rompecabezas e~ cómo una entidad puede tener acceso recursi-
vo a un modelo de su propia realización tWeyrauch 1980; Johnson-Laird
1983. cap. 16; Hayes-Roth, Garvey, Johnson y Hewett 1987), y cómo ésta
puede explotar ese conocimiento al enfrentarse con el mundo.
Nota
219
Referencias
ANDI::RSON, 1. R. 1983. TI/e Architecture uf Cognition. Cambridge, MA: Har-
vard University Press.
BETH. E. W. 1971. A\peC1S ojModern Logic. Dordrecht: Reide!.
BRi\IN 1..:, M. D. S. 1978. «On thc re lation between the natural logic of rcasoning
and standard logic». Psvchological Review 85: 1-21.
BRANSl-'ORD. J. D.. BARCLAY. 1. R.. and FRA!'<KS. 1. 1. 1972. «Sentence memory: A
construetivc versus interpretative approach». Cognitlve Psychology 3: 19.3-2ÜY.
BUCHANAN. B. G .. and FEIGENBAUM. E. A. 1978. DENDRAL and !'viera-DEN-
DRAL: '<Thcir applications dimensión». Artificial Intelligence 11 ;5-24.
CAREY. S. ]985. Conceptual Change in Childhood. Cambridge, MA:l'vUT Press.
Ca ~N(;, P. N.. and HULYOA 1\.. K. 1. 1985. «Pragmatic reasoning schemas». Co x-
nitivc Psychology 17:391--l16.
CHOMSK Y. N. 1977. Essavs 01/ Form and Interpretation. New York: North Ho-
Iland.
CLAKK. H. H. 1969. Linguistic processes in deductive reasoning, Psvchological
Revie79:3R7-404.
CLARK. H. H. 1977 ...Bridging». In P. N. Johnson-Laird and P. C. Wason, eds,
Thlnking : Readings in Cognitive Se/ella. Cambridge. Eng!.: Cambridge
University Press.
CRAI!\.. K. 1943. The Nature of Explanation. Cabridge. Engl.: Cambridge Uni-
versity Press.
D~VIS, M. 19S0. « The mathernarics oí"non-monotonic rcasoning», Artificial In-
telligence 13:73-80.
DAVIS. R., and LENAT, D. B. 1982. Knowledge-based 5YSfP11H in Artificia! lntr-
lligence, New York: McGraw-Hill.
DE KU.:.EK. J. 1977. «Múltiple rcprcsentation of know lcdge in a mechani sm
problern solver». lntcrnational Ioint Conference ()J1 Artificial Intelligence
5:299-304.
DE KLEER. J., and BRO\VN. 1. S. 19&1. «Mental models ofphysical mechanisms
and thcir acquisition», In 1. Anderson, ed. Cognitive Skills und their Acqui-
sition, HillsJa1c, NJ:ErlblluTll.
[)J SF.'\SA. A. [9~G. «Phenomcnology und the evolution of intuition». In D. Gentner
and A. L. Stcvcns, eds, Mema/ !',.fode/s. Hillsda1e. NJ: Erlbaum. pp. 15-33.
DRLYFllS. H. L. 1972. Whar Computers Can't Do: A critique of Artificial Rea-
son. New York: Harper and Row.
DlT BOULA) , B.. Ü'SHEA, T.. and MONK . .1. 1981. «The black box inside thc
glass box: Prcscnting cornputer concepts to novices'>.!nfemational Jcurnal
of]..-hIll-.'l.l([chine Studies 14:237-249.
EGAN. D. E., and GRIMJ;s-F.-\RRm'r, D. D. 1982. Differences in mental repre-
sentutions spontaneously udopted tor reasoning. Memory and Cognition
10:297-307.
220
EHRLICH. K .. and JOHNSON-L<\IRD, P. N. 1982. «Spatial descriprions and refercntial
continuity-.. Journal o] 'v'erbal Learning and Verbal Behavior 21 :296-306.
ERICKSUN. J. R. 1974. L<A set anulysis theory behaviour in formal syllogistic
reasoning tasks». In R. Solso, ed, Lovola Svmposium 011 Cognition. Vol. 2.
Hil1~dale. NJ: Erlbaum.
EVANS. 1. St. B. T. 198~. The Ps.vc!J%gy ot Deductive Reasoning, London:
Routledge and Kegan Paul.
FALKENHAINER. B.. fURHUS. K. D.. anJ GENTNER. D. 1986. The structure-mapping
engine . Univcrsity of Illinois. Technical Report No. U1UCDS-R-~6-1275.
FAlTCONNIER, G. 1985. Mental Spaces: Aspects oj Alt'l111ÚZR Construction in Na-
rural Languugc. Cambridge. MA: MIT Press.
FEIGENRAUM, E. A.. and McCoRrn1cK. P. 1994. The Fifth Generation: Artificial ln-
telligenve and Japan ~~. Computer Challenge 10 the VYl1r/d. London: Pan Books.
FEYNMA~. R. P. 1985. QED: Tlze Strauge Theory (?! Light and Mattcr. Prince-
ton: Princcton University Press.
FL:YNMAN, R. P. and LEIGHTON. R. 1985. «Surelv }(Jll're Joking, Mr. Fevmon!»
Nc'V York: \Y. W. Norton,
FO])OR.1. A. 1975. [he language of Tltought. Hassocks. SLl~SCX: Harvesrcr Press.
l-oxuus, K. D. 1983. «Qualitative reasoning about space and motion». In
D. Gentner and A. L. Stevcns, eds. Mental Models. Hillsdale, NJ: Erlbaurn,
pp. 5~-73.
GARNHAM. A. 1981. «Anaphoric reference to instanccs instantiatcd and non-
instantiared categories: A reading-tirnc stu,.J. y». British J(lTII'IW/ of Psycho-
logv 72:377-384.
GARNHAM. A. 1987. Mental Models as Rcprcsentutions of Discourse {(/UI Text.
Chichester: Ellis Horwood.
GARI\HAM. A., and OAKHILL. J. V. 1987. «Interprcting elliptical verb phrases».
Quarterlv Journal of Experimental psycholog» 39A:611-627
GENTNER. D. 1989. «The mcchanisms uf analogical learning». In S. Vosnia-
dou and A. ortony, eds. Sunilaritv and Analogv in Reasoning und Learning,
Cambridge. Engl.: Cambridge U ni vers ity Press.
GENTNER. D .. and GEr-:TNER. D. R. 1983. -Flowing watcrs or teerning crowd ... :
Mental models of clectricity». In D. Gentner and A. L. Stcvens, eds. Mental
Al()del~. Hillsdale. NJ: Erlbaum, pp. 99-129.
G1CK. M. L.. and HOLUOAK. K. J. 1983. «Schema induction and analogical
transfer». Cognitive PS\'('ho!oRY 15: 1-3~.
G1LHOUL'r. K. J. 1986. «Mental modelling: A frarnework for the xtudy of thin-
king». In J. Bishop. 1. Lochhcad and Perkins. D. N. cds, Thinking: Progress
in Rew>(m1/ und Teaching, Hilbdak, NJ: Erlbaum.
Glenberg, A. M., Mcycr. M .. and Lindcrn, K. 19H7. rnental models contributc
to forcgrounding during text cornprehension. Journal oj mentory and lan-
guag« 26:69-83.
221
GREEN, T. R. G .. SCHll:LL.:. F.. and PA'YNE, S. J. 1988. «Formalisable mode1s of
user knowledge in humau-cornputer interaction». in T. R. G. Green, G. C.
van der Veer. J.-M. Hoc, and D. Murray. cds. W()rkil1,R witl: Computen:
Theory versus Outcome. New York: Acadernic Press.
GUYOTE. M. J.. and STERNBERG. R. J. 1981. «A transitive-chain theory 01' syllo-
gistic reasoning v , Cognitive PSY<.'/UJ/ogy 13:461-525.
HALASZ, F. G .. and MORAN. T. P. 19X3. "Mental rnodels and problern solving
using' a calculator». Proceedings o] CH/'8J: Human Factors in Computvtig
Svstems. New York: Association for Cornputing Machinery.
HAllGELAND.1. 1985. Artificial Intelligcnce-: The ~hy Idea. Cambridge. MA:
MIT Prc~s.
H..\YI:.S. P. J. 1979. «Naive physics I-ontology for liquids. Memo. Centre pour
les Etudes Scrnantiques et Cognitives». Geneva. Reprinted in 1. Hobbs and
R. Moore, eds .. 1985. Formal Theories o] Commonsense ~l()r{d.
HAYI:.S, p. 1. 1985. </The second naive physics manifestó». In J. Hobbs and
R. Moorc. eds. 19~5. Formal TIJeories 01 Cornmonsense World. Hillsdale,
NJ: Ablcx, pp. 71-1 wt
HAYES-RoTH. B.. G¡\RV~Y. A .. JOHNSON, M. v.. and HEWElT. M. ] 9g7. «A mo-
dular and layered environment for reasoning about action». Knowlcdgc
Systcrns Laboratory Repon No. KSL 86-JX. Cognitivo Science Departrnent.
Stanford University, Sranford, CA.
HEWITr. C. 1971. <,PLANNER: A Languagc for proving theorerns in robots».
Fourth lnternational 10il11 Conference un Artificial lntelligence, pp. 115-121.
Hlf\;TO:-'. G. 1979. "Sorne dernonstrations of the effects of srructural dcscrip-
tions in mental irnagery Cognitivc Science 3:2.31-250.
H.
HOFSTADTI-:R.D. R., and DENNET. D. C .. cds. 1981. The Mind's I: Fantasie- and
Reflections on Sclf and Soul. New York: Basic Books.
HOLLAND. J.. HOLYOAK. K. J .. Nh~ETr, R. E., and TIIAGARD. P. ]l)gó.lndllCTioJJ:
Processes ojInferencc. LN1miHg, and Discoverv, Cambridge. MA: MIT
Press. A Bradford BOLlk.
HOLYOAK. K. 1. 1985. «The pragmaucs of an.ilogical transfer». In G. H. Bower,
ed. 7J¡e Psvchologv ofLearning and Motivotion : Advcuucs in Rescarch and
Theorv. Vol. 1Y. NL'w York: Acadernic Prcss.
HOLYOAI\. K. J. and THAGARD. P. R. 1989. '(RllJe-ba~ed spreading activation
and analogical transfer», In S. Vosniadou and A. Ortony, cds. Similurir: and
Ana/og.\' in Reasoning and Learning, Cambridge, Eng1.: Cambridge Uni-
vcrsuy Press.
HOR.SNTEIN, N. 1986. Logic as Grantniar. Cambridge. MA: MIT Pre... s.
H UTCHINS. E. 19R3. ,<Understand i ng !\1icronesian navigation». 1n D. Gentner and
A. L. Stevens, eds. MUlla! Modcls. Hill ...dale, NJ: Erlbaum, pp. Il) 1-225.
HlIlTENL0CHFR. 1. 1968. «Constructing spatial lmages: A <tratcgy in reuso-
ning». Psvchologic«! Review 7S:5S0-S6U.
222
INDER, R. 1987. The computer simulation oI svllogism solving using restricted
mental rnodels.Pri D. thesis. Cognitive Studies, Edinburgh University,
INHELDER. B., and PIAUI-:r, J. 195R. rile Growth 01 Logicul Thinking {ron Chil-
hood 10 Adolescence. New York: Basic Books.
JACKENDOFF. R. 19R7. «On beyond Zebra: The rclation of linguistic and visual
inforrnation». Cognition 26:89-11-L
JOHN.'>ON-LAlRD, P. N. 1983. Mental Models: Towards Q Cognitive Science of
Language, Inference, ami Consciousness. Cambridge, MA: Harvard Uni-
versity Press. Cambridge. Engl.: Cambridge University Press.
JOHNSO~-LAIRD, P. N. 1986. «Conditional and mental models». In E. C. Trau-
gott, A. ter Meulen, J. S. Rcilly and C. A. Ferguson, eds. On Conditionals.
Cambridge, Engl.: Cambridge University Press.
J OHNSON - LAIRD. P. N, ¡ \)87. «Reasoning, irnagining. and crear ing». Bulletin of
the British Psychological Socicty 40: 121-129.
JOH~SON-LAIRD. P. N. 1Q88. -Freedon and constraint in crcativity», In Sternberg,
R. 1.. ed. The Nature ofCreativitv. New York: Cambridge University Press,
JOHr--;SON-LAIRD. P. N., and BARA. B. G. 1984. «Syllogistic inference». Cogni-
tion [6: 1-61 .
J OIlNSON - LA IR D, P. N., and G ARNHAl\L A. 1980. «Descriptions and discourse
models». Linguistics and Philosophv 3: 371-393.
JOHNSON-LAIRD, P. N .. and WASON. P. C¿ cds. 1977. Thinking: Readings in
Cognitive Science. Cambridge. EngL: Cambridge University Press.
KAHNEMAN, D., ano T\'tt{~K), A. 1982. «The simulation heuristic». In D. Kahne-
rnan, P. Slovic, und A. Tvcrsky, eds. 1982. Iudgement Under Uncertainty: Heu-
ristics and Biases. Cambridge. Engl.: Cambridge University Press, pp. 277-322.
KAMP, J. A. ,"'. 1981. «A theory of truth and sernatic represcntation». In J. A. G.
Groenendijk, T. Janssen and M. Stokhof, eds. Formal Metliods in the Study
01 Language. Arnsterdarn: Mathernatical Cenrer Tracts. pp. 277-322.
K -\RTTUNEN. L. 1976. «Discourse referents». In J. McCawley, ed. Syntax and
Sernantics. Vol. T: Notesfrom the Linguistic Underground. new York: Aca-
dernic Press,
KL-\NI::, M. 1988_ Analogical Problcm Solving. Chichester. Engl.: Elli~ Horwood,
KEIL F. 1979. Semantic and Conceptual development: Ontological Perspecti-
I'e. Cambridge. MA: Harvard University Press.
KEIL. F. 19R9. Concepts, m,)/U Meanings, and Cognitive De velopment . Cam-
bridge. MA: Harvard University Press.
KEMPTON. W. 19X(-¡. «Tw thcorics ofhome hear control». Cognitive Science 10:
75-90.
KIERAS, D. E., and BOVAIR, S. 1984. «The role of the mental model in learning
lo operare a device». ClIgnitil'(' Srienre 8:255-~73.
K INTSCH. W .. ami \'AN Dux. T. A. 1'178. «To\V aros a mode1 of text compre hcn-
sion ano reproduction». Psvchological Review 85:363-3l)-l.
223
KOWALSKI, R. A. 1979. Logic for Problem Solving, Arnsterdam: Elsevier North-
Holland
LARK1N. J. H. 1983. «The role ofproblem rcpresentation in physics». In D. Gcntner
and A. L. Stcvens. eds. Mental Models. Hillsdalc, NJ: Erlbaum. pp. 75-1)~.
LEWIS. C. 1986. «A model oí mental model construction». Proceedings o]
eH/'Só Conference 011 Human Factors in Computer Svstems. Ncw York:
Association for Computíng Machinery,
LEWIS. D. K. 1972. «General semantics». In D. Duvidson and G. Harman. eds.
Semantics ofNaturul language. Dordrecht: Reidel.
MCCLOSKEY, M., CARAMAZZA, A., GREEN, G. 1980. «Curvilinear motion in
the absence of exrernal forces: Naive beliefs about the motion of objects»,
Science 210: ¡ I Y)-II-l l.
McDLRMOTT, O., and DOYLE, J. 1980 .••Non-rnonotonic logic 1». Artificial In-
telligence 13:41-72.
MAN1, K. and JOIINSON-LA1RD, P. N. ll)~C. « The mental representation of spatia!
descriptions». Memory and CO,Ql1ilirJ1/ 10: 181-187.
~1-\RR. D. 1982. Yision: A Computationul lnvestigation in the Human Represen-
tation o] Visual lnformation, San Francisco: Freernan.
MEYER, O., LeVENTIIAL H., and GlIH..1 ANN, M. 1985. «Common-scnse models
01' illness: The ex ample of hypertcnsion». Healtn Psychologv 4: 115-135.
MICHIE, D., ea. 1979. Expert Svstems in the Micro-Electronic Age. Edinburgh:
Edinburgh University Press,
MILI.ER, G. A .. GAL.'\NTER. E., and
PRIBAM, K. 1960. Pluns and the Structure of
Behavior. New York: Holt, Rinehart, and Winsion.
MILLER, G. A., and ]OHSON-LA1RD, P. N. 1976. l anguage and Perception. Cam-
bridge, MA: Harvard Univcrsity Press. Cambridge. Engl.: Cambridge Uni-
versity Press.
MrI\lSKY. M. 1975. «A framework for representing knowledge». In P. H. \Vin~
ton, ed. The Psvchologv of Computer vision. New York: MacGraw-Hill.
MORAN, T. P. 1981. «The Comrnand Language Grammar: A reprcscntation for
thc user interface of inreractive computcr systerns». lnternational Journal
ofMan-Machine Studies 15: 5-30.
NEWELL, A. 1973. -Production systerns: Models of control structures». In \V. G.
Chase. ed. Visual lnformation Processing, Ncw York: Academic Press.
NEWELL, A. 1981. «Reasoning, provblem solving and decisión proccsses: The
problern spac~ as a fundamental category». In R. Nickerson. ed. Attention
and Performance, Vo. 8. Hillsdale. NI: Erlbaum.
NE\"'ELL, A .. and SIMON, H. A. 1976. «Cornpurer science as ernpirical inquiry:
Syrnbols and search». Communications ofthe Association for Computing
Muchinery 19:11 3-126.
NORMAN. D. A. 1993. "Sorne observations on mental rnodels». In D. Gentner
and A. 1" Stcvcns, eds. Mentu! Modcls. Hillsdalc, NJ: Erlbaum. pp. 7-14.
224
OAKHILL. v..
J. and GARNHAM, A. 1985. «Referential contimuity, transitivity,
and thc retention of spatial descriptions, language and Cognitive Processes
1: 149-162.
o.\KHILL, J. v.. and JOHNSON-LAIRD. P. N. 1985. «Rationality, memory. and the
search for counterexamples», Cognition 20: 79-94.
OATLEY. K. G. 1977. «Inference, navigation, and cognitive maps». In P. N.
Johnson-laird and P. C. Wason. eds. Thinking: readings in Cognitive Scien-
ces. Cambridge University Press, pp. 537-547.
OATLEY. K. G. 1981. «Representing ourselves: Mental schcrnata, cornputatio-
nal rnetaphors, and the nature of consciousness». In G. Underwood and
R. Stevens, eds. Aspects of Consciousness, vol. 2: Structural issues, New
York: Acadernic Press.
ODEN, G. C. 1987. «Concept, knowledge, and thought», Annual review oi Psy-
chology 38:303-227.
OSHERSON, D. N. 1975. «Logic and models of logica1 thinking». in R. J. Fa1-
magc, ed. Reasoning: Representation and Process in Children and Adults.
Hlllsdale. NJ: Erlbaum.
PARTEEE, B. H. 1979. «Sernantics-mathematics or psychology?» In R. Baurle,
U. Egli, and A. von Srechow, eds. Sematicsfrom Difieren! Points of View.
Berlín: Springer,
POLK, T.. and NEWELL, A. 1988. «Modeling human syllogistic reasoning in
Soar». Proceedings ofthe Tenth Annual Conference of the Cognitive Scien-
ce Society . H illdale, NJ: Erlbaum. pp. 181-1 87.
PYLYSliYN, Z. 1973. «What the mind's c~e tells the mind's brain: A critique of
mental irnagery». Psvrhologica! Bulletin RO: 1-:~4.
Pv LY SHYN, Z. 19~ 1. «The i rnagery debate: Analogue media versus tacit
knowledge». In N. Block. cd. lmagerv. Cambridge, MA: I\HT Press.
POWER, M. 1.. and CHAMPION. L. A. ]986. «Cognitive approaches to depresión:
A theoretical critique». Br¡ti.~h Journal (~l Clinical Psychology 25: 201-212.
REICHARDT, W. E., ami POGGI{). T. 1981. «Visual control of flight in flies». In
\V. E. Reichardt and T Poggio. eds. Theoretical Approaches in Neurobiolo-
gy. Cambridge. MA: MIT Prcx-,
RHCHGELT. H. «1982. mental rnodels and discourse». Iournal of Semantics
1:371-386.
REITER. R. [973. «A xemantically guided deductive system for automatic theo-
rem-pro v ing". Third lnternational Conference on Artificial Intelligence,
pp. 41-46.
RIPs. L. J. 1983. «Cogniti Ve proces ...e~ in propositioanl reasoning», Psvcholo-
gical Review 90: 38-71.
RIPs, L. J. 1986. «Mental muddles». In M. Brand and R. M. Harnish, eds, Pro-
blems in the Representation of Knowledge and Betief. Tucson, AZ: Univcr-
sity of Arizona Press,
225
ROBINSON. 1. A. 1979. Logie: Form and Function. The Mechanizution oj De-
ductive Reasoning, Edinburgh: Edinburgh University Press.
ROGERS. H. 1tj67. Theory oj Recursive Functions and Effective Computabiliry.
New York: McGraw-Hil1.
RUMAIN. B., CONNELL. J.. and BRAINNE. M. D. S. 1983. «Conversational com-
prehension processes are responsible for reasoning fallacies in children as
well as adults: IF is not the biconditional». Developmental Psvchology 19:
471-481.
RUSSELL. J, 1987. «Rule- tollowing, mental models. and the developmental
view», ln M. Chapman and R. A. Dixon, eds. Meaning and the Growtli o]
Understanding: Wittgenstein 's Significance of De velopmen tal Psvchology.
Ncw York: Springer.
SAG, l., and HANKAMER, 1. 19R4. «Towards a theory of anaphoric processing»,
Linguistics and Philosophy 7: 325-345.
SANFORD, A., and GARROD. S. 1981. Understanding Wrilten Language: Explo-
rations ofComprehension Beyorul the Sentence. Chichester, Engl.: Wiley.
SCHANK. R. c.. and ABELSON. R. P. 1977. Scripts, Plan'). Goals and Understan-
ding. Hillsdale, NI: Erlbaum.
SH/\DBOLT. N. 1983. Processing reference. Journal o] Semantics 2:63-98.
SMJTH. B. C. 1984. Reftection and semamics in LIS? Conference Record of
the Eleventh Annual Association for Computing Machinery Symposiurn on
Principies of Programrning Languages, Salt lake City, Utah, pp. 23-25.
S¡\lITH. E. R. J 984. « Models 01" social inference processes». Psvchological Re-
\';e\1' 9] :_'92-413.
SOLOWAY. E .. EHRL1CH. K .. BONAR. J.. and GREENSPAN. J. 1982. «What do novi-
ces know ahOLJI programrning?» In A. badre and B. Schneiderman. eds. Di-
rections in Human-Computer lnteraction. Norwood, NJ: Abcx, pp. 27-54,
SPLNCER-Sl\lITH. R. 1987... Survcy: Scmantics ami discoursc rcprcscntation».
Mind unil Language :?: 1-~6.
STENNING. K. 1978. «Anaphora as an approach ro pragmatics». In M. Halle.
J. Bresnan and G. A. Mi ller, eds. Linguistic Theorv and Psychologicul Rea-
litv, Cambridge. MA: MfT Press,
STENNINu. K. 198. -On rnaking rnodcls: A study uf constructivo rncrnory». In
T. Myers. K. Brown and A. McGoniglc. cds. Reasoning and Discourse Pro-
cesses. London: Acadernic Press.
STERNRERG. R. J. and \VEIL. E. M. 1980. «An aptitudc x stratcgy intcrac-
tion in linear syllogictic reasoning-: Iournal al Educational Psychology
7 ~ :226-23<).
T\'ER';;¡":Y. A.. and KAHNEMAN. D. 197.1. -Availability: A heuristic for judging fre-
qucncy and probability». Counitive P.\Tcho/ORY 4:207-232. Reprintcd in Kah-
nernan, D.. Slovic, P.. and Tversky, A. eds, I9R2. Judgment under Uncertain-
tv: Heuristics and Biases. Cambridge. Engl.: Cambridge University Press,
VAN DUK. T. A.. and KINTCH. W. 1983. Strategies ofDiscourse Comprehension.
New York: Academic Press.
WASON. P. C. and JOHNSON-LAIRD. P. NB. 1972. Psychology Rcasoning: Struc-
ture and Contento Cambridge. MA: Harvard University Press, London:
Batsford.
\VEBBER, B. L. 1978. «Description formation and discourse model synthesis»,
In D. L. Waltz, ed. Theoretical lssues in Natural Language Processing, 2.
New York: Association for Computing Machinery,
WERTHEIMER. M. 1961. Productive Thinking, London: Tavistock.
WEYRAYCH, R. \V. ]980. «Pro legomcna to a thcory of mechanized formal rea-
soning», Artificial lntelligence 13:133-170.
WILKS, Y. and BIEN, J. S. 1979. «Speech acts and multiple environrncnts». Sixth
International Ioint Conjercnce on Artificial Intelligence, pp. 451-455.
WILLIANS, D.. HüLl.AND. J. D., and STEVENS. A. L. 1983. «Human reasoning
about a simple physical systern». In D. Gentner annd A. Stevens. eds. Men-
tal Models. H i 11 sdale, NJ: Erlbaum, pp. 131- 153.
\VIl\OliRAD. T.. and FLOReS, F. 1986. <. Understanding Computers and Cogni-
tion: A New Foundation for Design». Norwood, NJ: Ablex.
WrITGENSTEIN. L. 1922. Tructatus Logico-Philosophicus. London: Routledge
and Kegan Paul.
Ym·NG. R. 1983. «Surrogates and rnapping: Two kinds 01' conceptual models
for interactive devices», In D. Gentner and A. L. Stevens. eds. Mental J't,10-
dels. Hillsdal~. NJ: Erlbaum. pp. 35-52.
227
EL DISCURSO 1
Barbara J. Grosz. Martha E. Pollack y Candace L. Sidner
229
las clases de relaciones 4ue los unen. En la línea de trabajos anteriores
(Grosz y Sidner J986). distinguimos la estructura lingüística del discur-
so de su estructura intencional y de su estado atencional cambiante.
En la 'lección 3 examinamos diversas clases de información sobre la
estructura del discurso que se aporta explícitamente en la propia señal lin-
güística. En la sección 4 describirnos la investigación acerca de los efectos
de la estructura y contexto discursi vos sobre la interpretación de varios fe-
nómenos de nivel sintagmático, incluidas las descripciones definidas, los
pronombres, los sintagmas nominales cuantiticacionales (por ejemplo, to-
das las chicas del bloquei. la referencia de eventos, y la elipsis. La sección
5 describe varias formulaciones de planes y técnicas que se han desarro-
nado para el reconocimiento de planes. Una vez que tomamos seriamente
en cuenta la idea de que el lenguaje es usado por los agentes para influir
en su mundo. se toma crucial comprender los efectos que una preferencia
individual puede tener (éste era el alcance inicial de la teoría de los actos
de habla), y los modos en los que las proferencias pueden combinarse
para formar acciones mayores (investigación de reconocimiento de planes
en el discurso). Así las acciones lingüísticas pueden verse como acciones
que influyen en la estructura y el significado discursivos.
230
1972) participaba con un usuario en un diálogo sobre construcciones de
bloques de juguetes. SHRDLLJ interpretaba las intenciones del usuario
como programas de realizar acciones y conservaba una historia de las
acciones que realizaba. Podía interpretar algunos pronombres persona-
les, algunas descripciones definidas y expresiones anafóricas de tipo
«el/la que» usando «especialistas de palabras», es decir. programas que
determinaban la referencia basados en heurísticos de plausibilidad para
los objetos mencionados mas recientemente en la oración previa.
La siguiente generación de sistemas de lenguaje natural, de finales de
los 70. se concentraba en el uso de conocimiento acerca del dominio en el
discurso o bien en métodos de incorporación de otros fenómenos discursi-
vos aparte de la comprensión de pronombres. La mayoría de los sistemas
limitaron notablemente el dominio del discurso a una pequeña clase de
acciones o eventos y se centraron en interacciones que se ceñían a una
estrecha gama de comportamiento discursivo (por ejemplo, SAM (Cullin-
gford 1977, 1981) Y GUS (Bobrow er al. ] 977) ). Sin embargo, Lehnert
(1977) experimentó con un sistema para captar el significado no-literal
de preguntas planteadas a un programa de comprensión de relatos. Grosz
y sus colaboradores (Grosz 1977, \Valker 1978) desarrollaron el Sistema
de Comprensión de Diálogos Tarea. en el que se distinguió entre conoci-
miento del dominio (representado en un modelo de la tarea), información
del discurso (representado en un foco global y algoritmos asociados para
la interpretación de referencias), y reconocimiento de intenciones (trata-
miento de preguntas sobre, y adaptaciones del, modelo de la tarea). Este
sistema fue el primero en considerar la interacción entre la estructura (lin-
güística) de un discurso y la interpretación de expresiones en el discurso.
No distinguió con suficiente claridad, sin embargo, los diferentes papeles
de un modelo de tarea en el procesamiento del discurso.
Las primeras aproximaciones al procesamiento del discurso enseña-
ron a los investigadores que el procesamiento del discurso no podía verse
como un aglomerado de procedimientos para la comprensión de referen-
cias, reconocimiento de intenciones y manipulación de conocimiento del
dominio. Se requiere un medio para distinguir entre estos procesos y pro-
porcionar mecanismos para cada uno así como para su interacción.
231
en una oración individual tienen estructura sintáctica. El análisis de una
variedad de tipos de discurso ha establecido que los discursos se dividen
en segmentos discursivos y que éstos pueden tener diferentes relaciones
entre ellos. Entre los tipos de discurso que han sido analizados se encuen-
tran diálogos orientados a tarea (ver, por ejemplo, Grosz 1978a, Mann
er al. 1975, Sidner 1982), descripciones dc objetos complejos (Linde
1(79), narraciones (Polanyi 1985, Schiffrin 1982), argumentos <tanto
informales (Reichman-Adar 1984) como formales (e ohen 1984)), ne-
gociaciones (Linde y Goguen 1978), y explicaciones (Reichrnan-Adar
1984).
La comprensión de la estructura del discurso es importante tanto
para las teorías del significado del discurso como para el procesamiento
del1enguaje. Las teorías del significado del discurso dependen en parte
de la especificación de las unidades básicas del discurso y de las relacio-
nes que pueden darse entre ellas. El procesamiento del discurso requiere
habilidad para determinar con qué partes del discurso se relaciona una
proferencia individual. Así el papel de la estructura en el procesamiento
del discurso se deriva tanto de su papel en la delimitación de las unida-
des de significado discursivo como de la restricción de las unidades de
discurso que Se consideren pertinentes para la interpretación de CUal-
quier proferencia individual.
Además. la explicación de la interpretación de una variedad de ex-
presiones Iingüísticas depende de la explicación del papel de algunas
de estas expresiones al determinar la estructura del discurso así como
de la comprensión del efecto de la estructura del discurso al restringir
la interpretación de otros. La sección 3 discute el uso de sintagmas de
entrada lcue phrasesi y de la entonación para marcar la estructura del
discurso. La sección 4 describe la investigación sobre la interacción
entre la estructura del discurso y la interpretación de expresiones ana-
fóricas.
Aunque hay un acuerdo general sobre el hecho de que los discur-
sos están compuestos por segmentos y sobre la interacción entre la
estructura del discurso y la interpretación de varias clases de expre-
siones lingüísticas, las teotíax de la estructura del discurso postulan
diferentes tipos de información como centrales para la computación
de la estructura del discurso. Además las teorías difieren en las clases
de relaciones entre segmentos consideradas importantes. Los prime-
ros trabajos en comprensión de texto (vanl'iijk 1972, Rumel hart 1975)
propon ían gramáticas de texto (o relato) análogas a Ia ~ gramát icas ora-
cionales-: el primer trabajo sobre diálogo (Grosz 1974) sostenía que
los diálogos orientados a tarea tenían una estructura que dependía de
la estructura de la tarea que se estaba realizando. El trabajo posterior
ha tomado una de las siguientes aproximaciones: (1) adaptaciones de
la noción de gramática, (2) especificación de un pequeño conjunto de
relaciones retóricas o textuales como la base de la estructura del dis-
curso, (3) investigación del conocimiento específico del dominio o del
sentido común como fuente de la estructura del discurso, o (4) examen
de las intenciones interpretadas ampliamente (una generalización de
la estructura de la tarea) y las relaciones entre ellas como hase de la
estructura del discurso.
~ Las gramáticas de relatos como base para el procesamiento han sido extensamente
criticadas; el anículo de Levy (1979) sobre la estructura del discurso contiene un buen
sumario.
, Se considera al árbol como análogo a los árboles analíticos para las oraciones indi-
viduales. En un artículo anterior I.Grosz)' Sidner 19R6) sostenernos que la" relaciones de
incrustación (u constituencia) representadas en el árbol ~e derivan del comportamiento
del apilamiento del estado atcncional.
233
Linde (1979) YPolanyi (1986) proponen modelos que en parte deri-
van de la tradición sociolingütstica. en la que las explicaciones se expre-
san sólo en términos de comportamiento superficial. Así se ocupan de
proporcionar una explicación de la estructura del discurso en términos
de las conexiones superficiales que se obtienen entre las proferencias.
Polanyi sostiene que la estructura jerárquica del discurso «emerge de las
relaciones estructurales y semánticas que se obtienen entre las unidades
lingüísticas que los hablantes usan para construir sus discursos» (Polan-
yi 1986. p. 4). En su modelo un árbol discursivo se construye usando un
conjunto de gramáticas discursivas. Los nodos del árbol son cláusulas
(en algunos casos con su semántica asociada). Es decir, la estructura del
discurso se toma como una estructura arbórea con elementos lingüísti-
cos como nodos.
La investigación en este paradigma trata normalmente a las inte-
racciones completas (por ejemplo, conversaciones personales extensas.
interacciones doctor-paciente) como las mayores unidades de discur-
so, y a las cláusulas. quizá agrupadas por relaciones de coordinación o
subordinación (por ejemplo, listas, expansiones) como las menores uni-
dades. Las unidades intermedias de explicación pueden ser motivadas
socialmente (por ejemplo, encuentros de servicio), exámenes médicos)
o motivadas lingüísticamente (por ejemplo, relatos). Frecuentemente se
adjudican etiquetas a estos niveles (por ejemplo, pregunta/respuesta)
que indican las intenciones de los participantes en el discurso, pero las
teorías evitan cualquier referencia a la intención en sus explicaciones.
Relaciones Retóricas
~34
ricas). Cohen ( 1979) ha analizado una variedad de argumentos e inves-
tigado el problema de inferir relaciones de evidencia entre las proposi-
ciones expresadas en ellos. Presenta un modelo de procesamiento de los
argumentos que utiliza una combinación de información de sintagmas
de entrada y (un conjunto inicial de) métodos para inferir relaciones de
evidencia para determinar la estructura del argumento.
Buena parte de la investigación descrita hasta ahora, así como los
trabajos de Hobbs (1979), Lehnert (1981 ), Mann y Thompson (1986) Y
Mckeown (1985) ofrecen un estrato subyacente de relaciones retóricas
como base para derivar relaciones entre las proferencias y los segmentos.
Cada una de estas relaciones requiere el procesamiento de información
del dominio para determinar cómo se puede reconocer o producir una
relación en el procesamiento del discurso. Por ejemplo, Hobbs (1979)
define un conjunto de relaciones de coherencia (por ejemplo. paralelo.
capacitación, contraste; se puede encontrar una lista completa en Hobbs
( 1983)) que se dan entre los segmentos discursivos. La determinación
de la relación que se da entre do" preferencias sucesivas depende de las
inferencias realizadas sobre la base de hechos del dominio, Las relacio-
nes de Lehnert se derivan de un modelo subyacente de estados menta-
les y eventos. Un conjunto primitivo de configuraciones, que denomina
unidades de trama, describe las transiciones permisibles entre estados
o eventos y por ello codifica directamente la información del dominio.
Estas unidades de trama funcionan entonces como las relaciones entre
las profercncias de lo:' segmentos. En el trabajo sobre generación de
discursos de McKeown. ~e organiza una colección de relaciones retó-
ricas (que incluye, por ejemplo, atribución, identificación y compara-
ción) en esquemas que definen abstractamente el conjunto de tipos de
discurso aceptables; se produce al menos una preferencia (o más) como
ejernplartes) de los predicados en un esquema.
Levy ( 1979) YGrosz y Sidner ( 1986) han sostenido que las re laciones
basadas en planes o relaciones intencionales son la raíz de la estructura
discursiva y postulan sólo una relación de incrustación en la estruc-
tura lingüística. Las relaciones de incrustación entre segmentos dependen
en parte de ciertas características lingüísticas del segmento (como la pro-
sodia o los sintagmas de entrada), y en parte de las intenciones transmi-
tidas por las proferencias del segmento. La intención de nivel segmento.
235
sin embargo, no es una mera función de las intenciones de nivel de pro-
ferencia, sino una función compleja de proferencias, hechos del dominio,
intenciones de nivel de preferencia. e inferencias sobre éstas.
Nosotras sostenernos también (Grosz y Sidner 1986) que la estructura
del discurso es un compuesto de tres estructuras interrelacionadas; además
de la estructura lingüística hay una estructura de intenciones y un estado
atencional, La estructura intencional comprende propósitos de segmento
discursivo y relaciones entre ellos. Los propósitos de segmento discursivo
son intenciones de los participantes en el discurso que conducen en parte
al discurso y se pretende, como las intenciones de nivel de preferencia de
Grice ( t 957. 1968), que sean reconocidas. Al contrario que las relaciones
retóricas discutidas previamente, los propósitos de segmento discursivo
no se derivan de un conjunto particular de intenciones; casi todo lo que
pueda ser objeto de una intención puede ser un propósito de segmento
discursivo. Sin embargo. se definen dos relaciones entre intenciones como
comunes a muchos discursos: dominio y precedencia de satisfacción. Es-
tas relaciones representan, respecti varnente. el hecho de que la satisfacción
de una intención contribuya a la satisfacción de otra, y el hecho de que una
intención deba satisfacerse antes que otra. El reconocimiento de estas dos
relaciones desempeña en nuestra temía el mismo papel que el reconoci-
miento de las relaciones retóricas en las teorías descritas previamente. La
determinación de los propósitos de segmento discursivo depende en parte
del reconocimiento de estas relaciones, en parte del conocimiento del do-
minio, y en parte de otras características del contexto discursivo.
El estado atencional refleja el foco de atención de los participantes
de) discurso segun avanza el mismo. Se modela como una pila (push-
down) de espacios focales. uno por cada segmento del discurso. Los
espacios focales contienen representaciones del propósito del segmento
discursivo y de las entidades referidas en el segmento. La pila crece
cuando se introducen los segmentos en un discurso y decrece a medida
que se satisfacen las intenciones de los segmentos. De acuerdo con la
terminología estándar, decimos que un nuevo espacio se empuja a la pila
cuando se introduce un nuevo segmento. y que un espacio salta cuan-
do se satisface su propósito. El modelo de espacios focales del estado
atencional constriñe el procesamiento según avanza el discurso. Esas
entidades y propósitos representados en la pila son 10'-: mas prominentes
del discurso. Las restricciones pueden utilizar este hecho para estipular
cuándo pueden usarse varias expresiones lingüísticas y para ayudar a
determinar cuándo un propósito dado de segmento discursivo puede do-
minar o preceder en la satisfacción a otro.
3. Indicadores Lingüísticos de la Estructura Discursiva
Sintagmas de entrada
237
sugiere paralelo, «por ejemplo» sugiere ejemplificación y «pero» sugie-
re contraste o expectativa violada>', Afirmaciones semejantes se han
hecho en la Teoría de la Estructura Retórica (Mann y Thompson 1986)
y en explicaciones de análisis sintáctico del discurso (Polanyi y Scha
1984, Reichman-Adar 1984).
Grosz y Sidner (1986) sostienen una tesis sobre el papel de los sin-
tagmas de entrada que contrasta con las anteriores. Como se ha indicado
antes, hemos argumentado que la estructura de un discurso en realidad
comprende tres estructuras interrelacionadas. En esta perspectiva los sin-
tagmas de entrada pueden proporcionar información sobre uno o más
componentes de la estructura (tripartita) global (Grosz y Sidner 1986,
pp. 196-199). Por ejemplo. ciertos sintagmas de entrada, tales como eso
me recuerda o de todos modos. indican cambios en el estado atcncional
-el primero indica un empujón a un nuevo espacio focal y el segundo un
salto a un espacio establecido previamente. Nótese que aunque al cam-
bio de estado atencional señalado por eso me recuerda le acompaña la
adición de nuevos componentes a la estructura intencional, el sintagma
de entrada por sí solo no especifica de qué cambio se trata. Con de todos
modos no hay ningún cambio de estructura intencional. La expresión a
propósito proporciona la información de que el hablante va a empren-
der una digresión y que. en consecuencia, se va a extender la estructura
intencional con una nueva jerarquía intencional distinta a la existente.
La expresión por ejemplo indica que la intención subyacente al segmen-
to del discurso siguiente -aquél cuyo comienzo se marca mediante el
segmento de entrada- está dominada en la estructura intencional por la
intención subyacente al segmento del discurso anterior.
La mayoría de los investigadores, independientemente de su postu-
ra sobre lo que constituye realmente el discurso, creen que los sintagmas
de entrada no son en general ni necesarios ni suticientes para determinar
la estructura del discurso. Hay muchos casos en los que es bien posible
determinar la estructura. de un discurso, o una parte, que carece de sintag-
mas de entrada. Igualmente, hay muchos discursos, o partes de éstos, que
contienen sintagmas de entrada que sólo sugieren la estructura subyacente
o que, dicho de otro modo, proporcionan restricciones sobre la serie de
estructuras posibles. Por último, la estructura de un discurso depende de la
-l Hobbs (1985) sostiene que los hablantes no sólo usan lo" sintagmas de entrada para
señalar la estructura discursiva. sino que tratar de insertarlos en un discurso completo
puede ser útil para el analista que trata de discernir su estructura.
238
información proporcionada por las proferencias que contiene y el modo en
el que esa información está interconectada. Los sintagmas de entrada sim-
plifican la labor de determinar estas interconexiones. Se ha mostrado que
el proceso de determinación de las relaciones semánticas interoraciona-
les (Cohen 1984) Y de reconocimiento de planes (Litman and Allen 1988)
puede ser restringido teniendo en cuenta los sintagmas de entrada.
Prosodia y Gesticulación
239
interpretación de tales sintagmas se encuentran entre los más estudiados
en procesamiento del discurso. También ha sido abordado el problema,
relacionado con los anteriores, de representar apropiadamente los sin-
tagmas nominales cuantificacionales. En la subsección siguiente discu-
tiremos una serie de aproximaciones a estos problemas de referencia de
sintagmas nominales. La referencia puede ser a objetos así como a even-
tos, 10 que da lugar a problemas a discutir en la subsección segunda. La
adjunción de modificadores o la elipsis discursiva son otros problemas
de nivel sintagmático que han sido tratados desde la perspectiva del pro-
cesamiento del discurso.
Oc los tres componentes de la estructura del discurso, el estado aten-
cional e~ el que tiene mayor efecto sobre los problemas de interpretación
en el nivel sintagmático. La investigación sobre expresiones referenciales
es la que más directamente ha usado modelos atencionales, mientras que
las aproximaciones a la adjunción de modificadores y a la elipsis discursi-
va no han hecho más que empezar a usarlos. Aunque todavía no hay una
descripción completa del conjunto de las restricciones discursivas (ni de
las perceptuales) relevantes para ninguno de estos problemas de nivel sin-
tagmático. los investigadores han identificado y experimentado con una
serie de representaciones y algoritmos centrales para éstas.
, Este énfasis difiere del de gran parte de In lingüística americana. en la que han <ido
centrales las restricciones que impiden Ji) ce-especificación de proponombres (véase. por
ejemplo, la investigación sobre anáfora pronominal de Reinhart (1983) YLasnik (l tl76H.
o Usarnos aquí anáfora y anuforico para referimos a aquellos sintagmas que refieren a
entidades que han sido mencionadas previamente en el discurso y que ce-especifican (com-
párese C\Jn Sidner 1983) junio con algún sintagma que aparece previamente en el discurso.
240
inferencia. En la otra aproximación se consideran primarias las cuestiones
de cómo interactúan las expresiones referenciales con el estado atencional
(Grosz 1977, Sidner 1981, Reichman-Adar 1984, Grosz and Sidner 1986).
La investigación en la primera aproximación sólo considera problemas oe
interpretación de las expresiones referenciales, mientras que la investiga-
ción dentro de la segunda también se preocupa de especificar restricciones
sobre la generación de expresiones referenciales adecuadas.
Para la segunda aproximación los conceptos de foco y proceso de fo-
calización (Grosz 1977, Grosz 1978b, Grosz 1981, Grosz and Sidner 1986)
han desempeñado papeles centrales en el tratamiento de las descripciones
definidas, usadas para primera referencia o como sintagmas nominales
anafóricos. En este trabajo la focalización se define como el movimiento
del foco de atención de los participantes en el discurso según éste avanza.
Se han identificado dos niveles de focalización, global y local (Grosz 1977,
Grosz and Sidner 1986). La focalización global se modela mediante una
pila de espacios focales: afecta al uso e interpretación de descripciones
definidas. La focalización a nivel local se modela con centros y centraliza-
ción. El centro de un segmento dado es un elemento del estado atencional
y al comienzo de cada nuevo segmento se introduce un nuevo centro. La
centralización afecta al uso y la interpretación de pronombres.
Cada espacio individual de la pila focal global contiene representa-
ciones de las entidades enfocadas por los participantes durante cierto seg-
mento del discurso así como el propósito del segmento discursivo. Las
entidades actualmente en foco (esto es, en algún espacio de la piJa focal)
son las primeras candidatas para ser referentes de las descripciones defi-
nidas: son también el origen de las entidades enfocadas implícitamente
(esto es, un sintagma puede referir a un ítem relacionado con algo de un
espacio focal actual: por ejemplo, la portada puede usarse para referirse
a la portada de un libro cuando ese libro está en el foco). El conjunto de
entidades en el foco global proporciona también restricciones sobre el
contenido de las descripciones definidas subsiguientes: por ejemplo, un
hablante debe incluir suficientes descriptores para distinguir la entidad a
la que se quiere referir de otras entidades en el foco.
Grosz (1977) ideó un conjunto de mecanismos focalizadores para
la interpretación de sintagmas nominales definidos en un sistema que
participaba en un diálogo sobre una tarea." Los mecanismos traían enti-
7 Para este sistema los propósitos de segmento discursivos eran tratados como tareas
y subtareas.
241
dades al foco a medida que el discurso se desplazaba a una subtarea de
la tarea general y las retiraban del foco global cuando se completaba la
subtarea. La posición en el foco global era dependiente de la subtarea
más inmediata: las otras subtareas incompletas y sus entidades asocia-
das estaban en el foco global. pero eran menos prominentes que aquéllas
asociadas a la subtarea más inmediata. Los procedimientos para la inter-
pretación de sintagmas nominales definidos y anafóricos y de las prime-
ras referencias enfocadas implícitamente eligen los íterns entre aquéllos
que están en el foco global. Las técnicas de focalización podían predecir
el referente anafórico de un sintagma nominal definido como el tornillo
cuando se ha traído al foco el tomillo de la polea. Limitaban también la
búsqueda necesaria para hallar la representación de una entidad men-
cionada previamente-e-aquellas entidades que no estaban en el foco no
estaban disponibles, y aquéllas en el foco y asociadas a la subtarea más
inmediata se buscaban antes que las menos prominentes. Por ejemplo.
el tornillo sería entendido como un referente del tomillo de la polea
sólo cuando la polea fuera más prominente que algún otro tomillo (por
ejemplo. e] torníllo del taladro) en el foco global: en caso contrario se
elegiría como referente al tornillo del taladro.
Appelt y Kronfeld (1987) han utilizado los mecanismos de focali-
zación para la generación de expresiones referenciales de primer uso.
Además Kronfeld (I 986) ha proporcionado los conceptos de descripcio-
nes funcionalmente pertinentes (esto es, aquéllas cuyo contenido se re-
quiere para distinguir el referente) y descripciones conversacionalrnente
pertinentes (esto es, aquéllas cuyo contenido proporciona información
sobre la relación del referente con otros aspectos de la conversación).
Estos conceptos redefinen la distinción clásica de Donnellan (J (66) en-
tre descripciones referenciales y atributivas en términos del papel que
un sintagma desempeña como instrumento de referencia y como contri-
buyente al contenido del discurso.
El foco inmediato (Sidner 1979) guía la interpretación y la genera-
ción de los pronombres de tercera persona así como los usos anafóricos
de esto (éste. ésta) yeso iese, ésa). La focalización inmediata opera den-
tro de los segmentos discursivos individuales; localiza la entidad más
relevante en cualquier proferencia dentro del segmento, basándose en
características del contexto precedente, particularmente en propiedades
de la preferencia precedente. Sidner (1979. 1981, 1983) desarrolló un
conjunto de algoritmos para predecir la elección de focos locales en el
discurso y su desplazamiento a medida que el discurso avanzaba. Sus
algoritmos hacían uso de los conceptos de un foco discursivo y un foco
242
actor, es decir. entidades mencionadas en la proferencia que estaban
localmente en foco debido a la estructura sintáctica y a las relaciones
temáticas de la proferencia. Un conjunto de reglas, que utilizaban los
focos inmediatos y un conjunto de nuevos focos potenciales, predecía la
interpretación inicndida de pronombres en proferencias subsiguientes.
McKeown (1985) Y McDonald (1983) adaptaron los algoritmos de fo-
calización para generar pronombres en el texto.
La teoría de centrado de Grosz, Joshi y Weinstein (1oshi y Weins-
tein 1981, Grosz el al. 1983) reemplazó la noción de focos inmediatos
por la de centros: un centro de mirada-hacia-atrás (Cb) qu~ corresponde
aproximadamente al foco del discurso y varios centros de mirada-hacia-
adelante (Cf) que corresponden a los nuevos focos potenciales. Como
en la teoría de Sidner los centros cambian de acuerdo con el compor-
tamiento de las expresiones referenciales en cada proferencia del dis-
curso, La teoría difiere en que no tiene correlato alguno del foco actor
y en que da cuenta de los usos múltiples de un mismo pronombre per-
mitiendo que se pronominalieen otras entidades distintas de Cb siempre
que ésta también lo esté. La teoría de centrado simplifica la explicación
de Sidner de la focalización local eliminando la necesidad del foco del
discurso así como del foco actor y proporcionando una explicación de
ciertas interpretaciones de pronombres que resultan problemáticas en la
teoría de los focos inmediatos.
Aunque el foco de atención es crucial para comprender la anáfora.
la forma y el contenido de los sintagmas y preferencias que primero
evocan las entidades a las que refiere la anáfora también contribuye vi-
tal me nte a su comprensión, Webber ( 1y~O. 19tD) introdujo la noción de
sintagmas (.que evocan entidades discursivas'>. Con esto quiere decir
que 101\ sintagmas traían al discurso. o evocaban naturalmente, una co-
lección bien estructurada de representaciones de las entidades (reales)
referidas. Para la interpretación de la anáfora definida y la clipsis de
sintagma verbal estaban disponibles las entidades discursivas. Definió
el concepto de descripción invocadora de entidad discursiva ([D) para
formalizar su noción y postuló un conjunto de representaciones y reglas
específicas para crear estas [O" por la aplicación sucesiva de las reglas.
Las reglas de Webber operaban sobre representaciones semánticas
complejas, que incluían cuantificadores incrustados y cuantificación
sobre conjuntos de individuos. Las reglas producían IDs para cada
posible interpretación de los sintagmas nominales y sintagmas ver-
bales de una proferencia, pero Webber no exploró cómo determinar
243
computacionalmente qué interpretación era la intendida sobre la base
de descripciones anafóricas subsiguientes. Sidner (1983), sin embar-
go, esbozó una explicación de cómo la focalización podría propor-
cionar la información necesaria. En trabajos posteriores Kamp (1981)
Y Hcim (1982) han propuesto formalismos alternativos semejantes;
Guenthner y sus colaboradores (1986) describen un sistema que utiliza
el formalismo de Kamp. Dos intentos de construcción de sistemas han
investigado métodos para computar las representaciones de sintagmas
nominales complejos como parte del proceso de determinar (una re-
presentación de) el significado de una oración (Dahl 1987, PoIlack y
Pereira 1988).
Entre las expresiones referenciales menos investigadas en la inves-
tigación computacional del discurso se encuentra el uso de la deixis",
Fillmore (1975) subcategorizó cuatro tipos de deixis: espacial, tempo-
ral, social y discursiva. La estructura del discurso puede restringir los
dos últimos tipos como se ejemplifica por sintagmas como los prime-
ros. usado para referirse a los dos primeros elementos de una lista (una
instancia de deixis discursiva), y nosotros (una instancia de discurso
social). Sidner ( ]979) exploró algunos casos de deixis discursiva, pero
queda por hacer un tratamiento general.
La referencia a eventos
x Deixis. del griego para «apuntar». se usa para referirse a sintagmas demostrativos
(por ejemplo, este libro yeso) y a otros constructos lingüísticos cuya interpretación de
modo semejante requieren apuntar a alguna circunstancia de la preferencia (por ejemplo,
aqui y ahora l.
244
( 1) Juan corre todos los días de la semana.
Ese es su principal modo de ejercicio.
ése = el correr de J uan todos los días.
245
modificación es identificar la entidad referida (usando. claro está, alguna
técnica para determinar las relaciones posibles). Los problemas de identi-
ficación pueden ser bastante difíciles para sintagmas nominales comple-
jos con modificadores preposicionales usados en un contexto que incluya
varios posibles referentes para cada parte simple del sintagma nominal. El
problema se ilustra con el sintagma the cal in the hat usado en un contexto
donde hay dos gatos, dos sombreros, pero sólo un gato en un sombrero
(uno de los sombreros). Aunque el referente esté aquí claro. ninguna bús-
queda simple de un único gato o bien un único sombrero en el contexto
puede servir como base para la búsqueda del referente.
La investigación de los sintagmas nominales complejos ha explo-
rado marcos para usar información lingüística con objeto de predecir la
posible estructura de sintagmas nominales complejos (comparar con Isa-
belle 19R4). Las aproximaciones computacionales a estos problemas se
han ocupado de los problemas conjuntos de representar apropiadamente
el conocimiento del dominio necesario para determinar la interpretación
intendida y de definir procesos para la búsqueda de este conocimiento.
En contraste con éstas, las aproximaciones recientes (Mcllish 1982,
Haddock 1987) J. la identificación del referente (que han considerado
sintagmas preposicionales adjuntos más que nominales complejos) se
han concentrado en el concepto de evaluación incremental de referencia
usando técnicas de satisfacción de restricciones. Estas técnicas asumen
que el núcleo nominal, el sintagma nominal incrustado en el sintagma
preposicional y la relación especificada por la preposición forman un
conjunto de restricciones sobre la elección de referentes candidatos para
el sintagma nominal entero; estas restricciones pueden aplicarse incre-
mentalmente a medida que se construye el sintagma para buscar el re-
ferente intendido, Estas aproximaciones asumen alguna representación
del estado atencional que delimita un pequeño conjunto de referentes
posibles y sirve para limitar la búsqueda emprendida por la satisfac-
ción incremental de restricciones. Sólo muy recientemente (Pollack and
Pereira 1988) se ha explorado una teoría que incorpora los aspectos de
la evaluación incremental con la búsqueda de métodos para nominales
complejos discutidos previamente.
Elipsis discursiva
246
para detennínar la interpretación de la proferencia elidida puede recu-
perarse de una profercncia previa. El tratamiento adecuado de la elipsis
discursiva requiere que se considere el discurso (en vez de la oración)
como unidad primaria de comunicación. Se han investigado dos tipos
de elipsis discursiva. En el primer cipo el material elidido puede recupe-
rarse directamente de la representación del significado de la proferencia
previa. En el segundo la estructura intencional proporciona la fuente del
material elidido; en este caso el contenido elidido puede no aparecer
directamente en ninguna proferencia anterior.
Las aproximaciones del primer tipo (Hendrix el al. 1978, Webber
1983) han considerado la elipsis tanto nominal como verbal. Han con-
siderado la elipsis como un fenómeno similar a la anáfora discursiva
porque la clipsis también se interpreta estableciendo sintagmas mencio-
nados previamente y sus representaciones discursivas como la fuente
para reconstruir el material. De modo diferente al caso de la anáfora
discursiva, los sintagmas elididos no deben referirse al mismo acto o
entidad que el sintagma mencionado previamente, como se muestra en
el ejemplo siguiente:
c¡ Esta concepción contrasta con la de Halliday y Hasan (1976), que ven la elipsis
247
(1) (dicho a la persona de la cabina de información en una esta-
ción del ferrocaml i ¡,El tren a Windsor?
(2) Quiero obtener un título. Licenciado en Informática. Ningún
curso por la noche.
5. Reconocimiento de planes
lenguaje y deben distinguirxe de lo:' significados naturales, por ejemplo. que el humo
.signiricu» fuego,
248
La comprensión del lenguaje requiere pues determinar las intencio-
nes que tienen los hablantes: hacerse una idea de qué planes persiguen.
en parte realizando una proferencia. El reconocimiento de planes en la
conversación es una tarea viable precisamente porque el hablante tiene
la intención de que el oyente la realice. El hablante no puede conse-
guir el efecto perseguido a menos que el oyente reconozca el plan del
hablante; por ello el hablante incluirá en la proferencia lo que crea ser
información suficiente para que el reconocimiento del plan sea posi-
ble para el oyente. Esta característica del reconocimiento de planes en
la conversación lo distingue del problema de determinar los planes de
un agente simplemente mediante la observación de sus acciones sin in-
teraccionar con él. Este último problema, llamado «reconocimiento del
ojo de la cerradura» por su semejanza con el problema de mirar a un
agente a través del hojo de la cerradura e inferir su siguiente acción, es
en general mucho más difícil I l.
Al construir modelos detallados del proceso de reconocimiento de
planes en el discurso, los investigadores no sólo han recurrido a la obra de
Grice sino también a las ideas de Austin (1962) Yde Searle (1969. 1975)
de que el lenguaje se utiliza no sólo para «decir» cosas sino también para
«hacer» cosas. En otras palabras, el comportamiento comunicativo debe
verse primariamente como acción intencional. Se sigue de ello que en
gran medida se pueden aplicar al análisis de la acción lingüística los mis-
mos instrumentos que se usan para analizar la acción no lingüística - una
idea desarrollada originalmente en gran medida por el trabajo de Cohen
y Perrault (1979), Allen (1983) y Perrault y Allen (1980). En particular,
los modelos de lA de reconocimiento de planes en el discurso han hecho
uso de técnicas de representación y razonamiento sobre la acción original-
mente desarrolladas por aquéllos interesados en el problema de la forma-
ción automática de planes 12. No obstante, antes de pasar a la discusión de
estos modelos. merece la pena señalar el rango de fenómenos discursivos
para los que es importante el reconocimiento de planes.
Considérese una persona que se acerca a la persona de la venta-
nilla de información de la estación de trenes y le dice, «(¿Sabe usted
lA. Inspirando todo un campo de investigación llamado teoría de los actos de habla. con
investigadores en cada una de las principales disciplinas de la ciencia cognitiva. Levin-
son (19HJ. capítulo 5) proporciona un buen resumen de la obra en teoría de los actos de
habla. Véanse también k,:-, articulos de Cohen, Margan y Pollack (1990).
249
cuándo sale el próximo tren a Dctroit?» con la intención de que se le
diga la hora de salida del siguiente tren a Detroit!", El plan comunica-
tivo del hablante es hacer una petición - que se le diga cuando sale el
siguiente tren a Detroit-y hacer tal petición profiriendo su pregunta.
Si la persona de la ventanilla reconoce este plan, puede responder coo-
perativamente realizando la acción solicitada (asumiendo. claro está.
que es capaz de hacerlo y no tiene ninguna razón para preferir no
hacerlo). Es decir, puede co ntes tar diciendo «Alas 12:30», en lugar de
simplemente «SÚ\.
Normalmente los actos comunicativos se realizan como parte de
planes mayores. y a menudo es necesario para un oyente inferir tam-
bién esos planes mayores. En este ejemplo si la persona de informa-
ción reconoce que el plan comunicativo del hablante es probablemente
parte de un plan para ir a Detroit, puede proporcionarle a éste informa-
ción adicional que le facilite su objetivo. Puede decirle, por ejemplo.
de qué vía sale el siguiente tren a Detroit o puede criticar su plan, di-
ciéndole que aunque el siguiente tren a Detroit sale en 15 minutos, es
un tren local, y que el expreso que sale en 45 minutos le llevará antes
a su destino.
El reconocimiento de planes es pues importante para responder
adecuadamente a las preferencias del hablante en el discurso interac-
tivo ':'. Es también importante para comprender la coherencia de pro-
ferencias de cláusulas múltiples. Considérese una persona distinta que
le dice a la de la ventanilla de información «Voy a Detroit. ¿D6nde
está la vía 7?» Es reconociendo el plan que pueda tener el hablante
como puede determinar por qué es coherente la proferencia del ha-
blante; efectivamente. el reconocimiento del plan es lo que le permi-
te comprender completamente la proferencia. Es esencial para poder
entender la coherencia de proferencias de nuiltiples cláusulas en el
discurso tanto interactivo como no interactivo. De hecho varios estu-
dios de reconocimiento de planes se han centrado en la comprensión
de relatos, una forma de discurso esencialmente no interactivo (Bruce
1981, Wilensky 1983).
I.~ Los ejemplos de la «estación de tren» han sido muy discutidos en la litcruturu.
Fueron inspirados por un conjunto de diálogos grabados en en el puesto de información
de la estación de Toronto (Horrigan [977 1. El ejemplo discutido aquí fue analizado en
primer lugar por Allen (1983).
14 La generación de respuestas adecuadas puede depender también de distinguir en-
tre respuestas intendidas y no intendidas (aunque útiles) (Sidner 1983. 1985).
250
La técnica básica
251
acciones especificadas en el conjunto de operadores (ver capítulo 7 de
Nilsson 1980).
Esta concepción simple puede refinarse permitiendo que cada ope-
rador incluya un cuerpo as como una lista de precondiciones y accio-
í
16 Rosensche i o (198 I ) proporci 00 a un anál is i s Il) g i(:( \ de planes jerrirq uicos: Wilkios
(1985) clarifica diversas distinciones importantes que deben hacerse entre procesos de
plan i ticae ión jerárq uicos,
17 Naturalmente aquí, como a lo largo de este capítulo, por «hablante» nos referimos
al agente que produce lenguaje, sea ese lenguaje oral o escrito,
252
Hel(O, Int(H, a)) -----') Bel (O, Int(H, e)) si e es un efecto de a.
Esta regla puede glosarse como «si el oyente (o de modo más gene-
ral el agente que infiere) cree que el hablante (o de modo más general
el que actúa) tiene la intención de realizar alguna acción a. entonces
el oyente puede decidir que el hablante tiene la intención de hacer que
cierta proposición e sea verdadera, si e es un efecto de la realización de
a (en el estado del mundo en que se realice a).»18
18 En realidad una regla como la de Acción-Efecto se utiliza para inferir no sólo que
H tiene la intención de hacer que e sea verdadera, sino que H tiene la intención de conse-
guir e haciendo a-esto es, que el plan de H incluye a la subsecuencia la, ej.
253
reglas, junto con reglas para manipular lo que se denomina inferencia de
planes anidados. sin embargo, pueden verse como casos particulares de
reglas más simples (Kautz 1985).
Es importante señalar que las reglas de inferencia de planes no
deben interpretarse como implicaciones lógicas sino más bien como
descripciones de inferencias «probables» pero no-deductivas que un
agente puede hacer al realizar reconocimiento de planes. Kautz (1990)
presenta una formalización precisa del proceso de utilización de es-
tos principios de inferencia probable para realizar reconocimiento de
planes, proporcionando teorías de modelos. de demostración y algo-
rítmicas fundadas en la teoría de la circunscripción de McCarthy (Me-
Carthy 1980. 1984).
La aplicación de las reglas de inferencia de planes se controla nor-
malmente por un conjunto de heurísticas, que se designan tanto para
hacer que el proceso de reconocimiento sea más eficiente como para
asegurar que los planes más verosímiles se encuentren antes que los
menos verosímiles. Algunas de las heurísticas de control se basan en
nociones de sentido común sobre la naturaleza de los planes y se aplican
igualmente bien al proceso de inferir los planes del interlocutor con-
versacional de uno y a inferir los planes de un agente que uno está me-
ramente observando. Por ejemplo. una heurística tal dirige un sistema
de reconocimiento de planes contra la tendencia de considerar como
candidatos a planes que contengan acciones cuyos efectos sean verda-
deros en el momento en que se vaya a realizar la acción. Esta heurística
es razonable tanto cuando el reconocimiento de planes se produce en el
discurso como cuando no: en general los planes no contienen acciones
superfluas.
Por otra parte. un número importante de heurísticas de control sólo
se justifica en reconocimiento de planes en conversación al fundarse en
la noción griceana de reconocimiento intendido: que el hablante tiene
la intención de que sus oyentes reconozcan al menos un subconjunto
de sus intenciones. Esta idea motiva heurísticas de reconocimiento de
planes tales como la heuristica de bifurcación, que afirma que la proba-
bilidad de que un plan candidato sea el que un hablanre tiene realmente
es inversamente proporcional al número de alternativas a las que puede
extenderse (ABen 1983), y la del supuesto de rama única. que afirma
que si un hablante cree que en cierta fase del discurso se podría inferir
más de un plan. es su responsabilidad dar a conocer aquél que tiene-el
oyente sólo debe inferir hasta el punto de una ruptura potencial (Sidner
254
1985). Tales heurísticas median contra inferencias difíciles sobre el '\u-
puesto de que los hablantes en general intentan producir proferencias
que facilitan un reconocimiento de planes relativamente simple.
Sólo como un ejemplo de la aplicación de las técnicas básicas de
reconocimiento de planes en el discurso, considérese a un viajero que
dice. «¿Cuándo sale el próximo tren a Detroit?» De acuerdo con Allen,
podemos codificar esta acción preferencial como
1'1 La codificación de lo!' actos de habla de Allen se deriva en gran medida de la for-
malización de Cohcn de la teoría de actos de habla. que utiliza nociones de planificación
lA (Cohen y Perrault 1979l.
.:'{. La m-ayoría de los operadores que se muestran en la figura 11.1 deberían ser au-
toexplicativos. SABER-REF(agente. valar) debe entenderse como «el agente sabe la
referencia de (o el valor de) la constante.» Lo, argumentos de 10'\ operadores que van
en mayúsculas (excepto H y O) son variables: los argumentos en minúsculas son cons-
tarucs,
255
EN(H, detroit)
¡acción-efecto
VIAJAR-AfH, detroit, tren 1)
t precondición-acción
A-BORDO(H, tren 1)
¡acción-efecto
Ef\1BARCAR(H, tren 1,detroit)
t precondición-acción
EN(H. ubie 1, tiempo l )
i acción-efecto
IR-A(H. ubic l. tiernpo l )
i precondición-acción
SABER-REF(H. tiempol)
Tacción-efecto
INFüRM-REF(H, O, tiempo 1)
tprecondición-acción
QUERER(O. INFORM-REF(H. O. tiempo 1»
¡acción-efecto
SOLICITAR(H, O. INFORM-REF(H, O, tiempo l i)
FIGURA 1.1
Un plan de embarcar en un tren
256
cláusulas y en el discurso interactivo usando varias preferencias (o
«turnos»).
Las técnicas de reconocimiento incremental se han desarrollado
para extender la técnica básica de reconocimiento de planes para tratar
con secuencias de preferencias (Carberry 1988. Sidner 1983, 1985).
En el reconocimiento incremental el sistema que desempeña el papel
de O, comienza usando la técnica básica para inferir tanto como sea
posible de la primera proferencia (de inicio de discurso) de H. En ese
momento puede no ser posible determinar cuál de los varios planes e~
el que sigue H y puede no ser posible determinar el plan de H a un ni-
vel suficiente para responder apropiadamente. El resultado provisional
puede ser entonces un conjunto de planes candidatos parciales. Una
vez que se han computado éstos. el procesamiento se interrumpe. Al
escuchar cada preferencia subsiguiente. el sistema trata de expandir
todos los planes parciales ya construidos que pueda. El proceso de ex-
pansión hace uso otra vez de la técnica básica: las reglas de inferencia
de planes se utilizan para relacionar un nodo de un subgrafo existente
con la acción hecha al realizar la preferencia y de ahí razonar desde
la acción a otras acciones. Puede probarse imposible expandir algunos
de los subgrafos existentes: entonces éstos dejan de ser considerados.
se eliminan.
El reconocimiento de planes incremental puede hacerse más eficien-
te tomando en cuenta el foco de atención del hablante. Como señalamos
en la sección 2, al menos en los diálogos orientados a tarea, la estructura
de la tarea tiene influencia sobre la estructura del discurso. Cuando un
hablante habla sobre un plan de realizar cierta tarea, no es probable que
«salte» en la presentación, hablando primero de cierta subtarea, luego
sobre otra. para volver luego a la primera, y así sucesivamente. Más
bien, como en cada punto del discurso, alguna parte del plan general del
hablante será más prominente que otras es más probable que las profe-
rencias del hablante tengan que ver con la parte prominente. Esta idea
puede utilizarse para restringir el proceso de reconocimiento de planes:
O puede preferir expandir aquellas partes de los subplanes candidatos
que están en el foco que aquellas que no lo están (Carberry 1988, Lit-
man y AlIen 1989Y~1.
257
En procesamiento del discurso es a menudo necesario reconocer va-
rios planes relacionados que un hablando está ejecutando. En particular.
los hablantes a menudo interrumpen su discusión de un plan de dominio
para ejecutar un plan de discurso, por ejemplo, el de pedir clarificación
o corregir un malentendido anterior, con la ejecución de planes de domi-
nio. En el diálogo siguiente. adaptado de uno de Litman y Allen 1989,
el pasajero se ocupa de un plan de clarificar la información que ya ha
recibido en medio de la realización de su plan de determinar la hora y
ubicación de salida de un tren determinado:
meraplanes como éstos: véase. por ejemplo. Georgcff and Lansky IlJg6b.
258
el O puede decidir que el H tiene la intención de que una proposición e
sea verdadera, si e es un efecto de realizar n.» Nótese que está regla no
señala precisamente quién es-O o S-quien cree que e es una precon-
dición de u. Si la tomamos como una creencia de 0, no está claro que
O infiera el plan de H~ por otra parte, si la consideramos una creencia de
H, no está claro como llega O a tener acceso directo a ella. En la práctica
sólo hay un único conjunto de operadores que vincula lal\ precondicio-
nes y las acciones en los modelos estándar de reconocimiento de planes;
la creencia en cuestión se considera tanto de O como de H.
En muchas situaciones el supuesto de que las creencias relevantes
de H son idénticas a las de O resulta en un fracaso no sólo del proceso de
reconocimiento de planes sino también del proceso comunicativo que
el reconocimiento de planes pretende sustentar. En particular impide la
generación por principio de respuestas apropiadas a preguntas que sur-
gen de planes no válidos. Pollack (1986, 1988) ha propuesto un modelo
de reconocimiento de planes en la conversación que distingue entre las
creencias de H y las de O. El modelo descansa sobre un análisis de
los planes como fenómeno mental: «tener un plan» se analiza como el
hecho de tener una configuración particular de creencias e intenciones.
El proceso de reconocimiento de planes puede beneficiarse de diversas
técnicas de adscripción de creencias. Los juicios de que un plan es no
válido se asocian con discrepancias concretas entre las creencias que O
atribuye a H. cuando O cree que H tiene un plan, y las propias creencias
de O.
Además la participación en el discurso puede requerir la habilidad
de representar planes conjuntos de agentes múltiples. Grosz y Sidner
(1990) han mostrado que estos planes no pueden definirse sólo en tér-
minos de los planes privados de los agentes individuales. Ellas han pro-
puesto una representación que extiende la definición de plan de Pollack
a los planes de dos o más agentes cuando colaboran en una tarea y se
comunican en el discurso.
Otra vía reciente en reconocimiento de planes en discurso ha sido
el vincular más estrechamente las teorías de actos de habla con teorías
fundamentales de la acción racional. Cohen y Lcvcsquc {1990) han
mostrado que los actos ilocutivos. como solicitar o prometer, no ne-
cesitan ser tratados como primitivos en un modelo de reconocimiento
de planes en discurso; en lugar de eso. la conducta propia de los par-
ticipantes en el discurso puede analizarse en términos de un modelo
de principios racionales de adopción de creencias e intenciones. De
259
modo análogo. Perrault (1990) ha mostrado cómo una explicación de
los actos de habla puede basarse en una teoría simple de adopción de
creencias y observación de acciones. Como Cohen y Levesque, Pe-
rrault evita la necesidad de tratar los actos ilocutivos como primitivos
en el modelo. Su teoría difiere en que hace uso de la lógica por defecto
de Rciter (1980), que le permite presentar axiomas más independien-
tes del contexto.
Referencias
260
COHEN. P. R.. and LEVESQlJE, H. (1990), «Rational interaction as the basis for
cornmunication». In P. R. Cohen, 1. L. Morgan, and M. E. Pollack, eds.
Intentions in Communication. Cambridge. MA: MIT Press.
COHEN, P. R., MORGAN, J. L. and POLLACK, M. E. eds. 1990 Intentions in Com-
munication. Cambridge. MA: MIT Prcss.
COHEN, P. R. and PE¡.¿RAl·LT. C. R. 1979. «Elernents 01' a plan-based theory of
speech acts». Cognitive Science 3: 177-212.
COIlEN, R. 1984. «A cornputational thcory of the funetion of the cluc words in
argument understanding», In Proceedings of COLING84. Stanford. CA.
COHEN, R. 1987. «Analyzing (he structure of argumentative discourse». Com-
putational Linguistics B( 1-2).
CULLlNGFORD. R. E. 1977. «Script application: Computer understanding ojnews-
paper stories». Doctoral dissertation, Yale University, New Haven, CT.
CULLlNGFORD, R. E. 1981. «Sarn». In lnside Computa Understanding : FÍI'l'
Programs Plus Miniatures. Hillsdale, NJ: Erlbaum, pp. 75-119.
DAHL. D. A. 1987. «Nominalizations in PUNDIT)\. In Proceedings ofthe 25Th
Annual Meeting ofthe Association for Compurational Linguistics. Stanford.
CA, pp. 131-1:'9.
DONNELLAN. K. S. 1966. -Reference and Definite Descriptions». Philosophical
Review 75: 281-304. Reprinted in Steinberg and Jacobovits, eds. Semantics.
Cambridge, Engl.: Cambridge University Press.
FIKES, R. E., and NILssuN, N. 1. 1971. «STRIPS: a new approach to the application
of theorem proving lo problem solving». Artificial lntclligcnce 2: 1&9-20&.
FILLMORE. C. J. 1975. Santa Cruz Lectures 011 Deixis. Technical rcport, Indiana
Linguistics Club, Bloomington, IN.
FrNIN. T. 1980. Tite Semantic Interpretation oI Compound Nominals. Ph. D.
Thesis, University of Illinois. Urbana, IL.
FTSCHER, G., Lc.MKI::. A., and SCHWAB, T 1QS5. «Knowledge-based help "ys-
terns». In Proccedings o] the CHIJ)85 Conference un Human Factors in
Computing Svstems, ACM SIGCHI, San Francisco. pp. 161-167.
GENESERETH. M. R. 1979. «The role of plans in automated consultation». In
Proceedlngs 01 the fúh lnternational Ioint Confcrencr on Artificial lntelli-
gence, Tokyo, pp. 311-3J9.
Gl.:.ORGl:.FI-. M. P. 1987. «Planning». In J. Traub. ed. Annual Review ofComputer
Sciencc, Palo Alto, CA: Annual Reviews.
GEORGEFF, M. P. and LANSKY, A. L. J 986a. Reasoning about Actions and Plans:
Proceedings ofthe 1986 Workshup. Los Altos. CA: Morgan Kaufmann.
GEORGlFF, M. P. and L.A.NSKY, A. L I 9Rób. «Procedural Knowlcdge». Proreedings
ofthe IEEE. Special IS5ue OH Knowledge Representution. pp. 1383-1398.
GR1C~, H. P. 1957. «Meaning». Philosophical Review 67.
GRICE. H. P. 1968. «Utterer's meaning. sentence-rneaning, and word-meaning».
Foundations ofLanguage 4: 1-18.
261
GRI( t.H. P. 1975. «Logic and Conversation». In P. Cole and J. L Margan. eds.
Svtitax and Semantics Vol. 3: Speech Acts. New York: Acadcmic Press, pp.
-+ 1-5g.
GRI<T. H. P. I 97'PJ. «Further notes on Logic and Conversation». In P. Cok. cUs.
Svnta»: and Semantics Vol. 9: Pragmatics. New York: Academic Prcss.
pp. 113-[28.
GROSZ, B. 1974. «The structurc of task oricnted dialogs». In IF.F.F. SYIJII'osilllJl
un Specch Recognition: Contributed Papen. IEEE. Pittsburgh: Carncgic
Mellon University, Computer Science Dept.
GROSZ, B. J. 1977. «( The representut ion and use uf tocus in a systern Ior unders-
tandíng dialogs». In Proceedings ofth« Fifth lnternational Joint Conference
on Artificial Intelligencc. Cambridge, MA.
GROSZ, R. 1. 197&a. «Discour"e unalyxix». In D. \Valkcr, ed. Understanding
Spoken Language. Ch. IX. Nev,: York: Elscvicr North-Holland, pp. 135-2ó8.
GROS, B. J. 1979b. «Focu ~i ng in d ialog». In Proceedings 01 Workshop on Theo-
retical Issues in Natural Language Processing-Z, Urbana, IL.
GROSZ, B. 1. 1981. «Focusing and description in natural language dialogues».
In A. K. Joshi, 1. Sag. and B. Webher, eds. Elements ofDiscourse. Cambrid-
ge. Engl.: Cambridge University Press.
GKOSZ. B. J.. JOSHl, A. K .. and WEINSTEIN, S. 1983. «Providing a unified ac-
count of definite noun phrases in discourse». In Procccdings of the 9Th In-
tcrnational Joint Conference on Artificial lnteliigencr, Cambridge. rvlA.
GROSZ. B. J. and SlDNl:.R, C. L. 1986. «Aucntion, intcntions nnd the structure oí"
discourse». Computational Linguistics 12(3).
GI{()~Z. B. J. and SIDf\;ER C. L. 1990. «Plans for Discourse». In P. R. Cohen,
J. Morgan and M. E. Pollack. eds. lntentions in Communication, Cambrid-
ge. MA: MIT Press.
GlIENTHNLR, E, LI:.HMANl':, H., and SCHOENFELD, W. 1996. "A theory tor representa-
tion uf knowledge». IRM Journal (JI Research and Dcvelopment 30' 11: 39-56.
HADDOCK. N. J. 19~7. '<Incremental interpretation and combi natory categorial
gramrnar». In N. Haddock. E. Klcin, and G. Morril. eds. Edinburgh Hórking
Papcrs in Cognitive Science. v(")I. 1: Categorial Gramniar. Unification Gra-
mmar aJ1l1 Parsing, Edinburgh. Scorland. pp. 71-84.
HALLllJAY, M., and HA:>AN. R. !lJ7ó. Cohesion in English. English Languag:c
Series, Titlc No. 9. London: Longrnanvs.
HEIM, 1. 19R2," The semanticx of dehnite and indefinite noun phrases». Ph. D.
disscrtation. University of Massachusetts. Arnherst. MA.
HENDRIX. G .. S -\CER DOTI, E.. SÁG ALOWlez. D., and SLOCUM, J. 1978. «Develo-
ping a natural language interface ro cornplex data». ACAJ Trans. on Data-
base Svs. 3(2).
HINRICHS. E. ll)g6, «Temporal anaphora in discourscs of English. English Lan-
guage Serie"í». Tirk No, 9. l.ondon: l.ongman's,
HIRSCHBERG, J. B. and Pierrehurnbert. J. 1986. The i ntonational structuring of
discourse. In Proceedings (?fthe 24Th Annual Meeting ofthe Associationfor
Computational Linguistics, New York. pp. 136-144.
HIRS(,HRERG.1. B. and LlTMAN. D. J. 1987. «NO\vlets talk about now: ldentifying
cue phrases intonationally». In Proceedings ofthe 25lh Annual Meeting ofthe
ASS0c111TioTlji,,- Computational Linguistics, Stanford, CA, pp. 163-171.
HIRSrHBERG.1. B.. LJ "MA~, D. J.. PIERREHl'MRERT. 1., and WARD, G. L. 1987.
«Intonation and the intonational structurc of discourse». In Proceedings of
the Tenth Intcrnatioual Joint Conference (JJ1 Artificial Intelligence. Mílan,
ltaly. pp. A36-6J9.
HOBBS, J. 1979. «Cohcrcnce and co-reterence». Cognitivc Scicnce 1; 67-8~.
e
HOB BS. 1. 198 J. «Wh y i s discourse coherent?» In F. Neu bauer, ed .. oherence
in Natural L:lFJgllage Texts. Hamburg: H. Buskc Verlag.
HOBBS. J. R. 1985. 011 the Coherence and Structure of Discourse, Tcchni,..al
Report CSLI-85-37. CSLI, Stanford, CA.
HOBBS. J. and MARTIN P. 19R7. «Local pragrnatics». In Proceedings otthe Tenth
lnternational Joint Conference 0/1 Artificial lntelligence. Milán, ltaly.
HORRIGAN. M. K. 1977. Modclling simple dialogues. Technical report TR 108,
Dept. of Cornputer Science. University of Toronto. Toronto, Ontario.
ISABELLE. P. 1984. «Another look at nominal cornpounds». In Proceedings of
the l Otli lnternational Conference 011 Computational Linguistics, Stanford.
CA, pp. 509-516.
.JOSHI. A. and WEINSTt.IN. S. 1qSI. «Control of inference: Role of sorne aspects
of discourse structure-centering». In Proceedings of International Joint
Conferencc 011 Anificial íntelligence. Vancouver. BC, pp. 385-387.
KAMP, H. 1981. «A theory of truth and scmantic representation». In J. Groenendijk.
T. V. M. Janssen, and M. Stokhof. eds. Formal Methods in thc Study ofLangua-
ge. Mathernatical Centre Tract 135. Amstcrdam, The Netherlands. pp. 277-322.
K..:\LI17, H. A. 1985. Toward a Theory oI Plan Rrrognition. Technical report
TR [62, University of Rochester, Rochester. NY
KAUTZ. H. A. 1990. ~<A circurnscriptive theory of plan recognirion». In P. R.
Cohen. .J. L. Margan. and M. E. Pollack , eds. lntentions in Communication.
Cambridge. MA: MIT Prcss,
K ~_NDON. A. 1972. «Sorne relationships between hod y rnotion and speech». In
Studies in Dvudic Ct)IIIII1/II1;ultiOll. New York, Pergamon.
KRONH.:.LD, A. 19R6. «Donnellari's distinction and a cornputational model of
reference». In Proceedings 01 the 24th Annual Meeting (~f thc Association
for Computational Linguistics. New York.
LASNIK, H. 1976. «Rcmarks on co-reference». Linguistic Analysis 2\ 1); 1-22.
LEHNI:.:.RT. W. IQ77. ,<A conceptual theory of quesnon-answering». In Proccr-
dings 01 the Sth lntcrnational Joint Conference on Artificial lntclligencr,
Palo Alto. CA: Morgan Kaufrnann.
263
LEHNERT, W. 1981. «Plot units and narrative summarization». Cognitive Scien-
ce 5(4): 291-331.
LEYINSON, S. C. 1983. Pragmatics. Cambridge. Engl.: Cambridge University
Press.
LEYY. D. M. 1979. «Cornmunicative goals and strategies: Between discourse
and syntax». In T. Givon, cd, Discourse and Svntax. New York: Academic
Prcss, pp. 337-354.
LINDE, C. 1979. «Focus of attention and the choice of pronouns in discoursc». In T.
Givon, cd, Syntax and Semantics. Ncw York: Acadcrnic Press, pp. 337-354.
LJNn[. C. and GOGUf:N, J. 1978. «Structure of planning discourse». 1. Socia!
Bio/. Struct. 1: 219-25 l.
lITMAN. D. 1985. Plan Recognition and Discourse Analysis: AIl lntegrated
AfllmUlchtór Understanding Dialogues. Technical report TR 170. Universi-
ty of Rochester. Rochester, NY.
LlTMAN. D. 1. and ALLEN. J. F. 1987. «A plan recognition model for subdialo-
gues in convcrsations». Cognitive Science I L 163-200.
LITMAN. D. J. and ALLEN. J. F. 19YO. -Discourse processing and commonsense
plans», In P. R. Cohen, 1. L. Morgan. and M. E. Pollack, eds. lntentions in
Communication. Cambridge, MA: MIT Press.
MANN. W. D .• MUURE, M. A., LEVIN, J. A.. ami e ARSLJLC. J. H. J975. Observa-
tion Methodsfor Human Dialogue. Technical report, lnformation Services
Instirute, Marina del Rey, CA.
MANN, W. D. and THOMPSON. S. A. 1986. «Relational proposuions in discour-
se'>. Discourse Processes 9( 1): 57-90.
MARSLEN-WILSON. W.• LEVY, E.. and Tv LER, L. K. 1982. «Produci ng interpreta-
ble discourse: The establishment and maintenance oí"reterence». In Speech,
Place, and Action. Chichester, EngL: Wiley,
MeC '\RTH Y, 1. 1980. «Circumscription-a form of non-rnonotonic reason i ng».
Artificial Intelligence 13: 27-39.
MCCARTHY, J. 1984. «A pplications of circumscription to formalizi ng cornrnon
sense knowledge» In Proceedings ofthe AAA/ Worhhop on Nonmonotonic
Reasoning, New Paltz, NY. pp. 295-324.
McCuE. D. and LESSER. V. 1983. Focusing and Constraint Management in /11-
telligent Interface Design. Technical report COINS 83-36, University oí"
Massachusetts, Arnherst, MA.
McDoNALD, D. D. 19R3. «Natural language generation as a cornputation pro-
blern». In Computational Models 01 Discourse, Cambridge. MA: MIT Press,
McKI:OWN. K. 1985. Tcxt Generaiion. New York: Cambridge Universiry
Press,
McNEILL, D. 1979. The Conceptual Basis oj Language. Hillsdalc. NJ: Erlbaum.
MeNE'LL, D. and Levy, E. 1<:J82. «Conceptual representations in language acti-
vity and gesture». In Speech, Place, and Action. Chichester, Engl.: Wiley,
264
MeLLlSII, C. S., 1982. Incremental Evaluation: An Anproach 10 the Semantic In-
terpretation of Noun Phrases. Technical repon. University 01' Sussex Cog-
nitivc Studies Prograrnmc, Sussex, Engl.
NILSSON, N. 1. 1980. Principles ofArtiiicial lntelligencc. Palo Alto. CA: Tioga.
PARTEr. 1:3. H. 1984. «Nominal and temporal anaphora», Linguistics and Phi-
losophv 7: 243-286.
PERRAlIl T. R. C. 1990. «An application of default logic to speech act theory».
In P. R. Cohen. J. L. Morgan, and M. E. Pollack, eds. Intentions iJ1 Commu-
nication. Cambridge, MA: MIT Press.
PI::I{RACLT, R. C. and ALLEN, J. F. 19RO. «A plan-ba . . cd analysis of indi-
rect speecb acts». American Journal of Computational Lingulstics 6:
167-182.
POLANYL L. 1985. «A thcory of discourse structure and discourse coherence».
In W. Eilfort. P. Kroerber, and K. Pcterson. eds, Proceedings of the 21st
Regional Meeting of the Chicago Linguistics Society. Chicugo: University
01' Chicago Press. pp. 306-322.
POLA.NYI, L. 1986. The Linguistu Structure 01 Discourse: Towards a Formal
Tlieory of Discourse Structure . Technical rcport 64~N, Holt, Berenek and
Newrnan, Cambridge. MA.
POLAN'd, L. and SCHA, R. 1984. «A syntactic approach to discourse .s ernantics».
In Proceedings ofthe l Oth International Conference 011 Computational Lin-
guistics. Stanford, CA. pp. 413-419.
POLLACK. M. E. 1986. «A modcl of plan inferencc that distinguishes between the
beJiefs of actors and obscrvcrs ". ln Proceedings ti the 24th Annual Mecting
oj the Association for Computational Linguistics. Ncw York, pp, 207-1.14.
POLLACK, M. E. 1990. «Plans as Cornplex Mental Attitudes- . In P. R. Cohen.
1. Morgan and M. E. Pollack. cds, lntcntions in Communication. Cambrid-
ge, MA: MIl Press. pp. 77-10~.
POLLACK. M. E. and PEREIRA F C. N. 1981'L «An intcgrated [ramework for
scmantic and pragmatic interpretation», ln Proceedings ofthe 26th Annual
Meeting ofthe Association for Computational Linguistics, Buffalo, NY.
REICHMAN-ADAR, R. (1984). «Extended person-rnachinc interface». Artificial
Iruelligence 22: 157-218.
REINHART. 1. 1983. «Co-reference and bound anaphora: A restatement 01 the
anaphora question». Linguistics and Philosopltv 6: ·+7-88.
RElTER. R. 1q~O. «A logic for default reasoning». Artificial Intelligence 13:
81-132.
ROBlNSON, A. 1981. «Determining verb pnrase refcrenrs in dialogs». Computa-
tional Linguistics 70 ).
ROSENSCHF.IN. S. J. 19~ 1. « Plan synthesis: a logical perspective». In Procee-
dings o] the 7th lntenunional Joint Conference 01/ Artificial lntelligence.
IJC AL Vancouver, Be. pp, 331-:'37.
265
RLlMELHART. D. E. 1975. «Notes on a scherna for stories». In D. G. Bobrow and A.
Collins. eds. Representation and Understanding, New York: Academic Press.
SACERDOTI, E. D, 1977. A Structurc for Plans and Behavior. New York: Ame-
rican Elsevier,
SCHIH'RIN, D. 1982. Discourse Markers: Semantic Resource for the Construc-
tion of Conversation, Ph, D. Thesis. University of Pennsylvania, Phíladel-
phia, PA.
SCHMlm. C. F.. SRIDIIARA:'IJ. N. S. and GOODSON, J. L. 1978. «The plan rccog-
nition problcrn: An intcrsecrion uf artificial intelligence and psychology»,
Artificial lntelligence 10: 45-83.
SEARLE. J. ] 969. Speech Acts: An essay in the philosophv of language. Cam-
bridge, Engl.: Cambridge University Press.
SEARLE.1. 1975 ..-Indirect Spccch Acts». In P. Cole and J. Margan. eds. Svntax
and Semantics \I()I. 3. Speech Acts. New York: Academic Prcss. pp. 59-82.
SmNER. C. L. 1979. Towards a Computational Theory of Definite Anaphora
Comprehension in English Discourse. Ph. D. thesis. Technical report 537,
Artificial Intelligence Laboratory, MIT. Cambridge. MA.
SIDNER. C. L. 1981, «Focusing for interpretation of pronouns». Computationul
Linguistics 7(4): 217-231.
SIDNER. C. L. 1982. Protocols of Usas Manipulating visuallv Prescnted lnfor-
mation with Natural Language. Technical report, Bolt, Bercnek and New-
rnan, Cambridge. MA.
SlDNER. C. L. 1983, «What the speaker mcans: Thc rccognition of speakcrs'
pIans in discourse». International Journal ofComputers and Matheniatics.
Special lssue in Computational Linguistics 9( 1): 71-lQ.
SIDNER, C. L. 1985, «Plan parsing for intended response recognition in discour-
se». Computational Intelligenc e 1(1): 1-1O.
SILVJ:,RMAN. K. 1987. Natural Prosodyfor Synthetic Speech. Ph. D. thesis. Cam-
bridge Univcrsity. Cambridge. Engl.
STEFIK, M, 19R1. «Planning with constraints». Artificial Intelligence 16: ] 11-140.
T ATE. A. 1984. «Goal structure-capturing thc intent oí"plans». In Proceedings ofthe
Sixth European Conference 011 Artificial lntelligence, Pisa, Italy, pp. 273-276.
VAN DIJ K, T. A. 1972. Some Aspects 01 Text Grammars. The Haguc: Mouton.
W ALKER, D. 1978. Understanding Spoken Language. New York: Elsevier
North-Holland.
WEl.HU:R, B. L. 1980. A Computational Approach 10 Discourse Anaphora. New
York: Garland.
WEBBER, B, L. 1983. «So what can we talk about now». In M. Brady. ed. Com-
putational Approaches to Discourse. Cambridge, MA: MIT Press,
WEI3I3ER, B. L 1987. «Thc intcrprctation of tense in discourse». In Proceedings
uf the 25th Annual Meeting ofthe Association for Computational Linguis-
tics. Stanford, CA, pp. 147-154.
266
WlLENSl\. Y. R. 1983. Planning and Understunding, Reading. MA: Addison-
\Ves[ey.
\VILKINS, D. E. 1984. -Dornain-independent planning: Rcprcsentation and plan
generation», Artificial Intrlligencc 1~: 269-30 l.
WILKINS. D. E. 1985. Hiernrclncal Planning: Deftnition and Implementation,
Technical report 370. Artiliciallntelligenee Centcr, SRl lntemational. Men-
lo Park. CA.
\VINOGRAD. T. 1971. Procedures as a Representation tor Data in a Compute:
Program for Undrrstanding Natural l anguage . Ph. D. thesis, Rcport no.
TR-84. Project MAr. MIT. Cambridge. MA.
WINOGR,",n. T. 1978. Undcrstanding Natural Laneuagc. New York: Acudernic
Prcss,
W(lOJ)~. \V. A. )l>7R. «Semanrics and quantification in natural languagc qucs-
tion anvwering». In M. Yovitx, ed, Advances in Computers. Nc\V York: Aca-
demic Press, pp. 1-87.
WOODS. W. A.. KAPLAN. R. M.. and NAsH-WrRRER. B. L. 197'2. rile Lunar
Sciences Natural Language Injormution Sy.\It.'I1l.' Final Repon. BBN Repon
2378. Bolt. Beranek and Newrnan, Cambridge. MA.
267
SEl\'IÁNTICA MODELO-TEÓRICA
Jan Barwise y John Etchemendy
l. El Reto de la Semántica
Siempre que los eruditos han estado hablando acerca del pensar, se
han encontrado a sí mismos pensando acerca del hablar. de la habilidad
de los humanos para usar el lenguaje. La relación entre lenguaje y pen-
samiento es un problema clásico de «la gallina y el huevo» en el estudio
de la cognición. El uso del lenguaje requiere claramente una habilidad
para pensar. Sin embargo, algunos han argüido que el pensamiento mis-
mo presupone alguna suerte de lenguaje. Pero si ellos están en lo cierto,
entonces una explicación del pensamiento requiere una explicación del
lenguaje. Independientemente de qué antepongamos. parece importante
llegar a comprender la relación entre pensamiento y lenguaje.
269
Sin embargo para comprender el reto de la sern.ínrica debemos ir
más allá de la simple observación de que los enunciados y pensamientos
tienen contenido semántico. También los signos y símbolos usados en
la comunicación animal pueden tener contenido. Lo que parece distin-
guir la comunicación humana de la comunicación animal es el carácter
combinatorio del sistema simbólico. un rasgo que permite a los usuarios
combinar los elementos básicos de forma novedosa e ilimitada. y saber,
de alguna manera. lo que la combinación resultante significa.
Es obvio tras un momento de reflexión que nosotros a diario expre-
samos. escuchamos y leemos oraciones que nunca hemos encontrado
antes. Por ejemplo, es sumamente improbable que el lector haya en-
contrado esta oración particular antes, a pesar de ello entiende lo que
significa. De alguna manera, conociendo el significado de las palabras
involucradas y las formas en que son combinadas puede entender el
significado de toda la oración.
Lo que hace esto verdaderamente impresionante. y un reto para el
teórico, es el carácter infinito del lenguaje humano que resulta de su na-
turaleza combinatoria. Utilizando muy pocas palabras y construcciones
gramaticales. podemos generar un número infinito de oraciones diferen-
tes, cada una de las cuales es perfectamente significativa y. en principio,
fácil de entender. Considérese, por ejemplo. la siguiente lista:
Mi amigo ganó.
El amigo de mi amigo ganó.
El amigo del amigo de mi amigo ganó.
(etcétera]
270
esto en general, para una expresión decimal arbitraria. Esta es claramente
una tarea de un orden diferente en cuanto a magnitud. Puede incluso ser
imposible, dadas las capacidades cognitivas del perro.
I Veánse, por ejemplo, los artículos de H. P Grice (lY.:'i7, 196!'S) Y David Lewis (llJ6l)).
2 Desafortunadamente la totalidad del trabajo en semántica considerado aquí, uvume
que las palabras y no los modernas son las unidades mínimas con significado. Para un
tratamiento detal lado de la semántica léxica. vea-e por ejemplo, Dowty (1979).
271
llar una caracterización precisa de cómo los significados de las expre-
siones complejas depende del significado de sus partes constituyentes.
A esto se denomina semántica compositiva y trata de los significados
de expresiones tales como «mi amigo» y «el amigo de mi amigo ganó».
La tercera tarea es propia del científico cognitivo. Ella consiste en ex-
plicar en detalle cómo el conocimiento de la semántica de un lenguaje
es realmente logrado por los hablantes y en dar una explicación de los
procesos cognitivos y estructuras involucradas.
Estas tareas extán. por supuesto. relacionadas. En verdad es amplía-
mente reconocido que la solución él la primera tarea -dar una expli-
cación de cómo los signos vienen a tener significado convencional-
debe acercarse mucho a conceptos psicológicos y cognitivos básicos.
La comunicación es, después de todo. un tipo de actividad inteligente
y los mecanismos utilizados para llevarla a cabo no pueden ser enten-
didos aislados de una explicación más amplia de nuestras capacidades
cognitivas. Por tanto, también el estudio de los complejos sistemas de
comunicación involucrados en el lenguaje natural. al que se dedican los
cultivadores de la semántica, debe estar guiado por el reconocimiento
de que dichos lenguajes son usados por agentes finitos. Por último, la
explicación del científico cognitivo de cómo son aprendidos lenguajes
complejos requerirá una comprensión de cómo funcionan esos lengua-
jes, una comprensión de los complejos sistemas sintácticos y semánticos
que relacionan sonidos y significado.
Para hacernos una idea de cómo la segunda tarea. la semántica, po-
dría ser ejecutada y de cómo se relaciona con la tarea del científico cog-
nitivo. perrnítasenos volver a nuestro problema de la notación decimal.
Aquí una tarea para el dedicado a la semántica seria especificar una
función. llamémosla den ro que dé la denotación de cada numeral en la
notación de base diez. Esto es bastante fácil. El componente léxico de
la semántica especificaría las denotaciones de los diez numerales árabes
básicos «ü}), ,< l », ,<2», ..., ,<9». Podríamos simplemente hacer una lista
de esas denotaciones con enunciados como
27'].
mas en las que podríamos hacer esto. La más elegante es dar la siguiente
cláusula recursiva. En ella a recorre numerales de base diez arbitrarios,
por ejemplo, «273» y <~46,>, y /1 recorre los numerales básicos desde «O»
hasta «9».
273
derecha a izquierda. Por ejemplo, la denotación de «2014~> es descrita
en términos de la denotación de «20] '> Y la denotación de «4», y la de-
notación de «20 l ~> es entonces descrita en términos de la denotación de
«2(h y de la denotación de «l », y así sucesivamente. Sin embargo esta
no es la única forma de describir la semántica del sistema de notación de
base diez. Por ejemplo, podemos dar una descripción alternativa de esta
misma función. utilizando una rccursión de izquierda a derecha. Permí-
tasenos usar long ((Y.) para la longitud de la cadena o, Así. long( «2014>\)
es cuatro. Ahora podríamos sustituir la anterior cláusula recursiva por
la siguiente:
\ Por ejemplo. no ... han en -eñado que t< 2014,) representa 2 millares. O centenas, I de-
cena y 4 unidadc .., esto ex. .2 )(103 + () x 10~ +.\ x 10\ + 4. Nuestra segunda recursión
es también conocida como «recursión de coja». un tipo de rccursion que es más tratable
computacionalmcntc.
274
reproducir, a cierto nivel de abstracción, la conducta l/O asociada con el
proceso. El hecho de que esto se consiga con un programa finito que se
ejecuta en una máquina finita hace claramente a un programa exitoso de
interés para el científico cognitivo. Por supuesto que de esto no se sigue
que el algoritmo específico incorporado en el programa corresponde a la
manera en que los humanos llevan a cabo la tarea. sin embargo ello pro-
porciona un método para lo que no teníamos ninguno anteriormente.
Hay dos rasgos de la modelización en lA que son relevantes para
nuestra analogía. El primero es que el interés en esta modelización sur-
ge de la tensión entre la necesidad de hacer cierta tarea complicada y el
requerimiento de que sea hecha en una máquina de un tipo razonable-
mente limitado. En el caso del ajedrez, por ejemplo. no es posible en la
práctica para la computadora explorar todas las continuaciones posibles
del juego y elegir una jugada garantizada para ganar. Más bien el algo-
ritmo debe computar su función desde estados del tablero a estados del
tablero utilizando recursos muy limitados. El segundo rasgo es el corte
que la lA emplea en cualquier problema particular. Así, en el ejemplo
del ajedrez abstraemos muchos detalles del juego real de ajedrez, como
el problema de reconocer las piezas de ajedrez o de moverlas físicamen-
te por el tablero. Más bien se aisla un aspecto importante de las partidas
de ajedrez reales como el único que se intenta modelizar.
La manera en que el que se dedica a la lógica se aproxima a la
semántica es análoga a la manera en que la lA se acerca a la modeliza-
ción de la inteligencia. Primero abstrae muchos detalles del uso real del
lenguaje, como las cuestiones fonéticas, los efectos de la entonación y
los usos metafóricos del lenguaje. Y como en el caso de la lA. el interés
descansa principalmente en la tensión entre la necesidad de especificar
un objeto complejo y el requerimiento de que sea hecho de una mane-
ra finita. Por ejemplo, conseguimos describir la función infinita den¡O
con dos teorías finitas muy simples, y ambas sugieren algoritmos que
podrían estar involucrados en la comprensión de la notación decimal.
Aquí nos encontrarnos en la ventajosa situación de poder comparar las
teorías en términos de elegancia matemática y plausibilidad cognitiva o
computacional.
De nuevo la situación es análoga a la modelización en lA en la que,
en general, habrá más de un algoritmo para llevar a cabo una tarea dada.
Puede muy bien ocurrir que de los dos algoritmos, uno sea más elegante
o eficiente. mientras que el otro es un mejor modelo cognitivo de cómo
la gente lleva a cabo la tarea. En tal caso los intereses del investigador
275
en lA Ydel científico cognitivo pueden muy bien diverger. Por supuesto
que es bien sabido que los problemas en lA se han mostrado extremada-
mente difíciles. Por esta razón el que se dedica a lA está principalmente
interesado en producir algún programa que se aproxime a la conducta
deseada. Una vez que se consigue esto, el investigador puede intentar
encontrar más de uno y compararlos para ver cuál es el más elegante.
eficiente o plausible cognitivamente.
De manera similar, la tarea de los cultivadores de la semántica del
lenguaje natural se ha mostrado extremadamente difícil. El cultivador de
la semántica se ocupa de producir al menos una teoría finita matemática-
mente precisa que caracterice los significados de las expresiones en un
lenguaje infinito. Cuando contamos con dos teorías tales podemos desear
juzgar entre ellas sobre la base de criterios varios, dependiendo de nues-
tros objetivos. La persona interesada en construir un interfaz del lenguaje
natural para computadoras se centrará en las cuestiones de elegancia y
eficiencia. El científico cogn iti \'0 se centrará por contra en la plausibi Iidad
de la explicación como modelo cognitivo. Estos intereses diferentes pue-
den terminar tirando en direcciones totalmente distintas.
En este capítulo consideraremos varios acercamientos a la tarea
semántica que se han desarrollado desde la tradición en lógica, acer-
camicntos que generalmente se conocen como semántica modelo-teó-
rica. Nuestro objetivo no es simplemente examinar panorámicarnente
estas aproximaciones u orientar al lector hacia la literatura relevante.
Más bien esperamos dar al lector una idea de algunas de las técnicas
importantes que son comunes en las aproximaciones modelo-teóricas.
Para hacer esto en el espacio disponible. ilustraremos en algún detalle,
una explicación semántica totalmente tradicional, conocida como la se-
mántica madeja-teórica extensional. Después. mucho más brevemente,
discutiremos adiciones y enmiendas a esta teoría que provienen de sus
principales competidoras. Sin embargo, las teorías rivales que conside-
raremos no difieren una de otra en la forma en que lo hacen nuestras des-
cripciones de den ¡o. Allí teníamos una función que fue caracterizada de
dos formas diferentes. Pero ni siquiera es obvio que sea esta descripción
de la función en la que el cultivador de la semántica cognitiva estaría
más interesado. Por ejemplo, una aproximación alternativa a la semánti-
ca de los numerales podría caracterizar una relación Con! (a, B), que se
cumple entre un numeral a y cualquier conjunto B que tiene el número
apropiado de objetos. Uno podría imaginar un argumento según el cual
la relación Cont permite acceder a algo más directamente relevante en
relación al uso de los numerales por parte de la gente. Por supuesto, esto
276
no es algo que pueda ser definitivamente juzgado con independencia del
resto de nuestra explicación semántica y cognitiva.
277
teórica? De hecho los cultivadores de la semántica se han concentrado
en diez o doce conceptos clave, incluyendo
278
Por tanto, de repente tenemos que distinguir dos sentidos del tér-
mino «significado». Por un lado hay un significado que se aplica a las
expresiones mismas, independientemente de quiénes las usen. Es el sig-
nificado en este sentido el que permanece inalterado si nuestra oración
es dicha por Bell a Watson o por Watson a Bel!. Por otro lado. tenemos
el significado de un uso particular de una expresión -en el sentido en
el que el uso que hace Bell de «Le necesito a usted» significaba que Bell
necesitaba a Watson. Denominaremos a este último el contenido de la
preferencia. AsÍ, diremos que el significado de nuestra oración perma-
nece el mismo en los dos casos, aunque el contenido difiera.
Una cosa que podríamos razonablemente esperar que una teoría se-
mántica explicara es la relación entre el significado de una expresión y
el contenido de un uso particular de ella. Presumiblemente esto introdu-
cirá aspectos del contexto en el que la expresión es usada. Por ejemplo,
los hechos acerca de quién está hablando, cuándo tiene lugar el enun-
ciado y a quién está siendo dirigido son todos factores importantes para
determinar el contenido y valor cognitivo de un uso dado de la oración
«Le necesito a usted.»
Como señalamos en la sección l., el reto principal de la semántica
modelo-teórica es dar cuenta de la relación sistemática entre el signi-
ficado de las expresiones complejas y el significado de sus partes. En
nuestro ejemplo necesitamos explicar cómo el significado de la oración
«Le necesito a usted» está relacionado con el significado de sus partes,
pur ejemplo, al significado de la palabra «usted». Pero ¡14Uí tenemos el
mismo tipo de división que arriba. La palabra por sí misma tiene cierto
significado fijo que permite a diferentes hablantes referirse a diferentes
oyentes en diferentes ocasiones. Pero si preguntamos qué significa «us-
tcd» en el uso particular que hace Bell, la respuesta sería Watson -la
persona a la que se refiere. Diremos que el significado de «usted» es
lo que permanece inalterado en los distintos usos, aunque la referencia
pueda cambiar de uso a uso.
Dos conceptos relacionados que se han mostrado cardinales en la
semántica modelo-teórica son las nociones de verdad e implicación. El
interés del cultivador de la semántica por la noción de verdad puede
parecer un poco sorprendente en una primera mirada. Después de todo,
especificar qué oraciones o usos de oraciones son de hecho verdaderos
no e~ parte de la actividad del que ~e dedica a la semántica, si lo fuera,
la tarea sería obviamente desesperada. La manera en la que la noción de
verdad figura en muchas teorías semánticas es la siguiente. Parece ra-
279
zonable suponer que una parte crucial de lo que comprendemos cuando
conocemos el significado de una oración declarativa no es si es de he-
cho verdadera sino más bien bajo que condiciones puede ser usada para
hacer una aserción verdadera. Por ejemplo. un hablante que domine el
castellano sabe que cualquier uso particular de la oración «Le necesito a
usted» será verdadero cuando y sólo cuando el que dice la oración nece-
sita a la persona a quien se dirige la oración. Es este conocimiento, más
la asunción de que Bell está diciendo la verdad lo que permite a Watson
concluir que le necesita y a actuar en consecuencia. AsÍ, ha supuesto un
gran impulso para la semántica el intentar caracterizar el significado de
las oraciones declarativas en términos de las condiciones bajo las que
son verdaderas. o más precisamente, las condiciones bajo las que pue-
den ser usadas para hacer aserciones verdaderas.
Este interés por las «condiciones de verdad» de las oraciones está
relacionado con la implicación de manera directa. La idea es que una ora-
ción implica una segunda sólo en caso de que cualquier condición bajo la
que la primera sería verdadera es también una condición bajo la que la se-
gunda sería verdadera, Por ejemplo, la aserción de Bell de que necesitaba
a Watson implica que él necesitaba a alguien. Si la primera fuera verdade-
ra, también In segunda lo sería. Esta caracterización de la implicación en
términos de condiciones de verdad nos proporciona una forma importante
de someter a prueba teorías semánticas. Así, un criterio común para una
teoría semántica es que dé lugar a predicciones que cuadren con nuestros
juicios semánticos prctcóricos acerca de las relaciones de implicación en
el lenguaje sometido a estudio. Si nuestra teoría semántica predijera que
la aserción de Bell, implica, digamos, que él necesita a todo el mundo,
entonces nuestra teoría claramente ha fracasado.
Otras dos nociones que han recibido una atención considerable en
las teorías semánticas usuales son las de ambigüedad y presuposición.
Queremos una teoría que explique por qué -Un estudiante habló en {O-
das los cursos» podría ser usada para significar dos cosas totalmente
diferentes -que hay un estudiante panicular que habló en todos los cur-
sos, o que en cada curso hubo al menos un estudiante que habló. Nuestra
teoría debería explicar por qué este tipo de ambigüedad surge aquí, pero
no surge con, digamos, la oración «Un estudiante de cada curso habló».
De manera similar deseamos explicar la intuición por la que el uso de
«ambos» en «Les necesito a ambos» presupone que hay exactamente
dos oyentes en una forma que «Necesito a dos de ustedes» no lo hace.
¿Exactamente qué es eso relativo a 10:-1 significados de «ambos» y «dos»
que tiene este efecto?
280
Estas son algunas de las preguntas a cuyas respuestas han dedicado
mucho esfuerzo los cultivadores de la semántica. Hay muchos otros fe-
nómcnos semánticos que también podrían ser estudiados pero que han
recibido menos atención. En este capítulo discutiremos varias aproxi-
maciones que han sido adoptadas para estos fenómenos.
3. Lenguajes Diseñados
1 Al usar esta técnica, por supuesto. hay un peligro. porque simplificando las asun-
281
ria supongamos que aconteció de la siguiente manera. Galileo dice al
papa: «Ella gira alrededor del sol». El papa no cree a Galileo. pero se
forma una creencia verdadera, es decir, que Galileo no cree que la Tie-
rra está en el centro del universo. ¿Qué es lo que podemos esperar que
sea explicado por una teoría semántica respecto a esta interacción?
Ciertamente ella no explicará cómo Galileo llegó a creer lo que él cree,
esto es, 10 que le llevó al estado mental que le condujo a hacer dicho
aserto herético. Sin embargo. debería explicar por qué la oración ele-
gida por Galileo es apropiada para expresar la afirmación que él desea
expresar, mientras que la mayoría de las oraciones que podría haber
pronunciado habrían sido inapropiadas. Parte de esta explicación in-
volucrará una justificación de cómo esta oración sirvió para expresar
un aserto verdadero. Pero esta no puede ser la explicación completa.
Muchas oraciones verdaderas habrían fracasado en la tarea de expre-
sar la creencia de Galileo. Por último, la explicación también debería
decir algo sobre la relación entre el aserto de Galileo y la inferencia
del papa acerca de las creencias de Galileo.
2. SINTAGMAS NOMINAI.ES
3. ORACIONES
, Puesto que siempre hablamos acerca del Viejo Zaelandish, pero nunca lo ha-
blamos. todas la, apariciones de expresiones del Zaelandísh en este capítulo debe-
rf.m estar entrecomilludu-. Pero p.u-a hacer las cosas rruis legibles, omitiremos la ...
corrulla-, 'j uvarernos tipos de letra distintos. Así. escribiremos MayorQue en lugar
de <MayorQuc-.
¡, A:.Í, el ,inti.lgm~l nominal complejo Toda Cosa funciona corno el símbolo de cuanti-
283
4. DETERMINANTES
Oración Básica
O-----¿
[ Oración Compleja
Oración Compuesta
284
3c. La utilizaremos para modelizar la oración del castellano «El planeta
Tierra se mueve alrededor del Solo está en el centro del sistema solar».
Análogamente la expresión
285
4. Semántica Extensional Modelo- Teórica
286
Para proporcionar un análisis riguroso de esta dependencia, la se-
mántica modelo-teórica primero desarrolla alguna maquinaria para
representar estos estados de cosas no lingüísticos. Para hacer esto han
sido utilizadas una variedad de técnicas. pero todas ellas concuerdan
en la metodología general. Concretamente, todas se sirven de los re-
cursos proporcionados por la teoría de conjuntos para construir mo-
delos simples del mundo o de porciones del mismo. La teoría de
modelos extensional adopta la aproximación más directa. Ésta mode-
liza propiedades de cosas y relaciones entre ellas de la misma forma
que la teoría de conjuntos modeliza propiedades y relaciones mate-
máticas: los conjuntos modelizan propiedades, los conjuntos de pares
ordenados modelizan relaciones binarias, los conjuntos de tripIetes
modelizan relaciones ternarias, etc. Así, el hecho de que un objeto
tiene una propiedad particular es modelizado mediante la pertenencia
del objeto al conjunto tomado para representar esa propiedad. Por
supuesto que los conjuntos son «cxtensionalcs», esto es. la identidad
de los conjuntos es determinada totalmente por sus miembros. Así. en
la teoría de modelos extensional dos propiedades son representadas
como distintas sólo si hay objetos que tienen una de ellas pero no la
otra.
Para proporcionar dicho marco a nuestra semántica, introducimos
la noción de un modelo H' del mundo. Puesto que nuestro lenguaje está
diseñado para usarlo al hablar del sistema solar, podríamos pensar en
estos modelos como modelos matemáticos del sistema solar. Para con-
seguir la dependencia mencionada arriba, deseamos modelos no sólo de
la forma en que el sistema solar está realmente configurado sino también
de todas las otras posibles configuraciones. Uno de esos modelos será
distinguido como el modelo propuesto. aquél que representa el sistema
solar tal y como es realmente.
Un modelo w consistirá de una par ordenado «D.]», donde D es al-
gún conjunto y fes una función definida sobre los ítems léxicos básicos
del Viejo Zaelandish. Enseguida impondremos varias condiciones a D y
f El conjunto D representa el dominio del discurso y, por tanto, es fre-
cuentemente denominado el dominio o universo del modelo. Podemos
pensar en los objetos de D como objetos que representan la totalidad
de los cuerpos celestes (en alguna configuración posible) del sistema
solar. La función f asignará varios tipos de cosas a las expresiones bá-
sicas del Viejo Zaelandísh. Por ejemplo. asignará un subconjunto del
dominio D al predicado monádico Planeta. El conjunto f (Planeta) se
concebirá como una representación de la «extensión» del predicado en
287
este modelo, esto es, como representación de la colección de los plane-
tas (como opuestos a los satélites. asteroides, etc.) en el sistema solar.
Análogamente, la funciónfasignará un elemento de D a el nombre Tie-
rra y este elemento será adoptado como representante de la Tierra 7 • Por
conveniencia escribimos D1,1,' para referirnos al dominio de un modelo
w. De manera similar, dado un ítem léxico Abe, escribimos Abcw para
expresar el valor que la funciónfasigna a Abe. esto es, para expresar el
valor de f (Abe).
Ahora imponemos algunas condiciones naturales en esos modelos.
Primero. requerimos que P" sea un subconjunto de D" para cada sintag-
ma predicativo monádico básico P. Además establecemos que el valor
de Cosa" sea el conjunto DI<. Para un predicado binario R requerimos
a continuación que R" sea un conjunto de pares <a. b», donde tanto
a como b son miembros de D\\'. Por último. requerimos que para cada
nombre t del fragmento, t'' sea algún objeto en DH'·
Esto toma en cuenta todos los ítcms léxicos simples de nuestro
lenguaje excepto los determinantes. ¿Cómo deberíamos tratar éstos?
La idea básica es que los determinantes expresan una relación entre las
extensiones de los sintagmas predicativos monádicos. Así, la oración
Ningún Planeta Centro asevera que las extensiones de Planeta y Cen-
tro son disjuntas. Puesto que nuestros modelos asignan conjuntos a
los predicados monádicos, nosotros asignaremos una relación binaria
entre conjuntos a los determinantes. Dada nuestra forma de modelizar
relaciones, esto se reduce a usar un conjunto de pares <.4, B>. en los
que A y B son subconjuntos de Dw. Así, a cada determinante Del le
asignaremos una relación (en teoría de conjuntos) Dctw entre subcon-
juntos A y B de nuestro dominio del discurso Dw. La idea es que una
oración de la forma Det PQ sea verdadera en el modelo l-i". sólo en caso
de que el par <A., B> que consta de las extensiones de P y Q respecti-
vamente, esté en Dctw.
Los determinantes del fragmento A son Todo, Alguna. Ningún y La-
Mayoría. Para estos determinantes especificamos sus extensiones (dado
un dominio DH' del discurso) como sigue. Aquí «(A), y ,(8» recorren sub-
conjuntos de DII.
e..ta terminología e~ desafortunada por razones que se harán manifiestas más adelante en
el texto, en relación ól\ problema de la factorización.
288
Todo~ :=: {<A. B> I A e B}
Algúnw > {<A, B> \ A r, B *- 0}
Ningúnw :::; {<A. B> lA (\ B :::; 0}
LaMayoríaw = {<A, B> I card (A n 8) > card (A-B) y
2~O
a los objetos asignados a las variables correspondientes. Formalmen-
te. definimos una asignación g a las variables como una función desde
las variables x, y. Z ... , al domino DW de un modelo w dado. Escribi-
mos Val (O, w. g) = verdadero, si O e~ satisfecha en w por la asig-
nación g a las variables", Ejemplos como (4) muestran que también
debemos tomar la noción de extensión de un predicado como relativa
a una asignación a las variables. Intuitivamente, la extensión de (4)
debería ser el conjunto de objetos que se mueven alrededor de aquello
que x representa. Escribiremos Ext (P, w, g) = E. si E es la extensión
del sintagma predicativo P en w con respecto a la asignación g. La
idea principal de nuestra semántica debería estar ya bastante clara.
Para que conste damos la definición en todos sus detalles. A fin de
simplificar la formulación de algunas de las cláusulas, utilizaremos
den (t, w, R) para la denotación del sintagma nominal t en w relativa
a g, esto es,
t" si t es un nombre
Den (1, w, Ii) = [
g(t) si [ es una variable
29]
2. VALORES DE VERDAD DE LAS ORACIONES
292
verdadero si Val (0 1, W, R) =falso
[ falso en otro caso.
Diremos que una oración (sin variables libres) del Viejo Zaelandish
es verdadera, únicamente en el caso de que sea verdadera en el modelo
estándar con relación a alguna asignación a las variables. Esto viene a
ser equivalente a ser verdadera en el modelo estándar con relación a toda
asignación para las variables. porque la elección de la asignación para las
variables es irrelevante en el caso de una expresión sin variables libres.
Veamos un ejemplo. Consideremos la oración
293
W, g) =verdadero. Asimismo, decimos que la oración O implica lógi-
camente la oración O'rcon respecto a ~V) a condición de que para todo
W E W y toda g, si \id (O, w, g) = verdadero, entonces Val (O", H', g) =
verdadero.
Como ejemplo, vemos que si O es una oración cualquiera del frag-
mento A, entonces --,0 v O es lógicamente verdadera, al margen de
qué colección W elijamos. Asimismo, de acuerdo con nuestras defi-
niciones, vernos que O¡ /\ O~ implica O~ y que Todo P Q 1\ Alguna
Cosa P implica LaMayoría P Q. Mucha gente cree que las nociones de
verdad lógica e implicación lógica son sólo captadas por las definicio-
nes de arriba cuando ~v es la colección de todos los modelos. Discu-
tiremos esto con más detalle en la sección relativa al problema de la
factorización. Mientras tanto, en nuestra explicación, conservaremos
tV como un parámetro. Veamos algunas implicaciones específicas que
involucran determinantes. Primero consideraremos una clase de im-
plicacioncs que se cumplen para todos los determinantes. El tipo de
implicación que tenemos in mente puede ser ilustrado con el siguiente
ejemplo:
294
Q) son lógicamente equivalentes!", Para ver que esto es así primero se-
ñalaremos. en términos de la teoría de conjuntos, una propiedad impor-
tante de las extensiones de nuestros determinantes. Si R es una relación
extensional entre subconjuntos de D, entonces ~e dice que R vive de
su primera coordenada (o es una relación conservadora) supuesto que
para todo A. B ~ D, <A, B> E R si y sólo si <A, A r-B> E R.
El lector puede fácilmente verificar que para cada determinante Det
del fragmento A (esto es, todo. alguna, ningún y la mayoría) la exten-
sión Det" vive de la primera coordinada. Esta simple observación desde
la teoría de conjuntos muestra que las oraciones en cuestión son en la
explicación ordinaria lógicamente equivalentes. Así, la semántica pro-
porciona una predicción correcta. Además, esperamos que en la medida
en que extendamos la semántica a otros determinantes. las extensiones
asignadas a ellos siempre vivan de su primera coordenada.
Ahora consideremos una inferencia que es lógicamente válida para
algunos determinantes pero no para otros. ¿Para qué determinantes del
Viejo Zaelandish, Det P (Q /\ R) implicará lógicamente Det P Q? Consi-
deremos un par de ejmplos en castellano.
Aquí, parece que cualquier situación descrita con verdad por la pri-
mera oración es descrita con verdad por la última oración. Sin embargo
nótese que en este caso la validez es dependiente del determinante parti-
cular que hemos utilizado. La siguiente, por ejemplo. no es válida
lo Dos oraciones son lógicamente equivalentes ~i cada una de ellas implica la otra.
PIlC-;W que hcrno- incluido predicados conjuntivos en el Viejo Zaclandish, d lector de-
bería tomar P ;', Q Lomo abreviatura de v'~[(vP) A (vQ)j. donde ves alguna variable que
no está libre en Po Q.
inferencias válidas correctas y eS fácil aislar la propiedad que explica
su validez. Decimos que una relación entre subconjuntos de D es mono-
tona (creciente) en S/I segunda coordenada a si para todo .4. B ~ D, si
<A. B> E R Y B r::; B··, entonces <.A, B '> E R. La inferencia en cuestión
es una implicación lógica exactamente en esos casos en los que el de-
terminanre es monótono creciente en su segundo argumento. Para cada
uno de los determinantes todo, alguna y la mayoría del fragmento A, su
extensión en cualquier modelo es monótona en su segunda coordenada
y para éstos la inferencia es válida. Por contra, la extensión de ninguna
no es monótona creciente y la inferencia no es válida. Estos resultados
simples son ejemplos del poder explicativo de la aproximación modelo-
teórica, del tipo de respuestas claras y precisas que proporciona sobre
las relaciones de implicación en el lenguaje que se estudia.
11 Hay muchas sutilezus en esta materia en las que no podernos entrar aquí. Sabemos
que huy una uxiomatización completa de las verüades lógicas, si uno toma W como
la colección de todos lo'> modelos: finitos e infinitos. Esto implica que la colección de
las verdades lógicas del lenguaje es «recursivamente enumerable». LlI que significa, en
términos ~enc::rale~, éS que hay un algoritmo que n0S dirá de la~ verdades lógicas y sólo
de las verdades lógicas que son verdades lógicas, pero el algoritmo no nos dará ninguna
respuesta ,i la oración no es una verdad lógica. Sin embargo. hay extensiones muy ~im
pies del fr.igmento A. para las que incluso este débi I resultado es falso.
296
explicación modelo-teórica es un buen modelo matemático de la verdad
lógica. entonces ningún procedimiento algorítmico particular capturará
completamente nunca esta noción. Esto no quiere decir que no podamos
determinar si una oración particular es lógicamente verdadera. Sólo sig-
nifica que no hay un algoritmo fijado que funcione siempre.
Por sí mismo este resultado no dice nada acerca de la ciencia cog-
nitiva. Pero si asumimos que todos los procesos cognitivos son esen-
cialmente algorítmicos, obtenemos una conclusión moderadamente sor-
prendente, esto es, que podernos saber qué significa que las oraciones
sean lógicamente verdaderas o los argumentos lógicamente válidos pero
en general no podemos reconocer si lo son. Podría decirse que la capa-
cidad cognitiva humana se las ha arreglado para crear una roca que no
puede levantar.
Hay. por supuesto, una cuestión empírica relacionada.¿Cómo inten-
ta la gente. de hecho, determinar si una oración es lógicamente verdade-
ra o si una oración implica otra? La explicación modelo-teórica no dice
directamente nada acerca de este problema. Pero esto no quiere decir
que la explicación no pueda ser dirigida con vistas a algún avance en
ciencia cognitiva. Algunos científicos cognitivos, sobre todo Johnson--
Laird, han encontrado que esto sugiere una arquitectura subyacente, a la
que Johnson-Laird llama «modelos mentales»!". Los modelos mentales
son considerados similares a los modelos matemáticos en dos aspectos.
En primer lugar, se considera que, como nuestros modelo" matemáticos,
representan el mundo de forma «estructural» en un modo bastante di-
recto. Esta es la razón por la que son denominados «modelos» mentales
antes que, digamos. «oraciones'» mentales. En segundo lugar, los mode-
los mentales son vistos como modelos que tienen el tipo de estructura
que hace sensato preguntar si una oración cualquiera es verdadera en un
modelo dado.
Mientras la idea de Johnson-Laird fue inspirada por la semántica
modelo-teórica, podemos dar la vuelta a esta relación histórica. Aun-
que hemos pensado en nuestros modelos matemáticos como modelos
del mundo. podríamos rcinterpretar la teoría y pensar en ellos como en
modelos del tipo de arquitectura cognitiva propuesta por Johnson-Laird.
Esto nos da un marco preciso en el que comparar dos aproximaciones a
la noción de implicación.
297
Supongamos que pudiéramos aislar, a través de medios empíricos,
una colección de modelos W,,¡ como las contrapartidas teorético-conjun-
tistas naturales de los modelos mentales. Por ejemplo, uno bien podría
restringir la atención a modelos con dominios finitos. Entonces podría-
mos definir la noción de verdad cognitiva como una oración verdadera
en todos los modelos en Wm . Habiendo hecho esto, estaríamos en po-
sición de comparar sistemáticamente las nociones de verdad lógica e
implicación lógica con las de verdad cognitiva e implicación cognitiva.
El mismo aparato matemático serviría para ambas funciones. Pcrmíta-
senos dar un ejemplo muy simple de cómo esta aproximación podría
proporcionarnos alguna guía en ciencia cognitiva. Hay ejemplos bien
conocidos dc oraciones que son verdaderas en todas las estructuras fi-
nitas pero no son verdaderas en todas las estructuras, por ejemplo, una
oración que afirma «Si IU(Í-\" largo que es un orden lineal, entonces hay
un objeto que es el más largo». Esta oración es verdadera en todo domi-
nio finito pero falsa en muchos dominios infinitos, por ejemplo, donde
más largo que es modelizado por la habitual relación> entre números
naturales. Si limitamos Wm a las estructuras finitas. tales oraciones se
revelarían corno verdades cognitivas a pe~ar de que no son verdades
lógicas. Sin embargo. tales oraciones no parecen de hecho ser verdades
cognitivas. porque fácilmente reconocemos que podrían ser falsas. Esto
muestra que. () bien. la aproximación de los modelos-mentales no es la
manera correcta de pensar acerca de la inferencia, o bien, que debernos
admitir que algunos modelos mentales son representados mejor por mo-
delos teorético-conjuntistas infinitos. Otra posibilidad es que los mode-
los matemáticos que estamos usando no correspondan adecuadamente a
los modelos mentales, puesto que se asume que son de «primer orden»
y «totales», Por contra, los modelos mentales son en general de orden
superior e inherentemente parciales. Esto nos haría pensar en la utiliza-
ción de algo más parecido a los modelos de la semántica de situaciones,
que serán considerados más abajo.
5. Otras aproximaciones
299
Kaplan señaló que dichas oraciones tienen una propiedad interesan-
te. Cuandoquiera que ellas son usadas (en la manera usual) para expresar
un enunciado, ese enunciado es verdadero. Sin embargo, la afirmación
hecha mediante tales enunciados es sólo contingenternente verdadera.
El hecho de que estemos hablando castellano es un accidente histórico,
no una verdad lógica.
300
deícticos, podemos simplemente enumerarlos en un orden dado y utili-
zar una sucesión finita de objetos para modelizar los valores asignados
a esos elementos por un contexto dado. Supongamos, por ejemplo. que
sólo estamos interesados en los deícticos yo, tú. aquí, ahora. Podríamos
hacer que u recorriese sucesiones <h, o, 1, t > que representen respec-
tivamente al hablante, al oyente. la localización y el tiempo de la pro-
ferencia. Podríamos añadir estos deícticos al Viejo Zaelandish y hacer
el parámetro u = «h. o, /, t > explícito al dar la semántica de nuestro
°
lenguaje. Así. por ejemplo, ahora definiríamos el valor de una oración
en relación a tres cosas: un contexto u. un modelo w y una asignación
¡:. Decir que Val (O. u, lt', g) = verdadero significaría que la afirmación
expresada por O en el contexto u sería satisfecha por la asignación g. si
el mundo estuviese organizado del modo en que es modelizado por w.
Puesto que la asignación a las variables puede ser pensada a semejanza
de la asignación contextual de valores a los pronombres, a menudo se
incorpora en el parámetro contextual u, con lo que obtenernos Val (0,
u. w).
Esta misma idea puede ser extendida. Supongamos que deseamos
representar la dependencia del contexto de los determinantes Ambos.
Ningún y El. Intuitivamente, lo que ocurre es que una proferencia no
viene s610 con UIl dominio D'" sino también con un subdominio de ob-
jetos que ha sido especialmente destacado en el discurso. Podríamos
denominar d a este dominio de recursos y añadirlo a la sucesión ti utili-
zada para modelizar el contexto. Así. un modelo del contexto consistiría
ahora en una sucesión u = -ch, o, l. t >, tal que, h. o, 1, t « DW y d ~ DII'.
Este parámetro tendría un papel destacado en la caracterización de las
extensiones de los determinantes como sigue:
301
remite al trabajo de Kaplan. En este marco podemos modelizar el sig-
nificado de una oración O mediante una relación teorético-conjuntista
entre contextos II y modelos w definida como
Durante algunos años el estudio del contexto adoptó esta táctica, aña-
diendo má.... términos a la sucesión que representa los aspectos relevantes
del contexto. Sin embargo. algunos cultivadores de la semántica creen
que esta aproximación es demasiado asisternática y no cuadra bien con la
enorme amplitud de la dependencia contextual descubierta en el lenguaje
natural. Por ejemplo, aunque esta aproximación funciona bien para los
determinantes del fragmento B. no es adecuada para los determinantes
Muchos y Pocos del fragmento C. Hay mucho más en la dependencia del
contexto de estos determinantes que un dominio de recursos d. Conside
remos una oración como FJ enemigo destruyó mi tienda local de ultrama-
rinos a los 3 p.m. Esta oración tiene. al menos. cinco elementos sensibles
al contexto. El más obvio es la expresión deíctica «mi», cuyo contenido
semántico depende de quién esté hablando. Pero cada una de las interpre-
taciones, de las expresiones '<el». «enemigo». «local» y ·<3 p.m.s involucra
también dependencia contextual de un tipo u otro.
Una vez LJUC ~e aprecia la extraordinaria influencia del contexto en el
contenido. la idea de utilizar sucesiones más largas para representar estos
elementos se hace inaplicable. No hay forma de adivinar por adelantado
qué necesitamos repre se nta r. por tanto. no hay manera de asignar por
adelantado una interpretación a los distintos elementos de la sucesión.
El trabajo actual en semántica está luchando todavía con el problema de
modelizar el contexto dc una proferencia.
302
El Problema de la Granularidad. Los modelos extensíonales son
notoriamente representaciones inadecuadas de la manera en que son las
cosas. Esto se debe en gran medida a su escasa granularidad en la repre-
sentación de las propiedades y relaciones. La forma más llamativa, si no
la más acuciantc, del problema tiene que ver CDn las propiedades que no
están instanciadas. Por ejemplo, no existen ni unicornios ni centauros,
por tanto, ambas propiedades son representadas por el conjunto vacío.
Pero ~i una teoría usa el mismo conjunto para modelizar la contribución
semántica de ambos: «unicornio» y «centauro». entonces dicha teoría
predice que ambas palabras son intercambiables sin que. por supuesto,
lo sean. La oración «Claire se disfrazó de unicornio para Hallowccn»
podría ser verdadera, mientras que «Claire se disfrazó de centauro para
Halloween- sería falsa.
La inadecuación de los modelos extcnsionales de propiedades y
relaciones es manifiesta cuando consideramos adjetivos y adverbios.
Considérese, por ejemplo. la frase «El mejor amigo de Max». Lingüís-
ticamente, el nombre «e] mejor amigo» se obtiene al combinar el ar-
tículo «eh), el adjetivo «mejor» y el nombre «Amigo». Intuitivamente
la relación amigo es modificada para obtener el mejor amigo. Por tanto.
quisiéramos que la semántica funcionara de esa forma. Pero no puede,
dados nuestros modelos e xtensionales de propiedades y relaciones. Si
representamos la extensión de la relación amigo mediante un conjunto
de pares de personas, entonces los amigos de Max serían representados
por cierto conjunto de personas. La cuestión es: ¿Cómo deberíamos mo-
delizar el contenido semántico del modificador «el mejor»?
Hay dos formas en que podríamos intentar modelizar esto exten-
sionalmentc. Podríamos representar el significado de «el mejor» me-
diante una función de elección que asigne a cada conjunto no vacío B
un elemento b E B, intuitivamente, su mejor elemento. Pero esto no
funcionará. Supongamos, por ejemplo. que los amigos de Max fueran
también los amigos de Claire y viceversa. De aquí no se sigue que el me-
jor amigo de Max es el mejor amigo de Claire, tal como esta estrategia
habría de predecir. Otra estrategia consistid en modelizar el significado
de «el mejor- por medio de una función de uniforrnizacion, una función
que asigna a cada relación teórica-conjuntista binaria Runa subrelación
Ro ':: R que es una función. La idea es que <a, b> E Ro si y sólo si bes
el mejor miembro relacionado con a por medio de R. Pero esto tampo-
co funcionaría. Por ejemplo, podría ocurrir que dos relaciones distintas
tuvieran la misma extensión. digamos, la relación amigo y la relación
vecino. Pero no se sigue que tu mejor amigo sea tu mejor vecino. como
303
la estrategia habría de predecir, porque nosotros esperamos cosas dis-
titas de vecinos y amigos. El mejor amigo de Max bien podría ser un
pésimo vecino.
El mismo problema surgiría en el Viejo Zaelandish si tuviéramos
el modificador del predicado Grande y pudiéramos formar las frases
predicativas Planeta Grande y Cosa Grande. Incluso si la extensión de
Planeta y Cosa coincidieran en un modelo particular, probablemente no
desearíamos que la extensión de Cosa Grande y Planeta Grande fuera la
misma, puesto que todo planeta es una cosa grandc pero no todo planeta
es un planeta grande. El problema de nuevo es que los objetos teoréti-
cos-conjuntistas utilizados. para representar las propiedades no hacen las
distinciones suficientes.
Otra versión del problema de la granularidad, y uno que jugó un
mayor papel histórico, se hace manifiesta cuando consideramos los de-
nominados verbos de actitud proposicional: «cree» «conoce», «ve»,
«afirma», «prueba» y demás. Estos verbos toman complementos oracio-
nales y dicen algo sobre el estado cognitivo de un agente. Si ampliamos
nuestro fragmento permitiendo tales verbos, no hay manera de extender
la semántica dada más arriba para obtener algo que se acerque a una ex-
plicación adecuada. Considérese la afirmación verdadera del papa «Ga-
lileo no cree que la Tierra esté en el centro del universo». Todo Jo que
nuestra teoría nos proporciona para clasificar el complemento oracional
es una valor de vcrdad.ju/s». Así.Ia teoría predice que si reemplazamos
el complemento oracional por otra oración falsa cualquiera. deberíamos
obtener un enunciado verdadero. Esto equivaldría, sin embargo. a la
afirmación de que Galileo no tenía creencias falsas. Aunque esto último
podría ser verdadero. no se sigue de los hechos acerca del lenguaje y de
la verdad de la afirmación original. 13
304
Una vez que incorporamos este rango de variación posible, las propieda-
des no serán ya representadas por medio de la misma cosa.
El orígen de esta idea está ya presente en la aproximación extensio-
na}. en la que empleamos una serie de modelos de alguna colección ~V.
Esto sugiere que no debemos representar la propiedad de ser unicornio
mediante un conjunto Unicornio"; sino mediante una familia de con-
juntos Unicornio" = { Unicorniow I W E W}. Aquí la propiedad de ser
un unicornio y la propiedad de ser un centauro serán representadas por
objetos diferentes, porque habrá modelos en los que Unicornio" y Cen-
tauro" son conjuntos distintos.
Por razones técnicas esta aproximación debe ser modificada de
alguna forma, En lugar de trabajar con una colección de modelos del
viejo tipo, necesitamos introducir un conjunto de nuevos primitivos L
Los objetos i E 1 usualmente son denominados «mundos posibles». Al
decir que son primitivos damos a entender que asumimos que por sí
mismos los miembros de 1 no cuentan con ninguna estructura teorético-
conjuntista. Uno de los miembros. i@, es visto como representante del
mundo real. Además asumimos que para cada ¡E] hay un dominio Di
de individuos que son «reales en» i.
Utilizando este marco, conseguimos representaciones más refinadas
de las propiedades y relaciones. Por ejemplo, podemos representar una
propiedad P mediante una función fP que asigna a cada i E ] un sub-
conjunto de D J. de forma que se considere a fP (1) como el conjunto de
cosas que tiene la propiedad P en el mundo i. De manera parecida una
relación binaria R será representada por la función fR que va desde 1 a
subconjuntos de D j x D'. Perol ítasenos denominar a estas representac io-
nes m.p. propiedades y m.p. relaciones, respectivamente, sirviéndonos
de «rn.p.» para referirnos a los mundos posibles. 14
Es un poco complejo definir la noción de modelo en este marco, por
lo que debemos omitir los detalles!'. La idea básica es que un modelo M
consiste de un conjunto de mundos posibles 1, cada uno con un dominio
modelizada por la relación subconjunto. como en el caso extcnsional, Más bien. una
m.p. relación fR será una subrelación de otra m.p. relación fS sólo en caso de qUI:: para
toda i E 1, fR (i) ~ fS O). De manera análoga, una m. p. relación binaria fR será una
relación con valor único (o funcional) siempre que para cada mundo i, el conjunto tR
O) sea una función. Denominaremos a dicha m.p. relación una m.p. función.
15 Para los detalles véanse Kripke 1Q63. Montague 1974 o Lcwis 1972.
305
DI, un mundo posible distinguido i@ y una función que asigna objetos
apropiados a los elementos léxicos. Por ejemplo, el modelo asignará a
un predicado monádico Puna m.p. propiedad pM y a un predicado diá-
dico R alguna m.p. relación R M .
Veamos como modeliza esta estructura los significados de las expre-
siones Amigo, El mejor amigo, El mejor amigo de Max, etc. Contamos
con una m.p. relación binaria asociada con la palabra Amigo, esto ex,
una función Amigo" que asigna para cada mundo i E [ algún subcon-
junto Amigc" (i) de DI "'D l. Intuitivamente, <a, h > E Arnigo'" (i) si y
sólo si b es un amigo de a en el mundo i. El significado de la expresión
El mejor nos llevarfa de una relación a una función. por ejemplo. de la
relación amigo a la relación con valor único el mejor amigo. A~í. el va-
lor semántico de El mejor puede ser modelizado por medio de una m.p.
función El mejor" que V3 desde m.p. relaciones a m.p. funciones, en la
que el valor es siempre una subíunción del argumento. Esto es, El me-
jorM será una función que asigna a cada mundo posible i y m.p. relación
binaria fR una función tRo, que es una subfunción fR.
¿ Qué clase de valor semántico asignaremos a sintagmas nominales
de la forma El mejor Amigo de a? Para facilitar la notación. perrnitasc-
nos utilizar A y E como abreviaturas de Amigo" y El mejor". respecti-
vamente. Nuestra definición de den (a, M. i), la denotación de a en el
mundo i del modelo IvI, contendrá algo como
306
(i@). Pero la función E no considera únicamente las extensiones de es-
tas relaciones en i@ y. por tanto. como se pretende puede asignarles
distintas subfunciones.
¿Cómo podría utilizarse esta misma estrategia para resolver otros
aspectos del problema de la granularidad?" Recordemos el problema
planteado por los verbos de actitud proposicional. Dijimos que los va-
lores de verdad no eran 10 suficientemente refinados para servir como
contenidos de los complementos oracionales de «Galileo creia que».
Dado el marco de los mundos posibles. el movimiento más natural es
modelizar los contenidos no por medio de valores de verdad, sino me-
diante funciones de mundos posibles a valores de verdad. Llamaremos
m.p. proposición a dicha función. La idea es que una m.p. proposición p
representa cómo la verdad de esa misma afirmación depende del modo
en que es el mundo. Dicha m.p. proposición es verdadera siempre que
p(i@) :::: verdadero. La afirmación de que la Tierra está en el centro del
universo podría ser representada por una m.p. proposición diferente de
la correspondiente a la afirmación de que Marte sólo tiene un satélite,
au nque ambas sean real mente fal sas, esto es. fal sas en i(iv. Estas propo-
siciones pueden entonces ser objetos de creencia y nos podemos encon-
trar con que Galileo crea una sin creer la otra.
Hoy la aproximación dominante en semántica modelo-teórica es un
híbrido de las teorías que hemos esbozado hasta aquí; utiliza el marco
de los mundos posibles, al que se añade un parámetro explícito para el
contexto. La semántica resultante da una explicación explícita de fenó-
menos semánticos entre los que se incluyen el significado. el contexto,
el contenido, la verdad. la implicación y la presuposición. Aunque ella
pueda no dar una explicación definitiva de estos fenómenos, ciertamente
sabemos mucho más sobre todos ellos y de cómo encajan juntos, de lo
que sabíamos hace 50 o, incluso, 25 años. Este progreso es un tributo a
la visión de los fundadores de la semántica modelo-teórica ya ésos que,
como Montaguc, impulsaron su avance en aguas desconocidas. Todavía
muchos investigadores creen que esta aproximación no resuelve el pro-
blema que la motivó en primer lugar, el problema de la granularidad. El
problema es que muchas oraciones que son verdaderas en los mismos
mundos posibles no tienen el mismo contenido. Aquí no contamos con
Ih Este enfoque ha sido aplicado al estudio de las modalidades, los condicionales, las
actitudes proposicionales y otros fenómenos. Véanse, por ejemplo. Kripke 1963, Monta-
gue [974. Lewrs 1972. Hinttikka 1469 Y Stal naker 19X4.
307
espacio para entrar en este problema con algún detalle sino que remiti-
mos al lector a la literatura sobre el tema, en la que es conocido como el
problema de la equivalencia lógica!'.
Semántica de Situaciones
308
Para resolver el problema de la granularidad la semántica de situa-
ciones adopta una aproximación diferente a la de la semántica de los
mundos posibles. En lugar de introducir un conjunto de mundos posi-
bles primitivos, abandona el intento de servirse de algo para modelizar
las propiedades y las relaciones y las trata como primitivos. Para ver las
razones de esta propuesta. volvemos al tercero de nuestros tres proble-
mas con la aproximación extensional,
309
Todo satélite de MaJ1c es un satélite de Marte.
Todo satélite de Marte gira alrededor de Marte,
Todo satélite de Mane es menor que Mercurio.
310
adopta para proporcionar una manera más refinada de modelizar las
situaciones.
Nótese que esta propuesta, aunque motivada por el problema de la
granularidad. también resuelve el problema de la factorización. Si to-
mamos las propiedades y relaciones como básicas, podemos represen-
tar dos tipos de hechos que deben distinguirse. Podemos representar el
hecho lingüístico de que la palabra Planeta expresa la propiedad de ser
un planeta, no la propiedad de ser un asteroide: y también los hechos
no lingüísticos acerca de qué objetos son planetas y cuáles no. Esto nos
permite distinguir los dos tipos de variaciones.
Al tomar las propiedades y relaciones como primitivos se nos sugie-
re una forma obvia de modelizar las situaciones. Para simplificar asu-
mamos que R es una relación binaria y que (J y b son objetos. Podríamos
usar la cuatro-tupla «R, a. b; 1» para representar el hecho de que a
está en la relación R con b y la tupla <R. 0, b; O» para representar el
hecho dual de que no está en la relación R con h.
I~ Además de los infones básicos que son utilizados para formar nuestros modelos
de las ... ituaciones. la semántica de situaciones usa un álgebra de la información. Por
ejemplo, hay una operación de reunión de infones con para la que :.c cumple s ::: o l A.
01 ~Y"" '> ::: (JI y s ::: 02.
311
Consideremos cómo podríamos describir el significado de las expre-
siones del Viejo Zaelandish, Yo, Mi Amigo, El Amigo de Mi Amigo,...
Analizaremos la semántica de una de estas expresiones, digamos SN. en
términos de la relación triádica ([SN]](u. s, b). Intuitivamente [[SN]](u, s,
b) se satisface si y sólo si en la proferencia u, el hablante se refiere a b al
usar SN, y en la situación s, el hablante es un arrugo de un amigo de...b.
Asumamos que nuestra reserva de relaciones contiene las siguientes: ha-
blar (una propiedad de individuos), referirse a (una relación triádica que
relaciona un hablante, una expresión y un objeto referido), expresar (una
relación triádica que relaciona un hablante. una expresión y una relación
expresada por la expresión) y describir (una relación binaria que se da en-
tre un hablante y una situación descrita.) Por una situación de proferencia
entendemos una situación en la que hay un único hablante, esto es, un úni-
co individuo a que satisface u F «chablar; a; 1». También imponemos
la siguiente restricción sobre las proferencias: si u F= «referirse a; a. a. b
:J». entonces a es el hablante de u y, de manera similar u t::: «<expresar;
a; a. b ; 1», entonces a es el hablante de u.
Puesto que uno de nuestros objetivos es dirigirnos directamente al
problema de la factorización deseamos tomar en cuenta el hecho de que
el nombre Amigo tiene distintos sentidos. Nuestro diccionario enumera
seis. Consideraremos dos de éstos, el más común y el menos común..Así,
asociamos a la palabra Amigo dos relaciones distintas: amigo y Amigo. La
primera es la relación esperada entre individuos, de forma que s F «ami-
KO, a; b J», si, en s, a está ligado por un afecto personal a b. Por contra,
Amigo es simplemente una propiedad y s F «Amigo. b: 1», si, en s. bes
un palo atravesado que ayuda a los mineros a subir o bajar por los pozos!".
Asociamos a la palabra Amigo un significado [[Amigo]] (u, R) como si-
gue: [[Amigo]] (u, R) se satisface si y sólo si u F «expresar, a; Amigo,
R; 1», donde R es una de las dos relaciones mencionadas previamente y
a es el hablante en u. Sería posible utilizar la expresión «mi amigo» para
significar «mi palo de ayuda>" pero esto exigiría un contexto muy inusual.
Puesto que deseamos insistir en un aspecto diferente. supongamos que
esto no es posible en el Viejo Zaelandish. Esto es. estableceremos las co-
sas de forma que es posible decir cosas como Un Amigo para describir un
palo, pero la única forma de utilizar Amigo de SN es cuando Amigo es
usado en su sentido relacional primario. Aquí están nuestras reglas para
las expresiones en cuestión:
312
1. u = «referirse a, a; Amigo de SN. b: 1»,
2. u = «describir. a; s: l ».
3. [[SN]] (u. s. b J.
4. [[Amigo]] (u, R),
S. s = «R. b , b; 1»
313
«cMeior. Po. P; 1» si e soporta el hecho de que Po es la propiedad de
estar entre los mejores de los objetos h que satisfacen s = «P, b : 1».
Para modelizar el funcionamiento de mejor correctamente, imponemos
la condición de que si s = <<.Mejor, Po, P: 1» y s ;:: «Po. b; 1»,
entoncesv = «P, b : 1»~O.
~rl Nótese, "in embargo que no irnpondríamov dicha condición para Id relación expre-
sada por una palabra como «falsificar». Lo que queremos realmente e!> precisamente lo
contrario: si s ;:: «fahilicí:lf. Po. P: 1» y s ;::: «Po. b; 1». entonces s ;:: «P. b: o».
~I La noción de convivten..:ia usada aquí incluye 13 restricción de que para nmgún
infon «R.... : 1» él y 'u dual «R.... ; O» estén ambos en w, Pero también habrá
restricciones adicionales. Por ejemplo. si usamos NO pan! la relación entre propiedades
que tienen extensiones disjunta... , exigiríamos que si «NO. P, Q: 1» E w y «P, e: 1»
E w. entonces «Q. e :0» E w, Para dar cuenta Je lo~ hechos dixcutidt», en el problema
de la facronzación. tambrén imponemos restricciones como las siguientes: si «satélite
de. a, b : 1» E w, entonces «gira alrededor. a. b : 1» E w. Por colección consistente
maximal de infoncs entendemos una colección que no está propiamente contenida en
ninguna otra colección consistente,
JI4
Notas del traductor
Referencias Bibliográficas
315
LEWIS, D. 1972. General semantics. En D. Davidson and G, Harman; ed. Se-
mantics of Natural Language. Dordrecht: Reidel, pp. 169-218. Reimpreso
en B. Partee, ed. 1976. Montague Grammar. New York: Academic Press.
pp. 1-50.
MONTAGUE. R. 1974. Formal Philosophy: Selected Papers of Richard Monta-
gue. R. Thornason, ed. New Haven, CT: Yale University Press.
STALNAKER. R. 1984. lnquiry. Cambridge, MA: MTT Press.
Lecturas Avanzadas
BARWISE, J. Y J. PERRY. 1983. Situations and Attitudes. Cambridge, MA: MIl
Press.
BARW15E. J. y R. COOPERo 1981. Gcncralizcd quantitiers and naturallanguage.
Linguistics and Philosophy 4: 159-220.
COOPER, R. 1983. Quantification and Syntactic Theory. Dordrecht. Reidel.
DOWTY, D., Wall, R. y S. Peters, 1981. Introduction to Montague Semantic.
Dordrecht: Reidel.
ETCHEMENDY, J. 1990. Tlle Concept ofLogical Consequence. Cambridge, MA:
Harvard University Press,
FENSTAD, J. E. HALVORSEN, P. K., LANGHOLM. T. y 1. VAN BENTHEM. 1987. Situa-
tions, Language and Logic. Dordrecht. Reidel.
GÁRDENFüRS, P. 1987. Generalized Quantifiers. Dordrecht: Reidel.
KAMP. H. 1979. Instant, events and temporal discourse. En R. Bauerle et al..
eds. Semantics from Difieren! Points o/ View. New York: Springer Verlag.
MARTINICH, A. P., ed. 1985. The Philosophy of Language. Oxford University
Press.
:iló
RUEDAS COGNITIVAS: EL PROBLEl\tA DEL
MARCO DE LA INTELIGENCIA ARTIFICIAL
Daniel Dennett
317
la siguiente implicación de que empujar el carrito hacia afuera causaría
que sus ruedas girasen a más revoluciones que ruedas había en el carrito
-cuando la bomba explotó.
Vuelta al tablero de diseño. «Tenernos que enseñarle a diferenciar
entre las implicaciones relevantes y las irrelevantes», pensaron los dise-
ñadores, <'y enseñarle a ignorar las irrelevantes». Así pues, desarrollaron
un método para identificar las implicaciones como relevantes o no, con
respecto al proyecto que tenían entre manos, e instalaron el método en
su siguiente modelo, el robor-relevante-deductor R2D 1, por abreviar.
Cuando sometieron a R2D l a la prueba que de forma tan clara había
llevado a la extinción a sus antecesores, se sorprendieron al verlo. cual
Hamlet, debilitada la fuerza de su resolución por la vacilación de su
pensamiento. paralizado fuera de la habitación que contenía la bomba
haciendo tic-taco «[Haz ulgo!». le espetaron. «Lo estoy haciendo», res-
pondió. «Estoy muy ocupado ignorando algunos miles de implicaciones
que ya he decidido que son irrelevantes. Tan pronto como encuentro
una implicación irrelevante, la pongo en la lista de las que debo ignorar,
y ... » la bomba explotó.
Todos estos robots sufren el problema del marco'. Si llega a existir
alguna vez un robot con la fabulosa perspicacia y la capacidad humana
para el tiempo real de R2D2, los expertos en robótica resolverán en
problema del marco. A primera vista parece tratarse de un inoportuno
contratiempo técnico en robótica, o simplemente de un curioso proble-
ma para el entretenimiento de quienes trabajan en Inteligencia Artificial
(lA). Yo pienso, por el contrario, que se trata de un problema cpisterno-
lógico nuevo y profundo -en principio accesible, pero que ha pasado
desapercibido para generaciones de tilóxofos-> que ha salido a la luz
JI8
con los nuevos métodos de la lA. y que está lejos de ser resuelto. Mu-
chos expertos en lA han llegado a tener. análogamente, una alta consi-
deración de la seriedad del problema del marco. Como un investigador
ha dicho con sarcasmo: «Hemos abandonado el objetivo de diseñar un
robot inteligente. y nos hemos aplicado a la tarea de diseñar un arma que
destruirá todo robot inteligente que cualquier otro diseñe».
Voy a intentar presentar aquí una introducción filosófica elemental.
no técnica, al problema del marco, y a mostrar por qué tiene tanto in-
terés. No tengo solución alguna que ofrecer, ni tan siquiera sugerencia
original alguna en el sentido de por donde podría ir la solución. Bastante
difícil es. según me he liado cuenta. la mera larca de explicar qué es el
problema del marco - y qué no es. De hecho. en la comunidad de lA no
hay precisamente un consenso perfecto al respecto. McCarthy y Hayes,
que acuñaron el término, lo usan para referirse a un problema concreto
acerca de la representación, considerado de forma muy restringida, que
aparece sólo en el contexto de ciertas estrategias para tratar un problema
más amplio relacionado con los sistemas de planificación en tiempo real.
Otros identifican el problema del marco con este problema más amplio
-«el pudín completo», como Hayes lo ha llamado (en correspondencia
personal) - y puede que no se trate de un mero descuido terminológico.
Si las «soluciones- al problema considerado de forma restrictiva tienen
C'I efecto de introducir una dificultad (más profunda) en algún aspecto
del problema amplio, haríamos mejor en reservar el nombre para este
problema difícil de atrapar. Pidiendo disculpas a Mcf.arthy y Hayes por
pasarme al bando de quienes podrían apropiarse de su término. intentaré
hacer una introducción al pudín completo, denominando a este ultima
el problema del marco. Trataré de describir la versión más restringida
del problema. «el problema del marco en sentido estricto», y de mostrar
algo de su relación con el problema más amplio.
Como el problema del marco. sea lo que sea este problema. cier-
tamente no ha sido resuelto (y puede que sea irresoluble en su forma
actual), los enemigos ideológicos de la IA, como Hubert Dreyfus y John
Searle, están tentados a confeccionar esquelas mortuorias para el cam-
po, citando el problema del marco como causa de defunción. En 'vVhat
Computers Can 't Do (Dreytus. 1(72). Dreyfus trató de mostrar que la
lA era un método equivocado de raíl para estudiar lo mental, y de hecho
muchos de sus reproches. un tanto impresionistas, a los modelos de lA,
y muchas de sus proclamas acerca de sus limitaciones intrínsecas. pue-
den contemplarse como flotando de forma absolutamente sistemática en
319
torno al problema del marco. Dreyfus no llega a mencionar el problema
del marco de forma explícita.? no obstante ¿se trata quizá de la pistola de
fogueo que andaba buscando, aunque desconocía completamente cómo
describir? Efectivamente, yo pienso que la lA puede ser contemplada
como teniendo una pistola de humo, pero al menos en su presentación
«pudín completo», se trata de un problema general, no solamente un
problema para la lA a quien, como al buen chico en muchas historias
de misterio. debería reconocérserle un descubrimiento, no acusársele de
un delito.
No tenemos que esperar hasta un futuro lleno de robots para sentir-
nos perturbados por el problema del marco. Se presenta de forma clara
a partir de algunos supuestos ampliamente compartidos, y de aparien-
cia inofensiva, acerca de la naturaleza de la inteligencia, la verdad del
sector menos instruido del fisicalisrno, y la convicción de que tiene que
resultar posible explicar como pensamos. (El dualista elude el problema
del marco - pero sólo porque el dualismo despliega el velo del misterio
y la ofuscación sobre todas las cuestiones-acerca-de-cómo que resultan
correosas; como veremos, el problema aparece cuando nos tomamos
en serio el trabajo de responder ciertas. cuestiones-acerca-de-cómo. Los
dualistas se evaden inexcusablemente del problema del marco.
Un aspecto completamente central -aunque no definitorio- de un
ser inteligente, es que puede «mirar antes de saltar». Mejor, puede pen-
sar antes de saltar. La inteligencia consiste, al menos en parte. en hacer
un uso adecuado de lo que se conoce -pero, j.para qué? Para mejorar
la exactitud de las expectativas acerca de lo que va a suceder a conti-
nuación, para planificar, para considerar cursos de acción, para formular
2 Drcyfus menciona a McCarthy ( 1960, pp. 213-214), pero el lema bajo discusión re-
lacionado con esa cita es que McCarthy pasa por alto la diferencia entre una descripción
de estado físico y una descripción de situación, un tema que podría resumirse de forma
sucinta asf: una casa no es un hogar.
De modo análogo. menciona los supuestos ceteris paribus (en la Introducción a la
Edición Revi:.. ada, pp. 56 ss.), pero sólo para declarar su conformidad con el pensamien-
to de Wittgenstein de que «cuando la conducta humana se analiza en términos de reglas,
esas reglas deben contener siempre una condición ceterts paribus ... »}, Pero esto, con
ser correcto. pasa por alto el problema más profundo: la necesidad de algo como los
supuestos ceteris paribus afecta a Robinson Crusoe de modo tan inevitable como lo hace
con cualquier protagonista que se encuentra en una situación que incluye cultura huma-
na. El problema no se circunscribe, según parece, a las Geisteswissenchaft (o Ciencias
de la Cultura en su acepción habitual); el robot «inteligente» en un (¿de otro modo?)
planeta no habitado pero hostil. se enfrenta al problema del marco tan pronto comienza
a planificar sus días.
320
hipótesis adicionales con el propósito de incrementar el conocimiento
que se va a usar en el futuro, de tal forma que uno pueda protegerse, de-
jando que sean sus hipótesis las que mueran en su lugar (como Sir Karl
Popper lo dijo una vez). El estúpido -a diferencia del ignorantc- es
aquel que enciende la cerilla para mirar dentro del tanque de gasolina, 3
el que sierra la rama en la que está sentado, que encierra las llaves en su
coche y entonces emplea la siguiente hora pensando en cómo sacar a su
familia de dentro del vehículo.
Pero cuando pensamos antes de saltar. ¿cómo lo hacemos? La res-
puesta parece obvia: un ser inteligente aprende de la experiencia. y usa
lo que ha aprendido para guiar sus expectativas en el futuro. De hecho,
Hume explicó esto mismo en términos de hábito. Pero, (:cómo funcio-
nan los hábitos? Hume insinuó una respuesta - el asoci acionisrno - en
el sentido de que determinados caminos de transición entre ideas llegan
a tener mayor probabilidad-de-ser-seguidos a medida que van siendo
repetidos muchas veces. Sin embargo, como seguramente no era tarea
de Hume explicar con más detalle los mecanismos de esos vínculos,
problemas acerca de cómo tales caminos pudieran ser utilizados con
provecho - y no convertirlos precisamente en un laberinto impenetra-
ble de alternativas no practicables-e éstos no fueron descubiertos.
Hume, al igual que virtualmente todos los demás filósofos y psicólo-
gos «rnentalistas». fué incapaz de detectar el problema del marco debido
a que se movía en lo que yo denomino un nivel puramente semántico,
o un nivel [enomcnotogico. A este nivel, todos los elementos a la vis-
ta son individuados por sus significados. Sus significados están. si se
quiere, «dados» -pero esto precisamente quiere decir que el teórico se
ayuda a sí mismo para todos los significados que busca. De este modo.
la relación semántica entre un elemento y el siguiente es normalmente
clara de ver, y se asume justamente que Jos elementos se comportan
como deberían comportarse elementos con tales significados. Podemos
ilustrar este punto elaborando un enfoque humeano de un fragmento de
aprendizaje.
Supongamos el caso de dos niños, tal que ambos tienden inicial-
mente a coger galletas del bote sin pedir permiso. A uno de ellos se le
permite hacerlo sin ninguna reconvención, pero al otro se le propina una
azotaina cada vez que lo intenta. ¿Cuál es el resultado? El segundo niño
321
aprende a no ir tras las galletas. ¿Por qué? Porque ha tenido la experien-
cia de ir a coger galletas seguida inmediatamente de una zurra. ¿A qué
viene todo esto? Bien. la idea de coger galletas es conectada. por hábito,
a la idea de una azotaina. la cual a su vez es conectada a la idea de do-
lar. .. de modo que, por supuesto, el niño se contiene. ¿Por qué? Bien.
ese es precisamente el efecto de tal idea en este tipo de circunstancia.
Pero. ¿por qué? Vale, ¿,qué otra cosa podría hacer la idea de dolor en tal
situación? Bueno, podría causar que el niño hiciera piruetas sobre su pié
izquierdo, recitase poesías. parpadease. o recordase su quinto cumplea-
ños. Pero habida cuenta de lo que significa la idea de dolor, cualquiera
de esos efectos parecería absurdo. Cierto; ahora bien, ¿cómo pueden
diseñarse las ideas de modo que sus efectos sean los que deben ser. dado
lo que significan'? Diseñar algunas cosas internas - una idea, llamemos-
le así - de tal modo que se comporten vis-a-vis con sus hermanas de
°
cofradía corno si significasen galleta dolor es el único modo de dotar
tales cosas con ese significado; no podrían significar algo si no tuviese
tales disposiciones conductales internas.
Este es el problema mecánico que los filósofos han dejado para al-
gún futuro investigador apenas imaginado. Semejante división del tra-
bajo pudo haber estado justificada. pero 10 que está ocurriendo es que
la mayor parte de los problemas difíciles y profundos del aprendizaje y
la inteligencia caen rodando escaleras abajo por esta decisión. Sucede
corno si los filósofos se autoproclamasen maestros expertos en los mé-
todos de un teatro de magia. y entonces, cuando les pedirnos que nos
expliquen cómo realiza el mago el truco de serrar-a-la-dama-por-la-mi-
tad, ellos dijeran que en realidad resulta completamente obvio: el mago
no la corta realmente por la mitad; simplemente hace que parezca así.
«Pero, ¿cómo hace cso'l, preguntamos, «No es competencia de nuestro
Departamento». dice el filósofo -y algunos de ellos añaden. con voz
contundente: «La explicación tiene que terminar en alguna parte»."
Cuando se opera a un nivel puramente fenomenológico o sernánti-
co, ¿de dónde se obtienen los datos", ¿cómo se hace lu teorización? El
término «fenomenología» ha venido asociado tradicionalmente con el
4 Debe notarse que. en e~te poco halagüeño retrato. los ti l()'Iofl)\ podnan, a pes~lr de
todo. estar haciendo algiín trabajo valioso; piénsese en las c.rcertas de gansos ..alvajcs
que podrían evitarse a la vista de que alguno!'>. investigadores hall conclutdo prectpitada-
mente que el mago realmente serro a la dama por la mitad y dexpues la volvió a unir
milagrosamente, Después de todo. hay gente que ha sacado semejantes conclusiones
absurdas; muchos nlósotos, por ejemplo. lo hun hecho,
322
método introspectivo -unll inspección de lo que se presenta, o viene
dado. a la consciencia. La fenomenología de una persona se consideraba
equivalente. por definición, precisamente a los contenidos de su cons-
ciencia. A pesar de que ésta ha sido la ideología desde siempre, nunca ha
sido la práctica. Locke, por ejemplo. pudo haber creído que su «método
histórico. e\ idente» era un método de auto-observación sin sesgos. pero
se trataba en gran medida de un razonamiento apriorístico disfrazado
acerca de lo que las ideas y las impresiones tienen que ser para hacer lo
que «obviamente» hacen", El mito de que cada uno de nosotros puede
observar sus actividades mentales ha mantenido viva la ilusión de que
c\ posible realizar grandes progresos en la teoría del pensamiento por el
simple expediente de reflexionar cuidadosamente sobre nuestro propio
caso. De un tiempo a esta parte hemos llegado a conocer las cosas me-
jor: tenemos acceso consciente solamente a la parte más superficial, por
decirlo de algún modo, del sistema de procesamiento de información
multi-nivel que tiene lugar en nosotros. A pestir de todo. el mito conti-
núa exigiendo ~llS víctimas.
De e~te modo. la analogía del teatro de magia resulta particular-
mente adecuada. No hay muchas posibilidades de progresar en la tarea
de averiguar cómo se hacen los trucos simplemente a base de colocar-
se entre la audiencia y mirar atentamente. Ocurren demasiadas cosas
fuera del alcance de la vista. Es mejor enfrentarse al hecho de que hay
que rondar entre bastidores. o bien en los laterales. esperando sorpren-
der la actuación de forma reveladora; o, desde la propia butaca, pensar
apriorísticamcnte sobre cómo tienen que hacerse Jos trucos. a la vista
de cualquier indicio manifiesto acerca de las restricciones. Así pues, el
problema del marco es más bien como el perturbador y, ti pesar de todo,
familiar, «descubrimiento» de que. hasta donde el pensamiento de buta-
ca puede determinar. un cierto truco que acabamos de observar resulta
absolutamente imposible.
He aquí un ejemplo de este truco. Preparar un tentempié de me-
dianoche. ¿Cómo puedo yo mismo conseguirlo? ¿Qué podría ser má.. .
sencillo? Sospecho que hay algún resto de pllVO en lonchas y mayonesa
en la nevera. y pan en la panera - y un botellín de cerveza también en
la nevera. Me doy cuenta de que puedo poner todas estas cosas juntas.
de modo que me hago un plan elemental, cosa de niños: me acerco a la
nevera y miro. cojo las viandas necesarias y me hago un bocadillo. y,
323
de instalar todo lo que un agente necesita «conocer» para resolver un
problema. A fin de cuentas, si Dios creó a Adán como un adulto que pre-
sumiblemente era capaz de resolver, ah initio, el problema del tentempié
de medianoche, los diseñadores de agentes artificiales en lA pueden. en
principio, fabricar un agente «adulto» equipado con conocimiento mun-
dano como si hubiese aprendido paso a paso todas las cosa« que necesita
conocer. Pero éste puede resultar. obviamente, un atajo peligroso.
Por consiguiente, el problema de la instalación es el problema de
poner, de una u otra forma, toda la información que un agente nece-
sita para hacer planes en un mundo cambiante. Es un problema difícil
porque la información ha de ser instalada en un formato utilizable. El
problema puede descomponerse inicialmente en el problema semánti-
co y el problema sintáctico. El problema semántico - identificado por
Allen Newcll como el problema al «nivel de conocimiento>', (Newell,
1982)- e.. . el problema de determinar precisamente qué información
(sobre qué temas, con qué finalidad) tiene que ser instalada. El problema
sinuictico es qué sistema. formato. estructura. o mecanismo utilizar para
colocar la información"
() McCanhy y Hayc-, (1 y69) establecen una d 1:'[1 r1L'IÓn diferente: entre lo «episte-
mológico» y k) -heurfstico». La diferencia e.., LJlJC ellos incluyen la cuestión « ¿cn qué
(1[JO de notación interna debe ser expresado el conocimiento del sisterna?» en el ám-
bno del problema epistemológico (ver pag. -lhó l. separando este problema smtáctico (y
por tanto. de algún modo mecánico) de [O~ problemas procedimentales del diseno del
-rnerunismo que resuelve el problema y decide 10 que hay que hacer sobre la base de la
información ».
Una de Lt... razones primordiales de la controversia acerca de qué e-; exactamente el
problema del marco tiene su origen en este intento de división del rema. Pues IJ res-
puesta a los aspecto-, \1111:lclil'()~ del prohlerna epistemológico introduce una diferencia
muy grande con respecto .1 la nutur.ilcza JeI problema heurístico. A fin de cuenta......;
la sintaxis de la expresión del cunocumento del sistema es suticrentemente perversa,
entonces, a pesar de la ,,,.ni'iólI de I~j representación de ese conocimiento. el problema
heunstico ~e tornará imposible de revolver. Y algunos han hecho la sugerencia de que el
problema heurístico podrín virtualmente desaparecer si el conocimiento del mundo fuera
introducido oportunamente en primer lugar.
326
posibilidad: se trata de una versión absurdamente extrema de la teo-
ría de la representación mental conocida como la teoría del «lenguaje
del pensamiento», con cada «proposición» distinguible inscrita sepa-
radamente en el sistema. Nadie suscribe semejante visión del asunto;
incluso una enciclopedia consigue economizar de forma importante su
expresión explícita a través de su organización, y una enciclopedia am-
bulante - no una mala caricatura del imaginado agente lA - tiene que
utilizar diferentes principios sistémicos para conseguir representaciones
y accesos eficientes. Conocemos trillones de cosas; conocemos que la
mayonesa no disuelve los cuchillos al contacto, que una rebanada de pan
es más pequeña que el monte Everest, que abrir la nevera no produce un
holocausto nuclear en la cocina.
Tiene q uc haber en uso - y en todo agente inteligente -- algún sis-
tema muy eficiente. parcialmente productivo o generativo, de represen-
tar -almacenamiento activo- toda la información que necesita. Así
pues, hemos de almacenar de algún modo muchos «hechos» a la vez-
suponiendo que los hechos corresponden más o menos uno-a-uno con
sentencias declarativas no-sinónimas. Además. siendo realistas, no cabe
abrigar esperanza alguna en lo que podría denominarse una solución á
la Espinosa - un pequeño conjunto de axiomas y definiciones a partir
del que deducir el resto de nuestro conocimiento cada vez que lo ne-
cesitamos- puesto que resulta evidente que no existen relaciones de
implicación entre la mayor parte de esos hechos. (Cuando confiamos.
como debemos, en que la experiencia nos diga cómo es el mundo, la
experiencia nos dice cosas que no se siguen en absoluto a partir de lo
ya conocido.)
La necesidad de un sistema de almacenamiento de información que
sea eficiente, se debe en parte a limitaciones de espacio, puesto que nues-
tros cerebros no son tan grandes, aunque mucho más importantes son las
limitaciones de tiempo. La razón es que la información almacenada que
no se encuentra lista para ser usada en los cortos lapsos de tiempo real
de los que los agentes tIue actúan en el mundo disponen habitualmente.
no tiene en absoluto ninguna utilidad. Una criatura capaz de resolver
cualquier problema si dispone de tiempo suficiente -por ejemplo. un
millón de años- en realidad no será en modo alguno inteligente. Vivi-
mos en un mundo apremiado por el tiempo, y tenemos que ser capaces
de pensar antes de saltar. (No es necesario aceptar la tesis de que se
[rata de una condición (l priori para la inteligencia. Basta simplemente
con admitir que, de facto, pensamos rápidamente. As] pues, existe un
problema empírico acerca de cómo somos capaces de hacerlo.)
327
La tarea a la que se enfrenta la investigación en lA es la de diseñar'
un sistema capaz de planificar a base de utilizar elementos bien selec-
cionado" de su almacén de conocimiento acerca del mundo en el que
opera. Una mirada «introspectiva» sobre cómo nosotros planificamos
nos ofrece la siguiente descripción del proceso: nos imaginamos una
determinada situación (con frecuencia de forma muy esquemática); des-
pués nos imaginamos a nosotros mismos realizando ciertas acciones en
esa situación; entonces «vemos» cuál podría ser el resultado probable
de la acción imaginada en dicha situación, y lo evaluamos. Lo que su-
cede entre bastidores, por decirlo así, que nos permite este «ver» (y lo
representa de modo tan fiable) resulta completamente inaccesible a la
introspección.
En ocasiones relativamente infrecuentes experimentamos semejan-
tes series de pensamientos desplegándose en la consciencia a la velo-
cidad deliberada de la reflexión. Se trata de momentos en los que nos
enfrentamos a algún problema novedoso y relativamente difícil, como.
por ejemplo: ¿De qué modo podría trasladar el piano al piso de arriba?
o ¿Hay alguna forma de empalmar la electricidad a la araña sin atravesar
el techo de escayola? Resultaría completamente extraño que tuviéramos
que pensar de este modo (despacio y conscientemente) para solucionar
el problema del bocadillo de medianoche. Sin embargo. la sugerencia
es que incluso los problemas más triviales de planificación y control
corporal que escapan a nuestro conocimiento (aunque en algún sentido,
(os «afrontarnos»), se resuelven por procesos similares. ¿Por qué? Yo no
me observo a mí mismo planificando en tales situaciones. Este hecho es
suficiente para convencer al fenomenólogo introspectivista tradicional
de que no tiene lugar ninguna planificación de este tipo 111. El hetero-
fenomenólogo. por otra parte. piensa que, de una u otra forma tiene
que ser utilizada (considerada, tenida en cuenta, aplicada. reconocida),
la información sobre los objetos en la situación. y acerca de los efectos
pretendidos y los efectos colaterales de las posibles acciones. ¿Por qué?
Porque de no ser así la conducta «inteligente) sería pura casualidad,
1I «Cuando llega el momento de poner los huevos, la n.. . ispa Sphe.x construye una
madriguera al efecto y busca un grillo al 4uC pica de forma que no lo mata, sino sólo
lo deja paralizado. Arrastra al grillo hasta la madriguera. pone los huevo'> a su lado, y
entonces se va votando. para 110 volver jamás. Llegado él momento oportuno. los huevos
rompen su cascarón, y IJ.~ crtas arrancan trozos de comida del grillo paralizado. que no
se ha podrido. ya que había sido puesto en el equivalente para las avispas de la ultracon-
gelacion, Desde ~I punto de vista humano, una rutina tan cuidadosamente organizada y
aparentemente intencional, transmite una convincente impronta de lógica y previsión
--hasta que el asunto se examina con más detalle, Por ejemplo, la rutina de la avista es
llevar al grillo paralizado hasta la madriguera, dejarlo en el umbral. entrur dentro para
ver si toJo está bien, volver a ~;)\ir, y entonces arrastrar hacia adentro al grillo. Si. mien-
tras la avispa ~é encuentra dentro haciendo la inspección previa. el grillo ~s movido hacia
afuera algunas pulgadas, la avispa, al salir de la madriguera. volverá a llevar al grillo al
umbral. pero no adentro. y volverá a repetir el proceso preparatorio de entrar dentro de la
madriguera para comprobar que todo está en orden. Si nuevamente vuelve a ser movido
el grillo unas pocas pulgadas mientras la avispa se encuentra dentro. otra vez volverá la
avispa a arrastrar el grillo hasta la entrada y repetirá . . u inspección. En ningún momento
se plantea la avispa meter al grillo directamente. En cierta ocasión se repitió el proceso
cuarenta veces. -icmpre con el mismo resultado» (Dcan Wooldridge, 1963,.
Este e~ un ejemplo muy ilustrativo de un fenómeno habitual entre los insectos. He
tratado este ejemplo en Brainstorms, y en Douglas Hofstadtcr (1982).
I~ Ver Dennett (1982c. pp. 58-59) acerca del "Tt':Lltro del robot»,
329
e inconsciente. y no necesita (mejor no) consistir en cientos o miles de
procedimientos de comprobación en serie, pero ha de darse de alguna
forma. y sus beneficios tienen quc aparecer a tiempo para ayudarme
cuando me pongo a actuar.
Por supuesto. yo puedo poseer una rutina de preparar bocadillos de
medianoche, desarrollada a lo largo de los años, en cuyo caso puedo
confiar parcialmente en ella para conducir mis acciones. Un compli-
cado «hábito» de este tipo debe ser controlado por un mecanismo de
cierta complejidad, ya que incluso una secuencia rígida de pasos re-
quiere comprobaciones periódicas pasa asegurar que los sub-objetivos
son satisfechos, Incluso si no practico con frecuencia la preparación de
tentempiés de medianoche. sin duda debo tener rutinas para extender
la mayonesa. hacer bocadillos. sacar-algo-de-la-nevera, a partir de las
cuales componer esta, de algún modo, nueva actividad. ¿Sería posible
que estos conjuntos de rutinas, adecuadamente integradas, bastasen para
resolver el problema del marco para mí, al menos en el caso de mis
actividades más «automáticas»? Este es un problema abierto al que vol-
veremos más tarde.
En cualquier caso. es importante reconocer de partida, y recordar-
lo con frecuencia. que incluso los más listos cometen errores; no sólo
sucede que no somos plunificadores infalibles: somos completamente
proclives a pasar por alto defectos importantes de nuestros planes que
resultan obvios ante una mirada retrospectiva. Esta manía queda patente
en el ejemplo bien conocido de los errores provocados por «la fuerza
del hábito» (\0" casos en que nuestras rutinas estereotipadas se muestran
sorprendentemente insensibles ante algunos cambios portentosos en el
entorno, y al mismo tiempo sorprendentemente sensibles n otros). La
misma debilidad aparece también de vez en cuando en casos en los que
nos hemos tomado conscientemente la molestia de pensar las cosas con
cierto cuidado. ¿Cu,intas veces nos embarcamos en un proyecto del tipo
mover-el-piano - habiendo pensado, o incluso habiendo «repasado» la
operación completa antes de ponernos manos a la obra- sólo para des-
cubrir que tenemos que volver atrás, o abandonar el proyecto. debido a
la aparición de algún obstáculo imprevisto, aunque perfectamente pre-
visible. o de algún efecto secundario no pretendido? Si nosotros, que
somos gente lista. rara VeZ nos encontramos realmente en aprietos o en
situaciones estúpidas [corno, por ejemplo, quedar atrapados en la es-
quina de una habitación por haber ido pintando el suelo, o fregándolo,
comenzando desde la puerta hacia adentro], no será porque planificamos
por adelantado tan bien. sino porque complementamos nuestras poco
J3ü
sistemáticas capacidades para la planificación con una combinación de
sabiduría popular que hemos ido cosechando (acerca de los tontos que
se meten entre la espada y la pared. por ejemplo) y comprobaciones
frecuentes acerca de si vamos progresando a medida que actuamos. Aún
así, tenemos que conocer lo suficiente como para echar mano del co-
nocimiento adecuado en el momento oportuno, y para reconocer como
tales los problemas inminentes.
En resumen: una serie de conclusiones completamente obvias y de
mucho peso nos han conducido a la conclusión de que los agentes inte-
Iigentes necesitan embarcarse en «planificación» sensible con rapidez
a la información, que tiene la virtud de producir expectativas fiables,
aunque no infalibles. acerca de los efectos de sus acciones. Que estas
expectativas se encuentran activas normalmente en las criaturas inte-
ligentes es algo que viene avalado por la súbita reacción que muestran
cuando sus previsiones se vienen abajo. Esto sugiere una forma gráfica
de caracterizar el objetivo mínimo que puede engendrar el problema del
marco: pretendemos que un robot que-hace-tentempiés-de-medianoche
se «sorprenda» ante el plato de broma, la mayonesa de cemento imposi-
ble de extender. el hecho de que hayamos pegado el vaso de cerveza a la
repisa de la cocina. Para que alguien se sorprenda, debe haber esperado
alguna otra cosa. y para experar esa otra cosa correcta, hay que poseer
y usar una gran cantidad de información acerca de cómo son las cosas
en el mundo-'
El papel central que desempeñan las expectativas ha llevado a algu-
nos a la conclusión de que el problema del marco no es en absoluto un
1-' Hubert Dreyfus ha señalado que' el hecho de no esperar t no irnpl ica esperar .\
(donder -:t: v). de modo que alguien puede quedar sorprendido por algo que no esperaba
xin que Se dé el caso de que esperaba (de forma inconsciente) alguna otra cosa. Pero este
sentido de no esprrur no basta para explicar la sorpresa. ¿Cuántas son la:-, probabilidades
que 1l.1~ en contra de ver un Alfa Romeo. un Buick. un Chevrolct y IIn Dodge aparcados
así, en orden alfabético. en un momento u otro dentro de las próximas cinco horas: Bien
considerado, "011 alnsirna«, vin duda. Por eso yo no espero que otra persona lo espere.
Podría también no esperar que borra persona "e sorprendiese .sntc semejante vi-rón
inesperada -::1 excepción del C<1~l) especial en que la otra pcr:,;ona tuviese alguna razón
para esperar alguna otra cosa en ese momento y lugar.
Las reacciones de sorpresa son potentes indicadores de los estados cognitivos -esre
es un hecho bien conocido desde hace mucho tiempo por la policía () por los uutores de
novelas policíacas). S% alguien que esperase que el cadáver de Smith (por decir algo)
estaba en la nevera. quedaría sorprendido (a diferencia de levemente interesado} al descu-
brir que dentro de la nevera ...ólo se encontraba el siguiente. y más bien raro...!río: una bote-
lla de excelente Chabhs, una lata de comida para gatos y un paño de limpiar los platos.
331
problema nuevo, y que no tiene que ver especialmente con la planifica-
ción de acciones. Se trata simplemente, vienen a pensar, del problema
de tener las expectativas adecuadas acerca de acontecimientos futuros,
sean resultado de las acciones propias, de las acciones de otros agen-
tes, o bien simplemente sucesos naturales. Se trata del problema de la
inducción - señalado por Hume e intensificado por Goodman ( 1965),
pero no resuelto todavía a satisfacción de nadie. Hoy día sabemos que el
problema de la inducción es un problema realmente antipático. Las teo-
rías de la probabilidad subjetiva y de la fijación de creencias no se han
estabilizado en equilibrio reflexivo. de modo que es justo afirmar que
nadie cuenta con una respuesta buena, fundamentada, ante la pregunta
general: dado que yo creo todo esto (dispongo de toda esta evidencia),
¿qué otras cosas debería creer también (acerca del futuro, o acerca de
parcelas del mundo todavía no exploradas)?
La reducción a otro problema de un problema no resuelto ~upone
algún tipo de progreso, aunque no sea satisfactorio, pero ésta no es una
opción disponible en nuestro caso. El problema del marco no es el pro-
blema de la inducción disfrazado. Supongamos que el problema de la
inducción estuviese resuelto. Supongamos que -quizá por puro mila-
gro- nuestro agente ha solucionado todos sus problemas de inducción,
o que los tiene resueltos porque sí; cree, por consiguiente, todas las ge-
neralizaciones correctas que se pueden hacer a partir de la evidencia de
que dispone, y asigna a todas ellas las probabilidades correctas y las
probabilidades condicionales. Este agente, por hipótesis, cree, ni más ni
menos, lo que debería creer acerca de cualquier materia empírica bajo su
conocimiento, incluida la probabilidad de los acontecimientos futuros.
Aún así podría encontrarse con un feo caso del problema del marco. pues
este problema tiene que ver con la forma de representar (de modo que
resulte utilizable) toda la información empírica arduamente conseguida
- un problema que aparece con independencia del valor de verdad, la
probabilidad, la ascrtabilidad garantizada. o la certeza subjetiva de ésta.
Incluso teniendo conocimiento excelente (no meras creencias) acerca
del mundo cambiante, ¿cómo podría representarse este conocimiento de
tal forma que pudiera estar eficazmente listo para el uso?
Recordemos al pobre R IO I Ysupongamos, por razón del argumen-
to, que tenía un perfecto conocimiento empírico de las probabilidades
de todos los efectos detectables de todas sus acciones. Así pues. nuestro
robot cree que ejecutar el plan fEMPUJAFUERA (CARRITO, HABITACIÓN)],
causará que las ruedas del carrito produzcan un sonido audible con una
prohahilidad 0.7864; que la puerta de la habitación se abrirá hacia aden-
332
tro, en lugar de hacia afuera, con una probabilidad O.S; que no habrá
elefantes vivos en la habitación, con una probabilidad 0.999996, que la
bomba continuará estando en el carrito cuando éste sea empujado, con
una probabi 1idad 0.997. i.Cómo hará R 1DI para encontrar esta últ ima, y
relevante. aguja en su pajar de conocimiento empírico? Una enciclope-
dia ambulante continuará andando cuando tenga delante un precipicio.
a pesar de todos sus conocimientos acerca de los precipicios. y de los
efectos de la gravedad, a no ser que haya sido diseñada de tal manera
que sea capaz de encontrar los conocimientos adecuados en los momen-
tos precisos, para así poder planificar sus compromisos con el mundo
real.
Las investigaciones más tempranas sobre sistemas de planificación
en lA adoptaron un enfoque deductivo. Inspirados por el desarrollo de
los métodos de resolución para la prueba de teoremas de Robinson, los
diseñadores tenían la esperanza de poder representar explícitamente, en
forma de axiomas, todo el «conocimiento del mundo» del sistema, y
de usar la Lógica clásica -el cálculo de predicados- para deducir los
efectos de las acciones. LLI previsión de una determinada situación S fué
modelizada disponiendo que el sistema manejase un conjunto dc axio-
mas describiendo dicha situación. En adición a este conjunto. estaban
los axiomas de base (los denominados «axiomas marco», que dan al
problema del marco su nombre) describiendo las condiciones y efectos
generales de todas las acciones tipo definidas en el sistema. El sistema
podía aplicar una acción para este conjunto de axiomas -postulando la
ocurrencia de una determinada acción A en la situación S- y deducir
después el efecto de A en S. produciendo una descripción de la situación
resultado S,>. Dado que toda esta deducción lógica no aparece en abso-
luto en nuestra experiencia consciente. la investigación en esta línea de-
ductivista podía basarse en uno de estos dos supuestos de posibilidad. o
bien en ambos: el supuesto metodológico de que el realismo psicológico
era una carga gratuita, no una meta, dc la lA «pura», o bien la hipótesis
sustantiva (aunque vaga) de que los procesos deductivos descritos po-
drían modelizar del algún modo los procesos subyacentes fuera del ac-
ceso consciente. En otras palabras. o nuestros procesos de pensamiento
no consisten en deducciones dentro del cálculo de predicados, pero los
de un robot sí; o bien pensamos deductivarnente utilizando el cálculo
de predicados (de forma inconsciente). Dejando completamente aparte
las dudas acerca de su realismo psicológico, no ha sido posible hacer
que el enfoque deductivo funcione -la prueba de fuego R,ara cualquier
robot- a excepción de algunos casos deliberadamente triviales.
333
Consideremos algunos axiomas marco típicos asociados con la ac-
ción tipo: trasladar x a y.
1-1 Par Hayes me hizo notar evtu primera caracterf.. . rica de SIIAKEY. Puede verse tam-
bién Dreyfus ( 1072. p. 26. En Dcnnctt (198211) se analiza SHAKEY bujo una perspectiva
completamente diferente.
334
me lo contrario de manera explícita en la definición de la acción a aplicar
(Fikes y N ilson, 1971). El problema de esta propuesta es que. como Ga-
rrett Hardin observó, nadie puede hacer únicamente una cosa. Este fué
el problema de R 1, cuando no se dió cuenta de que empujaría la bomba
junto con el carrito. En la representación explícita de nuestra solución al
problema del tentempié de medianoche (unas pocas páginas más atrás),
mencioné la acción de llevar el plato sobre la mesa. Según esta propues-
ta, mi modelo «S>~ dejaría el pavo en la cocina, pues no establecí explíci-
tamente que el pavo sería transportado junto con el plato. Por supuesto,
siempre resulta posible recomponer la definición de «llevar» o de «plato»
para controlar este problema particular, pero solamente al precio de crear
otros. (¿Podrán unos pocos remiendos más reconducir el problema? ¿En
qué momento deberían abandonarse los remiendos y buscar una forma
completamente nueva de enfocar el problema? Estas son algunas de la,
incertidumbres metodológicas con las que habitualmente se tropieza este
campo, y por supuesto. nadie puede responsablemente afirmar con ante-
lación que posee una regla eficaz para tratarlas. Los anuncios prematuros
de pérdida de esperanza o las proclamas revolucionarias deben ser evi-
tadas tanto como el seguimiento obstinado de caminos sin salida: no es
nada extraño que este campo sea problemático.
335
Lo que se necesita es un sistema que ignore de forma genuina la
mayor parte de las cosas que conoce, y que opere con una porción bien
escogida de su conocimiento en todo momento. Bien escogida, pero no
escogida mediante una consideración exhaustiva. ¿Cómo. sin embar-
go. podemos proporcionar a un sistema reglas para ignorar? -o mejor.
puesto que el problema no es el seguimiento explícito de reglas. ¡,Cómo
podemos diseñar un sistema que ignore de manera fiable lo que debe
ignorar bajo una amplia variedad de circunstancias diferentes en un en-
torno complejo de acción'?
John McCarthy denomina al anterior el problema de la cualificación.
y lo ilustra de forma muy gráfica mediante el famoso rompecabezas de
los misioneros y los caníbales.
Tres misioneros y tres caníbales llegan a un río. Allá se encuentra a
su disposición un bote en el que caben dos. Si los caníbales en algún mo-
mento superan en número a los misioneros en cualquiera de las orillas
del río, los misioneros serán comidos. ¿Cómo cruzarán el río?
Obviamente se espera que la persona a quien se le plantea el pro-
blema trate de concebir alguna estrategia para cruzar con el bote de una
orilla a otra de modo que puedan pasar todos y se evite el desastre ...
Imaginemos que se le plantea el problema a alguien, y después
de discurrir un rato sugiere ascender por el curso del río media milla
y cruzar por un puente. «¿Qué puentc?» -preguntamos. «No existe
puente alguno en la formulación del problema'». Y nuestro zopenco
responde. «Bueno, ellos no dicen que no haya un puente». Miramos al
castellano, e incluso a la traducción del castellano a la lógica de primer
orden, y nos vemos obligados a admitir que «ellos no afirman» que ahí
no haya un puente. Así pues, modificamos el problema de modo que
queden excluidos los puentes y lo planteamos de nuevo. y nuestro zo-
penco propone un helicóptero, y después de haberlo excluido, sugiere
un caballo alado. o que los otros se agarren del borde del bote mientras
dos reman.
Ahora comprobamos que, aunque sea un zoquete, se trata de un zo-
quete con imaginación. Perdida la esperanza de conseguir que acepte
el problema en el espíritu original de quien lo formuló, le contamos la
solución. Para nuestra desesperación, ataca nuestra solución argumen-
tando que el bote podría hacer aguas o faltarle los remos. Después de
corregir esta omisión en la formulación del problema, sugiere que un
monstruo marino podría ascender por el río y tragarse el bote. De nuevo
336
quedamos frustrados, y buscamos un modo de razonar que aclare su
embrollo de una vez por todas. (Mcf.arthy, 1980, pp. 29-30)
Lo que un ser humano normal, inteligente, hace en una situación
como ésta es utilizar alguna forma de inferencia no-monánota. En un
sistema clásico, monótono. la adición de premisas jamás disminuye lo
que se puede demostrar a partir de las premisas. Como Minsky hizo no-
tar, los axiomas son esencialmente permisivos. Una vez que un teorema
es permitido, la adición de más axiomas nunca invalidará las pruebas
de los teoremas anteriores. Sin embargo, cuando pensamos en algún
puzzle o en un problema de la vida real. podemos alcanzar una solución
(y aún demostrar que es una solución. o incluso que se trata de la única
solución para ese problema). y después descubrir que nuestra solución
queda invalidada por la adición de un elemento nuevo a la formulación
del problema: por ejemplo, «olvidé decírtelo -no hay remos», o «¡A
propósito! Hay un puente en muy buenas condiciones aguas arriba».
Lo que estas últimas adiciones nos enseñan es que. contrariamente
a Jo que habíamos creído, las demás cosas no eran igual. Habíamos es-
tado razonando con la ayuda de una suposición ceteris púribus, y ahora
nuestro razonamiento acaba de ser puesto en solfa por el descubrimiento
de que sucede algo «anormal». (Debemos tener en cuenta, por otra par-
te, que la anormalidad en cuestión es una noción mucho más sutil que
cualquier otra que hasta la fecha nadie haya extraído de la teoría de la
probabilidad. Como observa Mcf.arthy, «La situación en su conjunto.
incluyendo caníbales con las propiedades postuladas, no puede ser con-
siderada como teniendo una probabilidad, con lo que es difícil tomar
seriamente la probabilidad condicional de un puente dada la hipótesis».
La gran ventaja de una cláusula ceteris paribus en un fragmento de
razonamiento consiste en que no es necesario decir exactamente qué
significa. «¿Qué es 10 que se quiere decir con «siendo las demás co-
sas igual»7», L<¿ Qué configuraciones de qué cosas cuentan exactamente
como siendo igual?» Si tuviéramos responder a estas preguntas, el re-
curso a la cláusula ceteris paribus resultaría inútil, pues se utiliza pre-
cisamente con el fin de ahorrarnos esa larca. Si fuese posible encontrar
respuesta a estas preguntas. no sería necesario invocar la cláusula al
principio. Así pues. una forma de considerar el problema del marco es la
pretensión de conseguir un ordenador que se sirva por sí mismo de este
estilo de operar mentalmente característico de los humanos. Actualmen-
te se están explorando en el campo de la LA varios enfoques completa-
mente diferentes de la inferencia no-monótona. Todos ellos tienen en
337
común únicamente el objetivo de captar el talento humano para ignorar
lo que dehe ser ignorado, y de permanecer alerta. al mismo tiempo, a la
terquedad relevante cuando ésta ~e da.
Una familia de enfoques, representada por los trabajos de Marvin
Minsky y Roger Schank (Minsky, 1981; Schank y Abclson, 1977) con-
sigue su capacidad para ignorar a partir del poder para focalizar la aten-
ción que tienen los estereotipos. La fuente de inspiración aquí es la idea
de que todas las experiencias de la vida, en su enorme diversidad. se
reducen a variaciones de un número manejable de temas estereotipados.
escenarios paradigmáticos -«marcos)} en palabras de Minsky, «guío-
nes» en términología de Schank.
338
contrario, tiene que esperar que un diseñador externo escoja un diseño
mejorado. Este proceso de rediseñamiento reproduce el proceso de la
selección natural en algún sentido; facilita un rediseño ad 110c, mínimo,
por etapas, que equivale a una apuesta por la probabilidad de ocurren-
cia de patrones en acontecimientos futuros. Por consiguiente, es riel. en
algunos respectos, a Jos temas biológicos!", No obstante, hasta que no
se consiga dotar al sistema de una considerable capacidad para aprender
de sus errores sin necesidad de la intervención del diseñador, continuará
respondiendo de modo similar a como lo hacen los insectos. y semejante
conducta resulta profundamente irreal si se la considera como modelo
de las reacciones cotidianas de los humanos. Los atajos y métodos eco-
nómicos que brinda el apoyo en los estereotipos son suficientemente pa-
tentes en las formas de pensamiento humano. Pero también es evidente
que los humanos tenemos una comprensión más profunda para volver
sobre nuestros pasos cuando los atajos no sirven. La construcción de al-
guna medida para esta comprensión mas profunda dentro de un sistema
parece ser una condición necesaria para conseguir que aprenda de forma
rápida y elegqnte.
Efectivamente. los marcos y los guiones son enfoques que intentan
prc-solucionar los problemas del marco con los que un agente parti-
cular tiene alta probabilidad de tropezarse. Mientras que los insectos
parecen estar equipados con tales sistemas de control. los humanos, in-
cluso cuando parece que se apoyan en estereotipos, tienen sistemas de
pensamiento que les permiten retroceder. con lo que pueden negociar de
forma más eficaz con los problemas que surgen. Por otra parte. cuando
los agentes se aprovechan de los estereotipos, al menos se apoyan en
estereotipos de su propia invención, y hasta la fecha nadie ha sido capaz
de ofrecer propuesta alguna factible acerca de cómo la maquinaria de
una persona para construir 1113rCOS o para excrihir guiones podría ser
conducida por su experiencia anterior.
A lo largo de los últimos años. yen el contexto de la tradición deduc-
tiva, han surgido varias propuestas diferentes con el fin de proporcionar
el sustrato rcpresentacional de esta comprensión más profunda. Drew
McfIcrmott y Jan Doyle han desarrollado una «lógica no-monótona»
339
(1980), Ray Reiter ha propuesto una «lógica para el razonamiento por
defecto» (1980 >. y John J\.1cCaI1hy ha desarrollado un sistema de «cir-
cunscripción», una «regla [formalizada] de conjetura que puede ser usa-
da por una persona o programa para «saltar a las conclusiones-» (1980).
Ninguna de ellas es, o pretende ser, una solución completa para el pro-
blema del razonamiento ceteris paribus, pero podrían ser componentes
de dicha solución. En tiempos más recientes, McDennott ha ofrecido
una «lógica temporal para el razonamiento acerca de procesos y planes»
(Mcfrerrnott. 1982). No trataré de probar las virtudes y debilidades for-
males de estas propuestas. En lugar de ello, me voy a concentrar en otro
problema. Desde cierta perspectiva, la lógica no-monótona, la lógica
por defecto, la circunscripción y la lógica temporal. se muestran todas
como mejoras radicales con respecto al carácter automático y mecánico
del enfoque deductivo. Sin embargo, desde una perspectiva un tanto
diferente, parecen ofrecer más de lo mismo, y son al menos tan poco
realistas como los marcos en cuanto a su plausibilidad psicológica.
A primera vista, se presentan como un avance 'hacia un mayor rea-
lismo psicológico, ya que toman en serio, y tratan de representar. la
característica del razonamiento de sentido común, fenomenológica-
mente de ...tacada, de «saltar a las conclusiones». ceteris paribus. Sin
embargo. ¿consiguen realmente ofrecer sugerencias plausibles acerca
de cómo tiene lugar en la gente la implementación subyacente de este
pensamiento consciente? Aun si se diera el caso. en un futuro día glorio-
so, de que un robot dotado con depurados métodos de circunscripción
se manejase bien en un entorno no-supersirnplificado, ¿habría alguna
posibilidad de que sus procesos constituyentes, descritos a niveles por
debajo del fenomenolágico, pudieran mantener relaciones informativas
con los desconocidos procesos de más bajo nivel que tienen lugar en los
seres humanos? Para mostrar mejor cuál es el problema que me preocu-
pa quiero introducir el concepto de rueda cognitiva.
Podemos entender qué podría ser una rueda cognitiva teniendo en
mente. para empezar, las ruedas normales. Las ruedas son maravillosas,
un elegante triunfo de la tecnología. La veneración secular por el mítico
inventor de la rueda está plenamente justificada. Pero, sí las ruedas son
tan maravillosas. ¿por qué no existen animales con ruedas? ¿Por qué no
es posible encontrar ruedas (que funcionen como ruedas) en la natura-
leza? En primer lugar, la presuposición de estas preguntas debe ser cua-
lificada. Hace unos pocos años se realizó el descubrimiento asombroso
de que cienos animales microscópicos (alguna bacteria y algunas euca-
notas unicelulares) poseen ruedas en cierto sentido. Sus cola... de propul-
340
sion, que durante mucho tiempo se creyó que eran flagelos flexibles, han
resultado ser una especie de sacacorchos más O menos rígidos que giran
continuamente, empujadas por una especie de motores microscópicos,
completados con cojinetes principales!", Mejor conocidas. aunque de
menor interés, por razones obvias. son las plantas rodadoras. Así pues,
no es totalmente correcto afirmar que no hay ruedas (o diseños en forma
de rueda) en la naturaleza.
Con todo, las ruedas macroscópicas -ruedas de reptiles. mamí-
teros o aves-> no se encuentran. ¿Por qué no? Parecería que podrían
constituir un maravilloso equipo retráctil para el aterrizaje de algunos
pájaros, por ejemplo. Una vez que la pregunta se plantea, aparecen rá-
pidamente razones plausibles que explican su ausencia. Probablemen-
te, las más importantes son las consideraciones acerca de las propie-
dades topológicas de los límites del eje del cojinete, que convierten la
transmisión de materia y energía a través de él en algo particularmente
difícil. ¿C6mo podrían mantener su integridad las arterias que sopor-
tan el tráfico de la vida en un sistema vivo a través de este límite? Sin
embargo, una vez que este problema ha sido planteado, las soluciones
aparecen por ~í mismas; supongamos que la rueda de materia viva se
desarrolla hasta alcanzar su forma madura. de un modo no-giratorio,
no-funcional. y que después se endurece y S~ desprende, como las CO[-
namentas, o como una concha vieja, aunque no lo haga completamente:
entonces gira libremente sobre un eje fijo lubricado. ¿Sería esto posi-
ble? Es difícil afirmarlo. ¿Resultaría útil? También es difícil decirlo,
especialmente debido a que una rueda como ésta habría de girar libre-
mente. Esto constituye un ejercicio especulativo interesante. pero cier-
tamente no es del tipo de los que debería inclinarnos a extraer conclu-
siones categóricas, a priori. Sería temerario afirmar que las ruedas son
una imposibilidad biológica. pero al mismo tiempo es posible apreciar
que son. como mínimo, soluciones muy alejadas e improbables para los
problemas naturales de diseño.
Así pues, una rueda cognitiva es simplemente cualquier propuesta
de diseño en la teorización cognitiva (a cualquier nivel. desde el más
puro nivel semántico al nivel más concreto de los «diagramas de cir-
cuito» de las neuronas) que sea profundamente ajena a la biología, por
maravillosa y elegante que resulte como ejemplo de tecnología.
Ir, Para mayores detalles y reflexiones adicionales acerca de los temas tratados aquí.
ver Diamond ( 19lB j.
341
Es evidente que este es un concepto vagamente definido. que resulta
útil solamente como resumen retórico. como un gesto que apunta a las
dificultades reales que deben ser desmenuzadas cuidadosamente. «Guár-
date de postular ruedas cognitivas» pasa por ser un buen consejo para el
científico cognitivo, al tiempo que se coquetea con la vacuidad como una
máxima a seguir!". Ocupa la misma posición retórica que la máxima del
corredor de bolsa: compra barato y vende caro. Aún así, el término e:' un
buen punto de partida para la discusión.
Muchos de los críticos de la lA tienen la convicción de que cual-
quier sistema de l A es. y no podrá ser otra cosa, que una caja de cam-
bios de ruedas cognitivas. Por supuesto. esto podría terminar siendo
verdad. pero la razón habitual para creerlo está basada en una mala
comprensión de los supuestos metodológicos del campo de investiga-
ción. Cuando se propone un modelo lA para algún fenómeno cogniti-
vo. el modelo se puede describir a muchos niveles diferentes, desde el
nivel más global. fenomenológico, donde la conducta se describe (con
alguna presuntuosidad) en términos mental isticos ordinarios. descen-
diendo a través de diversos niveles de implementación hasta el nivel
de programa -e incluso más abajo. hasta el nivel de las operaciones
físicas ihurdwarev básicas, si alguien se interesa. Nadie supone que el
modelo refleja los procesos de la psicología y la biología durante todo
el recorrido descendente. La hipótesis es únicamente que para alguna
descripción de alto nivel por debajo del fenomenológico (el cual sim-
plemente plantea el problema) existe una aplicación de propiedades
del modelo en lo que está siendo modelizado: los procesos cognitivos
en las criaturas vivientes, humanas o de otras especies. Se entiende
que todos los detalles de implementación por debajo del nivel que se
intenta modelizar van a consistir. sin duda alguna. en ruedas cogniti-
vas -porciones de actividad computacional no biológica que mime-
.H 2
tizan los efectos brutos de los sub-componentes cognitivos utilizando
métodos completamente diferentes a los métodos todavía por descu-
brir en el cerebro. Quien no haya sido capaz de valorar que un modelo
compuesto de ruedas cognitivas a nivel microscópico podría, a pesar
de todo. conseguir un isomorfismo fértil con los procesos biológicos o
psicológicos a un nivel de agregación más elevado, habrá de suponer
que existen buenas razones a priori para un escepticismo generalizado
acerca de la lA.
343
no-monótono continúa siendo un problema abierto pero sumamente
explorable!".
Algunos han pensado que la clave para una solución más rcalística
del problema del marco (y por supuesto, con toda probabilidad, para
toda solución sin más) ha de necesitar una reconsideración completa
del planteamiento a nivel semántico, previa al interés por la implemen-
tación a nivel sintáctico. La serie más o menos estándar de predicados
y relaciones escogidos para cumplimentar el esqueleto del cálculo de
predicados al representar las «proposiciones creídas» puede conllevar
un análisis básicamente inadecuado de la naturaleza de esta tarea. Tí-
picamente, la interpretación de las fórmulas en estos sistemas divide el
mundo a lo largo de las líneas familiares de objetos con propiedades en
tiempos y lugares. El conocimiento de las situaciones y sucesos en el
mundo se representa por lo que podríamos llamar secuencias de instan-
táneas verbales. El estado S, descrito constitutivamente mediante una
lista de sentencias verdaderas en un tiempo t que afirman varios predi-
cados n-ádicos de diversos particulares, da lugar al estado ~<S», una lista
similar de sentencias verdaderas en -t». ¿Podría ser quizá mejor repen-
sar el mundo de la planificación en términos de historias y procesos?".
En lugar de tratar de modelizar la capacidad de seguir la pista a las
cosas en términos de principios para pasar a través de secciones tem-
perales de conocimiento expresadas en términos de términos (nombres
para las cosas, en esencia) y predicados, quizás podríamos modelizar
el seguir la pista a las cosas más directamente y dejar que toda la infor-
mación secciona! acerca de lo que es considerado verdadero momento
a momento sea meramente implícita (y difícil de extraer -como lo es
para nosotros) a partir del formato. Estas son sugerencias tentadoras,
pero hasta donde llega mi conocimiento. se hallan todavía en el terreno
de la palabrería?'.
I~ McDermott 196<} (<<A Temporal Ll\gic lor Reasoning about Proccsscs and Plans»,
Sección 6, ,<ASketch of an Irnplernentation») muestra sorprendentemente cuánta" con-
secuencias nuevas aparecen una ver. que volvernos la vista al problema de la implemen-
tación, y en qué gran medida son indirectas (pero útiles a pesar de todo) las considera-
cienes puramente formales.
19 Patrick Haycs ha estado investigando en esta dirección. Puede encontrarse un
análisis preliminar en «Naive Physics 1: The Ontology of Liquid-o (Hayes, 1978).
2[\ El monográfico de Olivcr Sclfridgc Tracking and Trailing (Brudford Books/MIT
Press) promete hacer retroceder esta frontera. segun creo. pero todavía no he sido capaz
de asimilar sus mensajes. Hay también algunos pasajes sugerentes sobre este tema en
el libro de Ruth Garreu Millikan Language. Thought, and Otlicr Biologica! Categories
(Bradford Books/MIT Prcss, 19~4)
344
Otro tema sobre el que se habla, probablemente relacionado. es que
las dificultades actuales con el problema del marco tienen su origen en
el esquema conceptual engendrado por el procesamiento-en-serie propio
de las arquitecturas computacionales de tipo von Neurnann utilizadas
hasta la fecha en lA. A medida que se vayan desarrolJando procesadores
paralelos más rápidos y de mayor capacidad, producirán el despertar de
enormes innovaciones conceptuales que. por razones obvias. hoy por
hoy apenas resultan imaginables. Puesto que los cerebros son, con toda
seguridad. procesadores masivos paralelos, resulta tentador suponer que
los conceptos generados por un nuevo hardware de este tipo serán más
fácilmente adaptables con vistas a la modelización psicológica realista.
Pero, ¿quién lo puede afirmar? Por el mome-nto. la mayor parte de las
optimistas aseveraciones acerca de los poderes del procesamiento para-
lelo entran en el mismo saco que las observaciones facilonas que pueden
hallarse con frecuencia en el trabajo de los neurocientíficos. quienes
adscriben maravillosos poderes cognitivos a diferentes porciones del
sistema nervioso sin ofrecer ninguna pista acerca de cómo ~e realizan
tales capacidades:".
La tarea de completar los detalles del abismo existente entre el mági-
co espectáculo fenomenológico y los poderes bien estudiados de peque-
ñas regiones del tejido cerebral constituye el inmenso trabajo de investi-
gación que aguarda en el futuro para los teóricos de cualquier tendencia.
Pero es preciso encontrar los problemas antes de poder resolverlos, y
~I
Para contrarrestar la manta que tienen It)~ teóricos «arriba-abajo» de postular ruc-
<Ji.l~cognitivas. está la predilección de los teóricos «abajo-arriba>' por llegar a descu-
brir tejidos maravillosos. (El tejido maravilloso aparece en muchos lugares. La teoria
de la percepción de 1. J. Gibson, por ejemplo, parece tratar el sistema visual completo
corno un tejido maravilloso, que resuena con una sensibilidad prodigiosa a una multitud
de sofisticadas «affordanccs», (Ver, p.e., J. J. Gibson, I q79) [Nota del traductor: «af-
[ordanccs» e~ un neologismo utilizado por Gibson en su teoría de la percepción directa
(o enfoque ecológicó de la percepción) con la que trata de ofrecer una visión alternativa
al vie-jo y recalcitrante problema de las relaciones entre las nociones de estímulo «proxi-
mal>' ¡el estímulo descrito en términos de transmisión de energía física a los receptores
...ensoriales) ':J de estímulo «distal» (el estímulo descrito como percepro). A este respecto,
Gibson mantiene que el entorno tiene propiedades inforrnacionalcs para los organismos,
y que éstos las perciben directamente. Este enfoque contrasta con los que requieren
procesos de transformación de lo que 10:0, organismos reciben como estímulo sensorial a
las representaciones internas con contenido informacional. Existe el precedente de haber
traducido el término que nos ocupa como «propiedades funcionales», pero ~SIC traductor
estima que se trata de una expresión excesivamente genérica para un término tan cspe-
cífico como éste, de modo que hemos optado por dejarlo tal cual en la traducción, CO.'>i.J.
por otra parte. bastante cornún.]
345
para encontrar los problemas hay que saltar con decisión al abismo y
plantearse preguntas-acerca-de-cómo. Lo que los filósofos (y todos los
demás) han sabido siempre es que las personas - y. sin duda, cualquier
agente con inteligencia- son capaces de realizar razonamientos ceteris
paribus rápidos, sensibles y arriesgados-pero-valiosos. ¿Cómo lo ha-
cemos? Puede que la lA no tenga todavía una buena respuesta. pero al
menos ha dado con el problema'!.:!.
Referencias
CHERN [Al..:, e ( 19~J) «Rationality and the Structure of Memory.", Svnthese 57.
163-g6.
DARMSTADTER, H. ( [971) «Consistency of Belieb~. The Journal 01 Philosophy
68.301-10.
DENNETI, D. C. (1976) «Two approaches to mental images», en Brainstorms.
Cambridge, !v1A: M1T Press. A Bradford Book,
-, (1982a) «Why do we think what wc do about why we think what do? COR-
nition 12.219-227.
- , (l982b) «How to study consciousness empirically: or nothing comes to
mind», Synthese. 53. 159-180.
~~ Unos de los escasos artículos filosóficos que he descubierto que parece contribuir a
la reflexión acerca del problema del marco -aunque no en esos términos>- es el escrito
de Ronald de Sousa «The Rationality of Emotions» (de Sousa. 1(79). En la sección titu-
lada «What are Ernotions For?», de Sousa apunta. con consideraciones de peso. que:
346
- , (J 982c) «Bevond bclief», en A. Woodríeld (De.) Thought and Object,
Oxford: Oxford University Press.
.-. (] 983) «Styles of mental representation». Proc. Aristotelian Soc. ~3,
213-26.
DIAMOI'D. J. ( 1QS3) «Thc Biology 01' the Whecl·>. Na/un' 302,572-3.
DREYI·US. H. (1972) Whm Computen Can't Do. New York: Harper and Row.
FIKES, R. & NILSSON. N. (1971) «STRIPS: A new approach W Ihe application of
theorem prov ing to problern sol ving». Artificial lntelligence 2, 189-208.
Ginsou, J. 1. (1979) ThL' ecological approach /0 visual perception, London:
Hnughton Mifftin.
GOODMAN. N. (965) Fact, Fiction and Forecast, 2nd cd .. Indianapolis: Bobbs-
Métrill.
- , ( 1982) «Thoughts \\1 ithour words» e ognition . 11, 2 11-217.
H .... yES. P. J. (1978) Naive phvsics 1: The ontotogv o] liquids (Working Papers
No. 35). Gcneva. Switzerland: Institut pour les etudes semantiques et cog-
nitives, University of Geneva,
- . (1979) The naive physics nuinifesto. En D. Michie (EJ.) Expert systems in
the microelertronic age, pp. 242-70. Edinburgh. Scotland: Edinburgh Uni-
versity Presx.
HorsTADTER. D. R. ~ 1982) «Can inspiration be mechanized'o Sl"ienrific Ame-
rican, 2..P . 18-34.
Mee ARTHY. J. (1968) «Prograrns with common sense», Proceedings oj the
Teddington Conference of the Mechaniration of Thought Processes. Lon-
don: Her Majestaty-s Stationers Otfice.
- . (1980) Cinunscription - ( J [orm o] non-ntonotonic reasoning (Artificial Intelli-
gcnce Laboratory MCIllOAIM-334, p. 4). Stanford, CA: Stanfonl Univcrsity.
rV1CCARTH y. J. & HA YESo P. J. (1969l «Sorne ph i losoph ical problem s frorn the
standpoint of artificial imelligence». en B. Mcltzer & D. Michie IEds.) Ma-
chifle lntelligence 4. Edinburgh, Scotland: Edinburgh University Press.
McDERMOTT. D. (1982) «A temporal Logic for Rcasoning abour Processcs and
Plans», Cognitive Science 6, 10l-55.
MCOl:.RMOTT, D. & DO't'LE, J. (1980) «Non-monotonic logic», Artificiallntd/i-
gence, 13,41-72.
~111 J lKAN, R. G. (1984) Language, Thought and Other Biological Categrnics.
Cambridge. Mas~.: MIT Pr6s. A Bradford Book.
l'v1INSK Y. M. ( [(81) «A framework for represennng knowledge». en J. Haugc-
land (cd.) Mind Design {pp. 95-128 \. Cambridge, MA: MIT Press. A Rra-
dford Book. (Originally Pub1ished as Memo 3306, Artificial Intelligence
l.aboratory, Massuchusctts Institute of Technology).
NE\VI::.LL, A. (1982) «Thc knowledge level», Artificial Intclligence, 18,87-127.
REITER, R. ( 19RO) «A Logic for Oefault Rcasoninj;». Artificial lntelligence 13.
81-132.
347
R v LE, G. (1949) A Concept of Mind, London: Hutchison.
SCHANK, R. & ABELSON, R. (1977) Scripts. plans, goals ami understanding: An
inquiry into human knowledge structures, Hillsdale. NJ: Erlbaum.
SELfRIDGE, O. (1992) Tracking and trailing . Cambridge, M A: Mrr Press, A
Bradford Book.
(DE) SOUSA, R. (1979) «The Rationality of Emotions», Dialogue 18. 4 L-63
WOOLRIOGE, D. (1963) The machinery of [he brain, New York: McGraw Hill.
348
ESCAPAR DE LA HABITACIÓN CHINA
Margaret A. Boden
349
Para persuadirnos de esto. Searle emplea un ingenioso experimento
mental. Se imagina a sí mismo encerrado en una habitación. en la que
hay varia", hojas de papel con trazos dibujados en ellas: una ventana a
través de la que la gente puede pasarle otros papeles dibujados. y él, a su
vez. puede enviar papeles fuera; y un manual de reglas (en inglés) que
le dice cómo emparejar los trazos. que son identificados siempre por su
forma o figura. Scarlc pusu su tiempo. mientras está dentro de la habita-
ción. manipulando travo-, de acuerdo a las reglas.
Por ejemplo. una regla le da instrucciones para que cuando le pasen
garabato-garabato, él debería devolver garabito-varabiro. El libro de
reglas contempla también secuencias más complejas de pares de trazos.
donde sólo el primer y el último paso mencionan la transferencia de pa-
pel hacia dentro o hacia fuera de la habitación. Antes de encontrar una
regla que le ordene directamente devolver una hoja de papel. puede tener
que localizar un trazo de cierto tipo y compararlo con una marca de otro
tipo-en cuyo caso. el resultado de esta comparación será In que deter-
mine la naturaleza del trazo a devolver. A veces tiene que hacer dentro de
la habitación muchas de tales comparaciones trazo-trazo y la selección
consiguiente antes de hallar una regla permitiéndole devolver algo.
Para el Searle que "e encuentra en la habitación. los garabatos y
garabitos son meros trazos sin sentido. Sin embargo. aunque él lo des-
conozca. son caracteres chinos. Los que se encuentran en el exterior de
la habitación, que son chinos, interpretan estos caracteres como tales.
Además, los garabatos que se introducen y los yue ~e devuelven a través
de la ventana son interpretados por ellos, respectivamente. como pre-
guntas y respuestos: sucede que las reglas son de tal forma que la ma-
yoría de las preguntas resultan emparejadas. directa o indirectamente.
con lo que ello" reconocen como una respuesta acertada. Pero el propio
Searle (dentro de la habitación) no sabe nada de esto.
Lo importante. nos dice Searle. es que el Searle de la habitación
está ejemplificando claramente un programa de ordenador. E~ decir, está
realizando manipulaciones puramente formales de esquemas xin inter-
pretar: todo 10 que hay es sintaxis. no semántica.
Las reglas de pares de trazos son equivalentes a J().~ reglas 51-EN-
TONCES, o «producciones», utilizadas habitualmente (por ejemplo)
en sistemas expertos. Algunas de las comparaciones internas de trazos
podrían ser equivalentes a lo que los investigadores de IA en procesa-
miento del lenguaje natural llaman un guión tscript¡ -por ejemplo. el
guión del restaurante descrito por R. c. Schank y R. P. Abelson (1977).
350
En este caso, el comportamiento del Searle de la habitación. consistente
en recibir y pasar papeles, sería comparable, en esencia, al comporta-
miento «pregunta-respuesta» de un programa de análisis de textos de
tipo schankiano. Pero «pregunta-respuesta» no es pregunta-respuesta.
El Searle de la habitación no está, en realidad. respondiendo: ¿cómo
podría hacerlo, si no puede entender las preguntas? La práctica no ayuda
(excepto quizás en hacer el emparejamiento de trazos más rápidamen-
te): si el Searle de la habitación nunca escapa, será exactamente tan
incompetente en chino como lo era cuando fue encerrado dentro.
Naturalmente. los chinos que se encuentran fuera de la habitación
pudrían considerar útil mantener al Searlc de la habitación comido y
bebido. del mismo modo que en la vida real estamos dispuestos a gas-
tar grandes sumas de dinero en sistemas computacionales de «apoyo».
Pero el hecho de que la gente dotada de capacidad comprensión pue-
da usar un sistema computacional formal, carente de significado in-
trínseco, que les ofrezca lo que ellos interpretan (sic) como preguntas,
respuestas, designaciones, interpretaciones o símbolos es irrelevante.
Son capaces de hacer tal cosa únicamente en la medida en que pueden
especificar, externamente, una correspondencia entre el formalismo y
asuntos de su interés. En principio, un mismo formalismo puede ser
proyectado en varios dominios diferentes. de forma que resulta utiliza-
ble (por la gente) para responder preguntas acerca de cualquiera de ta-
les dominios. Sin embargo, carece de significado en sí mismo, -como
sucede con los símbolos chinos desde el punto de vista del Searle de la
habitación.
\
351
Searle rechaza la definición, tan profusamente citada, de «sistema
de símbolos físicos» que ofrece A. Newell (1980), porque requiere me-
ramente que los símbolos sean corporeizados en algún tipo de materia
capaz de implementar computaciones formales -que los ordenadores.
se admite. pueden hacer. Según el criterio de Searle, ningún cerebro
electrónico puede realmente manipular símbolos, ni designa o interpre-
ta nada de nada en realidad -con independencia de cualquier vínculo
causal que conecte sus patrones físicos internos con su comportamiento.
(Esta visión fuertemente realista de la intencionalidad contrasta con el
instrumentalismo de D. C. Dennett (197]). Para Ilennett, un sistema
intencional es un sistema cuyo comportamiento podemos explicar, pre-
decir. y controlar sólo adscribiéndole creencias, objetivos. y racionali-
dad. Bajo este criterio. algunos programas de ordenador existentes son
sistemas intencionales. y los hipotéticos humanoides predilectos de la
ciencia ficc ión serían sistemas inlene ionalcs a fortiori.i
La intencionalidad. afirma Searle, es un fenómeno biológico. Como
tal, es tan dependiente de la bioquímica como lo es la fotosíntesis o la lac-
tancia. Concede que la neuroproteína pueda no ser la única sustancia del
universo capaz de tener vida mental. del mismo modo que otras muchas
sustancias además de la clorofila podrían ser capaces (en Marte, quizás)
de catalizar la síntesis de curbohidratos. Pero rechaza el metal y el silicio
como alternativas potenciales, incluso en Marte. Se pregunta si un orde-
nador hecho de viejas latas de cerveza podría entender - una pregunta
retórica para la que la esperada respuesta es un contundente «[No!». En
pocas palabras, Searle considera intuitivamente obvio que las sustancias
inorgánicas con las que están manufacturados los (actuales) ordenadores
son esencialmente incapaces de poseer funciones mentales.
Con el fin de valorar la doble crítica de Searle a la psicología com-
putacional, consideremos en primer lugar su punto de vista de que la
intencionalidad debe estar hiológicamente fundamentada. Podríamos
estar tentados a considerar a esta como su tesis positiva, en contraste
con su tesis (negativa) de que las teorías puramente formales no son
capaces de explicar la mentalidad. Sin embargo, esto supondría conce-
derle demasiado, ya que su poder explicativo es ilusorio. La analogía
biológica mencionada por Searle es errónea y las intuiciones a las que
apela no son fiables.
La producción de intencionalidad por parte del cerebro. se nos dice,
es comparable a la fotosíntesis -¿pero es asf, realmente? Podemos de-
finir los productos de la fotosíntesis, distinguiendo claramente varios
352
azúcares y almidones en la clase general de los carbohidratos. y mostrar
cómo difieren estos de otros productos químicos como las proteínas.
Además, no sólo conocemos que la clorofila es lo que permite la fotosín-
tesis. también comprendemos cómo lo hace (y por qué otros elementos
químicos no pueden). Conocemos que se trata de un catalizador; más
que de un material simple, y podemos especificar el punto en el que
desarrolla su función catalizadora y los consiguientes procesos subató-
micos por los que lo hace. El caso es muy diferente por lo que respecta
al cerebro y la comprensión.
Nuestra teoría acerca de la intencionalidad (independientemente de
cómo sea generada) no admite comparación con nuestro conocimiento
de los carbohidratos: es precisamente el problema de qué es la inten-
cionalidad 10 que permanece todavía como un asunto filosóficamente
controvertido. Ni siquiera podemos tener entera confianza en que somos
capaces de reconocerla cuando la vemos. Existe un acuerdo generaliza-
do en que las actitudes proposicionales son intencionales. y en que los
sentimientos y sensaciones no; pero no hay un consenso claro acerca de
la intencionalidad de las emociones.
Se han dado diversos intentos de caracterizar la intencionalidad y
distinguir sus subespecies como estados intencionales diferentes (creen-
cias. deseos, esperanzas, intenciones, etc ... ). El propio Searle ha hecho
unas cuantas contribuciones relevantes, desde su temprano libro sobre
actos de habla (1969) hasta sus más recientes explicaciones de la inten-
cionalidad (1983). Un criterio usado muy habitualmente (adoptado por
Brentano en el siglo diecinueve y también por Searle) es el psicológico.
En palabras de Brentano, los estados intencionales dirigen la mente ha-
cia un objeto; en las de Searle, tienen una capacidad representacional
intrínseca, la capacidad de «ser-acerca-de» (aboutnesss: en cualquier
caso establecen una relación de la mente con el mundo, o con un mundo
posible. Sin embargo, algunos autores definen la intencionalidad en tér-
minos lógicos (Chisholrn 1967). Pero incluso no está nada claro que las
definiciones lógica y psicológica sean exactamente coextensivas (Bo-
den 1970). En resumen, ninguna teoría de la intencionalidad es acep-
tada como aproblematica, en el sentido en que lo es la química de los
carbohidratos.
En cuanto a la «síntesis» bioquímica de la intencionalidad del cere-
bro. el asunto es aún más misterioso. Tenemos buenas razones para creer
que la neuroproteína permite la intencionalidad, pero difícilmente tene-
mos alguna idea de cómo -qua neuroproteína- es capaz de hacerlo.
353
En la medida en que no comprendemos cabalmente estos proble-
mas, nos centramos en las bases neuroquímicas de ciertas funciones
informacionales - tales como paso de mensajes, excitación e inhibi-
ción- realizadas en neuronas y sinapsis. Por ejemplo: cómo el bombeo
de sodio en la membrana de la célula produce un potencial de acción
para la propagación a lo largo del axón; cómo los cambios electroquími-
cos causan que una neurona entre en su período refractario y se recupere
del mismo; o cómo el nivel crítico neuronal puede ser alterado por los
neurotransmisores. tales como la acetilcolina.
Con respecto a una célula visual, por ejemplo, un problema psi-
cológico crucial puede ser si es capaz de funcionar como detector de
la intensidad de los gradientes. Si los neurofisiólogos pueden decimos
qué moléculas la capacitan para ello, mucho mejor. Pero desde el pun-
to de vista psicológico, no es la bioquímica como tal lo que importa,
sino las funciones portadoras de información basadas en ella. (SearIe
admite esto aparentemente cuando dice: «El tipo de realizaciones que
los estados intencionales tienen en el cerebro puede ser descrito a un
nivel funcional más elevado que el implicado en la bioquímica de las
neuronas» (1983:272).)
Como ha mostrado la investigación en «visión computacional», el
metal y el silicio son indudablemente capaces de realizar algunas de
las funciones necesarias para la proyección de 2D-a-3D requeridas en
la visión. Además, pueden incorporar funciones matemáticas específi-
cas para el reconocimiento de la intensidad de los gradientes (es decir,
los «detectores-Dt.Xi», que computan la diferencia de Gausianas) que
parecen estar envueltas en muchos sistemas visuales biológicos. E~ de
suponer que, seguramente, el metal y el silicio no pueden realizar todas
las funciones involucradas en la visión normal, o en la comprensión
en general. Quizá sólo la neuroproteína pueda hacerlo. de forma que
únicamente las criaturas con una biología «terrestre» puedan gozar de
intencionalidad. Pero de momento no tenemos razones especificas para
pensar así. Y lo que es más importante en nuestro contexto, cualquiera
de las razones que podamos tener en el futuro tendrán que estar apoya-
das en descubrimientos empíricos: las intuiciones no nos ayudarán.
Si nos preguntamos acerca de las dependencias mente-materia que
resultan intuitivamente plausibles, la respuesta debe ser que ninguna lo
es. Nadie perplejo ante la intcncionalidad (en oposición a los potenciales
de acción) ha exclamado jamás «[Sodio -por supuesto!» La bombas de
Sodio no son menos «obviamente» absurdas que los chips de silicio, las
354
polaridades eléctricas no menos «obviamente» irrelevantes que viejas
latas de cerveza, la acetilcolina menos sorprendente, difícilmente, que
la cerveza. El hecho de que el primer miembro de cada uno de estos tres
pares sea cientificamente respetable no convierte a ninguno de ellos en
intuitivamente inteligible: nuestra sorpresa inicial persiste.
Puede que nuestras intuiciones cambien con el avance de la ciencia.
Es posible que eventualmente lleguemos a ver a la neuroproteína (y qui-
zá también al silicio) como capaz de encarnar mentes de manera obvia,
del mismo modo que ahora vemos las sustancias bioquímicas en general
(incluyendo la clorofila) como capaces de producir otras sustancias si-
milares -una intuición que no era obvia. ni siquiera para los químicos,
con anterioridad a la síntesis de la urea. Hoy día, sin embargo, nuestras
intuiciones no tienen nada útil que decimos acerca de la base material
de la intencionalidad. La proclama «positiva» de Scarlc, su supuesta
explicación alternativa de la intencionalidad es, en el mejor de los ca-
sos, un apunte prometedor y, en el peor, mero misterio de charlatán de
mercadillo.
La declaración «negativa) de Searle -que las teorías formales
computacionales no pueden explicar la comprensión - no se puede des-
pachar tan rápidamente. Mi refutación se desarrollará en dos partes: la
primera apuntará directamente a su ejemplo de la habitación China, la
segunda a ~u supuesto fundamental (del que depende su ejemplo) de que
los programas de ordenador son pura sintaxis.
El ejemplo de la habitación China ha generado mucho debate, tanto
dentro como fuera de la comunidad de la ciencia cognitiva. Algunas crí-
ticas fueron anticipadas por el propio Searle en su artículo original, otras
aparecieron como comentarios de pares (junto a sus Réplicas), y desde
entonces se han publicado bastantes más. AqUÍ me centraré únicamente
en dos puntos: lo que Scarlc denomina la réplica del robot, y lo que yo
misma denominaré la réplica inglesa.
La réplica del robot admite que la única comprensión del chino que
existe en el ejemplo de Searle es la que tienen los chinos del exterior
de la habitación. La incapacidad del Searle de la habitación para co-
nectar los caracteres chinos con lo que sucede en el mundo exterior
muestra que no entiende el chino. De la misma forma, un ordenador
teletipo de Schank que no puede reconocer un restaurante, dar propina a
un camarero. o masticar un pedazo de comida, no comprende nada sobre
restaurantes - aunque pueda «responder» apropiadamente a preguntas
nuestras acerca del tema. Pero un robot, dotado no sólo de un guión
355
de restaurante sino también de una cámara con programas visuales y
miembros capaces de andar y coger cosas sería otra cuestión. Si el com-
portamiento estímulo-respuesta de tal robot fuera idéntico al de los seres
humanos, entonces demostraría que pusee comprensión tanto de los res-
taurantes como del lenguaje natural -quizás del chinp-> utilizado por
la gente para comunicarse con él.
La primera respuesta de Searle a la réplica del robot es proclamar ya
la victoria. ya que la réplica concede que la cognición no es únicamente
cuestión de manipulación formal de símbolos sino que requiere ade-
más un conjunto de relaciones causales con el mundo exterior. Segundo.
Searle insiste en que dotar de capacidades percepto-motoras a un siste-
ma computacional no es dotarle de intencionalidad o comprensión.
Argumenta este punto imaginando un robot que, en lugar de estar
dotado con un programa de ordenador para su funcionamiento, tiene un
Searle en miniatura dentro de él -en su cráneo, tal vez. El Searle del
robot. con la ayuda de un (nuevo) libro de instrucciones, mezcla papeles
y pasa garabatos y garabitos hacia fuera y hacia adentro, como 10 hacía
antes el Searle de la habitación. Pero ahora, algunost o todos los caracte-
res chinos que entran no son introducidos por gente china, sino que son
desencadenados por procesos causales en las cámaras y el equipamiento
audio de los ojos y oídos del robot. Y los caracteres chinos que salen no
son recibidos por manos chinas, sino por motores y palancas adosados
a las extremidades del robot -que, como consecuencia, son inducidos
causalmente a moverse. Brevemente, este robot no sólo es capaz, en
apariencia. de responder a preguntas en chino, sino también de ver y
hacer cosas en consecuencia: puede reconocer brotes de soja crudos y,
sí la receta 10 requiere así, tostarlos en una cazuela china tan bien como
el resto de nosotros.
(El trabajo en visión computacional mencionado arriba sugiere que
el vocabulario del chino podría requerir una considerable extensión para
llevar adelante este ejemplo. Y la mayor parte de la investigación de la
lA en procesamiento del lenguaje sugiere que lo mismo podría decirse
del inglés requerido para expresar las reglas en el ejemplo «pregunta-
respuesta» inicial de Searle. En cualquier caso, ]0 que el Searle de la
habitación necesita no es chino. ni incluso inglés, sino un lenguaje de
programación. Volveremos sobre este punto en un momento.)
Como sucedía con su predecesor limitado por las paredes de la ha-
bitación, sin embargo, el Searle del robot no conoce nada del contexto
exterior. Es exactamente tan ignorante del chino como lo fue siempre,
356
y no tiene más posibilidades en el mundo exterior que las que tenía en
el ejemplo original. Para él, los brotes de soja y las cazuelas chinas
son invisibles e intangibles: todo lo que el Searle del robot puede ver y
tocar, además del libro de reglas y los garabatos, es su propio cuerpo y
el interior de las paredes del cráneo del robot. En consecuencia, argu-
menta Searle, no podemos concederle al robot comprensión de ninguna
de estas materias mundanas. Verdaderamente, no está viendo ni hacien-
do nada de nada: está «simplemente moviéndose como resultado de su
instalación eléctrica y su programa», que después es instanciado por el
hombre que hay en su interior. quien «no tiene estados intencionales de
tipos relevantes»( 1980:420).
El argumento de Searle en este punto resulta inaceptable COIDO refu-
tación de la réplica del robot. porque establece una falsa analogía entre
el ejemplo imaginado y lo que afirma la psicología computacional.
El Searle del robot es imaginado por Searle como ejecutando las
funciones que realiza (de acuerdo con las teorías computacionales) el
cerebro humano: Pero, mientras la mayoría de los computacíonalistas
no adscribe intencionalidad al cerebro (y aquellos que lo hacen, como
veremos. lo hacen sólo en una forma muy limitada), Searle caracteriza
el Searle del robot disfrutando de intencionalidad íntegra, tal y como
si fuera él mismo. La psicología computacional no atribuye al cerebro
visián de brotes de soja o comprensión del inglés: los estados intencio-
nales de este tipo son propiedades de la gente, no de los cerebros. En
general, aunque se supone (tanto por los cornputacionalistas como por
Searle) que las representaciones y procesos mentales se encuentran im-
plementados en el cerebro, las capacidades sensornotoras y las actitudes
proposicionales que lo hacen posible se adscriben a la persona como un
todo. En consecuencia, la descripción de Searle del sistema interior del
cráneo del robot como un sistema que puede comprender inglés no es
realmente paralela con lo que los computacionalistas dicen acerca del
cerebro.
En efecto, los procedimientos específicos hipotetizados por los psi-
cólogos computacionales, e incorporados en sus modelos computacio-
nales de la mente, son relativamente estúpidos -y se vuelven más y más
estúpidos a medida que nos movemos a niveles teóricos cada vez
más básicos. Consideremos las teorías de análisis sintáctico (parsings
del lenguaje natural, por ejemplo. Un procedimiento de análisis que bus-
ca un determinante no comprende el inglés, ni es un procedimiento para
localizar la referencia de un pronombre personal: sólo la persona cuyo
357
cerebro realiza este proceso interpretativo, y muchos otros asociados
con éste, pueden hacer eso. La capacidad para comprender inglés in-
volucra una multitud de procesos informacionales interactuando entre
sí. cada uno de los cuales sólo realiza una pequeña función pero juntas
proporcionan la capacidad de tomar oraciones del inglés como entrada
y ofrecer oraciones inglesas adecuadas como respuesta. Comentarios
similares son aplicables a los componentes individuales de las teorías
computacionales de la visión, la resolución de problemas, o el aprendi-
zaje. Precisamente porque los psicólogos quieren explicar el lenguaje
humano. la visión. el razonamiento y el aprendizaje, postulan procesos
subyacentes que carecen de estas capacidades.
En pocas palabras, la descripción de Searle del pseudo-cerebro del
robot (es decir, del Searle del robot) como comprendiendo el inglés
conlleva una confusión categorial comparable a la que supone tratar el
cerebro como el portador -en oposición al que proporciona las bases
cau~ales- de la inteligencia.
~58
cionalidad, considerada en sentido fuerte, no puede serlo. Tampoco he
afirmado que los cerebros no pueden comprender nada de nada, en un
sentido tan limitado como se quiera. sino que no pueden (por ejemplo)
comprender inglés. También he insinuado, algunos párrafos atrás, que
pocos computacionalistas adscriben algún grado de intencionalidad al
cerebro (o a los procesos computacionales que se desarrollan en el ce-
rebro). Estos dos puntos quedarán menos oscuros después de conside-
rar la réplica referente al inglés y su relación con el supuesto general de
Searle de que las teorías computacionales de tipo sintáctico-formal son
puramente sintácticas.
Lo esencial de la réplica inglesa es que la instanciación de un pro-
grama de ordenador, sea por parte de una persona, o de una máqui-
na manufacturada, presupone comprensión - como mínimo, del libro
de reglas. El ejemplo inicial de Searle depende crucialmente de que el
Searle de la riabitación sea capaz de entender el lenguaje en el que están
escritas las reglas. es decir. el inglés: de modo análogo, si el Searle del
robot no estuviera familiarizado con el inglés, los brotes de soja del
robot nunca llegarían a ser servidos en el cazo chino. Además, como he-
mos observado ya. el vocabulario del inglés (y para el Searle del robot.
el del chino también) tendría que ser modificado de un modo importante
para que el ejemplo funcionase.
Un lenguaje desconocido (sea el chino o Lineal B) puede ser trata-
do o bien meramente como un objeto estético, o como un conjunto de
formas sistemáticamente relacionadas. Los lenguajes artificiales pueden
ser diseñados y estudiados, por el lógico o el matemático puro, teniendo
únicamente en mente sus propiedades estructurales (aunque el ejemplo
de D. R. Hofstadter (1979) del sistema cuasi-aritmético pq muestra que
una interpretación convincente y predecible de un cálculo formal puede
surgir espontáneamente). Pero, de ordinario, las personas responden de
una forma- muy diferente a los símbolos de su idioma nativo; en efecto,
es muy difícil «frenar» (ignorar) los significados de palabras familiares.
El punto de vista mantenido por los psicólogos computacionales de que
los lenguajes naturales son caracterizables en términos procedimentales,
resulta relevante a este respecto: palabras, cláusulas, y oraciones pueden
ser contempladas como mini-programas. Los símbolos de un lenguaje na-
tural que uno entiende- ponen en marcha actividades mentales de diversos
tipos. Aprender un lenguaje consiste en establecer las conexiones causales
relevantes. no sólo entre palabras y el mundo (<<gato» y la cosa sobre la
alfombra) sino también entre palabras y los numerosos procedimientos no
susceptibles de introspección involucrados en su interpretación.
359
Por otra parte, no es necesario que se nos diga ex: hvpothesi (por
Searle) que el Searle de la habitación comprende el inglés: su comporta-
miento mientras se encuentra en la habitación muestra claramente que lo
entiende. 0, mejor, que entiende un subconjunto del inglés sumamente
limitado;
El Searle de la habitación bien podría sufrir amnesia total con res-
pecto al 99 por ciento del vocabulario inglés de Searle, y no habría
diferencia alguna. La única comprensión del inglés que requiere es la
necesaria para interpretar (sic) el libro de reglas -que especifica cómo
aceptar, seleccionar, comparar y emitir diferentes patrones. A diferencia
de Searle, el Searle de la habitación no requiere palabras como «cata-
lizar», «lata de cerveza», «clorofila» y «restaurante». Pero puede nece-
sitar «busca», «compara», «dos», «triangular» y «ventana» (aunque su
comprensión de estas palabras podría ser mucho menos completa que
la de Searle). Debe entender oraciones condicionales, para el caso de
que una regla establezca que sí ve un garabato debe emitir un garabito.
Muy probablemente, deberá comprender alguna forma de expresar la
negación, el ordenamiento temporal y (especialmente si ha de aprender
a hacer su trabajo más rápidamente) la generalización. Si las reglas que
usa incluyen alguna que analiza oraciones del chino, entonces necesitará
también palabras para las categorías gramaticales. (No necesitará reglas
explícitas para el análisis gramatical de oraciones en inglés, tales como
los procedimientos de análisis gramatical utilizados en programas de lA
para el procesamiento del lenguaje, porque ya entiende inglés.)
Brevemente. el Searle de la habitación necesita comprender únicamen-
te aquel subconjunto del inglés de Searle que corresponde al lenguaje de
programación comprendido por un ordenador que genere la misma con-
ducta entrada-salida «pregunta-respuesta» en la pantalla. De modo aná-
logo, el Searle del robot deberá ser capaz de comprender cualquier frag-
mento del inglés equivalente al lenguaje de programación que entiende un
robot con capacidades visuales y motoras totalmente computerizado.
Puede parecer que las dos oraciones precedentes dan por sentado
lo que se pretende demostrar. En efecto, hablar así del lenguaje de pro-
gramación que comprende un ordenador es aparentemente auto-contra-
dictorio. La premisa básica de Searle -que presupone como aceptada
por todos los participantes en el debate -es que un programa de orde-
nador es puramente formal por naturaleza: el cómputo que especifica
es puramente sintáctico y no tiene significado intrínseco o contenido
semántico que comprender.
360
-Si aceptamos esta premisa, la respuesta concerniente al inglés esbo-
zada anteriormente puede despedirse inmediatamente de buscar un para-
lelismo donde no puede establecerse ninguno de forma adecuada. Pero si
no lo hacemos, si-pace Searle (y otros (Fodor 1980: Stích 1983))- los
programas de ordenador no tienen que ver sólo con la sintaxis, entonces,
después de todo, la respuesta relativa al inglés puede se-r pertinente. De-
bemos volver ahora a ocupamos de este problema básico.
No cabe duda de que, para ciertos propósitos, se puede pensar en un
programa de ordenador como en un cálculo lógico sin interpretar. Por
ejemplo, podríamos ser capaces de demostrar, por medios puramente
formales, que una fórmula particular es derivable desde la estructura de
datos y las reglas de inferencia del programa. Por otra parte, es cierto
que un denominado intérprete del programa, que podría tomar como en-
trada la estructura de lista «(PADRE (MAGGlE))» y devolver «(LEO-
NARD)>>, lo haría basado únicamente en criterios formales, no habiendo
forma de interpretar estas estructuras como denotando personas reales.
Asimismo, como indica Searle, los programas provistos con guiones de
restaurante no están sin más por ello dotados de conocimiento de los
restaurantes. La existencia de una correspondencia entre un formalismo
y un determinado dominio no proporciona, por sí misma, comprensión
alguna de ese dominio al manipulador del formalismo.
Pero lo que no debe olvidarse es que un programa de ordenador es
un programa para un ordenador: cuando un programa se ejecuta sobre
el hardware adecuado, la máquina hace algo como resultado de ello (de
aquí el uso en las ciencias de la computación de los términos «instruc-
ción» y «obedece»). A nivel de código de máquina el efecto del programa
sobre el ordenador es directo, porque la máquina está diseñada de modo
que una instrucción dada determina una única operación (las instruccio-
nes en lenguajes de alto nivel deben ser previamente convertidas en ins-
trucciones de código de máquina para que puedan ser obedecidas). Así
pues, una instrucción programada no es una mera estructura formal-ni
siquiera un enunciado declarativo (aunque pueda ser considerado bajo
alguna de esas descripciones para algunos propósitos). Es una especifi-
cación de procedimiento que, dado el contexto de hardware adecuado.
puede dar lugar a la ejecución del procedimiento en cuestión.
Esto podría expresarse diciendo que un lenguaje de programación
no consiste solamente en un medio para expresar representaciones (es-
tructuras que pueden escribirse sobre una página o darse a un ordenador,
algunas de las cuales pueden ser isomorfas con cosas que interesan a la
361
,
gente), sino también para dar lugar a la actividad reprrsentacional de
ciertas máquinas.
Incluso se podría afirmar que una representación es una actividad.
en lugar de una estructura. Muchos filósofos y psicólogos han dado por
supuesto que las representaciones mentales son intrínsecamente activas.
Entre quienes han argumentado recientemente en esta línea se encuentra
Hofstadter (1985:648). que critica específicamente la idea de los simbo-
los que propone Newell como casos' formales manipulables. En palabras
suyas, «El propio cerebro no «manipula símbolos»; el cerebro es el medio
en que flotan los símbolos y en el que se activan unos a los otros.s Hofs-
tadter expresa más simpatía para con las teorías psicológicas «conexio-
nistas- que para con las «formalistas». El enfoque conexionista supone
sistemas de procesamiento en paralelo similares, en un sentido amplio, al
cerebro, y son muy adecuados para modelar representaciones cerebrales,
símbolos, o conceptos, como dinámicos. Pero no son los conexionistas
los únicos que pueden observar los conceptos como intrínsecamente ac-
tivos, y no son sólo las representaciones cerebrales lo que admite dicha
consideración: esta posición se ha generalizado hasta incluir los progra-
mas tradicionales de ordenador. diseñados específicamente para las má-
quinas de tipo von Neumann. El científico de computación B. C. Smith
(1982) argumenta que las representaciones programadas son inherente-
mente activas también -y que una teoría adecuada de la semántica de
los lenguajes de programación debería reconocer este hecho.
En la actualidad, afirma Srnith, los científicos de la computación
tienen una comprensión radicalmente inadecuada de este asunto. Nos
recuerda que, como se ha señalado anteriormente. no hay un acuerdo ge-
neral -ni dentro ni fuera de las ciencias de la computación-; sobre qué
es la iniencionalidad, y también existe una profunda oscuridad acerca
I Nota del traductor: Conviene que los lectores tengan en cuenta la distinción «tipo»
(Type) - «caso» (token). Esta distinción se aplica a muchas cosas. Por ejemplo. "com-
placer» o «insultar» son acciones genéricas que tienen como «caso» aquellas acciones
concretas que caen bajo uno u otro de estos «tipos». la distinción entre «proposición»
y «enunciado» en Filosofía de la Lógica, aunque resulte controvertida para algunos,
corresponde a una aplicación de esta distinción: mientras qLl~ una proposición es un
objeto conceptual, un enunciado es algo concreto (aunque su contenido sea abstracto),
en el sentido de que un enunciado e" una fila específica de símbolos que expresa una
proposición. En general. un «caso- es la realización concreta de un "tipo». Aplicado a los
símbolos. debemos distinguir entre un símbolo considerado como una entidad puramen-
te conceptual (,(tipo),). y una realización concreta de ese símbolo «(ca~o»). La distinción,
tanto en computación como en psicologia. es sumamente importante. porque son los
«casos», y no los «tipos», los que tienen poderes causales.
362
del concepto de representación. Y tampoco se puede evitar la oscuridad
hablando en jerga más técnica. en términos de computación y manipu-
lacián formal de simbolos. La comprensión que tienen los científicos de
la computación sobre la naturaleza de estos fenómenos es también bási-
camente intuitiva. La discusión de Srnith sobre los lenguajes de progra-
mación señala algunas confusiones fundamentales dentro de las ciencias
de la computación. Su afirmación de que habitualmente los científicos
de la computación hacen una distinción teórica demasiado tajante entre
las funciones de control de un programa y su naturaleza como sistema
sintáctico-formal, resulta especialmente pertinente aquí.
La división teórica criticada por Smith es evidente en el enfoque.
ampliamente difundido, de la programación como «cálculo-dual». El
enfoque del cálculo dual postula una distinción teórica estricta entre la
estructura representacional declarativa (o denotacional) y el lenguaje
procedimental que lo interpreta cuando se ejecuta el programa. Desde
luego, la representación del conocimiento y el intérprete se escriben a
veces en dos formalismos completamente diferentes (como el cálculo
de predicados y LISP, respectivamente). Sin embargo. ambos son ex-
presados, con frecuencia. en un mismo formalismo; por ejemplo, LISP
(un acróstico para lenguaje LISr-Processi ng) permite expresar hechos
y procedimientos de modos formalmente similares, y lo mismo sucede
con PROLOG (PROgramación-en-LÓGica). En estos casos, el enfoque
del cálculo dual dictamina que el (simple) lenguaje de programación sea
descrito teóricamente en dos modos totalmente diferentes.
Para ilustrar la distinción en cuestión. supongamos que nos interesa
una representación de las relaciones familiares utilizable para obtener
respuestas a preguntas acerca de ese tema. Podríamos decidirnos por em-
plear una estructura de listas para representar hechos como que Leonard
es el padre de Maggie, O podríamos preferir una representación basada
en marcos (framesv. en donde el hueco de nombre pertinente en el mar-
co PADRE podría ser satisfecho simultáneamente por «LEONARD» y
«MAGG1E». Por otra parte, podríamos escoger una fórmula del cálculo
de predicados expresando que existen dos personas (es decir, Leonard y
Maggie), y que Leonard es el padre de Maggie. Por último. podríamos
emplear la oración castellana «Leonard es el padre de Maggic».
Cada una de estas cuatro representaciones podría escribirse/dibujar-
se para nosotros en papel (como lo están las reglas en el libro usado por
el SearJe de la habitación), para interpretar si hemos aprendido a utilizar
la notación relevante. Alternativamente. podrian ser introducidas en una
363
base de datos de un ordenador. Pero para hacerlas utilizables por el or-
denador, se necesita la presencia de un programa intérprete capaz (por
ejemplo) de encontrar el ítem «LEONARD» cuando nosotros «pregun-
temos» quién es el padre de Maggie. Nadie en su sano juicio optaría por
incorporar estructuras de listas en un ordenador sin dotarlo, al mismo
tiempo, de un procesador de listas, ni por darle marcos sin un meca-
nismo de rellenar huecos, ni por introducirle oraciones en inglés sin
procedimientos de análisis sintáctico (parsing). (Análogamente, quien
supiera que Searle no habla portugués no daría al Searle de la habitación
un libro de reglas en portugués a menos que estuviera preparado para
enseñarle primero dicha lengua.)
Smith no niega la existencia de una importante distinción entre el
significado denotacionaL de una expresión (en general: qué mundos rea-
les o posibles le pueden corresponder) y su consecuencia procedimental
(en general: qué hace, o da lugar a). El hecho de que la expresión «(PA-
DRE (MAGGIE))» sea isomorfa con una cierta relación de parentesco
entre dos personas reales (y podría ser proyectada por nosotros en tal
relación) es una cosa. El hecho de que la expresión «(PADRE (MA-
GGIE)» pueda causar que cierto ordenador localice «LEONARD» es
otra bien diferente. Si no fuera así, el enfoque del cálculo dual no se
habría desarrollado. Pero él argumenta que, mejor que persistir en el
enfoque del cálculo dual, sería más elegante y menos confuso adoptar
una teoría «unificada» de los lenguajes de programación, diseñados para
cubrir tanto los aspectos denotativos como los procedimentales.
Smith muestra que muchos términos básicos de ambos aspectos del
cálculo dual tienen tanto características teóricas comunes, como dife-
rencias significativas. La noción de variable, por ejemplo, se entiende,
en cierto sentido, de forma similar tanto por el lógico como por el cien-
tífico de la computación: ambos permiten que a una variable se le pue-
dan asignar valores distintos en diferentes tiempos. Siendo esto así, es
redundante tener dos teorías específicas acerca de lo que es una variable.
Sin embargo. hasta cierto punto, el lógico y el científico de la computa-
ción entienden algo diferente por este término: el valor de una variable
en el lenguaje de programación LISP (por ejemplo) es otra expresión de
LISP, mientras que el valor de una variable en lógica es normalmente
algún objeto externo al formalismo mismo. Estas diferencias deberían
aclararse-al menos para evitar confusiones cuando un sistema inten-
ta razonar acerca de variables utilizando variables. Brevemente, nece-
sitamos una definición única de «variable» que permita tanto su uso
declarativo (en lógica) como su uso procedimental (en programación).
364
Después de mostrar que comentarios similares se aplican a otros térmi-
nos computacionales básicos, Smith plantea una explicación unitaria de
la semántica de LISP y describe un nuevo cálculo (MANTIQ) diseñado
con el enfoque unificado en mente.
Como sugiere el ejemplo del uso de variables para razonar acer-
ca de variables, una teoría unificada de la computación podría aclarar
cómo es posible el conocimiento reflexivo. Porque, dada una teoría así,
las representaciones de datos y procesos del sistema - incluyendo pro-
cesos internos al sistema mismo- serían esencialmente comparables.
Esta ventaja teórica tiene relevancia psicológica (y fue una motivación
importante del trabajo de Smith).
Para nuestros propósitos inmediatos, sin embargo. el punto crucial es
que una teoría fundamental de programas y de la computación, debería
tener en cuenta que una función esencial de un programa de ordenador es
hacer que ocurran cosas. Mientras la lógica simbólica puede verse como
un mero juego sobre un cálculo fonnaJ sin interpretar (como el cálculo de
predicados), y la lógica computacional puede verse como el estudio de
relaciones aternporales abstractas en «máquinas» especificadas matemá-
ticamente (como las máquinas de Turing). las ciencias de la computación
no pueden ser descritas apropiadamente de ninguna de las dos formas.
Del argumento de Smith se sigue que la caracterización familiar de
los programas de ordenador como todo sintaxis y nada de semántica está
equivocada. Las consecuencias procedirnentales inherentes a cualquier
programa de ordenador le sirven de punto de apoyo para la semántica,
donde la semántica en cuestión no es denotacional, sino causal. La ana-
logía está con la comprensión del inglés del Searle de la habitación, no
con su comprensión del chino.
Esto viene implicado igualmente por la discusión de A. Sloman
(1986a; 1986b) acerca del sentido en que las instrucciones programadas
y los símbolos de la computación deben ser vistos como poseedores de
alguna semántica, aunque sea restringida. En una semántica causal, el
significado de un símbolo (simple o complejo) se busca por referencia
a sus nexos causales con otros fenómenos. Las preguntas centrales son
«¿qué hace que el símbolo se construya y/o active?» y «¿qué sucede
como resultado de ello?» Las respuestas mencionarán a veces sucesos y
objetos externos visibles para un observador, y otras no.
Si el sistema es un humano, un animal, o un robot. puede tener fa-
cultades causales que le permitan referirse a restaurantes y brotes de soja
365
(las complejidades filosóficas de la referencia a objetos externos, inclu-
yendo los no observables, pueden pasarse por alto aquí, aunque 510-
man realiza un provechoso examen de estos problemas). Pero cualquie-
ra que sea el sistema de procesamiento de la información en cuestión.
las respuestas describirán a veces procesos computacionales puramente
internos-por medio de los que se construyen otros símbolos. se activan
otras instrucciones. Los ejemplos incluyen los procesos interpretativos
dentro de la mente del Searle de la habitación (comparable quizás a los
procedimientos semánticos y de análisis definidos para el procesamien-
to del lenguaje natural) que son activados por las palabras inglesas. y los
procesos computacionales dentro de un programa de análisis de textos
como el de Schank. Aunque tal programa no pueda utilizar el símbolo
«restaurante» para significar restaurante (porque no tiene vínculos cau-
sales con restaurantes, comida, etc.), sus símbolos internos y procedi-
mientos incorporan alguna comprensión, siquiera elemental. de otras
materias -por ejemplo, de qué es comparar dos estructuras formales.
Puede dar la impresión de que la «comprensión. implicada en este
caso es tan mínima que esta palabra no debería ser usada. Así sea. Corno
aclara Sloman, la pregunta importante no es «¿cuándo comprende algo
una máquina?» (una pregunta que implica, erróneamente. que hay al-
gún límite claro en el que cesa la comprensión), sino «¿qué necesita
ser capaz de hacer una máquina (sea biológica o no) para poder corn-
prender?». Esta pregunta es relevante no solo para la posibilidad de una
psicología computacional, sino también para su contenido.
En conclusión, mi discusión ha demostrado que el ataque de Searle
a la psicología computacional está mal fundado. Considerar el Searle de
la habitación como una instanciación de un programa de ordenador no
supone afirmar que carezca de toda comprensión. Ya que las teorías de
una psicología computacional formal deberían vincularse a programas
de ordenador en lugar de a la lógica formal. la psicología computacional
no es, en principio. incapaz de explicar cómo se conecta el significado a
los procesos mentales.
Referencias
BODEN, M.A. (1970). «Intentionulity and Physical Systerns». P/¡¡ltH'O/J/¡Y ti
Science 37: 200-14.
CHISHOLM, R.M. {1967). -Intentionality.» In P. Edwards (ed.). The Encvclope-
dia ofPhilosophv. Vol. IV. pp. 201-204. New York: Macmillan.
366
DENNETI, D.e. (1971). «Intentional Systems.» 1. Philosophy 68: 87-106. Repr.
in D.e. Dennett, Brainstorms: Philosophical Essays on Mind and Psycho-
logy, pp. 3-22. Cambridge, Mass.: MIT Press, 1978.
FODüR, J .A. (1980). «Methodological Solipsism Considered as a Research Stra-
tegy in Cognitive Science.» Behavioral and Brain Sciences 3: 63-110. Repr.
in lA. Fodor. Representations: Philosophical Essays on the Foundations of
Cognitive Science, pp. 225-56. Brighton: Harvester Press, 1981.
HO¡"STADTER, D.R. (1979). Godel Escher. Bach: An Eternal Golden Braid. New
York: Basic Books.
-, (1985). «Waking Up from the BooIcan Drcam: Or, Subcognition as Compu-
tation.» In D.R. Hofstadter, Metamagical Themas: Questing for the Essence
ofMirul and Pattern, pp. 631-65. New York: Viking.
NEWELL, A. (1980). «Physical Symbol Systems.» Cognitive Science 4: 135-83.
SCHANK, R.e.. and ARELSON, R.P. (1977). Scripts. Plans, Goals, and Unders-
tanding, Hillsdalc. NJ: Erlbaum.
SEARLE. J.R. (1969). Speecli Acts: An Essay in the Philosophy of Language,
Cambridge: Cambridge University Press.
- . (J 980). «Minds. Brains, and Programs.» Behavior and Brain Science';' 3:
..tI 7-24.
- . (J 9K3). lntentionalitv: AIl Essay in the Philosophy of Mind. Cambridge:
Cambridge University Press.
SLüMAN. A. (1986a). «Reference Without Causal Links.» In B. du Boulay and
L..I. Steels (eds.). Seventh European Con/ere 11ce on Artificial Intelligence,
pp. 369-81. Amsterdarn: Nonh-Holland.
- . (1986b). «What Sortx of Machines Can Understand the Symbols They
Use?» Proc. Aristotelian Soco Supp. 60: 61-80.
SMITH, B.C. (1982). Refiection and Semantics in a Procedural Language, Cam-
bridge, Mass.: MIT Ph.D. dissertation and Technical Report LCS/TR-272.
STICH. S.e. (1983). From Folk Psychology to Cognitive Science : The Case
Againts Belie]. Cambridge. Mass.: MIT Press/Bradford Books.
367
ÍNDICE ANALÍTICO Y DE NOMBRES
A B
369
Broadbent, n.r., 124, lJ2 Clark. A., 13, 21. 194,209. no
Brown, A.L., W8, 133 Clocksin, W.F.. 123, 133
Brown, G.S., 56,71 Coh~n, P.R.. 232, 235. 237, 239, 249,
Brown, LO., 65, 71 255, 25Q. 260-2A)
Brown, J .S., 20l. 211, 220 Colby, K.M.. 72. 188
Brown, K., 226 Cole, P.. 262, 266
Bruce 250, 258, 260 ü"\lIin~, A., 266
Buchanan, B.G., 2(11, 220 Composicionalidad, 99
Butterworth, B.. 239, 260 ComposinvidadZ't l
Byrnc. R .. 15, 16, 21, 206, 210. 211, Comprensión. 231
219 Computación. 7. 10. 12, 13, 16, 17. 18.
19.23,24,27,28. 29. 36-4~ 53, 5~
57, 94. 95. 99, 101. 102. 106, 115.
e 116. 122. 136. 137. ns, 146. 157,
158. 160, 194. 232. 349, 36 L 362,
Cálculo. 31, 34, 128. 199, 200. 333, 344. 363.365
359.3~1.363.J64.365 Comunicación, 45, 46,83.89. 105, 1~6.
Calificación (problema de la). 336 247.270.272
Carberry, B.S., 2..t7. 24l'. 257.260 Condiciones de verdad, 82. 217, 218,
Carbonell. J.G .. 132. 134 280,286
Card, S.. 124. 125. 133 Conductisrno, 7R. 191
Carey, S., 212. 220 Conexionisrno, 12.21
Carpenter. P.A, 58. 71 Connell, 1.,39.73,210.226
Carsfile, J.H .. 264 Conocimiento. 17. 30, 31, 37, 40, -1-6. 54.
Cerebro, J 2, l7. 36, 50. 63. 70. 97. 13 t. 55,57,65,66.~7,68,70, 77. 79.80.
136. 137, 1.\8, 143, 187. 191, 19.3, 81, 82.~4.R5, 91,92, 93.94,96,97.
325. 343, 351, 352. 353, 35j, 357. 99. lOO, 102, 105, 106. 107. 108, 109.
35R,359.362 IJI. 112, 115. 116, 117. 119. 123, J 26,
Chafe, W.L, 239.260 129, 130. 138, 113. 144. 152, 182,
Champion, L.A., 219. 225 193, 194. 196. 197, 201. 207, 212.
Chaprnan. M.. 226 214. Z16. 217.218.219.229,231,
Charniak, E" 230,260 233, 236, 246, 271. 272, 280, 286,
Chase. W.G., 7 L 72. 133.224 321. 324. 125, 327, .128, 33 1, 332.
Cheng, P.N .. 20 l , 220 ~33.336.344.353,361.365
Cherniak, e, 32 t. 346 Conocimiento (dependiente eJe]), 11,25
Chisholrn, R.M., 353, 366 Conocimiento (nivel del). 35. 3(1, 59,
Chornsky. N.. 9,16.21. 25,41, 47.199. 126
220 Contenido. 46.53,55.61,89,90.96,98.
Church. A,. 26, )04, 296 114. 115, 129, 131. 146, 152.153,
Churchland, P.S.. 63 154. 194. 199. 200. 201, 203, ~ 11.
Ciencia cognitiva, 9. io. 18, 21, 22. 23. 218. 241, 242. 243. 246. 247. 270.
24.28, 32,35. 18,41,4~.44,47,49, 278, 279. 286. 299. 301, 303, 307,
50,53.56,60.62,64,66-70,87.88, 345, 3h2. J66
90. 92, 94. 96, 1n. 129. 13 r. U5, Contenido del conocimiento, 36, 212.
136, 147. 1:i2. 159, 16(), 217. 218. Contenido semántico. 31. 269. 271. 302,
249.273.297,298.328.359 360
Circunscripción. 254. 340. 343 Contexto discursivo. 236, 2~<j
370
Control (el problema del), 25, 42-47,51, Dixon, R.A.. 226
72,80,91,93.98,106.115,116.117. Dominio. 15.30,34.38,40.41,48,49,
]20. ]21. 129. 133, ]60, 161. 172. 53. l , ó3. 66,67,69. 129. 152, 163,
ó
372
Goguen. 1.. 232. 264 Hewert, M., 219, 222
Goldíng, A .• 134 Hewitt, e, 200. 222
Goldman, A.A .. 18,21 Hilbert, A., 26, 36
Goldste!n. G.D .. 72 Hinrichs, E., 245,262
Goodrnan, N .. 313. 332,347 Hinton. G.E., 157, 158, 162, 166, 167,
Goodson, J. L., 266 213,222
Grafo-búsqueda, 251 Hobbs, J., 222,233. 235, 237, 238. 240,
Grccn, G., 213. 224 263
Green, T. R. G., 212. 222 Hoc. J.M., 222
Greenspan, J., 211 , 226 Hoff. M.E .. 145.156,167
Grice, H.P., 236, 248. 249. 261.262. 271. Hofstadter D.R .. 217, 222, 329,342,347.
315 359,362.367
Grimes-Parrow, D.D.. 220 Holland. J.D .. 133, 220, 222, 224, 227,
Groenendijk, J.. 223, 263 262.266.367
Grossberg, S., 145, 166 Holuoak, K.J., 221
Grosz, B.1., 8, 16,20,229.230,231,232. Hopcroft, J.E.. 91. 99. 133
233, 235, 236, 238. 239. 241. 243, Hopficld.1.. 150, 151,165, 166
245,259,262.304 Horrigan. M.K.. 250, 263
Guenthner, F., 244, 262 Horsntein, N., 222
Guiones. 46. 338, 339, 36 [ Howard, J.• 165.346
Guthrie, ER.. 43 Hutchins. E., 21l, 222
Gutmann, M .. 211, 224 Huttenlocher, J., 208. 222
Guyotc. M.J.. 203,222
1
H
Implicación lógica, 294, 296, 298, 299
Haddock, NJ.. 246,262 Implicatura, 248
Hara~z., EG., 214,222 Inder, R., 203, 223
Halle, M., 226 Inferencia, 36. 37. 40. 66, 173, 183. 198,
Halliday, M .• 2-1-7, 262 199, 200, 201, 204, 209, 210. 215,
Halvorsen, P.K., 316 241.282,294,295,296,298
Hankamcr, J., 196. 226 Inferencia (proceso de), 15,207
Harman, G., 224, 316 Inferencia (reglas de), 15, 29, 199, 200.
Hamish, R.M., 167,225 201. 209. 210. 230, 253, 254. 255,
Hasan, R.. ::!47. 262 257,258.361
Hauge1and. J., 217,222.318,347 Inferencia lógica. 53, 55
Hayes, P.J., 18, 47. 72, 199, 218, 222. Inferencia probable. 254
318,319,324,326,3~4.~44.347 Inferencia silogística, 202
Hayes-Rorh, B.. 45,71, 123.133.219. n2 Inferencia válida. 294, 295. 296
Hebb, D.G., 145, 166 Inferencia no-rnonónota, 337
Heider. F., 1R9 lnfones, 311. 314
Heim, r., 244. 262 Inhelder, B., 199,223
Hendrix, G.. 247, 262 Inteligencia Artificial, io, 18. 154, 318
Hétero-fenomelológiaTzc Intencionalidad, 12, 253. 269, 349,
Heurística, 69, 252, 254 351-359. 362
Heurística de bifurcación, 254 Intérprete. 28, 85.89, 118,361,363,364
373
Isabelle, D., 241,. ]1)3 Kohler. W" 27, 71
lsard, S.D., 47. 71 Kong, K.L.. 64. 70. 73
Korta, K., 8. 229
Kosslyn, S.M .. 55,66.72
J Kowalski, R.A., 199, 224
Kripke. S.. 305. 30?, ~ 15
JackeL L., 165 Krocrber. P., 265
Jackendoff, R., 2m. 2~3
Jacobi, G.T.. 7'2
J acobovits, 261
L
James, W., IJJ, 206
Janssen, T.. 223. 263
Laird, J.E., 7,12,21, 87. IOR. 129,133,
Johansson. G., 39
134
Jonnson, M.K.. 46.71
Lang. T., 99. 13.~
Johnson, M.V., 219.222
I.angholm. T., 316
Johnson-Laird, P. N., 8. 1..1.. 15, 16, 21.
Lansky, A.L. 251,258.261
170, 189. IYI. 192, 19'¡. 195. 197.
Larkin,J.H .. 212, 224
19~L 199. 200. 201. 203. 206, 210.
214. 217, 219. 220. nI, 223, 224. LarrazabaJ. J.}Y1., 7
225. :'27,297 Lasnik. H.. ~40, ~ftJ
374
Lenguaje natural, 185, 186, 230, 231, Marslen-Wilson, W.. 264
272. 276, 277, 281, 284. 302, 350, Martin, P., 207. 263
356.359 Martinez, F., 7, 13,21
Lenguaje natura] (semántica del), 185,314 Martinich, A.P., 316
Lenguaje natural (sintaxis del), 28 L 357 McCarthy. J., 1&,47. 254. ~64. 318,
Lenguaje procedimental, 363 319. 320, 326. 336. -"37. 340, 343,
Lepinies. W., 96. 134 347
Lesser. V.R., 45,71. 249.264 McCawley. 1.. 223
Leventhal, H., 21 1, 224 Mcf.lelland. J.L., 67.73. 166
Levesque, H., 259,260.261 Mcf'loskey, M.. 213. 224
Levin, l.A., 264 Mcf'orduck, P.. 201. 221
Levinson, S.c.. 249. 2M McCue, 0.,249.264
Le .. y, D.M., 233, 235. 264 McCulloch. W.S .. 12.21, 100
Le .. y, E., 239, 264 McDermott. D. 200,224,339, 340, 344,
Lewis, C .. 214, 224. 347
Lewis, D.K., 217. 224. 271, 305, 307, McOonald, O.D., 243. 264
308.315,316 MeGorugle. B., 226
Linde. c. 232, 233,234.264 McKcown. K.. 235, 243, 264
Lindcm, K.. ]98. 221 t\.kNeill. D.. 239,264
Lindsay, P.H., 45, 72 Mellish. CS.. 1~3. 133,246.265
Litnlan.D., 239. 248.257. 258. 263. 264 Mcltzcr, B. 71.72,347
Lochhead, J,. 221 Memoria. 9. 12, 29, 32, 41, 42, 45. 50,
Lockhart, R.S,. 126. 133 51, 52, 67. 70. 75. 84, 89. 90, 92.93.
Lógica formal. 9,31, 32,210,366 100-128, 135, 137, 146. 152, 153.
Lógica mental. 199,209.210.216 159,161. 162.184, J96. 219.342
Lógica modal, 17 Memoria a corto plazo. 42. 124
Lógica no-monótona, 339 Memoria a largo plazo, 10 1. 109. ] 12.
Ló~a simbólica, 30, 349, 365 113, 115, 116. 117. 121. 122. 12..t.
Lógica temporal, 340 219
l.yons, W.. 183. 189 Memoria de trabajo, 109\ 111. 113.
115-120
Mente, 9.10, u, ]4-18. '27,28,35.36.
1\1 43, 50, 56, 85, 87\ 88, 90, 96. 130.
169,170.171,184,185.187,191.
Mae~. P.. 108, 133 198. 210. 213, 218. 271. 294. 340.
Mani, K.. 195,224 346,353,354,357.359,365,366
Maquina de Turing. 26. 28. 29. 52. 55. Merry, M., 189
5g. 60, lOO Mesarovio, M.D., 72
Marcadores. 237 Meyer, D., 211, 224
Marco (problema del), 8, 18,317.318, Meyer, M .• 198, 221
319. 320. 321. 323, 326. 330-334. Michalski, R.S .. 132, 134
337,339,343.3~.345.346 Michie , D .. 71. 72, 20 L 224, 347
~arcos,46, 123,246.~}8.339.340.3ó3. Migura, E. 8
364 Milh:r. G.A .. 9. 44. 72, 191, 197. 214,
Markov, 100 224.226
Marr, D., 38, 39,40,41, 4&,69.7'2. 193. Millikan. R.G., 344, 347
224 Milutinovic, v.~., 99. 133
375
Minsky, M .. 99, 112, 133, 139, 152. 154, o
156. 158, 159. 166. 200, 224. 335.
337,338,347 Oakhi 11 , lV.. 194, 195, 196, 198, 206,
Mitchcll, T., 132, 134 221,225
Miyata, Y, 161, 166 Oatley, K.. 170,189,211,219.225
Modelización, 14, 19, 31, 139, 142, 274, O'Connell, D.N., 39. 73
275,282,308,314,343.345 Oden, o.c.. 217,225
Modelos mentales, 14, 15, 191, 192,193. Operadores. J03. 11 L 112. 117, 118. 128,
194, 197, 198, 201, 202, 203, 206, 129,251.252,255,258,259
207, 20R, 211, 212, 214-219. 2Q7, Optimización, 139, 146, ]52, 163
298 Ordenador. 10, 24, 25, 28, 29. 30, 32, 34,
Monk, J., 21 L 220 15.40,42,43.44,49,50.51,53,68.
Montague, R., 16, 21. 305, 307.315.31 Ó 70,75,76,77,79,80,84.85,88,89,
Moon, D.A.. ] 34 90, J02. us. 117. 118, 121, 135, 136,
Moore, M.A .. 26-1- 137, 138, 182. 187, 188, 191, 216,
Moore, R., 222. 318 325, 337, 349, 350. 351, 352, 355,
Moran, T.P., 58. 72. 124, 125, 133. 211, 356, 359-366
214,222,224 Ortony, A., 132, 222
Morgan, J.L.. 132, 134, 166. 167, 249, Osherson. D.N., 199,225
261,262.263,264,265,266
Morril, G., 262
Mozer, N.C., 161, 166 p
Munro, P.W., 162, 165
Murray, D., 222 Papert, S.. 139. 152. 154. 156, 158. 159,
Myers, T, 226 166
Partículas, 2."7 _
Patrón de conectividad, 140, 143
N Payne, SJ.. 212,222
Penetrabilidad Cognitiva, 35,66
Nardi, D.. 108, ] 33 Pensamiento. 10\ 15, 31, 36. 43,44,49.
Neely, R.B .. 166 75, 77. 78, 79, 80, 81, 83, 84, 85. 112,
Neumann, von, 70. 122, 136, 345. 362 173. 198, 215, 219, 269, 318, 320.
Newell, A., 7, CJ, 12.21.24,28,37,41, 323.327.333,339,340
42,45,56,58,68,72.87,93.94,97, Perceptrón, 145, 154, 156, 158
99, 100, 108, 124. 125, 128. 129, 132. Pcreira. F.C.N., 244, 246, 265
133. 134, 191, 200, 203, 206, 207, Pérez Miranda, LA., 5, 7, 8, 9, 22
224,225.326.347.352.362,367 Perkins, D.N., 221
Nickerson, R., 224 Perrault, n.c., 248, 249, 255, 260, 261,
Nicod, J., 56. 72 265
Nilsson, N.J., 251, 252, 261.265.347 Pcrers, S.. 316
Nisbett. R.E.• 20 1, 222 Peterson. K.. 265
Nivel físico, 31 Piaget. J .. 199. 223
Nivel semántico. 68, 341. 344 Pierrehumbert, J.. 239, 263
Nivel simbólico, 32, 91. lOO Pítt!'., \V.H., 12.21, IDO
NÜAH,251 Planes (planificación), 13. 68, 103. 129,
Norman, D.A., 45,72, 2B. 224 170, ]71, 183. 185, 230, 235, 2J9,
Numeral, 31, 33, 34. 272,276 248-259,317,326,330.340
376
Plogg, D., 134 R
Poggio, T., 39. 72, 193. 225
Polanyi. L.. 232, 233. 234. 2)8, 265 Razonamiento, 9, 14, 15,29,30,31. 32.
Polanyi, M .. 70. 72 36. 37, 41, 49, 67. 172, 173. 192.
Polk, T.A.. 108. 134.201. 225 199-203. 206-213, 217, 218, 219.
Pollack, M.E .. 8, 16.21, 22Q. 244, 246, 249, 251, 252, 253. 255, 256, 323.
249, 25R. 25CJ. 261, 262. ~6J. 264. 329,337. 340,343, 35g
265,304 Reconocimiento del ojo de la cerradura,
Posner, M.L 7.8,18,20,21, 42. 65, 72, 249
219 Reconocimiento de planes. 130. 239,
Post, E.. 26. 100 24S-259
Power, M.J .. 219, 225 Reconocimiento pretendido. J30
Precedencia de satisfacción. 236 Reddy. D.R .. 45. 71,152.166
Pribram, K.H., 44, 72. 191 Referente, 11. 197.240.242,246.359
Procesamiento, 9, 12, 13, 16, 17. 25, 27. Registro tonal, 239
35,36,41,42,48,53,57,58.64.65, Regla de Acción-Efecto, 252. 253. 255
66, 67, 75, 87.91, 92, 96, 105. 106. Regla de activación, 14~
Regla de aprendizaje, 14ü, 145, 153. 1S6
111. 113, 118. 119, 113, 124. 125,
[28, (35-146, 151, 152,159,229-236, Reichardt, W.E., 193,225
Reichgelt, H., 198,225
240. 257, 258, 323, 343, 345, 349,
Reichman-Adar, R.. 232, 234, 238, 241,
350.~)6.358,360.362,366
265
Procesamiento del discurso, ver Discurso
Reilly, J.S., 223
(procesamiento del)
Reinhart, T.. 240. 165
Procesamiento del lenguaje. ver Lengua-
Reiser, BJ " 185, 189
je (procesamiento del)
Reiter, R.. 199. 225, 260, 265, 340, 347
Procesamiento interactivo. 152
Relaciones, 10, 19, 39.47,54.55.80.81,
Producción. 46, 5ó. 76, 79. 109-118. 122,
8·;j., 160. 193. 197.209,210,212.214.
130, 144, 160, 161. 174. 178, 179.
215,230-239.243.245,246.248,251,
200,218,352
271.278,280,287,288,296,303-314.
Productividad. 17, 31 327, 3-ro, 344. 345, 346, 356. 363,
Preferencia. 230, 232, 235, 236. 237, 3ó5
239, 242-250, 253, 257. 279. 21\6, Relaciones retóricas, 233, 235, 236. 237
299,300,301.302,308,311.312 Relevancia, 10, 18, 46, 63,206,173,296,
Programa, 9, 12. 16, 18. 26. 40, 41\, 49, 335,365
51,56,57,75, 76, 84, 85,g9,90,98, Representación, 18. 30. 35. 5), 56. 58,
103,117,118,120,121,128.130.136, lOO, 129. 140, 142, 145. 152, 154,
137.138,159.209,214,231,274.275, 155, 156. 157, 173, 175. 191, 193.
276,340,342,349,350,351,356-366 195,204,207.210,213.216.217,
Pronombres, 16.229, :230.231.239,241, 219, 242. 244. 246. 247. 249. 251,
242,243,301 259, 287, 288. 303, 311. 3]9. 326.
Prosodia, 235, 239 327,335,362
Putnam, K, 71. 84 Representación del conocimiento. 9, 1S
Pylyshyn, Z.W.. 7. 10. 11. 21. 23,29,31, 192.200.211,363
35.36. ~7.50,53. 60.61.63,64.65. Representación lingüística. 196. 197,
69.70,71,72.73,87,185.189,216, 198.216.218
~25.~18 Representación mental, 54.192,212,216
377
J
378
Sintagma nominal, 242, 245, 246, 283, Teoría de centrado, 243
2gS. 291. 306,313 Teoría de la circunscripción, 254
Sintagma predicativo. 283. 288. 289. ter Meulen. A .. 223
290,291.293 Test de Turing. 7, 10.75.77,78. 79. ~O.
Sisternaticidad. 31. 37 8~.g3,S5
Skinner, T.. 16, 21 Thagard, P. ~Ol, 215,222
Slocurn, 1., 262
Thomason, R., 21. 316
Slornan, A.. 7. 13,22,169,172,181,182,
Thompson, R., 108, 132
188.189.365,366,367
Thompson, S.A., 233, 235.238,264
Slovic. P. 223, 226
Todd. P., 161. 167
Smith. s.c., 126. 362. 363. 364. 365. 367
Smith, E.R., 201. 219.226 Tono. 209, 239
Smolensky, P.. 167 Touretzky, D., 166, 167
Soar, 12.!n, 10~-ID, l15-119, 121.122. Townsend, J.T., 62, 73
12~. 129, 1~(). 133. 13·1-,225 Traugott, e.e. :!23
Solla, B.. 165 Turing, M.A., 7. 10, 1R.22, 24,26,27, 2R,
Soloway, E., 211. 226 29,36,52,55.59,60,69,73,75-80.
Solso. R.. 221 82,83, 85, 100. 104, 114, 365
Spcnccr Brown. G .. 56 Tversky, A., 197, 201, 208, 213. 223, 226
Spencer-Smith, R.. 198. 126 Tyler. L.K .. 58. 72, 264
Sperling, G., 42. 73
Sridharan. N.S .. 266
Stalnaker, R., 307. JWL.3 [6
Sreele. G.L.. 1:2. U.+
u
SleeJ~. B" 367
Ullman, J.D.. 91. 99. 133
S!e"nk. M.. 252,266
Ullrnan, S.. 39.40,66.73
Steicr. D.E., 129. 134
Underwood. G .. 125
Steinberg,261
Unidades de procesamiento, J 37. 139.
Stenning. K., 198. 226
140, 142, 141
Sternberg, R.J .. 209,222.223,226
Sternberg, S., 42, 73, 127, 128 Unruh, A., 134
Stevens, A.L.. 211. 220. 221, 222, 224.
227
Stevcns, K.A., 39, 73 v
Stcvcns, R.. 225
Stich, s.c., 36J, 367 van Benthern, J., 316
Stokhof, M.. 223.263 van der Veer, G.c., 222
STRIPS,251.261,347 van Dljk, T.A., 196. 198.2:23. 227, ~J-l. ~66
Supuesto de rama única, 254 VanLehn, K., 97, 134
Vasta. R., 133
Verdad cognitiva, 298
T
Verdad lógica. 294, ~q6-300. 309, 310
Tate. A.. 252.266 Vicente, A., 7
Técnicas de reconocimiento incremental, von Cranach, M., 96. 134
257 von Stechow, A., 225
Teoría de actos de habla. 255 Vosniadou, S., 132, 221, 222
379
/
380