Anda di halaman 1dari 9

104

MENTES, CEREBROS

Y PROGRAMAS

Pylyshyn, Z. W. (1980), "Cornputation and Cognition: Issues in the Foundation of Cognitive Science", Behavioral and Brain Sciences, 3, pp. 111-132. Schank, R. C. y Abelson, R. P. (1977), Scripts, Plans, Coals, and Understanding, Hillsdale, N. J., Erlbaum. Searle, J. R. (1979a), "Intentionality and the Use of Language", en A. Margolit (ed.), Meaning and Use, Dordrecht, Reidel. -(1979b), "What is an Intentional State?", Mind, 88, pp. 74-92. Varios autores (1978), "Cognition and Consciousness in Non-Human Species", Behavioral and Brain Sciences, vol. 1. nm. 4, nmero completo. Weizenbaum, J. (1965), "ELIZA-A Computer Program for the Study of Natural Language Communication Between Man and Machine", Commun. ACM, 9, pp. 36-45. --(1976), Computer Power and Human Reason, San Francisco, W. H. Freemano Winograd, T. (1973), "A Procedural Model of Language Understanding", en R. C. Schank y K. M. Colby (eds.), Computer Models of Thought and Language, San Francisco, W. H. Freeman, pp. 152-186.

IV. ESCAPE DE LA HABITACIN

CHINA *
MARGARET

A.

BODEN

EN SU ARTCULO "Mentes, cerebros y programas" (1980), John Searle alega que las teoras de computacin en psicologa son esencialmente intiles. Hace al respecto dos afirmaciones importantes: las teoras de computacin, de naturaleza puramente formal, no pueden ayudamos en modo alguno a comprender los procesos mentales; y el hardware de la com pu tadora, a diferencia de la neuroprotena, carece obviamente de los poderes causales adecuados para generar procesos mentales. Demostrar aqu que ambas afirmaciones estn equivocadas. ,... La primera afirmacin de Searle da por sentada la suposicin (formalista), ampliamente aceptada de que los "cmputos" que se estudian en la ciencia de la computacin son puramente sintcticos y que pueden definirse (en trminos igualmente adecuados para la lgica simblica) como

el manejo formal de smbolos abstractos mediante la aplicacin de reglas [ormales . Segn este autor, de ah se deduce que las explicaciones forma-

listas, aunque adecuadas para explicar el procesamiento de "informacin" sin sentido o el manejo de "smbolos" en las computadoras, son incapaces de explicar cmo utilizan las mentes humanas la informacin o los smbolos, propiamente as llamados. El significado o la intencionalidad no pueden explicarse en trminos computacionales. Searle no quiere decir con eso que ninguna mquina pueda pensar. Los seres humanos pueden pensar y c:,tos, concede, son mquinas; incluso adopta el credo materialista de que slo las mquinas pueden pensar. Tampoco dice que los seres humanos y los programas sean totalmente inconmensurables. Acepta que, en cierto nivel sumamente abstracto de descripcin, las personas (como todo lo dems) son ejemplificaciones concretas de cornputadoras digitales. Ms bien argumenta que nada puede pensar, significar o comprender exclusivamente en virtud de su ejemplificacin Concreta de un programa de computadora. Para convencemos de esto, Searle recurre a un ingenioso experimento de pensamiento. Se imagina a s mismo encerrado en una habitacin donde hay una serie de fajas de papeles que contienen garabatos; una ventana a
* Margaret A. Boden, "Escaping from the Chinese Room", tomado del captulo 8 de Computer Models o[ Mind (1988). Reproducido con permiso de Cambridge University Press.

105

106

ESCAPE DE LA HABITACIN

CHINA

ESCAPE DE LA HABITACIN

CHINA

107

travs de la cual la gente puede pasarle ms papeles con garabatos y por la que l puede entregar papeles; y un libro de reglas (en ingls) que le indican cmo aparejar los garabatos, que siempre pueden identificarse por su forma o figura. Searle pasa el tiempo dentro de la habitacin manipulando los garabatos de acuerdo con las reglas. Una de estas reglas le indica, por ejemplo, que cuando le pasen guiri guiri entregue guara guara. El libro de reglas tambin contiene secuencias ms complejas de pares de garabatos, donde slo el primero y el ltimo pasos mencionan la transferencia de papel hacia adentro o afuera de la habitacin. Antes de que encuentre alguna regla que le ordene directamente entregar una tira de papel, deber localizar el garabato plonque y cornpararlo con un garabato plonque, en cuyo caso el resultado de la comparacin es lo que determina la naturaleza del garabato que entregue. Algunas veces tendr que hacer muchas de estas comparaciones de un garabato con otro y las consiguientes selecciones de garabatos, antes de encontrar la regla <ue le permita transferir algo hacia afuera. En lo a que concierne a "Searle en la habitacin", estos giris y guaras no son ms que garabatos sin sentido. Sin embargo, aunque l no lo sabe, se trata de caracteres chinos. Las personas que se encuentran fuera de la habitacin, que son chinas, los interpretan como tales. Ms an, los modelos que entran y salen por la ventana son interpretados por ellos como preguntas y respuestas respectivamente: las reglas son tales que la mayora de las preguntas tienen su contraparte, ya sea directa o indirectamente, en lo que ellos reconocen como una respuesta sensata. No obstante, el propio SearIe (dentro de la habitacin) ignora todo esto. La cuestin, dice Searle, es que "Searle en la habitacin" es claramente la representacin concreta de un programa de computadora. Es decir, hace un manejo puramente formal de modelos no interpretados: todo en l es sintaxis y nada de semntica. garabatos son equivalentes a las reglas "si ... (por ejemplo) en los sistemas expertos. Algunas de las comparaciones internas entre garabatos podran equivaler a lo que los estudiosos de la lA en el rea de procesamiento de lenguajes naturales llaman guin, por ejemplo, el guin del restaurante descrito por R.e. Schanky R.P. Abelson (1977). En ese caso, el proceso de transferencia de papeles de "Searle en la habitacin" podra compararse en esencia con la ejecucin del programa de anlisis de textos de Schank de "preguntas y respuestas". Sin embargo, este proceso de preguntas y respuestas no consiste en responder las preguntas. "Searle en la habitacin" no est realmente respondiendo. Cmo podra hacerla si no comprende las preguntas? La prctica en realidad no sirve de nada (excepto, quiz, para aparear ms rpido los garabatos), ya que si "Searle en la habitacin" escapara algn Las reglas para aparear

da, seguira

siendo

tan ignorante

del chino como lo era cuando

lo ence-

rraron. No cabe duda de que los chinos de afuera encontraran til mantener bien alimentado a "Searle en la habitacin", de la misma manera en que en la vida real estamos dispuestos a invertir grandes sumas de dinero en sistemas de "asesora" por computadora. Mas el hecho de que la gente que realmente entiende pueda utilizar un sistema de cmputo formalista e intrnsecamente carente de sentido, para proporcionar lo que ellos interpreten (sic) como preguntas, respuestas, designaciones, interpretaciones o smbolos, resulta irrelevante. Slo lo pueden hacer si logran especificar externamente una correspondencia entre el formalismo y los asuntos que les interesan. En principio, uno y el mismo formalismo puede hacerse corresponder con varios dominios distintos a fin de ser utilizado (por gen te) para responder preguntas acerca de cualquiera de esos dominios. Sin embargo, esto carecera por s mismo de sentido, al igual que.los smbolos chinos, desde el punto de vista de "Searle en la habitacin". De aqu se deduce, de acuerdo con Searle, que ningn sistema puede entender nada exclusivamente en virtud de su representacin concreta de un programa de computadora, puesto que, si pudiera hacerla, entonces "Searle en la habitacin" entendera chino. Por consiguiente, la psicologa terica no puede fundamentarse apropiadamente en conceptos computacionales. La segunda afirmacin de Searle se refiere a cul sera una explicacin adecuada de comprensin. Segn l, sta certificara que los smbolos significantes deben encontrarse incorporados en algo que cuente con los "poderes causales correctos" para generar comprensin o intencionalidad. Es obvio, dice, que mientras que los cerebros s tienen estos poderes causales, las computadoras no. Ms precisamente (puesto que la organizacin del cerebro podra ser comparada con la de una computadora), la neuroprotena tiene estos poderes, mientras que el metal y el silicn, no: las propiedades bioqumicas de la materia cerebral son fundamentales. Searle rechaza la definicin ampliamente citada de A. Newell (1980) para "sistemas de smbolos fsicos", porque sta exige nicamente que los smbolos se incorporen en algn material capaz de ejecutar cmputos formalistas, cosa que las computadoras -como es evidentes pueden hacer. Desde el punto de vista de Searle, ninguna computadora electrnica puede de verdad manipular smbolos, ni designar o interpretar realmente nada en lo absoluto, independiente de cualesquiera dependencias causales que vinculen sus modelos fsicos internos con su comportamiento. (Esta opinin tan realista de la intencionalidad contrasta con el instrumentalismo de D.e. Dennett [1971]. Para este autor un sistema intencional es aquel cuyo comportamiento se puede explicar, predecir y controlar con slo atri-

entonces" que suelen utilizarse

108

ESCAPE DE LA HABITACIN

CHINA

ESCAPE DE LA HABITACIN

CHINA

109

buirle creencias, propsitos y racionalidad. Conforme a este criterio, algu_ nos de los programas de computadora existentes Sonsistemas intencionales y los hipotticos humanoides tan socorridos en la ciencia ficcin seran a [ortiori sistemas intencionales.) Searle declara que la intencionalidad es un fenmeno biolgico. Como tal, es tan dependiente de su bioqumica implcita como lo son la fotosntesis y la lactancia. Searle concede que tal vez la neuroprotena no sea la nica sustancia en el universo capaz de dar sustento a la vida mental, del mismo modo en que muchas otras sustancias, adems de la clorofila, podran catalizar (en Marte, tal vez) la sntesis de los carbohidratos, pero rechaza el metal o el silicn como alternativas potenciales, incluso en Marte. Tambin se pregunta si una computadora fabricada con viejas latas de cerveza podra comprender, pregunta retrica cuya respuesta esperada sera un rotundo "[No!", En resumen, para Searle resulta intuitivamente ob\o que las sustancias inorgnicas con las que (en la actualidad) se construyen las computadoras son, en esencia, incapaces de dar soporte a las funciones mentales. Para valorar la crtica de doble punta que hace Searle de la psicologa computacional, consideremos primero su opinin de que la intencionalidad debe tener fundamentos biolgicos. Podramos caer en la tentacin de considerar sta como una declaracin positiva, en contraste con su declaracin (negativa) de que las teoras puramente formalistas no pueden explicar la mentalidad. Sin embargo, al hacerlo le concederamos ms importancia de la que merece, ya que su poder explicativo es ilusorio. Las analogas biolgicas que Searle menciona son engaosas, y las intuiciones a las que alude no son confiables. La intencionalidad que produce el cerebro, se nos dice, es comparable con la fotosntesis, pero lo es en realidad? Podemos definir los productos de la fotosntesis, distinguir claramente diversos azcares y almidones que se encuentran dentro del grupo general de los carbohidratos y mostrar de qu manera difieren de otros productos bioqumicos como las protenas. Ms an, no slo sabemos que la clorofila es la base de la fotosntesis, sino que tarn bin entendemos cmo lo hace (ypor qu otras sustancias qumicas no pueden hacerlo). Sabemos que es ms un catalizador que materia prima y podemos especificar el proceso subatmico mediante el cual ejerce su funcin cataltica y el momento en el que lo hace. Con respecto al cerebro y al entendimiento, el caso es muy distinto. Nuestra teora de qu es la intencionalidad (sin importar cmo se genera) no admite comparacin con nuestro conocimiento sobre los carbohidratos, ya que la intencionalidad sigue siendo una controversia filosfica. Ni siquiera tenemos la certeza de poder reconocerla cuando la vemos. Por lo general se acepta que las actitudes proposicionales son intencionales y que

los sentimientos y las sensaciones no lo son, pero no existe un consenso claro acerca de la intencionalidad de las emociones. Se han realizado varios intentos de caracterizar la intencionalidad y distinguir sus subespecies como estados intencionales diferentes (creencias u opiniones, deseos, esperanzas, intenciones y similares). El propio Searle ha hecho al respecto varias aportaciones importantes desde sus primeros estudios sobre actos del habla (1969) hasta sus aportaciones ms recientes (1983) acerca de la intencionalidad en general. Un criterio comnmente utilizado (adoptado por Brentano en el siglo XIX y tambin por Searle) es el psicolgico. En palabras de Brentano, los estados intencionales dirigen la mente hacia un objeto; en las de Searle, poseen una capacidad de representacin intrnseca o "respectividad": en ambos casos los autores relacionan la mente con el mundo y con otros posibles mundos. No obstante, algunos escritores definen la intencionalidad en trminos lgicos (Chisholm, 1967), aunque todava no est claro si las definiciones lgicas y psicolgicas son precisamente coextensivas (Boden, 1970). En pocas palabras, a diferencia de la qumica de los carbohidratos, ninguna teora de la intencionalidad es aceptada sin reparos. En cuanto a la "sntesis" bioqumica de la intencionalidad realizada por el cerebro, sta es an ms misteriosa. Tenemos buenas razones para creer que esa neuroprotena respalde la intencionalidad, pero no tenemos la ms mnima idea de cmo (qua neuroprotena) lo hace. Hasta que comprendemos del todo estos asuntos, centraremos nuestra atencin en la base neuroqumica de ciertas funciones informativas (como la transmisin, activacin e inhibicin de rnensajes).incorporadas en las neuronas y sinapsis. Por ejemplo, cmo permite la bomba de sodio de la membrana celular que un potencial de accin se propague a lo largo del axn; cmo causan los cambios electroqumicos que una neurona entre en su periodo refractario y se recupere de l, o cmo pueden alterarse los umbrales neuronales con neurotransmisores como la acetilcolina. Respecto a la clula visual, por ejemplo, una pregunta psicolgica fundamental podra ser, si puede funcionar la clula para detectar sus gradientes de intensidad. Si el neurofisilogo logra decimos qu molculas pueden hacerlo, mucho mejor. No obstante, desde el punto de vista de la psicologa, no es la bioqumica como talla que importa, sino las funciones que transportan informacin basadas en ella. (Searle admite esto aparentemente cuando afirma: "El tipo de realizaciones que los estados intencionales tienen en el cerebro pueden describirse en un nivel funcional mucho ms alto que el de la bioqumica especfica de las neuronas involucradas" [1983, p.272].) Como ha mostrado el trabajo en "visin computarizada", el metal y el silicn son, sin duda, capaces de respaldar algunas de las funciones nece-

110

ESCAPE DE LA HABITACIN

CHINA

ESCAPE DE LA HABITACIN

CHINA

111

sarias para el mapeo de dos a tres dimensiones que entraa la visin. Adems, pueden incorporar funciones matemticas especficas para reconocer gradientes de intensidad (a saber, los "detectores DOG" que computan la diferencia de gausses), que parecen intervenir en muchos sistemas visuales biolgicos. Tambin podra ser cierto que el metal y el silicn no pueden respaldar todas las funciones que entraa la visin normal, o el entendimiento en general. Quiz slo la neuroprotena puede hacerla, as, slo las criaturas con una biologa "terrestre" pueden gozar de intencionalidad. Mas hasta el momento no tenemos ninguna razn especfica para pensar as. Lo ms importante en este contexto es que cualesquiera razones que podamos tener en el futuro deben basarse en descubrimientos empricos, es decir, de nada sirven las intuiciones. Si alguien se pregunta qu dependencias de la materia mental son intuitivamente plausibles, la respuesta debe ser ninguna. Ninguno de los que han buscado una solucin a la intencionalidad (en oposicin a los pote nciales de accin) ha exclamado nunca: "El sodio por supuesto!" Las bombas de sodio no son "obviamente" menos absurdas que los chips de silicn; la polaridad elctrica no es "obviamente" menos irrelevante que las latas viejas de cerveza y la acetilcolina difcilmente sera menos sorprendente que la cerveza. El hecho de que el primer miembro de cada uno de estos tres binomios resulte cientficamente apremiante no los hacen intuitivamente inteligibles; nuestra sorpresa inicial persiste. Nuestras intuiciones podran cambiar con el avance de la ciencia. Es posible que con el tiempo consideremos a la neuroprotena (y quiz tambin al silicn) como obviamente capaz de englobar a la mente, tanto como ahora consideramos que las sustancias bioqumicas en general (la clorofila entre ellas) son obviamente capaces de producir otras sustancias: intuicin que no fue ni obvia ni siquiera para los qumicos antes de que se sintetizara la urea. No obstante, en la actualidad nuestras intenciones no tienen nada til que decir acerca de la base material de la intencionalidad. La declaracin "positiva" de Searle, su explicacin alterna putativa de la intencionalidad, constituye, en el mejor de los casos, un "pagar", y en el peor, un mero embaucamiento. No obstante, su declaracin negativa -que las teoras computacionales formales no pueden explicar el entendimiento- se rebate menos rpidamente. Mi impugnacin, por tanto, tiene dos partes: la primera abordar directamente su ejemplo de la habitacin china y la segunda versar sobre su suposicin de fondo (de la que depende su ejemplo) de que los programas de computadora son slo sintaxis. El ejemplo de la habitacin china ha suscitado un gran debate, tanto dentro como fuera de las ciencias cognoscitivas. El propio Searle anticip algunas de las crticas en su artculo original, otras aparecieron acornpa-

ando a los comentarios de sus colegas (junto con su rplica) y a partir de entonces se han publicado algunas ms. Slo me referir aqu a dos puntos: lo que Searle llama la rplica del robot y lo que yo denominar la rplica del ingls. La rplica del robot acepta que la nica comprensin del chino que existe en el ejemplo de Searle es la de los chinos que se encuentran afuera de la habitacin. La incapacidad de "Searle en la habitacin" para relacionar los caracteres chinos con los sucesos del mundo exterior indican que l no entiende el chino. Asimismo, una computadora con teletipo de Schank, que no puede reconocer un restaurante, dar dinero a un mesero ni mascar un bocado, nada entiende de restaurantes, aun cuando pueda "responder" adecuadamente preguntas acerca de ellos. Algo totalmente distinto sera un robot, provisto no slo con un guin sobre restaurantes, sino tambin con programas visuales alimentados a travs de cmaras y c,9Pextremidades capaces de caminar y recoger cosas. Si el comportamiento de entrada y de salida de informacin de un robot de este tipo fuera idntico al de los seres humanos, entonces podra demostrarse que entiende tanto de restaurantes como la lengua natural-el chino, tal vez- que utilizan las personas para comunicarse con l. La primera respuesta de Searle a la rplica del robot pregona ya una victoria, pues concede que la cognicin no es exclusivamente una cuestin de manipulacin de smbolos formales, sino que adems requiere un conjunto de relaciones causales con el mundo exterior. En segundo lugar, Searle insiste en que aadir habilidades perceptivomotoras a un sistema de computacin no le agrega intencionalidad o entendimiento. Discute este punto imaginando un robot que, en lugar de contar con un programa de computadora que lo haga funcionar, tiene un Searle miriiaturizado en su interior, en su crneo tal vez. Con ayuda de un libro de reglas (nuevo), "Searle dentro del robot" ordena los papeles y recibe y entrega giris y guaras casi de igual manera como antes lo hizo "Searle en la habitacin". Mas ahora no son chinos quienes manejan algunos o todos los caracteres en chino, sino procesos causales activados en las cmaras yen el equipo de audio que se encuentran en los ojos y en los odos del robot. y no son manos chinas las que reciben los caracteres de salida, sino motores y palancas integrados a las extremidades del robot, que se mueven en consecuencia. En pocas palabras, al parecer este robot no slo es capaz de responder preguntas en chino, sino que tambin ve y hace cosas en consecuencia: puede reconocer el grmen de soya crudo y, si as lo pide la receta, revolverlo en un wok tan bien como cualquiera de nosotros. (Los estudios realizados sobre la visincomputarizada antes mencionados sugieren que el vocabulario en chino necesitara ser de una extensin Considerable para que este ejemplo pudiera realizarse. Asimismo, la enor-

112

ESCAPE DE LA HABITACIN

CHINA

ESCAPE DE LA HABITACIN

CHINA

113

me cantidad de investigadores en IA sobre el procesamiento del lenguaje " seala que lo mismo podra decirse del ingls que se requiere para expresar las reglas en el ejemplo inicial de preguntas y respuestas de Searle. De cualquier manera, lo que Searle en la habitacin necesita no es tanto el chino, ni siquiera el ingls, sino ms bien un lenguaje de programacin. Regresaremos en breve a esta cuestin.) Sin embargo, al igual que su antecesor encerrado en la habitacin, Searle dentro del robot nada sabe del contexto mayor en el que se encuentra. Es tan ignorante del chino como lo era antes y no tiene ms acceso al mundo exterior que en el ejemplo original. Para l, el grmen de soya y los woks son invisibles e intangibles, pues todo lo que dentro del robot Searle puede ver y tocar, adems del libro de reglas y los garabatos, es su propio cuerpo y las paredes interiores del crneo del robot. Por lo tanto, Searle arguye que no puede acreditrsele al robot el entendimiento de ninguno de estos asuntos mundanos. En realidad, no ve ni hace nada en lo absoluto: "se mueve simplemente como resultado de sus circuitos elctricos y de su programa" el cual ms adelante es representado concretamente por el hombre que se encuentra en su interior, quien "carece de estados intencionales del tipo pertinente" (1980, p. 420). Este argumento de Searle resulta inaceptable como impugnacin a la rplica del robot, porque establece una analoga falsa entre el ejemplo imaginado y lo que afirma la psicologa computacional. Searle supone que "Searle dentro del robot" ejecuta las funciones que realiza el cerebro humano (de acuerdo con teoras de la computacin). Sin embargo, la mayora de los estudiosos de la computacin no atribuyen intencionalidad al cerebro (y los que lo hacen, como pronto veremos, lo hacen de manera muy limitada); Searle caracteriza a "Searle dentro del robot" como a alguien que goza plenamente de intencionalidad genuina, tal como l mismo. La psicologa computacional no atribuye al cerebro la capacidad de ver germen de soya o de comprender ingls; estados intencionales como stos son propiedad de las personas, no de los cerebros. En general, aunque se supone (tanto por los computlogos como por el propio Searle) que las representaciones y los procesos mentales estn englobados en el cerebro, las habilidades sensomotoras y las actitudes proposicionales que las hacen posibles se atribuyen a la persona como un todo. De esta manera, la descripcin de Searle del sistema dentro del crneo del robot como un sistema que entiende ingls no corresponde en verdad a lo que los computlogos dicen acerca del cerebro. En efecto, los procedimientos especficos que los psicolgos de la computacin suponen en calidad de hiptesis y que incorporan en los modelos computarizados de la mente son relativamente estpidos, y se tornan cada vez ms estpidos a medida que nos desplazamos hacia niveles tericos

cada vez ms bsicos. Considrense, por ejemplo, las teoras acerca del anlisis gramatical del lenguaje natural. El procedimiento de anlisis que busca un determinante no entiende ingls, como tampoco lo hace el procedimiento para localizar la referencia de un pronombre personal: slo puede hacerla la persona cuyo cerebro realiza esos procesos interpretativos y muchos otros asociados a ellos. La capacidad de entender ingls entraa un sinnmero de procesos de informacin que interactan, cada uno de los cuales realiza slo una funcin muy limitada, pero que en conjunto proporcionan la capacidad de aceptar como entrada oraciones en ingls y proprocionar como salida otras oraciones adecuadas en ingls. Pueden hacerse observaciones similares acerca de los componentes individuales de las teoras computacionales sobre la visin, la resolucin de problemas o el aprendizaje. Precisamente porque desean explicar el lenguaje, la visin, el razonamiento y el aprendizaje humanos, los psiclogos postulan procesos implcitos que carecen de habilidades. ,..~ En suma, la descripcin de Searle de que el pseudocerebro del robot (es decir, "Searle dentro del robot") comprende ingls entraa un error de categora comparable a considerar al cerebro como portador de inteligencia y no como su fundamento causal. Alguien podra objetar en este punto que me contradigo, que pese a que afirmo que no puede atribuirse intencionalidad al cerebro, eso es precisamente lo que hago implcitamente cuando digo que el cerebro ejecuta procedimientos-componentes "estpidos", pero la estupidez es virtualmente una especie de inteligencia. Ser estpido es ser inteligente, pero no mucho (una persona o un pez pueden ser estpidos, no as una piedra o un ro). Mi defensa comprende dos aspectos. En primer lugar, el nivel terico ms bsico de todos, sera el equivalente neurocientfico del cdigo de mquina, un nivel construido por la evolucin "cual ingeniero". El que una celda sensible a la luz pueda responder a gradientes de intensidad actuando como un detector DOG y el que una neurona pueda inhibir la transmisin de impulsos a otra neurona son fenmenos que se pueden explicar mediante la bioqumica del cerebro. La nocin de estupidez, aun en cuotas mnimas, es del todo inapropiada cuando se consideran estos hechos. Sin embargo, estas funciones muy bsicas del procesamiento de informacin (detectores DOG e inhibiciones sinpticas) podran describirse adecuadamente como "muy, pero muy estpidas". Esto, desde luego, implica que el lenguaje intencional, aunque sea de un tipo sumamente rencoroso y despectivo, puede aplicarse despus de todo a los procesos cerebrales, lo que nos lleva al segundo aspecto de mi defensa. No dije que no pueda atribuirse intencionalidad a los cerebros, sino que no puede atriburseles intencionalidad genuina. Tampoco dije que los cerebros no puedan entender absolutamente nada, por muy limitados que sean, sino que no pueden (por

114 ESCAPE DE LA HABITACI6N CHINA ESCAPE DE LA HABITACIN CHINA

115

entender ingls. Incluso suger, prrafos atrs, que algunos pocos estudiosos de la computacin atribuyen algn grado de intencionalidad al cerebro (o a los procesos computacionales que se llevan a cabo dentro de l). Estos dos puntos resultarn menos oscuros una vez que consideremos la rplica del ingls y su relacin con la suposicin de fondo de Searle de que las teoras computacionales sin tctico-formales son puramente sintcticas.
ejemplo)

El punto fundamental de la rplica del ingls es que la representacin concreta de un programa de computadora, ya sea que la realice el hombre o una mquina fabricada, s entraa entendimiento, al menos del libro de reglas. El ejemplo inicial de Searle depende crtica mente de que "Searle en la habitacin" sea capaz de entender la lengua en que estn escritas las reglas, en este caso, el ingls. De igual manera, si "Searle dentro del robot" no estuviera familiarizado con el ingls, el grrnen de soya del robot nunca llegara al wok . Adems, como ya se apunt antes, el vocabulario del ingls (y tambin del chino en el caso de "Searle dentro del robot") tendra que modificarse significativamente para que el ejemplo funcionara. Un lenguaje desconocido (sea chino o Lineal B) slo puede abordarse como un objeto esttico o como un conjunto de formas relacionadas sistemticamente. Los lenguajes artificiales pueden ser diseados y estudiados, por los lgicos o los matemticos puros, teniendo slo en mente sus propiedades estructurales (aunque el ejemplo proporcionado por D.R. Hofstadter [1979] de un sistema pq cuasi aritmtico muestra que puede surgir espontneamente una interpretacin psicolgicamente apremiante y predecible de un clculo formal). No obstante, normalmente respondemos de modo muy distinto a los smbolos de nuestra lengua materna; de hecho, es muy difcil "poner entre parntesis" (ignorar) los significados de palabras conocidas. El punto de vista que mantienen los psiclogos computacionales de que las lenguas naturales pueden caracterizarse en trminos de procedimiento resulta importante aqu: las palabras, las clusulas y las oraciones pueden considerarse como miniprogramas. Los smbolos de una lengua natural que entendemos ponen en marcha diversos tipos de actividad mental. Aprender una lengua implica establecer conexiones causales pertinentes, no slo entre palabras y el mundo ("gato" y la cosa que est sobre el tapete), sino tambin entre palabras y la multiplicidad de procedimientos no introspectivos que entraa su interpretacin. Adems, no es necesario que se diga ex hypothesi (por Searle) que "Searle en la habitacin" entiende ingls; su comportamiento dentro de la habitacin muestra claramente que lo hace o, mejor dicho, muestra que comprende un Subconjul1to muy limitado del ingls. Dara lo mismo que "Searle en la habitacin" padeciera de amnesia total respecto a 99% de su vocabulario en ingls. Las nicas nociones de ingls

que requiere son las necesarias para interpretar (sic) el libro de reglas donde se especifica cmo aceptar, seleccionar, comparar y producir diferentes modelos. A diferencia del propio Searle, "Searle en la habitacin" no necesita palabras como "catalizar", "lata de cerveza", "clorofila" ni "restaurante", pero s podra requerir "encuentre", "compare", "dos", "triangular" v '\'entana" (aunque su comprensin de estas palabras podra ser mucho ~enos completa que la de Searle). Tambin debe entender oraciones condicionales por si alguna regla establece que al ver un guara debe proporcionar un guiri. Asimismo, es muy probable que tenga que entender algn tipo de expresiones negativas, rdenes temporales y (en particular si ha de aprender a realizar su tarea con mayor rapidez) generalizaciones. Si las reglas que utiliza incluyen algunas que analicen gramaticalmente las oraciones en chino, tambin necesitar palabras para las categoras gramaticales. (No necesitar reglas explcitas para analizar gramatical mente las oraciones en ingls, tales como los procedimientos de anlisis gramatical que se utilizan en los programas de lA para procesamiento del lenguaje, porque "Searle en la habitacin" ya entiende ingls.) En suma, "Searle en la habitacin" necesita entender slo ese subconjunto del ingls de Searle que equivale al lenguaje de programacin que entiende una computadora para generar el mismo comportamiento de entrada y salida de preguntas y respuestas por la ventana. De igual modo, "Searle dentro del robot" debe ser capaz de entender cualquier subconjunto del ingls equivalente al lenguaje de programacin que entiende un robot visornotor completamente computarizado. Puede parecer que las dos oraciones anteriores dan por sen tado el pun to en cuestin. En efecto, hablar as del lenguaje de programacin que entiende una computadora es contradictorio en s mismo, ya que la premisa rundamental de Searle -que l supone aceptada por todos los participantes en el debate- estipula que un programa de computadora es de naturaleza puramente formal: la computacin que especifica es puramente sintctica y carece de significado intrnseco o contenido semntico que comprender. Si aceptamos esta premisa, la rplica del ingls esbozada anteriormente puede descartarse de inmediato, pues intenta establecer una analoga cuando sta no puede establecerse. Ms si no procedemos as, si -con todo respeto a Searle (y a otros [Fodor, 1980]); Stich, 1983-10s programas de computadora no slo se ocupan de la sintaxis, entonces la rplica del ingls quiz resulte pertinente despus de todo. Procedamos ahora a esta pregunta fundamental. Sin duda alguna, para ciertos fines podemos imaginar un programa de computadora como un clculo lgico no interpretado. Por ejemplo, sera factible demostrar, exclusivamente por medios formales, que una frmula particular bien planteada puede derivarse a partir de las estructuras de los

117
116 ESCAPE DE LA HABITACIN CHINA ESCAPE DE LA HABITACIN CHINA

datos y del programa de las reglas de inferencia. Adems, es cierto que el llamado programa intrprete que podra tomar como entrada la estructura en lista "(PADRE [MARY))" Y devolviera "(LEONARDO)" slo lo hara basndose en criterios formales sin tener manera de interpretar si estos modelos se refieren a gente real. Asimismo, como seala Searle, los programas provistos con guiones sobre restaurantes no reciben por ello conocimiento acerca de los restaurantes. La existencia de una correspondencia entre un formalismo y un cierto dominio no proporciona en s misma al manipulador del formalismo ninguna comprensin de ese dominio. Empero, lo que no debe olvidarse es que el programa de computadora es un programa para una computadora: cuando el programa corre en el hardware adecuado, la mquina hace algo en consecuencia (de aqu que en las ciencias de la computacin se utilicen palabras como "instruccin" y "obedecer"). En el nivel del cdigo de mquina, el efecto que ejerce el programa en la computadora es directo, porque la mquina se construy de forma tal que una instruccin dada produzca una operacin nica (las instrucciones en lenguajes de nivel superior deben transformarse en instrucciones en cdigo de mquina antes de que puedan ser obedecidas). Una instruccin programada, por tanto, no es un mero modelo formal, ni siquiera es un enunciado declarativo (aunque para algunos propsitos, podra imaginarse bajo cualquiera de estas descripciones). sta es la especificacin de un procedimiento que, dado un contexto de hardware adecuado, puede causar que se lleve a cabo el procedimiento en cuestin. Esto podra expresarse de otra manera diciendo que el lenguaje de programacin es un medio no slo para expresar representaciones (estructuras que pueden escribirse en papel o proporcionarse a una computadora, algunas de las cuales pueden ser isomorfas de cosas que interesen a la gente), sino tambin p3J l. causar la actividad representativa de ciertas mquinas. Podra incluso decirse que la iepresentacin es una actividad antes que una estructura. Muchos filsofos y p5ic~(;";; han supuesto que las representaciones mentales son intrnsecamente activas. [".r:~:-c: ~:"'3 defensores recientes de este punto de vista se encuentra Hofstadter r 1985, p. 648) quien especficamerite criuca la explicacin de Newell acerca de los simbclos como signos formales manpuiables. En sus propias palabras: "El cerebro por s mismo no 'manipula smbolos': ei cerebro es el medio en el que Iiotan lo ..smbolos y se activan entre si" Hostadter muestra mas simpata por las teoras psicoigicas "conexi orns tas" que por las "formalistas". Los enoq~le5 conexionistas entrenan sistemas de procesarmen ..l paralelo que en trminos generales recuerdan al cerebro y que son propios para modelar las representaciones. smbolos el conceptos cerebrales como aspectos dinmiros . Mas no slo los conexionistas piensan que los conceptos son intrnsecamente activos y no s6lo las representaciones cerebrales pueden

considerarse de esta manera: esta postura se ha generalizado para abarcar los programas tradicionales de computadora, especficamente los diseado para mquinas de Von Neumann, El cientfico de la computacin E.e. Sm (1982) afirma que las representaciones programadas tambin son ith inherentemente activas y que esto es algo que reconocera una teora adecuada de la semntica de los lenguajes de programacin. Smith seala que en la actualidad el conocimiento acerca de estas cuestiones que de ten tan los cientficos de la computacin es radicalmente inadecuado Y nos recuerda que, como se ha mencionado antes, no hay acuerdo general -ni dentro ni fuera de la ciencia de la computacinacerca de qu es la intencionalidad y tambin existen profundas dudas sobre lo que es la representacin. Tampoco pueden evitarse las ambigedades al hablar, ms tcnicamente, en trminos de computacin y de manipulacin de smbolos formales, ya que la comprensin de los cientficos de la computacin acerca de lo que realmente son estos fenmenos es tambin "sumamente intuitiva, El anlisis de Smith acerca de los lenguajes de computacin identifica algunas de las confusiones fundamentales que surgen dentro de la ciencia de la computacin. De particular importancia resulta aqu su afirmacin de que los cientficos de la computacin por lo comn hacen una distincin terica demasiado completa entre las funciones de control de un programa Y su naturaleza como un sistema sintctico formaL La separacin terica que Smith critica resulta evidente en el difundido enfoque del "clculo dual" en programacin. Este enfoque postula una distincin terica clara entre una estructura representativa declarativa (o denotativa) Y el lenguaje de procedimiento que la interpreta cuando se corre el programa, En efecto, la relacin conocimiento-representacin y el intrprete se escriben a veces en dos formalismos bastante distintos (como el clculo de predicados y el LISP, respectivamente). Sin embargo, con frecuencia ambos se expresan en el mismo formalismo; por ejemplo, LIS? (acrnimo del lenguaje LlSt-Processing), permite que los hechos y procedimientos se expresen de maneras formalmente similares, al igual que PROLOG (PROgramming-in-LOGic). En tales casos, el enfoque del clculo dual dicta que el lenguaje de programacin (nico) en cuestin se describa tericamente en dos formas bastante distintas. Para ejemplificar la distincin aqu expuesta, supongamos que nos interesa representar las relaciones familiares que pudieran utilizarse para dar respuesta a preguntas sobre el tema. podramos decidir emplear una estructura de listas que representara hechos tales como que Leonardo es el padre de Mary. O podramos preferir una representacin basada en cuadros, donde las rendijas de nombres correspondientes al cuadro PADRE podran llenarse simultneamente con "LEONARDO" y "MARY". O bien, podramos escoger una frmula del clculo de predicados y decir que exis-

118

ESCAPE DE LA HABITACI6N CHINA

n.

ESCAPE DE LA HABITACI6N CHINA

119

ten dos personas (a saber, Leonardo y Mary) y que Leonardo es el padrf de Mary. O, por ltimo, podramos utilizar la oracin en espaol: "Leonai' do es el padre de Mary". s Cada una de estas cuatro representaciones podra escribirse o dibujarse en papel (como las reglas del libro de reglas de "Searle en la habitacin") para que las interpretemos, si hemos aprendido cmo manejar la notacin correspondiente. Alternativamente, las representaciones podran incorpo_ rarse en una base de datos computarizada. Mas para que la computadora pueda utilizarla, tiene que haber un programa intrprete que (por ejemplo) pueda encontrar el dato "LEONARDO" cuando, le "preguntemos" quin es el padre de Mary. Nadie con un poco de sentido comn. incorpo_ rara estructuras de lista en la computadora sin proporcionarle tambin un dispositivo para procesar listas, ni le proporcionara cuadros sin un mecanismo para llenar rendijas, ni frmulas lgicas sin reglas de inferencia o enunciados en espaol sin procedimientos de anlisis gramatical. (Anlo gamente, la gente que sabe que Searle no habla portugus no le proporcionara a "Searle en la habitacin" un libro de reglas en portugus, a menos de que estuviera dispuesto a ensearle primero el idioma.) Smith no niega que existe una diferencia importante entre el sentido denotativo de una expresin (en trminos generales, cules Son los mundos reales o posibles con los que puede establecer una correspondencia) y su consecuencia de procedimiento (en trminos generales, qu hace o qu provoca). Una cosa es el hecho de que la expresin "(PADRE [MARY])" sea isomorfo de cierta relacin de parentesco entre dos personas reales (y que por ello podamos hacerla corresponder con esa relacin) y otra cosa bastante distinta el hecho de que la expresin "(PADRE [MARY])" haga que la computadora localice el dato "LEONARDO".De no ser as, no se habra' desarrollado el enfoque del clculo dual. No obstante, Smith argumenta que en lugar de insistir en el enfoque del clculo dual sera ms elegante y menos confuso adoptar una teora "unificada" de los lenguajes de programacin, diseada para abarcar tanto los aspectos denotativos como los de procedimiento. El mismo autor muestra que muchos trminos bsicos de ambos lados de la separacin del clculo dual presentan tanto profundas coincidencias tericas como diferencias significativas. El lgico y el cientfico de la computacin entienden la nocin variable, por ejemplo, de manera muy similar: ambos conceden que una variable puede tener distintos valores asignados en diferentes momentos. Siendo as, resulta redundante contar con dos teoras distintas acerca de 10 que es una variable. Sin embargo, hasta cierto punto los lgicos y los cientficos de la computacin tambin entienden cosas distintas con este trmino: el valor de una variable en el lenguaje de programacin LISP (por ejemplo) es otra expresin LISP, mientras que el

valor de una variable en lgica suele ser algn objeto externo al formalismo en s. Estas diferencias deben aclararse, al menos para evitar confusin cuando un sistema intenta razonar acerca de las variables utilizando variables. En suma, necesitamos una sola definicin de "variable" que tenga en cuenta tanto su uso declarativo (en lgica) como su uso de procedimiento (en programacin). Habiendo demostrado que se aplican comentarios similares a otros trminos bsicos de la computacin, Smith esboza una e~plicacin unitaria de la semntica de LISP y describe un clculo nuevo (MANTIQ)diseado teniendo en mente el enfoque unificado. Como seala el ejemplo del uso de variables para razonar sobre variables, una teora unificada de la computacin podra elucidar cmo hacer posible el conocimiento reflexivo, ya que, dada una teora de esta ndole, las representaciones de datos y de procesos de un sistema -incluidos sus propios procesos internos- seran esencialmente comparables. Esta ventaja terica tiene importancia psicolgica (y motiv en gran medida el trabajo de Smith). No obstante, para nuestros fines actuales el punto es que una teora fundamental de programas y de computaciones debera reconocer que una de las funciones esenciales de un programa de computadora es hacer que sucedan cosas. Mientras la lgica simblica se siga considerando un simple juego con clculos formales no interpretados (como el clculo de predicados) y la lgica computacional el estudio de relaciones abstractas infinitas en "mquinas" matemticamente especificadas (como las de Turing), la ciencia de la computacin no podr describirse adecuadamente en ninguna de estas formas. Del argumento de Smith se deduce que es errnea la conocida caracterizacin de los programas de computacin como todo sintaxis y nada de semntica. Las consecuencias de procedimiento inherentes de cualquier programa de computacin le confieren un punto de apoyo en la semntica donde la semntica en cuestin no es denotativa sino causal. La analoga radica en la comprensin del ingls que tiene "Searle en la habitacin" y no en su comprensin del chino. Esta implicacin tambin se encuentra en el artculo de A. Sloman (1986a; 1986b) acerca del sentido en que debe pensarse que las instrucciones programadas y los smbolos computarizados poseen cierta semntica, no importa cun restringida sea. En la semntica causal, el significado de un smbolo (ya sea simple o complejo) debe buscarse haciendo referencia a sus vnculos causales con otros fenmenos. Las preguntas medulares son: "qu provoca que el smbolo se construya y/o se active?" y "qu sucede como consecuencia)" Las respuestas en ocasiones aludirn a objetos externos y a sucesos visibles para un observador y en otras no. Si el sistema es humano, animal o robot podra tener poderes causales

ESCAPE DE LA HABITACIN 120 ESCAPE DE LA HABITACIN CHINA

CHINA

121

que le permitan referirse a restaurantes y a grmen de soya (la complejidad ~ filosfica de referirse a objetos externos, e inclusive no observables, se ignora aqu, aunque Sloman la utiliza provechosamente en su anlisis). Sin embargo, cualquiera que sea el sistema de procesamiento de informacin que se considere, las respuestas a menudo describirn procesos corn. putacionales puramente internos, mediante los cuales pueden construirse otros smbolos y activarse otras instrucciones. Entre los ejemplos se encuentran los procesos interpretativos que estn en la mente de "Searle en la habitacin" (comparables quiz a los procedimientos de anlisis gramatical y de semntica definidos para el caso del procesamiento automtico de lenguajes naturales), provocados por las palabras en ingls y por los procesos computacionales dentro de un programa de Schank de anlisis de textos. Aunque un programa de este tipo no puede utilizar el smbolo "restaurante" para significar restaurante (porque carece de vnculos causales con restaurantes, alimentos, etc.), sus smbolos y procedimientos internos s abarcan un entendimiento mnimo de algunas otras cuestiones como, por ejemplo, qu significa comparar dos estructuras formales. Podra pensarse que el "entendimiento" implcito en este caso es tan mnimo que no debera utilizarse para nada esta palabra. As sea. Sloman deja claro que la pregunta importante no es "[cundo entiende algo la mquina?" (la cual implica, errneamente, que existe un punto tajante en que cesa el entendimiento), sino "[qu cosas necesita ser capaz de hacer una mquina (biolgica o no) a fin de poder comprender?". Esta pregunta es importante no slo para que una psicologa de la computacin sea posible, sino tambin para que su contenido lo sea. En suma, en mi exposicin muestro que el ataque de Searle contra la psicologa de la computacin est mal fundado. Considerar a "Searle en la habitacin" como la representacin concreta de un programa de computadora no significa que carezca de toda comprensin. Puesto que las teoras de una psicologa de la computacin formalista deben parecerse ms a programas de computadora que a la lgica formal, la psicologa de la computacin no es incapaz, en principio, de explicar de qu manera el significado se relaciona con los procesos mentales.

preso en (1978), D. C. Dennett, Brainstorms: Philosophical Essays on Mind and ps\'chology, Cambridge, Mass., MIT Press, pp. 3-22. Fod;r, J. A. (1980), "Methodologial Solipsism Considered as a Research Strategy in Cognitive Psychology", Behavioral and Brain Sciences, 3, pp. 63-110. Reirnpreso en J. A Fodor, Representations: Philosophical Essays on the Foundations oi Cog/1itive Science , Brighton, Harvester Press, 1981, pp. 225-256. Hofstadter, D. R. (1979), Godel, Escher, Bach: An Eternal Golden Braid, Nueva York, _ Basic Books. (1985), "Waking Up from the Boolean Dream; Or, Subcognition as Computation", en D. R. Hofstadter, Metamagical Themas: Questing for the Essence o[ Mi/ld and Pattern, Nueva York, Viking. pp. 631-665. Ncwell, A. (1980), "Physica! Symbol Systern". Cognitive science. 4, pp. 135-183. Schank, R. C. y R. P. Abelson (1977), Scripts, Plans, Goals, and Understanding, Hillsdale, N. J., Erlbaum. Scarle, J. R. (1969), Speech Acts: An Essay in the Philosophy Cambridge University Press. _ (1980), 'Minds, Brains, and Programs', Behavioral _ pp. 417-424. (1983), lntentionality:
An Essay ir! the Philosophy

o[ Languate, Cambridge,
and Biain Sciences, 3,

o[ Mind, Cambridge,

Cambridge University Press. Sloman. A. (1986a), "Reference Without Causal Links", en B. du Boulay y L. J. Stee\s (eds.), Seventh European Conference 0/1 Artificiallntelligence, Amsterdam,
__

North-Holland, pp. 369-381. (1986b), "What Sorts of Machines Can Understand the Symbols They Use?",

Proc. Aristotelian Soc., Supp. 60, pp. 61-80. Smith, B. C. (1982), Reflection and Semantics in a Procedural Language. Cambridge, Mass .. disertacin doctoral del MIT y reporte tcnico LCSrrR-272. Stich, S. C. (1983). From Folk Psychology to Cognitive Science: The Case Against Belie], Carnbridge. Mass., MIT Press/Bradford Books.

BIBLIOGRAFA

Boden. M. A. (1970), "Intentonality and Physical Systerns", Philosophy o[ Science, 37, pp. 200-214. Chisholm, R. M. (1967), "Intentionalty", en P. Edwards (ed.), The Encyclopedia o[ Philosophy , Nueva York, Macmillan, vol. IV, pp. 201-204. Dennett, D. C. (1971), "Intentional Systems", J. Philosophy, 68, pp. 87-106. Reirn-

Anda mungkin juga menyukai