Robots ¿Máquinas o vida creada artificialmente? - Hilary Putnam (Traducción de Roberto José Carmona Ballestas)









Robots ¿Máquinas o vida creada articialmente?*
Hilary Putnam
Resultado de imagen para tears in rain

Aquellos que pasamos muchas horas de nuestra infancia (bien o mal invertidas) leyendo historias de cohetes y robots, androides y telépatas, civilizaciones galácticas y máquinas del tiempo, sabemos muy bien que los robots – máquinas hipotéticas que simulan el comportamiento humano, frecuentemente al menos en su mayoría con fuerte apariencia humana – pueden ser amistosos o temibles, el mejor amigo del hombre o su peor enemigo. Cuando son amigables, los robots pueden ser inspiradores o patéticos; ellos pueden imponernos respeto con sus poderes sobrehumanos (y con sus virtudes, las cuales son más grandes que las virtudes humanas, al menos en los escritos de algunos autores), o pueden entretenernos con sus estupideces e ingenuidades. Los robots que han sido “conocidos” por enamorarse, volverse locos (de poder o de otra cosa), tienden a irritarse con más facilidad. Al menos en la literatura de ciencia ficción, es posible para un robot ser “consciente”; eso significa (ya que la “conciencia” como “objeto material” y “universal”, es un soporte que utiliza el filósofo para apoyarse en palabras más sustanciales) tener sentimientos, pensamientos, actitudes, y rasgos característicos ¿pero es esto realmente posible? Y si esto es posible, ¿cuáles son las condiciones necesarias y suficientes? ¿Y por qué deberíamos los filósofos preocuparnos por esto, de todos modos? ¿No son el problema mente-cuerpo, el problema de las otras mentes y el problema del conductismo lógico el mismo problema de qué quería decir realmente Wittgenstein con el argumento del lenguaje privado? (y ¿por qué deberíamos prestarle atención?). ¿Esto es más que suficiente para mantener la mente ocupada del filósofo más laborioso sin rebuscar o inventar el problema de las mentes de las máquinas? Estas son mis preocupaciones en este artículo.
Resultado de imagen para walter prometheus
El problema mente- cuerpo ha sido muy discutido en los pasados treinta y tantos años, pero la discusión me ha parecido infructífera. Nadie ha sido persuadido realmente por El concepto de lo mental de que la relación de la universidad con los edificios, profesores y estudiantes  es un modelo útil para la relación de mente y cuerpo, o incluso para la relación entre, digamos, ser inteligente y los actos del habla individuales. Y Herbert Feigl me informó que ha abandonado actualmente su bien conocida “teoría de la identidad” de la relación mente-cuerpo. El problema de las otras mentes ha sido mucho más fructífero – el bien conocido y extremadamente importante artículo de Austin, es un amplio testimonio de ello – pero incluso este problema ha comenzado a quedar obsoleto. De lo que espero persuadirlos es que el problema de las mentes de las máquinas probará, por lo menos durante un tiempo, ofrecer una manera nueva y excitante de abordar temas tradicionales en la filosofía de la mente. Si un robot podría ser consciente y bajo qué condiciones lo sería es una pregunta que no se puede discutir sin que se toquen inmediatamente los temas que han sido tratados bajo los epígrafes del problema mente-cuerpo y el problema de las otras mentes. Por mi parte, creo que ciertas cuestiones cruciales salen al frente casi por sí mismos de acuerdo a este respecto – cuestiones que debieron haber sido discutidas por los escritores que han tratado con los dos encabezados antes mencionados, pero  que no lo han sido– y, por lo tanto, el problema del robot se convierte casi obligatoriamente en una discusión para el filósofo de la mente.
Antes de comenzar quisiera enfatizar, para que nadie malinterprete, que mi preocupación es acerca de cómo deberíamos referirnos sobre los humanos y no, cómo deberíamos hablar sobre las máquinas. Mi interés en la última cuestión se deriva de mi recién mencionada convicción: que de tener suficiente ilustración con respecto al “caso límite” de los robots, si es que pudiera obtenerse, ella traería consigo luces con respecto del “área central” de los discursos sobre sentimientos, pensamientos, conciencia, vida, etc.
Mentes y máquinas
En un reciente artículo,[1] intenté mostrar que un problema muy análogo al problema mente-cuerpo surgiría automáticamente para los robots. El mismo punto podría haberse hecho fácilmente en conexión con el problema de las otras mentes. Revisemos brevemente el argumento: imaginemos una comunidad de robots. Dejemos que estos robots no “sepan” nada con respecto a su propia estructura física o cómo fue que llegaron a existir (quizá darían con una historia de la creación de los robots o una religión politeísta, con dioses robots sobre un Olimpo robot). Dejemos que “hablen” un lenguaje (digamos, castellano**), de conformidad con las reglas gramaticales, la semántica públicamente observable y las regularidades analítico-discursivas de esa lengua. ¿Cuál podría ser el papel de los predicados psicológicos en dicha comunidad?
Imagen relacionada
En el artículo en cuestión, empleo un simple modelo de prueba para tales predicados. Ya que este modelo es obviamente demasiado simple, déjenme contarles una historia más complicada. Cuando un robot ve algo rojo (algo que evoca el estado interno apropiado en el robot), él lo llama “rojo”. Se supone que nuestros robots son capaces de tener razonamiento inductivo y construcción teórica. Así que un robot puede descubrir que algo a lo que  él llamó rojo no era realmente rojo. Entonces dirá “bueno, se veía como rojo”. O, si se encuentra en el estado interno apropiado para el rojo, pero sabe sobre la base de inducciones cruzadas con otros casos que aquello que él “ve” no es realmente rojo, él dirá “parece rojo, pero no es rojo realmente”. Así, él tendrá una distinción entre la realidad física y la apariencia visual, al igual que nosotros. Pero el robot nunca dirá “eso se ve como si se viera rojo, pero no se ve rojo realmente”. Es decir, en el castellano del robot no hay noción alguna sobre una apariencia de una apariencia del rojo, más allá de las que hay en castellano. Más aún, la razón es la misma: cualquier estado que no pueda ser discriminado como “parece rojo” cuenta como “parece rojo” (bajo condiciones normales de capacidad lingüística, ausencia de confusión, etc.). Lo que esto ilustra, por supuesto, es que la “incorregibilidad” de declaraciones de la forma “eso parece rojo” debe explicarse a través de una elucidación de las características lógicas de tal discurso, y no por la metáfora del acceso “directo”.
Resultado de imagen para yo robot
Si asumimos que estos robots no son científicamente sofisticados, no hay razón para que sepan más de su propia constitución interna de lo que un griego antiguo pudiera saber sobre el funcionamiento del sistema nervioso central. Podemos imaginarlos desarrollando una ciencia sofisticada en el curso de los siglos, y así, llegando eventualmente a identificaciones tentativas de la forma: “cuando una cosa ‘parece roja’ para uno de nosotros, significa que tiene el estado interno ‘biestable [flip-flop] 72 encendido’”. Si estos robots también publicaran artículos de filosofía (¿y por qué no debería un robot ser considerado mejor que muchos de nuestros estudiantes?), podría suscitarse una discusión animada sobre las implicaciones filosóficas de tales descubrimientos. Algunos robots podrían argüir, “obviamente, lo que hemos descubierto es que “ver el rojo” sería el estado interno ‘biestable 72 encendido’”; otros podrían argüir, “obviamente, lo que hiciste fue un descubrimiento empírico; el significado de ‘eso parece rojo’ no tiene el mismo significado de ‘biestable 72 encendido’; por lo tanto los atributos (o estados, o condiciones, o propiedades) de cuando se dice ‘parecía algo rojo’ y ‘teniendo el biestable 72 encendido’ son dos atributos (o estado, o condiciones, o propiedades), no uno”; otros podrían argüir “cuando tenemos la ilusión que algo rojo está presente, nada rojo está físicamente allí. Aun así, yo veo algo rojo. Lo cual veo, y llamo un dato sensorial. El dato sensorial es rojo. El biestable no es el rojo. Entonces, obviamente, los datos sensoriales no pueden ser idénticos con el biestable, encendido o apagado”. Etc. En pocas palabras, los robots pueden ser tan malos en filosofía como las personas. O (en palabras más sofisticadas), los aspectos lógicos del problema mente-cuerpo son aspectos de un problema que debería satisfacer cualquier sistema computacional en tanto que 1. Use un lenguaje y construya teorías; 2. No conozca su propia estructura física, excepto superficialmente; 3. Esté equipado con órganos sensibles, y pueda realizar experimentos; 4. Que llegue a conocer su propia estructura mediante investigación empírica y construcción de teorías.
Algunas objeciones consideradas
El argumento recién revisado parece extremadamente simple. Sin embargo, algunos asombrosos malentendidos han surgido. El que más me sorprendió fue expresado así: “Por lo que puedo ver, todo lo que ustedes demuestran es que un robot puede simular el comportamiento humano”. Esta objeción, que debo decir que es innecesaria (lo cual espero) pierde completamente el punto de lo que se dijo anteriormente. El punto es este: Que un robot o un computador pueda, en algún sentido, cumplir normas (en el caso de que sea de la misma manera en que un hombre cumple con las normas, o solo de forma análoga, depende de si se puede decir que particularmente el robot es “consciente”, etc., y por lo tanto sobre la cuestión central de este artículo); que el significado de una expresión es una función de las reglas que rigen su construcción y uso; aquellas reglas que rigen las expresiones del robot, “yo veo algo que parece rojo” y “biestable 72 está encendido” son muy diferentes. El enunciado anterior puede ser pronunciado correctamente por cualquier robot que haya “aprendido” a diferenciar correctamente cosas rojas de cosas no rojas. Por lo tanto, en el caso de un robot normalmente construido, “veo algo que parece rojo” puede ser expresado cuando el biestable 72 está encendido, así el robot no sepa que el biestable 72 está encendido o no. El “biestable 72 encendido” puede ser correctamente expresado sólo cuando el robot “sabe” que el biestable 72 está encendido - esto es - solo cuando puedan concluir que el biestable 72 está establecido por teorías empíricas junto con tales afirmaciones observacionales, ya que su acondicionamiento puede inducirlo a expresar, o a escuchar lo que otros robots expresan. “Eso parece rojo” es una expresión a la que no se le pueden dar explicaciones. “El biestable 72 está encendido” es una expresión a la que se le pueden dar explicaciones, y así. Desde que estas diferencias semánticas son lo mismo tanto para los robots como para los humanos, cualquier argumento de la no equivalencia semántica de los enunciados de los estados internos (físicos) y los enunciados “observacionales” al carácter de la mente o la conciencia, debe ser válido para el robot, si es válido para el humano. (Igualmente el argumento del supuesto hecho de que eso es “un sentido de ver” en que uno puede decir correctamente “vi algo rojo” en ciertos casos en que nada rojo está físicamente presente.
Además, los malentendidos y las cosas no comprendidas sólo aluden a algunas  objeciones interesantes que han sido avanzadas. Estas objeciones intentan romper con la analogía lógica ilustrada justamente por mí. Aquí discutiré brevemente dos de las objeciones antes mencionadas, desarrolladas por el profesor Kurt Baier.
El primer argumento de Baier[2] dice así: La conexión entre mi sensación visual del rojo y cualquier expresión: “parece como si hubiera algo rojo en frente mío” (o lo que sea), no es meramente causal. La sensación no evoca meramente la expresión; yo expreso la expresión porque sé que estoy teniendo la sensación. Pero el robot expresa la expresión porque está obligado a pronunciarla por su estado interno (biestable 72 estando encendido). Así que hay una discrepancia fundamental entre estos dos casos.
Resultado de imagen para androides dragon ball
El segundo argumento de Baier dice así: Ciertos qualia son  intrínsecamente dolorosos y otros son intrínsecamente placenteros. No puedo concebir que un qualia intrínsecamente desagradable Q sea exactamente el mismo para otras personas, “solo él lo encuentra placentero”. Como sea, si un robot es programado para que actúe como si estuviera teniendo una experiencia placentera cuando, por ejemplo, una cierta parte de su anatomía tuviera un fuerte sonido metálico, podría reprogramarse fácilmente para que actuara como si tuviera una experiencia dolorosa y no placentera en esas ocasiones. En consecuencia, las contrapartes de los “qualia”, en el caso del robot - ciertos estados físicos - carecen de una propiedad esencial: Ellos no pueden ser intrínsecamente placenteros o dolorosos.
¿Puede un robot tener una sensación? Bueno, puede tener una “sensación”. Es decir, puede ser un “modelo” para cualquier teoría psicológica que sea verdadera para los seres humanos. Si es un “modelo” para tal teoría, entonces cuando está en el estado interno que corresponde o “realiza” el predicado psicológico: “Tiene la sensación visual del rojo”, actuará como un humano actuaría (dependiendo también sobre qué otros predicados “psicológicos” aplique). Es decir, “biestable 72 estando encendido” no tiene que “evocar” directamente (incontrolablemente) la expresión ‘parece como si algo rojo estuviera enfrente de mí’. Estoy de acuerdo con Baier con que un simple modelo “evidencial” no hará ciertamente justicia al carácter de tales informes; ¡pero en el caso de los robots tampoco!
¿Qué es para una persona “saber” que tiene una sensación? Ya que sólo los filósofos hablan de este modo, no se espera ninguna respuesta uniforme. Algunos filósofos identifican lo que es tener una sensación y saber que se tiene. Entonces: “Sé que tengo la sensación visual del rojo” solo significa: “Yo tengo la sensación visual del rojo”, y la pregunta “¿puede el robot saber que tiene la sensación del rojo?” significa: “¿Puede el robot tener la sensación del rojo?” - una pregunta que hemos respondido afirmativamente. (No he discutido que las “sensaciones” son sensaciones, pero solo una analogía lógica se mantiene completa entre la charla de sensaciones en el caso de los humanos y charla de “sensaciones” en el caso de los robots). Otros filósofos (propiamente Ayer, en El Concepto de Persona) han argüido que saber que se tiene una sensación, implica poder describirla. En ese sentido, un robot también puede saber que tiene una “sensación”. Si sabiendo que p está teniendo unas “disposiciones de vías múltiples” para los dichos apropiados y las preguntas-respuestas y comportamientos, como lo demanda Ryle en El concepto de lo mental, entonces un robot puede saber cualquier cosa que una persona pueda saber. Un robot, podría participar en un diálogo fluido, tan bien como un humano:
A.           Describe la sensación visual que acabas de mencionar.
B.           Es la sensación de una gran extensión roja.
A. Es el rojo uniforme ¿el mismo matiz por todas partes?
B. Eso creo.
A.           ¡Atiende con cuidado!
B.           ¡Eso hago!
Infortunadamente para este último argumento, la versión del conocimiento de Ryle es incorrecta; no hay ninguna disposición específica para los dichos [sayings] y comportamientos o “vías múltiples” por otra parte. Pueden constituir un saber que [knowing-that], en la forma en que ciertos acuerdos específicos e interrelaciones de edificios, administradores, profesores y estudiantes constituirán una universidad. “Saber que”, es como estar adolorido y como estar prefiriendo algo, solo está relacionado al comportamiento: Sabiendo que p implica estar dispuesto a responder ciertas preguntas correctamente si quiero, si no estoy confundido, etc. Y queriendo responder una pregunta correctamente es estar dispuesto a responder correctamente, si sé la respuesta, si no hay nada que quiera más, etc. Los estados psicológicos son caracterizables solo en términos de sus relaciones con otros (así como con el comportamiento, etc.), y no como disposiciones que puedan ser “desempacadas” sin volver a los mismos predicados psicológicos que están en cuestión. Pero esto no es fatal en nuestro caso: Un robot también puede tener estados internos que estén relacionados entre sí (y sólo indirectamente al comportamiento y estimulación sensorial) según lo requiera una teoría psicológica. Entonces, cuando el robot está en el estado interno que realiza el predicado “sé que p” podría decir que el robot “sabe” que p. Su “conocimiento” podría no ser conocimiento  porque [knwing-because] podría no “ser realmente consciente” que es lo que tenemos que decidir; pero aquel conocimiento jugará el mismo papel en el comportamiento del robot como lo juega en el comportamiento humano. En suma, para cualquier sentido en que un humano puede “saber que tiene una sensación” habrá un sentido lógico y semánticamente análogo en el que un robot puede “saber” que tiene una “sensación”. Y esto es todo lo que mi argumento requiere.
Después de esta digresión sobre el carácter lógico de “conocimiento”, finalmente estamos listos para estar de acuerdo con el primer argumento de Baier. El argumento puede ser visto fácilmente como una mera variante del argumento del “agua en el cerebro” (puedes tener agua en el cerebro pero no agua en la mente; por lo tanto la mente no es el cerebro). Uno puede saber que tiene sensaciones sin saber que es un estado cerebral S; por lo tanto la sensación no puede ser idéntica con el estado cerebral S. Este es todo el argumento. Pero, ya que “saber que” es un contexto intencional, un robot puede correctamente decir “no sé que el biestable 72 está encendido (o incluso que un “biestable” existe, en este asunto)”, incluso en situaciones en que se pueda correctamente afirmar, “tengo la ‘sensación’ del rojo”. Se puede incluso afirmar: “yo ‘sé’ que tengo la ‘sensación’ del rojo”. Si se sigue el caso humano, en que la sensación del rojo no es idéntica con el estado cerebral S, entonces por el mismo argumento de las mismas premisas semánticas, los robots filósofos pueden concluir que la “sensación” de rojo no es idéntica con el “biestable 72 estando encendido”. El robot filósofo también puede argüir: “No estoy meramente obligado a expresar las expresiones ‘parece como si algo rojo estuviera enfrente de mí’ por la aparición de la ‘sensación’; parte de la causalidad, es también que yo ‘entiendo’ las palabras que expreso; ‘sé’ que estoy teniendo la ‘sensación’; ‘deseo’ informar mi ‘sensación’ a otros robots; etc.”. Y, en efecto, pienso que Baier y los robots filósofos están en lo correcto. Los atributos psicológicos, ya sean en lenguaje humano o en lenguaje robot, no son simplemente los mismos atributos. Para decir que un robot está enojado (o “enojado”) es una afirmación bastante diferente de la afirmación “tal y tal fluido han alcanzado una alta concentración”, incluso si el último predicado “realiza físicamente” el primero. Las teorías psicológicas que dicen que un organismo que tiene ciertos estados que no se especifican en términos “físicos”, son tomadas como primitivas. Se especifican las relaciones entre estos estados, y entre la totalidad de los estados y entradas sensoriales (“estímulos”) y comportamiento (“respuesta”). Por lo tanto, como resaltaba[3] Jerry Fodor, esta parte de la “lógica” de las teorías psicológicas de diferentes estructuras (físicas), pueden obedecer (o ser “modelos” de) a la misma teoría psicológica. Un robot y un ser humano pueden exhibir “represión” o “potencial inhibición”, exactamente en el mismo sentido. No estoy afirmando que “enojado” sea un término primitivo en la teoría psicológica; en efecto, esta consideración, que ha sido tomada por algunos como una reacción Rylelista, me parece que crea acertijos donde no deberían existir (si “enojado” es un término teórico, entonces “Estoy enojado” debería ser una ¡hipótesis!); sin embargo, sostengo que los patrones de uso correcto, en el caso de un lenguaje ordinario de términos psicológicos, no presupone o implica más que la existencia de un estado independientemente especificable que “realiza” el predicado, o, si existe, es un estado físico en sentido estricto (definible en términos de la física actual), o, si existe, es el mismo para todos los miembros de la comunidad discursiva, de los postulados de una teoría psicológica. En efecto, podría haber una comunidad de robots en la que no todos tienen la misma constitución física, pero todos tienen la misma psicología; y tales robots podrían decir unívocamente: “Tengo la sensación del rojo”, “tienes la sensación del rojo”, “él tiene la sensación del rojo”, incluso si los tres robots mencionados no “tienen físicamente” la “sensación del rojo” de la misma manera. Por lo tanto los atributos: tener la “sensación” del rojo y el “biestable 72 estando encendido” no son simplemente idénticos en el caso de los robots. Si el materialismo se postula para ser la negación de la existencia de los atributos “no-físicos”, entonces el materialismo es falso ¡incluso para los robots!
Incluso, Baier podría replicar: “Si digo que un robot tiene la “sensación” del rojo, quiero decir que tiene algún estado físico (uno “visual”) que le señala la presencia de objetos rojos; si digo que un humano tiene la sensación del rojo, no quiero decir que él tiene necesariamente algún estado físico especial. Por supuesto, tengo un estado, si y solo si tengo la sensación del rojo, a saber, el estado de tener la sensación del rojo. Pero esta es una observación sobre la lógica de los “estados”, y no se dice nada sobre el significado de la “sensación del rojo”.
Creo que es correcto cuando decimos: “Ese robot tiene la ‘sensación’ del rojo”, son (o serían) implicaciones que no se presentan cuando hablamos de otros robots. Pero eso es porque nosotros pensamos en los robots como robots. Déjennos suponer que los robots no “piensan” en sí mismos como robots; de acuerdo con su teoría tienen (o posiblemente tienen) “almas”. Entonces, cuando un robot dice de otro robot: “él tiene una ‘sensación’ del rojo” (o algo en un lenguaje más ordinario para este efecto), la implicación de que otro robot tiene un estado físico especial, no será presentada ¿por qué no debería ser esta una posibilidad abierta para robots científicos y filósofos que no encuentren “correlatos” a nivel físico para las diversas sensaciones que reportan, así como es una posibilidad abierta para nosotros que no podamos encontrar tales correlatos? Para llevar la analogía a un último paso: Si los robots continúan fabricando robots (esto es, robots que los robots mismo consideran como simples robots), un robot filósofo, tarde o temprano argumentará: “cuando digo que un robot ‘piensa que algo es rojo’, o que algo ‘parece rojo’ para un robot, todo lo que quiero decir es que el robot está en un cierto tipo de estado físico (por cierto, uno especificado por su significado psicológico, y no por una descripción físico-química directa. El robot debe poder discriminar las cosas rojas de las no-rojas, y el estado en cuestión debe figurar en una manera bastante difícil de describir el proceso de discriminación. Pero cuando digo que un compañero (robot) ‘piensa que algo es rojo’, etc., no quiero decir que necesariamente él está en algún tipo de estado físico especial. Por lo tanto, en el único sentido filosóficamente interesante de ‘sensación’, las personas (robots) tienen ‘sensaciones’ y los robots no”. Concluyo que el primer argumento de Baier no rompe con mi analogía.
El segundo argumento me parece que descansa en dos dudosas premisas. Por supuesto, si el correlato físico de un doloroso qualia Q es algo periférico, entonces mi cerebro podría ser “reprogramado” para que el evento se convierta en el correlato físico de algún estado psicológico placentero; si el correlato es un estado altamente estructurado de todo el cerebro, entonces tal reprogramación podría ser imposible. Así pues, la premisa: Sea S el estado del cerebro del robot que “realiza” algún “qualia placentero”; entonces, en principio, el cerebro del robot siempre podría ser reprogramado para que S “realizara” un “doloroso qualia”, parece ser simplemente falsa. (La otra premisa dudosa es la existencia de los qualia intrínsecamente placenteros y dolorosos. Esto se supone que es introspectivamente evidente, pero no lo encuentro así).
¿Deberían los robots tener derechos civiles?
A lo largo de este documento he subrayado la posibilidad de que un robot y un humano puedan tener la misma “psicología”, es decir, que puedan obedecer las mismas leyes psicológicas. Decir que dos organismos (o sistemas) obedecen las mismas leyes psicológicas no es en absoluto lo mismo que decir que su comportamiento es similar. En efecto, dos personas pueden obedecer las mismas leyes psicológicas y exhibir un comportamiento diferente, incluso en ambientes similares en la infancia, en parte porque las leyes psicológicas son solo estadísticas y en parte porque los parámetros cruciales pueden tener diferentes valores. Para saber las leyes psicológicas obedecidas por las especies, se debe saber cómo podría comportarse cualquier miembro de esa especie, dado la más amplia variación en todos los parámetros que son capaces de variación en absoluto. En general, tales leyes, como todas las leyes científicas, implicarán términos abstractos, más o menos alejados de la observación comportamental directa. Ejemplos de tales términos ya se han dado: Represión, potencial inhibición, preferencia, sensación, creencia. Por lo tanto, decir que un hombre y un robot tienen la misma “psicología” (son psicológicamente isomorfos, como también diré) es decir que el análisis de la conducta de las dos especies es más simple y revelador, a nivel psicológico (en abstracción de los detalles de la estructura física interna), en términos de los mismos “estados psicológicos” y los mismos parámetros hipotéticos. Por ejemplo, si un ser humano es un “autómata probabilístico”, entonces cualquier robot con el mismo “control de mando” será psicológicamente isomorfo a un ser humano. Si el cerebro humano es simplemente una red neural con ciertos programas, como en la teoría de Pitts y McCulloch. Entonces un robot cuyo “cerebro” fuese una red similar, solamente construida por biestables y no de neuronas, tendría exactamente la misma psicología de un humano. Para evitar la mendicidad de la pregunta, consideraré la psicología como una ciencia que describe la conducta de cualquier especie de sistema cuyo comportamiento es susceptible de análisis e interpretación en términos de “construcciones” molares de conducta de tipo familiar (estímulos, respuesta, impulsión, saturación, etc.). Por lo tanto, decir que un robot (o un pulpo) tiene una psicología (obedece las leyes psicológicas) no implica que sea necesariamente consciente. Por ejemplo, el “ratón” mecánico construido por Shannon tiene una psicología (en efecto, fueron construidos precisamente para servir como un modelo de una cierta teoría psicológica de condicionamiento), pero nadie diría que están vivos o que son conscientes. En el caso de las máquinas de Turing, autómatas finitos, etc., lo que aquí llamo “isomorfismo psicológico” es a lo que me refería en trabajos anteriores como “igualdad de organización funcional”.
En el resto de este artículo, imagino que nos enfrentamos a una comunidad de robots que (¿quiénes?) son psicológicamente isomorfos a los seres humanos en el sentido justamente explicado. También asumiré que el “paralelismo psicológico” es válido para los seres humanos y que, si una acción puede explicarse psicológicamente, la “trayectoria” correspondiente de los cuerpos humanos vivos que ejecutan esa acción puede ser explicada (en principio) en términos físico-químicos. La posibilidad de construir un robot psicológicamente isomorfo a un ser humano, no depende de esta suposición; un robot podría ser psicológicamente isomorfo a un espíritu incorpóreo o a un “fantasma en una máquina” de igual forma, si se diera el caso; pero la situación conceptual sería un poco menos confusa si descuidamos esas cuestiones en el presente artículo.  
Dejemos que Oscar sea uno de estos robots, y déjennos imaginar que Oscar está teniendo la “sensación” del rojo ¿está Oscar teniendo la sensación del rojo? En un lenguaje más ordinario ¿está Oscar mirando cualquier cosa? ¿Está él pensando, sintiendo algo? ¿Está Oscar vivo? ¿Es Oscar consciente?
Me he referido a este problema como el problema de los “derechos civiles de los robots” porque eso es lo que podría llegar a ser, y mucho más rápido de lo que cualquiera de nosotros espera. Dado el ritmo cada vez más acelerado del cambio tecnológico y social, es totalmente posible que los robots existan algún día, y argumenten “¡estamos vivos; somos conscientes!”. En ese caso, lo que hoy solo son prejuicios filosóficos tradicionales de tipo antropocéntrico y mentalista, es muy probable que se conviertan en actitudes políticas conservadoras. Pero afortunadamente, hoy tenemos la ventaja de ser capaces de discutir este problema desinteresadamente, y por tanto, con un poco más de suerte, llegar a la respuesta correcta.
Pienso que el caso más interesante es el caso en que 1) el “paralelismo psicológico” se mantiene (de modo que al menos se puede afirmar que tenemos precisamente iguales “sistemas físico-químicos” que los robots), y 2) los robots en cuestión son psicológicamente isomorfos a nosotros. Este es seguramente el caso más favorable para el filósofo que desee argumentar que los robots con “un grado suficiente de complejidad”, no sólo podrían, sino que necesariamente serían conscientes. Tal filósofo presumiblemente afirmaría que Oscar tuvo sensaciones, pensamientos, sentimientos, etc., en el mismo sentido en que nosotros hacemos y usamos el “asombro” como cita a través de este artículo, siempre que un predicado psicológico fuera aplicado a un robot innecesariamente.  Es esta afirmación que espero explorar, no con el deseo polémico habitual de mostrar que el materialismo es correcto y, por tanto (?), que tales robots como Oscar, serían conscientes o demostrarían que todas esas cuestiones han sido resueltas de una vez por todas en Philosophical Investigations, Dios, danos ojos para verlo. Pero más bien, con mi perverso interés propio en la estructura lógica del pintoresco y curioso pequeño discurso que los filósofos proponen como “argumentos”, y con un interés quizá más serio últimamente en el relevante aspecto semántico de nuestro lenguaje.
Argumentos Anticivil-libertarios
Algunos de los argumentos designados para demostrar que Oscar podría no ser consciente, pueden ser fácilmente expuestos como malos argumentos. Así, el argumento del fonógrafo: Un robot sólo “actúa” en el mismo sentido en que un fonógrafo reproduce música. Cuando nos reímos de la broma de un robot, realmente apreciamos el ingenio del programador humano, y no el ingenio del robot. El argumento de reprogramación: Un robot no tiene un carácter real de sí mismo. Podría en cualquier momento ser reprogramado para comportarse de la forma contraria a la que se comportaba antes. Pero un ser humano que fue “reprogramado” (digo, por una operación cerebral realizada por una raza con una ciencia tremendamente avanzada), así como para tener un nuevo conjunto de respuestas completamente predeterminadas, ya no sería un ser humano (en todo el sentido de la palabra), pero sí un monstruo. El argumento de la vaga pregunta: El entonces llamado estado “psicológico” de un robot, son en realidad sólo estados físicos. Pero nuestros estados psicológicos no son estados físicos. Así que sólo podría ser en el más Pickwickiano de los sentidos en el que un robot fuera “consciente”.   
El primer argumento ignora la posibilidad de que los robots puedan aprender. Un robot cuyo “cerebro” no es más que una biblioteca predeterminada de rutinas comportamentales, cada una imaginada con bastante detalle por el programador, no sería, en efecto, nada interesante. Pero tal robot sería incapaz de aprender cualquier cosa que el programador no supiera, y por lo tanto, dejaría de ser psicológicamente isomorfo para el programador, o para cualquier humano. Por otro lado, si el programador construye un robot, de manera que sea un modelo de ciertas leyes psicológicas, no sabrá, en general, cómo se comportará en situaciones de la vida real, justo como un psicólogo podría saber todo sobre las leyes de la psicología humana, pero aun así no sería mejor (o ligeramente mejor) que cualquier otro que prediga cómo se comportarán los humanos en situaciones de la vida real. Imagine que el robot en “nacimiento” es tan indefenso como un bebé recién nacido, y que adquiere nuestra cultura al ser educado por humanos. Cuando llega al punto de inventar una broma, y nos reímos, simplemente no es cierto que estamos “apreciando el ingenio del programador”. Lo que el programador inventó no era una broma, sino un sistema que pudiera algún día producir nuevas bromas. El segundo argumento, como el primero, asume que el comportamiento “programado” debe ser totalmente predecible y carecer de toda espontaneidad. Si “reprogramo” a un criminal (mediante una operación cerebral) para convertirse en buen ciudadano, pero sin destruir su capacidad para aprender, desarrollar, cambiar (incluso a cambiar de nuevo a un criminal algún día), entonces ciertamente he creado un “monstruo”. Si Oscar es psicológicamente isomorfo a un humano, entonces Oscar puede ser “reprogramado” en la medida, y solo en la medida en que un humano pueda. El tercer argumento asume totalmente que los predicados psicológicos no aplican para Oscar y para un humano en el mismo sentido en que justamente se trata el punto en cuestión.
Todos estos argumentos sufren de un defecto inadvertido e incapacitante.  Ellos se basan en que los robots: son artefactos y que son sistemas terminados de tipo psicológico, cuyo comportamiento (incluyendo el aspecto “inteligente”) ha sido preseleccionado y designado por el artífice. Pero  es puramente contingente que estas dos propiedades no sean propiedades de los seres humanos. En consecuencia, si algún día descubriéramos  que somos artefactos y que cada uno de nuestros enunciados fue expresado con anticipación por nuestros creadores (con una pequeña “c”) superinteligentes, se seguiría, si los argumentos fueran seguros, en que ¡no somos conscientes! Al mismo tiempo, como acabamos de notar, estas dos propiedades no son propiedades de todos los robots imaginables. Por lo tanto, estos argumentos pueden fracasar en dos direcciones: Pueden “demostrar” que las personas no son conscientes, porque las personas podrían ser el tipo incorrecto de robots, mientras simultáneamente no se podría demostrar que algunos robots no son conscientes.
Argumentos procivil-libertarios    
Si los usuales argumentos “anticivil libertarios” (argumentos en contra, afirman que Oscar es consciente) son malos argumentos, los argumentos procivil-libertarios parecen ser prácticamente ¡inexistentes! Desde el siglo XIX, los materialistas han afirmado que “la consciencia es justamente una propiedad de la materia en un cierto grado de organización”. Pero como análisis semántico, esta afirmación es desesperada (el paralelismo psicológico no es ciertamente analítico), y como teoría de la identidad, es irrelevante. Supongamos que Feigl estuviera en lo correcto, en que las palabras de sensación se refieren a eventos (o “estados” o “procesos”) definibles en el lenguaje de la física. (Como he sostenido antes, Feigl ya no es de esta opinión). En particular, supongamos que “la sensación del rojo” denota un proceso cerebral. (Por supuesto, no está claro a qué se refiere esta suposición. Nos enseñan el uso de “denotar” en filosofía, al ser dicho que “gato” denota la clase de todos los gatos, y así sucesivamente; y luego, algunos filósofos dicen “‘la sensación del rojo’ denota una clase de procesos cerebrales” ¡como si fuera claro! De hecho, todo lo que se nos ha dicho es que “‘la sensación del rojo’  denota un proceso cerebral” es verdadera en el caso en que “la sensación del rojo es un proceso cerebral” es verdadera. Puesto que esta última afirmación desconcertante fue a su vez explicada por los teóricos de la identidad en términos de la distinción entre denotación y connotación, nada ha sido explicado). Además, si el “correlato” físico de la sensación del rojo (en el caso de un humano) es P₁ y el correlato físico de la “sensación” del rojo (en el caso de Oscar) es P₂, y si P₁ y P₂ son diferentes estados físicos, no obstante puede mantenerse que, cuando Oscar y yo “vemos algo que parece rojo” (o “tiene la sensación del rojo”, para usar la jerga filosófica que me he permitido en este artículo), estamos en el mismo estado físico, a saber la disyunción de P₁ y P₂ ¿cómo podemos decidir si “la sensación del rojo” (en el caso de un humano) es “idéntica” a P₁ o “idéntica” a P P₂? Los teóricos de la identidad no me dicen nada que me ayude a decidir.
Otra teoría popular es la del lenguaje ordinario en términos psicológicos, tales como “está enojado” (y, presumiblemente, tales expresiones cuasitécnicas como “tengo la sensación del rojo”) están definidas implícitamente por una teoría psicológica. Desde este punto de vista, se deduciría el hecho de que Oscar y yo somos “modelos” de la misma teoría psicológica (comportamiento molar)  que tiene términos psicológicos exactamente en el mismo sentido cuando son aplicados en mí y cuando son aplicados en Oscar.
Puede que se conceda, quizá, que hay algo que podría llamarse una “teoría psicológica implícita” que subyace al uso ordinario de términos psicológicos. (Que un hombre enojado se comporte agresivamente, a menos que tenga fuertes razones para reprimir su enojo y cierta habilidad para controlar sus sentimientos; que los insultos tienden a provocar enojo; que muchas personas no son muy buenas para controlar los fuertes sentimientos de ira; son ejemplos de que pueden ser considerados “postulados” de tal teoría. Aunque cada uno de estos “postulados” es cuasitautológico, podría afirmarse que la conjunción de un número suficiente de ellos tiene consecuencias empíricas, y puede ser usado para proporcionar explicaciones empíricas de comportamiento observado). Pero la opinión de que todo el significado de un término, tal como el “enojo”, esté fijo como tal en dicha teoría, parece altamente dudoso. No hay espacio en el presente artículo para examinar este tema con la anchura que se merece. Pero una o dos críticas pueden indicar dónde se encuentran las dificultades.
Afirmar que algo contiene flogisto es (implícitamente) afirmar que ciertas leyes, sobre las cuales el concepto de flogisto depende, son correctas. Afirmar que algo está cargado eléctricamente es en parte afirmar que las leyes experimentales sobre las cuales los conceptos de electricidad se basan y sobre la cual se supone que se explica la teoría eléctrica, no son radical y completamente falsas. Si la “teoría” sobre la cual el término enojo “depende” realmente de consecuencias empíricas, entonces, incluso decir “estoy enojado” es en parte afirmar que estas consecuencias empíricas no son radicales y completamente falsas. Por lo tanto, no sería absurdo, si el “enojo” realmente fuera un término teórico, decir “creo que estoy muy enojado, pero no estoy seguro” o “creo que tengo un severo dolor, pero no estoy seguro” o “creo que soy consciente pero no estoy seguro”, ya que uno podría no estar seguro que las leyes experimentales implicadas por la “teoría psicológica” implícita en el lenguaje ordinario son en efecto correctas. No sería absurdo decir también: “Tal vez no exista realmente tal cosa como el enojo” o “tal vez no exista realmente tal cosa como el dolor” o “tal vez no exista realmente tal cosa como ser consciente”. En efecto, no importa cuán seguramente podría ser que tenga la sensación del rojo, podría probarse examinando a otras personas que no tuvieran esa sensación y que en efecto no existiese tal cosa como tener la sensación del rojo. En realidad, “eso parece la sensación del rojo” tendría un uso perfectamente bueno, es decir, para significar que mi experiencia sería como si el “lenguaje ordinario implícito en la teoría psicológica” fuese cierto, pero la teoría no es en efecto verdadera. Estas consecuencias ciertamente, deberían ser puestas en duda, sobre la idea que “los términos psicológicos en el lenguaje ordinario” realmente son “construcciones teóricas”.
Es obvio que “los términos psicológicos en el lenguaje ordinario” tienen un uso comunicativo. “Tengo dolor” sería tal declaración. Pero claramente, un término que figura en reportes observacionales tienen un uso observacional, y ese uso debe entrar dentro de sus significados. Su significado no puede ser fijado simplemente por su relación con otros términos, en abstracción de los hábitos reales del habla de los hablantes (incluyendo los hábitos de los cuales depende el uso de la información).
La primera dificultad sugiere que la “teoría psicológica” que “define implícitamente” tales palabras como “enojo” no tiene en efecto consecuencias no tautológicas o, al menos, consecuencias no empíricas que no podrían ser abandonadas sin cambiar el significado de estas palabras. La segunda dificultad sugiere entonces, que el trabajo de arreglar el significado de estas palabras es sólo parcialmente realizado por las relaciones lógicas (la “teoría”), y se completa con el uso comunicativo.
Una tercera dificultad surge cuando preguntamos qué es lo que se supone que es la postulación “la teoría psicológica implícita en el lenguaje ordinario”. La respuesta usual es que la teoría postula la existencia de ciertos estados en los que se supone están relacionados uno del otro y el comportamiento es especificado en la teoría ¿pero qué significa “estado”? Si “estado” se entiende como estado físico, en el sentido estricto mencionado anteriormente, entonces el paralelismo psicológico sería implicado por una arbitraria afirmación “psicológica”, la cual es obviamente incorrecta. Por otra parte, si “estado” es entendido en un sentido lo suficientemente amplio como para evitar este tipo de objeción, entonces (como señala Wittgenstein) la observación “estar enojado es estar en cierto estado psicológico”, no dice nada.
En el caso de una teoría científica ordinaria (digo, una teoría física), postular la existencia de “estados” S₁, S₂…, Sₙ que satisfacen ciertos postulados, es afirmar que una o dos cosas son el caso: O bien (1) los estados físicos (definibles en términos de la primitiva existencia de la teoría física) pueden ser encontrados satisfaciendo los postulados; o (2) es necesario tomar los nuevos predicados S₁, …, Sₙ (o predicados en términos en los cuales puedan ser definidos) como primitivos en la ciencia física, y ampliar nuestro concepto de “estado físico” en consecuencia. De la misma manera, los teóricos de la identidad han sugerido algunas veces que “la teoría psicológica molar” deja la cuestión abierta, si los estados postulados son estados físicos o no. Pero si los estados físicos pueden encontrarse satisfaciendo los postulados, entonces ellos son los referidos por dichos postulados. “Estado” es entonces un término metodológico, por así decirlo, cuyo estatus es explicado por una representación perspicaz de los procedimientos de la construcción y confirmación de teorías empíricas. Esta solución a nuestra tercera dificultad se reduce a la teoría de la identidad bajo la suposición de que el paralelismo psicofísico se mantiene, y que los estados físicos pueden encontrarse “satisfaciendo” los postulados del “comportamiento psicológico molar”.
Incluso, aun si se acepta la solución a la tercera dificultad, las dos primeras dificultades persisten. Para ser una teoría científica empíricamente confirmable, la “teoría del comportamiento molar”, implícita en el uso ordinario de términos psicológicos debe tener consecuencias empíricas comprobables. Si el lenguaje ordinario en términos psicológicos realmente designa los estados postulados por esta teoría, y, si la teoría es radicalmente falsa, entonces debemos decir que no existen tales “estados” como estar enojado, tener dolor, tener una sensación, etc. Y esto debe seguir siendo una posibilidad (por esta razón), no importa lo que observemos, ya que ningún número finito de observaciones puede establecer deductivamente  una teoría científica propiamente dicha. Además, la función informativa de los términos “psicológicos” en el lenguaje ordinario no es discutida por esta razón. Si decir “tengo dolor” es simplemente atribuir un término teórico a mí mismo, entonces este informe es en parte una hipótesis, y que siempre puede ser falsa. Esta consideración - que el uso ordinario de los términos “psicológicos” presuponen una teoría empírica, que siempre pueda ser radicalmente falsa- ha sido recientemente propuesta por Paul Feyerabend. Feyerabend aceptaría la consecuencia que he rechazado como contraintuitiva: que no pueden haber realmente dolores, sensaciones, etc., en el sentido acostumbrado ¿pero dónde están estas teorías empíricas que son propuestas por el uso ordinario de los términos “psicológicos”? ¿Puede indicar alguien una ley de conducta que sea claramente empírica y que esté presupuesta por los conceptos de sensación, enojo, etc.? La conexión empírica que existe, entre tener dolor y decir “ay”, o algo así, a veces se ha tomado (por los conductistas lógicos, o mejor, por los teóricos de la identidad) como tal ley. He tratado de mostrar en otra parte[4], como sea, que tales leyes no son realmente requeridas, a decir verdad, por la aplicación de los conceptos de dolor en su sentido habitual. Lo que nos da derecho para decir que un hombre está sufriendo en nuestro mundo, no puede darnos derecho para decir que está sufriendo en un mundo diferente; sin embargo el mismo concepto de dolor puede ser aplicable. Lo que afirmo es que para entender cualquier término “psicológico”, uno debe estar familiarizado implícitamente con una red de relaciones lógicas, y uno debe estar adecuadamente entrenado en el uso de la información de ese mundo. También es necesario, creo yo, que uno esté dispuesto a aceptar declaraciones en primera persona por otros miembros de una comunidad lingüística que involucran estos predicados, al menos cuando no haya ninguna razón especial para desconfiar de ellos; pero esta es una convención general asociada con el discurso, y no parte del significado de ninguna palabra en particular, psicológica o de otro tipo. En mi opinión, otras convenciones generales asociadas con el discurso, son la aceptación de reglas no demasiado extrañas de inferencia inductiva y confirmación de la teoría y de ciertas reglas fundamentales de inferencia deductiva. Pero estas cosas, de nuevo, tienen que ver con que el discurso del uno como un todo no sea desviado lingüísticamente, más que con el entendimiento de una palabra en particular. Si no soy consciente de que alguien está llorando (en un cierto tipo de contexto es una señal de que está sufriendo), se me puede comunicar. Si me rehúso (sin una buena razón) a creer lo que me dicen, me pueden señalar que cuando estoy en ese contexto (por ejemplo, mi dedo está quemado), siento dolor, y ninguna condición para mí es relevante para el sentimiento o no sentimiento de dolor en el caso de otro. Si todavía no puedo describir la sensación de dolor en otro, entonces todo mi concepto del discurso es anormal, pero sería a la vez una subestimación grave y un diagnóstico erróneo decir que yo “no sé el significado de “dolor”.
Concluyo que los términos “psicológicos” en el lenguaje ordinario no son términos teóricos. Además, la idea de si el paralelismo físico es correcto, entonces es analítico que el dolor sea el estado cerebral correlacionado, el cual no está apoyado por ni una pizca de evidencia lingüística. (Sin embargo esta es una consecuencia de la combinación “teoría de la identidad-términos teóricos” que la desarrollamos para satisfacer nuestra tercera dificultad). Concluyo que cualquier intento de demostrar que Oscar es consciente (analíticamente, en relación con nuestras premisas) a lo largo de estas líneas es desesperanzador.
Los argumentos de Ziff 
Hasta ahora todos los argumentos que hemos considerado, en ambos lados de la pregunta: ¿Es Oscar consciente? han sido sin mérito. No se ha hecho ninguna consideración seria para demostrar que esto es falso, dado el significado de las palabras en castellano, y los hechos empíricos tal como nosotros los asumimos, que Oscar es consciente; pero tampoco se ha hecho ninguna consideración seria para saber que es verdad. Si esto es una violación a las reglas del castellano, decir (sin “sorpresa”) que Oscar está sufriendo, viendo una rosa o pensando en Viena, no nos dice a nosotros qué reglas se están violando; y si es esto una violación de las reglas del castellano, negar que Oscar es consciente, dado su isomorfismo psicológico a un ser humano, tampoco nos han dicho qué reglas se violan. En esta situación, resultaría interesante recurrir al ingenioso (“anticivil libertario”) argumento de Paul Ziff[5].
Ziff desea mostrar que es falso que Oscar sea consciente. Él empieza con el indudable hecho de que si Oscar no está vivo, no puede ser consciente. Por lo tanto, dado la conexión semántica entre “vivo” y “consciente” en castellano, es suficiente para demostrar que Oscar no está vivo. Ahora, Ziff argumenta, que cuando queremos decir si algo está vivo o no, no nos referimos a su comportamiento. Incluso si una cosa que parece una flor, crece en mi jardín como una flor, etc., si noto que al desarmarla consiste de engranajes, ruedas, hornos en miniatura, tubos de vacío y demás, digo “qué mecanismo inteligente”, mas no digo, “qué planta tan inusual”.  Es la estructura, no la conducta lo que determina si algo está vivo o no; y es una violación de las reglas semánticas de nuestro lenguaje, decir que cualquier cosa que sea claramente un mecanismo, esté “viva”.
Hasta ahora, el argumento de Ziff es inesperado por causa de la gran concentración en el debate sobre la conducta. Pero ciertamente llama la atención a la relevante lógica  y  las relaciones semánticas. Sin embargo, no puedo concordar en que estas relaciones sean tan claras como el argumento de Ziff lo requiere. Supongamos que construimos un robot - o déjenme decir algo mejor, un androide, para emplear una palabra menos mecánica - que por fuera sea de material suave (como protoplasma). Por ende, la afirmación de Ziff, puede ser perfectamente correcta, si el androide es lo suficientemente “natural” en estructura, para decir que tenemos “vida sintetizada”. Así, dado estos dos artefactos, ambos “modelos” de la misma teoría psicológica, ambos con completos sistemas deterministas físico-químicos, ambos designados para el mismo fin y “programados” por el diseñador en la misma medida, puede ser que debamos decir que uno de ellos es una “máquina” y no es consciente, y el otro es un “cosa viviente” (aunque “artificialmente creada”) y consciente, simplemente porque uno está constituido de “material liviano” y el otro está constituido de “material duro”. Un gran número de hispanohablantes***, estoy seguro (y yo soy uno de ellos), encontraría la afirmación de que esta decisión dogmática es requerida por el significado de la palabra “vivo”, muy contraria a sus intuiciones lingüísticas. Creo que la dificultad es fundamentalmente esta: Una planta no exhibe mucho “comportamiento”. Por lo tanto, es natural que los criterios que tienen que ver con la estructura, dominen sobre los criterios que tienen que ver con la “conducta”, cuando la pregunta es si algo que parece y se “comporta” como una planta está realmente vivo o no. Pero en el caso de algo que se ve y se comporta como un animal (y especialmente como un ser humano), es natural que los criterios que tengan que ver con la conducta y no solo con la conducta real, sino con la organización del comportamiento, deben jugar un papel mucho más importante en la decisión, como se especificó por la teoría psicológica de la cosa. Por lo tanto, no es antinatural que debamos estar preparados para argüir, en el caso de la “pseudoplanta”, que “no es una cosa viva ya que es una máquina”, mientras que algunos están preparados para argumentar, en el caso del robot, que “no es una mera máquina, porque está viva”, y “está viva, porque es consciente”, y “es consciente porque tiene la misma organización conductual de un ser humano vivo”. Sin embargo, la afirmación de Ziff bien puede explicar por qué es que muchos hablantes no están convencidos por estos argumentos. La tensión entre criterios conflictivos da lugar a la “evidencia”, para algunas mentes del estatus de la “máquina” del robot, y la “evidencia” es igual a otras mentes de su estatus de “vida artificial”.
Hay un sentido de “mecanismo”, el cual es claramente analítico que un mecanismo no puede estar vivo. El argumento de Ziff puede ser reducido a la contención sobre la interpretación normal de los términos. Es analítico en castellano, que algo cuyas partes son todas mecánicas, en ese sentido, tampoco pueda estar vivo. Si esto es así, entonces los hispanohablantes no deberían suponer que él incluso podría imaginar un robot pensando, volviéndose loco de poder, odiando humanos, o estar enamorado, como tampoco debería suponer que puede imaginar un soltero casado. Me parece evidente (y de hecho a la mayoría de hablantes) que, absurdamente o no, podamos imaginar estas cosas. Concluyo, por lo tanto, que Ziff está equivocado: Puede ser falso, pero no es una contradicción, afirmar que Oscar está vivo.
La posturano sabe nada
Tenemos que considerar todavía la postura más tradicional de nuestra cuestión. De acuerdo con esta postura, la cual se ha mantenido muy ampliamente, reza en que es posible que Oscar sea consciente, y es posible que no sea consciente. En su forma teológica, el argumento dice así: Soy una criatura con un cuerpo y un alma. Mi cuerpo se constituye de carne y sangre, pero también podría haber sido una máquina, si Dios lo hubiera preferido. Cada movimiento voluntario de mi cuerpo está correlacionado con una actividad en mi alma (cómo y por qué, es un “misterio”). Así que, es bastante posible que Oscar tenga un alma, y que cada movimiento “voluntario” de su cuerpo mecánico está correlacionado de la misma misteriosa manera con una actividad en su alma. También es posible - ya que las leyes de la física son suficientes para explicar los movimientos del cuerpo de Oscar, sin usar la suposición de que tiene un alma - que Oscar es sólo una máquina sin vida. No hay forma alguna de saberlo. Este argumento también se puede dar de una forma no teológica (o al menos aparentemente no teológica) eliminando la referencia a Dios, y colocando “mente” en vez de “alma” en todas partes. Para completar el argumento, se sostiene que no sé lo que significa decir que Oscar tiene un “alma” (o que tiene un dolor, o la sensación del rojo, etc.) desde mi propio caso.
Una dificultad bien conocida con esta postura tradicional, es la que implica que también sea posible que otros humanos no sean realmente conscientes, incluso si son física y psicológicamente isomorfos a mí. Se sostiene que puedo saber con probabilidad que otros humanos son conscientes por el “argumento de analogía”. Pero en las ciencias inductivas, un argumento de analogía es generalmente considerado como bastante débil, a no ser que la conclusión sea capaz de una verificación inductiva independiente. Así que es duro aceptar que nuestras razones para creer que otras personas son conscientes, son muy fuertes, si son simplemente un argumento analógico con una conclusión que no admita observación independiente, observacional, inductiva, o como sea. Recientemente, la mayoría de filósofos lo han encontrado imposible de creer, ya que nuestras razones para creer que otras personas son conscientes son muy débiles o que la posibilidad existente de que otras personas - que si bien es cierto son física y psicológicamente isomorfos (en el sentido del presente artículo), a mí - no son conscientes. Argumentos sobre este punto pueden ser encontrados en los escritos de la mayoría de los filósofos analíticos del presente siglo. Infortunadamente, muchos de estos argumentos dependen de teorías dudosas del significado.
La afirmación crítica es la afirmación que se deduce del hecho de que yo he tenido la sensación del rojo, puedo imaginar esa sensación, “sé cómo es”, puedo entender la aserción de que Oscar tiene la sensación del rojo (o alguna otra sensación o estado psicológico). En cierto sentido, esto es correcto. Yo puedo, en algún sentido, entender las palabras. Puedo analizarlas; no creo que la “sensación del rojo” signifique un cochecito de bebé, etc. Más que eso: Podría saber qué experimentaría si estuviera consciente de cómo soy psicológicamente, pero con el “cuerpo” mecánico de Oscar en vez del mío ¿cómo es que esto es así? Esto es así, al menos en parte, porque tenemos que aprender de la experiencia de nuestro propio cuerpo. Si un niño fuera criado con una armadura especial, el niño podría ser engañado haciéndosele pensar que era un robot. Sería más difícil engañarle haciéndole pensar que él tiene una estructura interna de un robot, aunque esto también podría hacerse (con falsos rayos x, etc.). Y cuando “me imagino en los zapatos de un robot (consciente)”, lo que hago, por supuesto, es imaginar las sensaciones que puedo tener si yo fuera un robot, o si más bien yo fuera un humano que piensa erróneamente que es un robot. (Miro abajo a mis pies y veo metal brillante, etc.).
Bueno, admitamos que en ese sentido entendemos la frase “Oscar está teniendo la sensación del rojo”. De esto no se deduce que la frase posea un valor de verdad. Entendemos la frase “el actual rey de Francia es calvo”, pero, en su interpretación normal en castellano, la frase no tiene valor de verdad bajo las presentes condiciones. Podemos darle un valor de verdad, adoptando una adecuada convención - por ejemplo, la teoría de las descripciones de Russell - y existe más de una convención adecuada. Realmente la pregunta en cuestión no es si podemos “entender” las frases “Oscar es consciente” (o “tiene la sensación del rojo” o “está enojado”) y “Oscar no es consciente”, en el sentido de poder utilizarlas en contextos tales como, “me puedo imaginar perfectamente que Oscar es consciente”, pero si hay realmente un sentido inteligible en el cual una de estas oraciones es cierta, en una interpretación normal, y en otra falsa (y, en ese caso, también si es cierto que no podamos decir cuál).
Volvamos, por un momento, a nuestra fantasía anterior de ROBOTS - esto es, robots de segundo orden, robots creados por robots y considerados por los robots como simples ROBOTS. Como ya dije, un robot filósofo muy bien puede ser inducido a considerar la cuestión: ¿Son los ROBOTS conscientes? El robot filósofo “sabe”, por supuesto, qué “experiencias” tendría si fuera un ROBOT “consciente” (o un robot en un traje de robot). Él puede “perfectamente imaginarse que un ROBOT podría tener “sensación”. De modo que puede llegar perfectamente a la postura de que es lógicamente posible que los ROBOTS tengan sensaciones (o mejor, “sensaciones”) y es perfectamente posible que no las tengan, y además, nunca lo podrán saber. ¿Qué pensamos de esta conclusión?
Es claro qué debemos pensar: Debemos pensar que no hay la menor razón para suponer (y toda razón para no suponer) que hay una propiedad especial, “teniendo la ‘sensación’ del rojo”, que el ROBOT pueda o no tener, pero que es inaccesible para el robot. El robot, conociendo la descripción física y psicológica del ROBOT, está en una buena posición para responder todas las preguntas acerca del ROBOT que razonablemente se puedan hacer. La idea de que hay otra pregunta (u otra clase de pregunta) acerca del ROBOT que el robot no pueda responder, es sugerida al robot por el hecho de que estas supuestas “preguntas” están bien formadas gramaticalmente, y pueden ser “comprendidas” en el sentido que en que se discute arriba, y que las posibles “respuestas” pueden ser “imaginadas”.
Considero que nuestra postura con respecto a los robots es exactamente aquella de los robots con respecto a los ROBOTS. No existe la más leve razón para creer que la “conciencia” es una propiedad bien definida, que cada robot tiene o carece, pero que no es posible, sobre la base de la descripción física del robot, o incluso sobre la base de la descripción psicológica (en el sentido de “psicológico” explicado arriba), para decidir cuáles (si algunos) de los robots poseen esta propiedad en la que (si la hay) no la poseen. Las reglas del “lenguaje robot” pueden bien ser tales en las que perfectamente le sea posible al robot “conjeturar” que los ROBOTS tienen “sensaciones” y también sería perfectamente posible para un robot conjeturar que los ROBOTS no tienen “sensaciones”. No se deduce que la descripción física y psicológica de los ROBOTS es “incompleta”, sino que sólo el concepto de “sensación” (“sorprendentemente”) es un concepto bien definido, sólo cuando es aplicado a los robots. La pregunta planteada por el robot filósofo ¿son los ROBOTS “conscientes”? demanda una decisión mas no un descubrimiento. La decisión, en el fondo, es esta: ¿Trato a los ROBOTS como miembros de mi comunidad lingüística, o como máquinas? Si los ROBOTS son aceptados como miembros plenos de la comunidad robot, entonces un robot puede enterarse si un ROBOT está “consciente” o “inconsciente”, “vivo” o “muerto”, de la misma manera en que se descubren estas cosas en el caso de un robot amigo. Si son rechazados, entonces nada cuenta como un ROBOT siendo “consciente” o “vivo”. Hasta que se tome la decisión, el enunciado que reza en que los ROBOTS son “conscientes” no tiene un valor de verdad. En el mismo sentido, sugiero que la pregunta: ¿Son los robots conscientes? demanda una decisión por nuestra parte, de tratar a los robots como miembros de nuestra comunidad lingüística, o de no tratarlos como tal. Mientras dejemos sin resolver esta decisión, la afirmación de que los robots (del tipo descrito) son conscientes no tiene valor de verdad.
Si rechazamos la idea de que la descripción física y psicológica de los robots es incompleta (porque “no especifica si son o no conscientes”), no estamos forzados a sostener que la “conciencia” es un atributo “físico” o que es un atributo “implícitamente definido por una teoría psicológica”. La pregunta de Russell en la filosofía de la matemática: ¿Si el número 2 no es el conjunto de todos los números pares, entonces qué cosa sobre la tierra lo es? era una pregunta tonta. El dos es simplemente el segundo número, y nada más. Igualmente, la pregunta mentalista: ¿Si el atributo de “conciencia” no es un atributo físico (o un atributo implícitamente definido por una teoría psicológica) entonces qué cosa sobre la tierra lo es? Es una pregunta tonta. Nuestros conceptos psicológicos en el lenguaje ordinario son como los hemos formado. El “marco de referencia” del lenguaje ordinario de los predicados psicológicos es lo que es y no otra cosa. ¡Por supuesto que el materialismo es falso; pero es tan trivialmente falso, que los materialistas no deberían ser molestados!
Conclusión
En este artículo, he revisado una sucesión de fallas. Fallas para demostrar que debemos decir que los robots son conscientes, fallas para demostrar que debemos decir que no lo son, fallas para demostrar que debemos decir que no podemos hablar de eso. He concluido de estas fallas que no hay una respuesta correcta para la pregunta ¿Es Oscar consciente? Los robots pueden, en efecto, tener (o carecer) propiedades desconocidas por la física e indetectables por nosotros; pero no se ha ofrecido la menor razón para demostrar que ellos lo hacen, como lo ha demostrado la analogía de los ROBOTS. Entonces, es razonable concluir que la pregunta que lleva por título este artículo demande una decisión y no un descubrimiento. Si tomamos una decisión, me parece preferible extender nuestro concepto para que los robots sean conscientes, pues la “discriminación” basada en la “suavidad” o “dureza” de las partes del cuerpo de un “organismo” sintético parece tan tonta como un criterio discriminatorio de los humanos sobre la base del color de piel. Pero mi propósito en este artículo no ha sido perfeccionar nuestros conceptos, sino hallar cuáles son.




* Este Artículo fue presentado en el simposio “Minds and Machines” en la sexagésima primera reunión anual de la American Philosophical Association, Division Este, Diciembre 28, 1964.
1 “Minds and machines” en Sidney Hook, ed., Dimensions of Mind (New York: NYU Press, 1960), pp. 148-179.
** “English” en el original [N. del t.]
2 Estos argumentos vienen de un artículo publicado por Baier, que fue leído en un coloquio en la Escuela de Medicina Albert Einstein en 1962.
3 Psychological Explanation, que aparecería en la próxima colección editada por Max Black.
4 En “Brains and behavior”. El carácter de los conceptos psicológicos son también discutidos por mí en “The mental life of some machine” que aparecerá en la próxima colección editada por Héctor Neri Castañeda.
5 Me tomo la libertad de exponer un argumento usado por Ziff en una conversación. Esto no implica que necesariamente Ziff suscriba el argumento en la forma en que yo lo expongo, pero lo incluyo por su ingenio e interés.   
***Speakers of english en el original [N. del T.]

Comentarios

Entradas más populares de este blog

La filosofía y la analogía del limón - Roberto José Carmona Ballestas

Jean Paul Sartre: nociones para una psicología fenomenológica - Gustavo Castro

Participación de miembros en el XVI Encuentro Departamental de Semilleros de Investigación