Robots ¿Máquinas o vida creada artificialmente? - Hilary Putnam (Traducción de Roberto José Carmona Ballestas)
Robots ¿Máquinas o vida creada
articialmente?*
Hilary Putnam
Aquellos que pasamos muchas horas de
nuestra infancia (bien o mal invertidas) leyendo historias de cohetes y robots,
androides y telépatas, civilizaciones galácticas y máquinas del tiempo, sabemos
muy bien que los robots – máquinas hipotéticas que simulan el comportamiento
humano, frecuentemente al menos en su mayoría con fuerte apariencia humana –
pueden ser amistosos o temibles, el mejor amigo del hombre o su peor enemigo.
Cuando son amigables, los robots pueden ser inspiradores o patéticos; ellos
pueden imponernos respeto con sus poderes sobrehumanos (y con sus virtudes, las
cuales son más grandes que las virtudes humanas, al menos en los escritos de
algunos autores), o pueden entretenernos con sus estupideces e ingenuidades.
Los robots que han sido “conocidos” por enamorarse, volverse locos (de poder o
de otra cosa), tienden a irritarse con más facilidad. Al menos en la literatura
de ciencia ficción, es posible para un robot ser “consciente”; eso significa
(ya que la “conciencia” como “objeto material” y “universal”, es un soporte que
utiliza el filósofo para apoyarse en palabras más sustanciales) tener
sentimientos, pensamientos, actitudes, y rasgos característicos ¿pero es esto
realmente posible? Y si esto es posible, ¿cuáles son las condiciones necesarias
y suficientes? ¿Y por qué deberíamos los filósofos preocuparnos por esto, de
todos modos? ¿No son el problema mente-cuerpo, el problema de las otras mentes
y el problema del conductismo lógico el mismo problema de qué quería decir
realmente Wittgenstein con el argumento del lenguaje privado? (y ¿por qué
deberíamos prestarle atención?). ¿Esto es más que suficiente para mantener la
mente ocupada del filósofo más laborioso sin rebuscar o inventar el problema de
las mentes de las máquinas? Estas son mis preocupaciones en este artículo.
El problema mente- cuerpo ha sido
muy discutido en los pasados treinta y tantos años, pero la discusión me ha
parecido infructífera. Nadie ha sido persuadido realmente por El concepto de lo mental de que la
relación de la universidad con los edificios, profesores y estudiantes es un modelo útil para la relación de mente y
cuerpo, o incluso para la relación entre, digamos, ser inteligente y los actos del habla individuales. Y Herbert Feigl
me informó que ha abandonado actualmente su bien conocida “teoría de la
identidad” de la relación mente-cuerpo. El problema de las otras mentes ha sido
mucho más fructífero – el bien conocido y extremadamente importante artículo de
Austin, es un amplio testimonio de ello – pero incluso este problema ha
comenzado a quedar obsoleto. De lo que espero persuadirlos es que el problema
de las mentes de las máquinas probará, por lo menos durante un tiempo, ofrecer
una manera nueva y excitante de abordar temas tradicionales en la filosofía de
la mente. Si un robot podría ser consciente y bajo qué condiciones lo sería es
una pregunta que no se puede discutir sin que se toquen inmediatamente los
temas que han sido tratados bajo los epígrafes del problema mente-cuerpo y el
problema de las otras mentes. Por mi parte, creo que ciertas cuestiones
cruciales salen al frente casi por sí mismos de acuerdo a este respecto –
cuestiones que debieron haber sido
discutidas por los escritores que han tratado con los dos encabezados antes
mencionados, pero que no lo han sido– y,
por lo tanto, el problema del robot se convierte casi obligatoriamente en una
discusión para el filósofo de la mente.
Antes de comenzar quisiera enfatizar,
para que nadie malinterprete, que mi preocupación es acerca de cómo deberíamos
referirnos sobre los humanos y no, cómo deberíamos hablar sobre las máquinas.
Mi interés en la última cuestión se deriva de mi recién mencionada convicción: que
de tener suficiente ilustración con respecto al “caso límite” de los robots, si
es que pudiera obtenerse, ella traería consigo luces con respecto del “área
central” de los discursos sobre sentimientos, pensamientos, conciencia, vida,
etc.
Mentes
y máquinas
En
un reciente artículo,[1]
intenté mostrar que un problema muy
análogo al problema mente-cuerpo surgiría automáticamente para los robots. El
mismo punto podría haberse hecho fácilmente en conexión con el problema de las
otras mentes. Revisemos brevemente el argumento: imaginemos una comunidad de
robots. Dejemos que estos robots no “sepan” nada con respecto a su propia
estructura física o cómo fue que llegaron a existir (quizá darían con una
historia de la creación de los robots o una religión politeísta, con dioses
robots sobre un Olimpo robot). Dejemos que “hablen” un lenguaje (digamos,
castellano**), de conformidad con las reglas
gramaticales, la semántica públicamente observable y las regularidades
analítico-discursivas de esa lengua. ¿Cuál podría ser el papel de los
predicados psicológicos en dicha comunidad?
En
el artículo en cuestión, empleo un simple modelo de prueba para tales
predicados. Ya que este modelo es obviamente demasiado simple, déjenme contarles una historia más complicada.
Cuando un robot ve algo rojo (algo que evoca el estado interno apropiado en el
robot), él lo llama “rojo”. Se supone que nuestros robots son capaces de tener
razonamiento inductivo y construcción teórica. Así que un robot puede descubrir
que algo a lo que él llamó rojo no era
realmente rojo. Entonces dirá “bueno, se veía como rojo”. O, si se encuentra en
el estado interno apropiado para el rojo, pero sabe sobre la base de
inducciones cruzadas con otros casos que aquello que él “ve” no es realmente
rojo, él dirá “parece rojo, pero no es rojo realmente”. Así, él tendrá una
distinción entre la realidad física y la apariencia visual, al igual que
nosotros. Pero el robot nunca dirá “eso se ve como si se viera rojo, pero no se
ve rojo realmente”. Es decir, en el castellano del robot no hay noción alguna
sobre una apariencia de una apariencia
del rojo, más allá de las que hay en castellano. Más aún, la razón es la
misma: cualquier estado que no pueda ser discriminado como “parece rojo” cuenta como “parece rojo” (bajo
condiciones normales de capacidad lingüística, ausencia de confusión, etc.). Lo
que esto ilustra, por supuesto, es que la “incorregibilidad” de declaraciones de
la forma “eso parece rojo” debe explicarse a través de una elucidación de las
características lógicas de tal discurso, y no por la metáfora del acceso
“directo”.
Si
asumimos que estos robots no son científicamente sofisticados, no hay razón
para que sepan más de su propia constitución interna de lo que un griego
antiguo pudiera saber sobre el funcionamiento del sistema nervioso central.
Podemos imaginarlos desarrollando una ciencia sofisticada en el curso de los
siglos, y así, llegando eventualmente a identificaciones tentativas de la forma:
“cuando una cosa ‘parece roja’ para uno de nosotros, significa que tiene el
estado interno ‘biestable [flip-flop]
72 encendido’”. Si estos robots también publicaran artículos de filosofía (¿y
por qué no debería un robot ser considerado mejor que muchos de nuestros
estudiantes?), podría suscitarse una discusión animada sobre las implicaciones
filosóficas de tales descubrimientos. Algunos robots podrían argüir, “obviamente, lo que hemos descubierto es
que “ver el rojo” sería el estado interno ‘biestable 72 encendido’”; otros
podrían argüir, “obviamente, lo que
hiciste fue un descubrimiento empírico; el significado de ‘eso parece rojo’ no
tiene el mismo significado de ‘biestable 72 encendido’; por lo tanto los atributos (o estados, o condiciones, o
propiedades) de cuando se dice ‘parecía algo rojo’ y ‘teniendo el biestable 72
encendido’ son dos atributos (o estado, o condiciones, o propiedades), no uno”;
otros podrían argüir “cuando tenemos la ilusión que algo rojo está presente,
nada rojo está físicamente allí. Aun así, yo veo algo rojo. Lo cual veo, y
llamo un dato sensorial. El dato sensorial es rojo. El biestable no es el rojo.
Entonces, obviamente, los datos
sensoriales no pueden ser idénticos con el biestable, encendido o apagado”.
Etc. En pocas palabras, los robots pueden ser tan malos en filosofía como las
personas. O (en palabras más sofisticadas), los aspectos lógicos del problema
mente-cuerpo son aspectos de un problema que debería satisfacer cualquier
sistema computacional en tanto que 1. Use un lenguaje y construya teorías; 2.
No conozca su propia estructura física, excepto superficialmente; 3. Esté
equipado con órganos sensibles, y pueda realizar experimentos; 4. Que llegue a
conocer su propia estructura mediante investigación empírica y construcción de
teorías.
El
argumento recién revisado parece extremadamente simple. Sin embargo, algunos
asombrosos malentendidos han surgido. El que más me sorprendió fue expresado
así: “Por lo que puedo ver, todo lo que ustedes demuestran es que un robot
puede simular el comportamiento humano”.
Esta objeción, que debo decir que es innecesaria (lo cual espero) pierde
completamente el punto de lo que se dijo anteriormente. El punto es este: Que
un robot o un computador pueda, en algún sentido, cumplir normas (en el caso de
que sea de la misma manera en que un hombre cumple con las normas, o solo de
forma análoga, depende de si se puede decir que particularmente el robot es
“consciente”, etc., y por lo tanto sobre la cuestión central de este artículo);
que el significado de una expresión es una función de las reglas que rigen su
construcción y uso; aquellas reglas que rigen las expresiones del robot, “yo veo algo que parece rojo” y
“biestable 72 está encendido” son muy diferentes. El enunciado anterior puede
ser pronunciado correctamente por cualquier robot que haya “aprendido” a
diferenciar correctamente cosas rojas de cosas no rojas. Por lo tanto, en el
caso de un robot normalmente construido, “veo algo que parece rojo” puede ser
expresado cuando el biestable 72 está encendido, así el robot no sepa que el biestable 72 está encendido o no. El
“biestable 72 encendido” puede ser correctamente expresado sólo cuando el robot
“sabe” que el biestable 72 está encendido - esto es - solo cuando puedan concluir que el biestable 72 está
establecido por teorías empíricas junto con tales afirmaciones observacionales,
ya que su acondicionamiento puede inducirlo a expresar, o a escuchar lo que
otros robots expresan. “Eso parece rojo” es una expresión a la que no se le
pueden dar explicaciones. “El biestable 72 está encendido” es una expresión a
la que se le pueden dar explicaciones, y así. Desde que estas diferencias
semánticas son lo mismo tanto para los robots como para los humanos, cualquier
argumento de la no equivalencia semántica de los enunciados de los estados
internos (físicos) y los enunciados “observacionales” al carácter de la mente o
la conciencia, debe ser válido para el robot, si es válido para el humano.
(Igualmente el argumento del supuesto hecho de que eso es “un sentido de ver” en que uno puede decir
correctamente “vi algo rojo” en ciertos casos en que nada rojo está físicamente
presente.
Además,
los malentendidos y las cosas no comprendidas sólo aluden a algunas objeciones interesantes que han sido
avanzadas. Estas objeciones intentan romper con la analogía lógica ilustrada
justamente por mí. Aquí discutiré brevemente dos de las objeciones antes
mencionadas, desarrolladas por el profesor Kurt Baier.
El
primer argumento de Baier[2]
dice así: La conexión entre mi sensación visual del rojo y cualquier expresión:
“parece como si hubiera algo rojo en frente mío” (o lo que sea), no es
meramente causal. La sensación no evoca meramente la expresión; yo expreso la
expresión porque sé que estoy teniendo la sensación. Pero el robot expresa la
expresión porque está obligado a pronunciarla por su estado interno (biestable
72 estando encendido). Así que hay una discrepancia fundamental entre estos dos
casos.
El
segundo argumento de Baier dice así: Ciertos qualia son intrínsecamente dolorosos y otros son intrínsecamente placenteros. No puedo
concebir que un qualia intrínsecamente desagradable Q sea exactamente el mismo para otras personas, “solo él lo
encuentra placentero”. Como sea, si un robot es programado para que actúe como
si estuviera teniendo una experiencia placentera cuando, por ejemplo, una
cierta parte de su anatomía tuviera un fuerte sonido metálico, podría
reprogramarse fácilmente para que actuara como si tuviera una experiencia
dolorosa y no placentera en esas ocasiones. En consecuencia, las contrapartes
de los “qualia”, en el caso del robot - ciertos estados físicos - carecen de
una propiedad esencial: Ellos no pueden ser intrínsecamente
placenteros o dolorosos.
¿Puede
un robot tener una sensación? Bueno, puede tener una “sensación”. Es decir,
puede ser un “modelo” para cualquier teoría psicológica que sea verdadera para
los seres humanos. Si es un “modelo” para tal teoría, entonces cuando está en
el estado interno que corresponde o “realiza” el predicado psicológico: “Tiene
la sensación visual del rojo”, actuará como un humano actuaría (dependiendo
también sobre qué otros predicados “psicológicos” aplique). Es decir,
“biestable 72 estando encendido” no tiene que “evocar” directamente (incontrolablemente) la expresión ‘parece como si algo
rojo estuviera enfrente de mí’. Estoy de acuerdo con Baier con que un simple
modelo “evidencial” no hará ciertamente justicia al carácter de tales informes;
¡pero en el caso de los robots tampoco!
¿Qué
es para una persona “saber” que tiene una sensación? Ya que sólo los filósofos
hablan de este modo, no se espera ninguna respuesta uniforme. Algunos filósofos
identifican lo que es tener una sensación y saber que se tiene. Entonces: “Sé
que tengo la sensación visual del rojo” solo significa: “Yo tengo la sensación
visual del rojo”, y la pregunta “¿puede el robot saber que tiene la sensación
del rojo?” significa: “¿Puede el robot tener la sensación del rojo?” - una
pregunta que hemos respondido afirmativamente. (No he discutido que las
“sensaciones” son sensaciones, pero
solo una analogía lógica se mantiene completa entre la charla de sensaciones en
el caso de los humanos y charla de “sensaciones” en el caso de los robots).
Otros filósofos (propiamente Ayer, en El
Concepto de Persona) han argüido que saber
que se tiene una sensación, implica poder describirla. En ese sentido, un robot
también puede saber que tiene una “sensación”. Si sabiendo que p está teniendo unas “disposiciones de
vías múltiples” para los dichos apropiados y las preguntas-respuestas y
comportamientos, como lo demanda Ryle en El
concepto de lo mental, entonces un robot puede saber cualquier cosa que una
persona pueda saber. Un robot, podría participar en un diálogo fluido, tan bien
como un humano:
Infortunadamente
para este último argumento, la versión del conocimiento de Ryle es incorrecta;
no hay ninguna disposición específica para los dichos [sayings] y comportamientos o “vías múltiples” por otra parte.
Pueden constituir un saber que [knowing-that], en la forma en que
ciertos acuerdos específicos e interrelaciones de edificios, administradores,
profesores y estudiantes constituirán una universidad. “Saber que”, es como
estar adolorido y como estar prefiriendo algo, solo está relacionado al
comportamiento: Sabiendo que p implica
estar dispuesto a responder ciertas preguntas correctamente si quiero, si no estoy confundido, etc.
Y queriendo responder una pregunta correctamente es estar dispuesto a responder
correctamente, si sé la respuesta, si no
hay nada que quiera más, etc. Los estados psicológicos son caracterizables
solo en términos de sus relaciones con otros (así como con el comportamiento,
etc.), y no como disposiciones que puedan ser “desempacadas” sin volver a los
mismos predicados psicológicos que están en cuestión. Pero esto no es fatal en
nuestro caso: Un robot también puede tener estados internos que estén
relacionados entre sí (y sólo indirectamente al comportamiento y estimulación
sensorial) según lo requiera una teoría psicológica. Entonces, cuando el robot
está en el estado interno que realiza el predicado “sé que p” podría decir que el robot “sabe” que p. Su “conocimiento” podría no ser conocimiento porque [knwing-because] podría no “ser realmente
consciente” que es lo que tenemos que decidir; pero aquel conocimiento jugará el mismo papel en el comportamiento del robot
como lo juega en el comportamiento humano. En suma, para cualquier sentido en
que un humano puede “saber que tiene una sensación” habrá un sentido lógico y
semánticamente análogo en el que un robot puede “saber” que tiene una
“sensación”. Y esto es todo lo que mi argumento requiere.
Después
de esta digresión sobre el carácter lógico de “conocimiento”, finalmente
estamos listos para estar de acuerdo con el primer argumento de Baier. El
argumento puede ser visto fácilmente como una mera variante del argumento del
“agua en el cerebro” (puedes tener agua en el cerebro pero no agua en la mente;
por lo tanto la mente no es el cerebro). Uno puede saber que tiene sensaciones
sin saber que es un estado cerebral S;
por lo tanto la sensación no puede ser idéntica con el estado cerebral S. Este es todo el argumento. Pero, ya
que “saber que” es un contexto intencional, un robot puede correctamente decir
“no sé que el biestable 72 está encendido (o incluso que un “biestable” existe,
en este asunto)”, incluso en situaciones en que se pueda correctamente afirmar,
“tengo la ‘sensación’ del rojo”. Se puede incluso afirmar: “yo ‘sé’ que tengo
la ‘sensación’ del rojo”. Si se sigue el caso humano, en que la sensación del
rojo no es idéntica con el estado cerebral S,
entonces por el mismo argumento de las mismas premisas semánticas, los
robots filósofos pueden concluir que la “sensación” de rojo no es idéntica con
el “biestable 72 estando encendido”. El robot filósofo también puede argüir:
“No estoy meramente obligado a
expresar las expresiones ‘parece como si algo rojo estuviera enfrente de mí’
por la aparición de la ‘sensación’; parte de la causalidad, es también que yo ‘entiendo’ las palabras que expreso; ‘sé’
que estoy teniendo la ‘sensación’; ‘deseo’ informar mi ‘sensación’ a otros
robots; etc.”. Y, en efecto, pienso que Baier y los robots filósofos están en
lo correcto. Los atributos psicológicos, ya sean en lenguaje humano o en
lenguaje robot, no son simplemente los mismos atributos. Para decir que un
robot está enojado (o “enojado”) es una afirmación bastante diferente de la
afirmación “tal y tal fluido han alcanzado una alta concentración”, incluso si
el último predicado “realiza físicamente” el primero. Las teorías psicológicas
que dicen que un organismo que tiene ciertos estados que no se especifican en
términos “físicos”, son tomadas como primitivas. Se especifican las relaciones
entre estos estados, y entre la totalidad de los estados y entradas sensoriales
(“estímulos”) y comportamiento (“respuesta”). Por
lo tanto, como resaltaba[3]
Jerry Fodor, esta parte de la “lógica” de las teorías psicológicas de diferentes estructuras (físicas), pueden
obedecer (o ser “modelos” de) a la misma teoría
psicológica. Un robot y un ser humano pueden exhibir “represión” o “potencial
inhibición”, exactamente en el mismo sentido. No estoy afirmando que “enojado”
sea un término primitivo en la teoría psicológica; en efecto, esta
consideración, que ha sido tomada por algunos como una reacción Rylelista, me
parece que crea acertijos donde no deberían existir (si “enojado” es un término
teórico, entonces “Estoy enojado” debería ser una ¡hipótesis!); sin embargo, sostengo que los patrones de uso
correcto, en el caso de un lenguaje ordinario de términos psicológicos, no
presupone o implica más que la existencia de un estado independientemente especificable que “realiza” el predicado, o, si existe,
es un estado físico en sentido
estricto (definible en términos de la física actual), o, si existe, es el mismo para todos los miembros de la
comunidad discursiva, de los postulados de una teoría psicológica. En efecto,
podría haber una comunidad de robots en la que no todos tienen la misma constitución física, pero todos tienen la
misma psicología; y tales robots
podrían decir unívocamente: “Tengo la
sensación del rojo”, “tienes la sensación del rojo”, “él tiene la sensación del
rojo”, incluso si los tres robots mencionados no “tienen físicamente” la
“sensación del rojo” de la misma manera. Por lo tanto los atributos: tener la “sensación” del rojo y el “biestable 72 estando
encendido” no son simplemente
idénticos en el caso de los robots. Si el materialismo se postula para ser la
negación de la existencia de los atributos “no-físicos”, entonces el
materialismo es falso ¡incluso para los robots!
Incluso,
Baier podría replicar: “Si digo que un robot tiene la “sensación” del rojo,
quiero decir que tiene algún estado
físico (uno “visual”) que le señala la presencia de objetos rojos; si digo que
un humano tiene la sensación del rojo, no quiero decir que él tiene
necesariamente algún estado físico
especial. Por supuesto, tengo un
estado, si y solo si tengo la sensación del rojo, a saber, el estado de tener
la sensación del rojo. Pero esta es una observación sobre la lógica de los
“estados”, y no se dice nada sobre el significado de la “sensación del rojo”.
Creo
que es correcto cuando decimos: “Ese robot tiene la ‘sensación’ del rojo”, son
(o serían) implicaciones que no se presentan cuando hablamos de otros robots.
Pero eso es porque nosotros pensamos en los robots como robots. Déjennos
suponer que los robots no “piensan” en sí mismos como robots; de acuerdo con su
teoría tienen (o posiblemente tienen) “almas”. Entonces, cuando un robot dice de otro robot: “él tiene una
‘sensación’ del rojo” (o algo en un lenguaje más ordinario para este efecto),
la implicación de que otro robot tiene un estado físico especial, no será presentada ¿por qué no debería ser esta
una posibilidad abierta para robots científicos y filósofos que no encuentren
“correlatos” a nivel físico para las diversas sensaciones que reportan, así
como es una posibilidad abierta para nosotros que no podamos encontrar tales
correlatos? Para llevar la analogía a un último paso: Si los robots continúan
fabricando robots (esto es, robots que los robots mismo consideran como simples robots), un robot filósofo,
tarde o temprano argumentará: “cuando digo que un robot ‘piensa que algo es
rojo’, o que algo ‘parece rojo’ para un robot, todo lo que quiero decir es que
el robot está en un cierto tipo de estado físico
(por cierto, uno especificado por su significado psicológico, y no por una descripción físico-química directa. El
robot debe poder discriminar las cosas rojas de las no-rojas, y el estado en
cuestión debe figurar en una manera bastante difícil de describir el proceso de
discriminación. Pero cuando digo que un compañero (robot) ‘piensa que algo es
rojo’, etc., no quiero decir que necesariamente él está en algún tipo de estado
físico especial. Por lo tanto, en el único sentido filosóficamente interesante
de ‘sensación’, las personas (robots) tienen ‘sensaciones’ y los robots no”.
Concluyo que el primer argumento de Baier no rompe con mi analogía.
El
segundo argumento me parece que descansa en dos dudosas premisas. Por supuesto,
si el correlato físico de un doloroso qualia Q es algo periférico, entonces mi cerebro podría ser “reprogramado”
para que el evento se convierta en el correlato físico de algún estado
psicológico placentero; si el correlato es un estado altamente estructurado de
todo el cerebro, entonces tal reprogramación podría ser imposible. Así pues, la
premisa: Sea S el estado del cerebro
del robot que “realiza” algún “qualia placentero”; entonces, en principio, el
cerebro del robot siempre podría ser reprogramado para que S “realizara” un “doloroso qualia”, parece ser simplemente falsa.
(La otra premisa dudosa es la existencia de los qualia intrínsecamente placenteros y dolorosos. Esto se supone que es
introspectivamente evidente, pero no lo encuentro así).
A
lo largo de este documento he subrayado la posibilidad de que un robot y un
humano puedan tener la misma “psicología”, es decir, que puedan obedecer las
mismas leyes psicológicas. Decir que dos organismos (o sistemas) obedecen las
mismas leyes psicológicas no es en absoluto lo mismo que decir que su
comportamiento es similar. En efecto, dos personas pueden obedecer las mismas
leyes psicológicas y exhibir un comportamiento diferente, incluso en ambientes similares en la infancia, en parte
porque las leyes psicológicas son solo estadísticas y en parte porque los
parámetros cruciales pueden tener diferentes valores. Para saber las leyes
psicológicas obedecidas por las especies, se debe saber cómo podría comportarse cualquier miembro de
esa especie, dado la más amplia variación en todos los parámetros que son
capaces de variación en absoluto. En general, tales leyes, como todas las leyes
científicas, implicarán términos abstractos, más o menos alejados de la
observación comportamental directa. Ejemplos de tales términos ya se han dado:
Represión, potencial inhibición, preferencia, sensación, creencia. Por lo
tanto, decir que un hombre y un robot tienen la misma “psicología” (son psicológicamente isomorfos, como también
diré) es decir que el análisis de la conducta de las dos especies es más simple y revelador, a nivel psicológico (en
abstracción de los detalles de la estructura física interna), en términos de
los mismos “estados psicológicos” y
los mismos parámetros hipotéticos. Por ejemplo, si un ser humano es un
“autómata probabilístico”, entonces cualquier robot con el mismo “control de
mando” será psicológicamente isomorfo a un ser humano. Si el cerebro humano es
simplemente una red neural con ciertos programas, como en la teoría de Pitts y
McCulloch. Entonces un robot cuyo “cerebro” fuese una red similar, solamente
construida por biestables y no de neuronas, tendría exactamente la misma
psicología de un humano. Para evitar la mendicidad de la pregunta, consideraré
la psicología como una ciencia que describe la conducta de cualquier especie de
sistema cuyo comportamiento es susceptible de análisis e interpretación en
términos de “construcciones” molares de conducta de tipo familiar (estímulos,
respuesta, impulsión, saturación, etc.). Por lo tanto, decir que un robot (o un
pulpo) tiene una psicología (obedece
las leyes psicológicas) no implica que sea necesariamente consciente. Por
ejemplo, el “ratón” mecánico construido por Shannon tiene una psicología (en
efecto, fueron construidos precisamente para servir como un modelo de una
cierta teoría psicológica de condicionamiento), pero nadie diría que están
vivos o que son conscientes. En el caso de las máquinas de Turing, autómatas
finitos, etc., lo que aquí llamo “isomorfismo psicológico” es a lo que me
refería en trabajos anteriores como “igualdad de organización funcional”.
En
el resto de este artículo, imagino que nos enfrentamos a una comunidad de
robots que (¿quiénes?) son psicológicamente isomorfos a los seres humanos en el
sentido justamente explicado. También asumiré que el “paralelismo psicológico”
es válido para los seres humanos y que, si una acción puede explicarse
psicológicamente, la “trayectoria” correspondiente de los cuerpos humanos vivos
que ejecutan esa acción puede ser explicada (en principio) en términos
físico-químicos. La posibilidad de construir un robot psicológicamente isomorfo
a un ser humano, no depende de esta suposición; un robot podría ser
psicológicamente isomorfo a un espíritu incorpóreo o a un “fantasma en una
máquina” de igual forma, si se diera el caso; pero la situación conceptual
sería un poco menos confusa si descuidamos esas cuestiones en el presente
artículo.
Dejemos
que Oscar sea uno de estos robots, y déjennos imaginar que Oscar está teniendo
la “sensación” del rojo ¿está Oscar teniendo la sensación del rojo? En un
lenguaje más ordinario ¿está Oscar mirando cualquier cosa? ¿Está él pensando,
sintiendo algo? ¿Está Oscar vivo? ¿Es Oscar consciente?
Me
he referido a este problema como el problema de los “derechos civiles de los robots”
porque eso es lo que podría llegar a ser, y mucho más rápido de lo que
cualquiera de nosotros espera. Dado el ritmo cada vez más acelerado del cambio
tecnológico y social, es totalmente posible que los robots existan algún día, y
argumenten “¡estamos vivos; somos conscientes!”. En ese caso, lo que
hoy solo son prejuicios filosóficos tradicionales de tipo antropocéntrico y
mentalista, es muy probable que se conviertan en actitudes políticas
conservadoras. Pero afortunadamente, hoy tenemos la ventaja de ser capaces de
discutir este problema desinteresadamente, y por tanto, con un poco más de
suerte, llegar a la respuesta correcta.
Pienso
que el caso más interesante es el caso en que 1) el “paralelismo psicológico”
se mantiene (de modo que al menos se puede afirmar que tenemos precisamente iguales “sistemas físico-químicos” que los
robots), y 2) los robots en cuestión son psicológicamente isomorfos a nosotros.
Este es seguramente el caso más favorable para el filósofo que desee argumentar
que los robots con “un grado suficiente de complejidad”, no sólo podrían, sino
que necesariamente serían conscientes. Tal filósofo presumiblemente afirmaría
que Oscar tuvo sensaciones, pensamientos, sentimientos, etc., en el mismo
sentido en que nosotros hacemos y usamos el “asombro” como cita a través de
este artículo, siempre que un predicado psicológico fuera aplicado a un robot
innecesariamente. Es esta afirmación que
espero explorar, no con el deseo polémico habitual de mostrar que el
materialismo es correcto y, por tanto (?), que tales robots como Oscar, serían
conscientes o demostrarían que todas esas cuestiones han sido resueltas de una
vez por todas en Philosophical
Investigations, Dios, danos ojos para verlo. Pero más bien, con mi perverso
interés propio en la estructura lógica del pintoresco y curioso pequeño
discurso que los filósofos proponen como “argumentos”, y con un interés quizá
más serio últimamente en el relevante aspecto semántico de nuestro lenguaje.
Algunos
de los argumentos designados para demostrar que Oscar podría no ser consciente, pueden ser fácilmente expuestos como
malos argumentos. Así, el argumento del
fonógrafo: Un robot sólo “actúa” en el mismo sentido en que un fonógrafo
reproduce música. Cuando nos reímos de la broma de un robot, realmente
apreciamos el ingenio del programador humano, y no el ingenio del robot. El argumento de reprogramación: Un robot no
tiene un carácter real de sí mismo. Podría en cualquier momento ser
reprogramado para comportarse de la forma contraria a la que se comportaba
antes. Pero un ser humano que fue “reprogramado” (digo, por una operación
cerebral realizada por una raza con una ciencia tremendamente avanzada), así
como para tener un nuevo conjunto de respuestas completamente predeterminadas,
ya no sería un ser humano (en todo el sentido de la palabra), pero sí un
monstruo. El argumento de la vaga
pregunta: El entonces llamado estado “psicológico” de un robot, son en
realidad sólo estados físicos. Pero nuestros
estados psicológicos no son estados físicos. Así que sólo podría ser en el más
Pickwickiano de los sentidos en el que un robot fuera “consciente”.
El
primer argumento ignora la posibilidad de que los robots puedan aprender. Un robot cuyo “cerebro” no es
más que una biblioteca predeterminada de rutinas comportamentales, cada una
imaginada con bastante detalle por el programador, no sería, en efecto, nada
interesante. Pero tal robot sería incapaz de aprender cualquier cosa que el
programador no supiera, y por lo tanto, dejaría de ser psicológicamente
isomorfo para el programador, o para cualquier humano. Por otro lado, si el
programador construye un robot, de manera que sea un modelo de ciertas leyes
psicológicas, no sabrá, en general, cómo se comportará en situaciones de la
vida real, justo como un psicólogo podría saber todo sobre las leyes de la
psicología humana, pero aun así no sería mejor (o ligeramente mejor) que
cualquier otro que prediga cómo se comportarán los humanos en situaciones de la
vida real. Imagine que el robot en “nacimiento” es tan indefenso como un bebé
recién nacido, y que adquiere nuestra cultura al ser educado por humanos.
Cuando llega al punto de inventar una broma, y nos reímos, simplemente no es
cierto que estamos “apreciando el ingenio del programador”. Lo que el
programador inventó no era una broma, sino un sistema que pudiera algún día
producir nuevas bromas. El segundo argumento, como el primero, asume que el
comportamiento “programado” debe ser totalmente predecible y carecer de toda
espontaneidad. Si “reprogramo” a un criminal (mediante una operación cerebral)
para convertirse en buen ciudadano, pero sin destruir su capacidad para
aprender, desarrollar, cambiar (incluso a cambiar de nuevo a un criminal algún
día), entonces ciertamente he creado un “monstruo”. Si Oscar es
psicológicamente isomorfo a un humano, entonces Oscar puede ser “reprogramado”
en la medida, y solo en la medida en que un humano pueda. El tercer argumento
asume totalmente que los predicados psicológicos no aplican para Oscar y para
un humano en el mismo sentido en que justamente se trata el punto en cuestión.
Todos
estos argumentos sufren de un defecto inadvertido e incapacitante. Ellos se basan en que los robots: son
artefactos y que son sistemas terminados de tipo psicológico, cuyo
comportamiento (incluyendo el aspecto “inteligente”) ha sido preseleccionado y
designado por el artífice. Pero es
puramente contingente que estas dos propiedades no sean propiedades de los
seres humanos. En consecuencia, si algún día descubriéramos que somos artefactos y que cada uno de
nuestros enunciados fue expresado con anticipación por nuestros creadores (con
una pequeña “c”) superinteligentes, se seguiría, si los argumentos fueran
seguros, en que ¡no somos conscientes!
Al mismo tiempo, como acabamos de notar, estas dos propiedades no son propiedades de todos los robots imaginables. Por lo
tanto, estos argumentos pueden fracasar en dos direcciones: Pueden “demostrar”
que las personas no son conscientes, porque las personas podrían ser el tipo
incorrecto de robots, mientras simultáneamente no se podría demostrar que
algunos robots no son conscientes.
Si
los usuales argumentos “anticivil libertarios” (argumentos en contra, afirman
que Oscar es consciente) son malos argumentos, los argumentos procivil-libertarios parecen ser
prácticamente ¡inexistentes! Desde el siglo XIX, los materialistas han afirmado
que “la consciencia es justamente una propiedad de la materia en un cierto
grado de organización”. Pero como análisis semántico, esta afirmación es desesperada
(el paralelismo psicológico no es ciertamente analítico), y como teoría de la identidad, es irrelevante.
Supongamos que Feigl estuviera en lo correcto, en que las palabras de sensación
se refieren a eventos (o “estados” o
“procesos”) definibles en el lenguaje de la física. (Como he sostenido antes,
Feigl ya no es de esta opinión). En particular, supongamos que “la sensación del
rojo” denota un proceso cerebral.
(Por supuesto, no está claro a qué se refiere esta suposición. Nos enseñan el
uso de “denotar” en filosofía, al ser dicho que “gato” denota la clase de todos
los gatos, y así sucesivamente; y luego, algunos filósofos dicen “‘la sensación
del rojo’ denota una clase de procesos cerebrales” ¡como si fuera claro! De
hecho, todo lo que se nos ha dicho es que “‘la sensación del rojo’ denota un proceso cerebral” es verdadera en
el caso en que “la sensación del rojo es un proceso cerebral” es verdadera.
Puesto que esta última afirmación desconcertante fue a su vez explicada por los
teóricos de la identidad en términos de la distinción entre denotación y connotación, nada ha sido explicado). Además, si el “correlato”
físico de la sensación del rojo (en el caso de un humano) es P₁ y el correlato físico de la
“sensación” del rojo (en el caso de Oscar) es P₂, y si P₁ y P₂ son diferentes estados físicos, no obstante puede mantenerse que,
cuando Oscar y yo “vemos algo que parece rojo” (o “tiene la sensación del
rojo”, para usar la jerga filosófica que me he permitido en este artículo),
estamos en el mismo estado físico, a
saber la disyunción de P₁ y P₂
¿cómo podemos decidir si “la sensación del rojo” (en el caso de un humano) es
“idéntica” a P₁ o “idéntica” a P₁ ⋁ P₂? Los teóricos de la identidad no
me dicen nada que me ayude a decidir.
Otra
teoría popular es la del lenguaje ordinario en términos psicológicos, tales
como “está enojado” (y, presumiblemente, tales expresiones cuasitécnicas como
“tengo la sensación del rojo”) están definidas
implícitamente por una teoría psicológica. Desde este punto de vista, se
deduciría el hecho de que Oscar y yo somos “modelos” de la misma teoría psicológica
(comportamiento molar) que tiene
términos psicológicos exactamente en el
mismo sentido cuando son aplicados en mí y cuando son aplicados en Oscar.
Puede
que se conceda, quizá, que hay algo que podría llamarse una “teoría psicológica
implícita” que subyace al uso ordinario de términos psicológicos. (Que un
hombre enojado se comporte agresivamente, a menos que tenga fuertes razones
para reprimir su enojo y cierta habilidad para controlar sus sentimientos; que
los insultos tienden a provocar enojo; que muchas personas no son muy buenas
para controlar los fuertes sentimientos de ira; son ejemplos de que pueden ser
considerados “postulados” de tal teoría. Aunque cada uno de estos “postulados”
es cuasitautológico, podría afirmarse que la conjunción de un número suficiente
de ellos tiene consecuencias empíricas, y puede ser usado para proporcionar
explicaciones empíricas de comportamiento observado). Pero la opinión de que
todo el significado de un término, tal como el “enojo”, esté fijo como tal en
dicha teoría, parece altamente dudoso. No hay espacio en el presente artículo
para examinar este tema con la anchura que se merece. Pero una o dos críticas
pueden indicar dónde se encuentran las dificultades.
Afirmar
que algo contiene flogisto es (implícitamente) afirmar que ciertas leyes, sobre
las cuales el concepto de flogisto depende, son correctas. Afirmar que algo
está cargado eléctricamente es en parte afirmar que las leyes experimentales
sobre las cuales los conceptos de electricidad se basan y sobre la cual se
supone que se explica la teoría eléctrica, no son radical y completamente
falsas. Si la “teoría” sobre la cual el término enojo “depende” realmente de consecuencias empíricas, entonces,
incluso decir “estoy enojado” es en parte afirmar que estas consecuencias
empíricas no son radicales y completamente falsas. Por lo tanto, no sería
absurdo, si el “enojo” realmente fuera
un término teórico, decir “creo que estoy muy enojado, pero no estoy seguro” o “creo
que tengo un severo dolor, pero no estoy seguro” o “creo que soy consciente
pero no estoy seguro”, ya que uno podría no estar seguro que las leyes
experimentales implicadas por la “teoría psicológica” implícita en el lenguaje
ordinario son en efecto correctas. No sería absurdo decir también: “Tal vez no
exista realmente tal cosa como el enojo” o “tal vez no exista realmente tal
cosa como el dolor” o “tal vez no exista realmente tal cosa como ser
consciente”. En efecto, no importa cuán seguramente podría ser que tenga la
sensación del rojo, podría probarse examinando
a otras personas que no tuvieran esa sensación y que en efecto no existiese
tal cosa como tener la sensación del rojo. En realidad, “eso parece la
sensación del rojo” tendría un uso perfectamente bueno, es decir, para
significar que mi experiencia sería como si el “lenguaje ordinario implícito en
la teoría psicológica” fuese cierto, pero la teoría no es en efecto verdadera.
Estas consecuencias ciertamente, deberían ser puestas en duda, sobre la idea
que “los términos psicológicos en el lenguaje ordinario” realmente son
“construcciones teóricas”.
Es
obvio que “los términos psicológicos en el lenguaje ordinario” tienen un uso comunicativo. “Tengo dolor” sería
tal declaración. Pero claramente, un término que figura en reportes
observacionales tienen un uso observacional, y ese uso debe entrar dentro de
sus significados. Su significado no puede ser fijado simplemente por su
relación con otros términos, en abstracción de los hábitos reales del habla de
los hablantes (incluyendo los hábitos de los cuales depende el uso de la
información).
La
primera dificultad sugiere que la “teoría psicológica” que “define
implícitamente” tales palabras como “enojo” no
tiene en efecto consecuencias no tautológicas o, al menos, consecuencias no
empíricas que no podrían ser abandonadas sin cambiar el significado de estas
palabras. La segunda dificultad sugiere entonces, que el trabajo de arreglar el
significado de estas palabras es sólo parcialmente realizado por las relaciones
lógicas (la “teoría”), y se completa con el uso comunicativo.
Una
tercera dificultad surge cuando preguntamos qué es lo que se supone que es la
postulación “la teoría psicológica implícita en el lenguaje ordinario”. La
respuesta usual es que la teoría postula la existencia de ciertos estados en los que se supone están
relacionados uno del otro y el comportamiento es especificado en la teoría
¿pero qué significa “estado”? Si “estado” se entiende como estado físico, en el
sentido estricto mencionado anteriormente, entonces el paralelismo psicológico
sería implicado por una arbitraria afirmación “psicológica”, la cual es
obviamente incorrecta. Por otra parte, si “estado” es entendido en un sentido
lo suficientemente amplio como para evitar este tipo de objeción, entonces
(como señala Wittgenstein) la observación “estar enojado es estar en cierto
estado psicológico”, no dice nada.
En
el caso de una teoría científica ordinaria (digo, una teoría física), postular
la existencia de “estados” S₁, S₂…, Sₙ
que satisfacen ciertos postulados, es afirmar que una o dos cosas son el caso:
O bien (1) los estados físicos (definibles en términos de la primitiva
existencia de la teoría física) pueden ser encontrados satisfaciendo los
postulados; o (2) es necesario tomar los nuevos predicados S₁, …, Sₙ (o predicados
en términos en los cuales puedan ser definidos) como primitivos en la ciencia
física, y ampliar nuestro concepto de “estado físico” en consecuencia. De la
misma manera, los teóricos de la identidad han sugerido algunas veces que “la
teoría psicológica molar” deja la
cuestión abierta, si los estados postulados son estados físicos o no. Pero
si los estados físicos pueden encontrarse
satisfaciendo los postulados, entonces ellos son los referidos por dichos
postulados. “Estado” es entonces un término metodológico, por así decirlo, cuyo
estatus es explicado por una representación perspicaz de los procedimientos de
la construcción y confirmación de teorías empíricas. Esta solución a nuestra
tercera dificultad se reduce a la teoría de la identidad bajo la suposición de
que el paralelismo psicofísico se mantiene, y que los estados físicos pueden encontrarse “satisfaciendo” los
postulados del “comportamiento psicológico molar”.
Incluso,
aun si se acepta la solución a la tercera dificultad, las dos primeras
dificultades persisten. Para ser una teoría científica empíricamente
confirmable, la “teoría del comportamiento molar”, implícita en el uso
ordinario de términos psicológicos debe tener consecuencias empíricas
comprobables. Si el lenguaje ordinario en términos psicológicos realmente
designa los estados postulados por esta teoría, y, si la teoría es radicalmente
falsa, entonces debemos decir que no existen tales “estados” como estar
enojado, tener dolor, tener una sensación, etc. Y esto debe seguir siendo una
posibilidad (por esta razón), no importa lo que observemos, ya que ningún
número finito de observaciones puede establecer deductivamente una teoría científica propiamente dicha.
Además, la función informativa de los términos “psicológicos” en el lenguaje ordinario
no es discutida por esta razón. Si decir “tengo dolor” es simplemente atribuir
un término teórico a mí mismo,
entonces este informe es en parte una hipótesis,
y que siempre puede ser falsa. Esta consideración - que el uso ordinario de los
términos “psicológicos” presuponen una teoría empírica, que siempre pueda ser
radicalmente falsa- ha sido recientemente propuesta por Paul Feyerabend.
Feyerabend aceptaría la consecuencia que he rechazado como contraintuitiva: que
no pueden haber realmente dolores, sensaciones, etc., en el sentido
acostumbrado ¿pero dónde están estas teorías empíricas que son propuestas por
el uso ordinario de los términos “psicológicos”? ¿Puede indicar alguien una ley
de conducta que sea claramente empírica y que esté presupuesta por los
conceptos de sensación, enojo, etc.? La conexión empírica que existe, entre
tener dolor y decir “ay”, o algo así, a veces se ha tomado (por los
conductistas lógicos, o mejor, por los teóricos de la identidad) como tal ley.
He tratado de mostrar en otra parte[4],
como sea, que tales leyes no son realmente requeridas, a decir verdad, por la
aplicación de los conceptos de dolor en su sentido habitual. Lo que nos da
derecho para decir que un hombre está sufriendo en nuestro mundo, no puede
darnos derecho para decir que está sufriendo en un mundo diferente; sin embargo
el mismo concepto de dolor puede ser
aplicable. Lo que afirmo es que para entender cualquier término “psicológico”,
uno debe estar familiarizado implícitamente con una red de relaciones lógicas,
y uno debe estar adecuadamente entrenado en el uso de la información de ese
mundo. También es necesario, creo yo, que uno esté dispuesto a aceptar
declaraciones en primera persona por otros miembros de una comunidad
lingüística que involucran estos predicados, al menos cuando no haya ninguna
razón especial para desconfiar de
ellos; pero esta es una convención general asociada con el discurso, y no parte
del significado de ninguna palabra en particular, psicológica o de otro tipo.
En mi opinión, otras convenciones generales asociadas con el discurso, son la
aceptación de reglas no demasiado extrañas de inferencia inductiva y
confirmación de la teoría y de ciertas reglas fundamentales de inferencia
deductiva. Pero estas cosas, de nuevo, tienen que ver con que el discurso del
uno como un todo no sea desviado
lingüísticamente, más que con el entendimiento de una palabra en particular. Si
no soy consciente de que alguien está llorando (en un cierto tipo de contexto
es una señal de que está sufriendo), se me puede comunicar. Si me rehúso (sin
una buena razón) a creer lo que me dicen, me pueden señalar que cuando estoy en
ese contexto (por ejemplo, mi dedo está quemado), siento dolor, y ninguna
condición para mí es relevante para el sentimiento o no sentimiento de dolor en
el caso de otro. Si todavía no puedo describir la sensación de dolor en otro,
entonces todo mi concepto del discurso es anormal, pero sería a la vez una
subestimación grave y un diagnóstico erróneo decir que yo “no sé el significado
de “dolor”.
Concluyo
que los términos “psicológicos” en el lenguaje ordinario no son términos teóricos. Además, la idea de si el paralelismo
físico es correcto, entonces es analítico que el dolor sea el estado cerebral correlacionado, el cual no está apoyado por
ni una pizca de evidencia lingüística. (Sin embargo esta es una consecuencia de
la combinación “teoría de la identidad-términos teóricos” que la desarrollamos
para satisfacer nuestra tercera dificultad). Concluyo que cualquier intento de
demostrar que Oscar es consciente (analíticamente, en relación con nuestras
premisas) a lo largo de estas líneas es desesperanzador.
Hasta
ahora todos los argumentos que hemos considerado, en ambos lados de la
pregunta: ¿Es Oscar consciente? han sido sin mérito. No se ha hecho ninguna
consideración seria para demostrar que esto es falso, dado el significado de
las palabras en castellano, y los hechos empíricos tal como nosotros los
asumimos, que Oscar es consciente; pero tampoco se ha hecho ninguna
consideración seria para saber que es verdad. Si esto es una violación a las
reglas del castellano, decir (sin “sorpresa”) que Oscar está sufriendo, viendo
una rosa o pensando en Viena, no nos dice a nosotros qué reglas se están violando; y si es esto una violación de las
reglas del castellano, negar que Oscar es consciente, dado su isomorfismo
psicológico a un ser humano, tampoco nos han dicho qué reglas se violan. En
esta situación, resultaría interesante recurrir al ingenioso (“anticivil
libertario”) argumento de Paul Ziff[5].
Ziff
desea mostrar que es falso que Oscar sea consciente. Él empieza con el
indudable hecho de que si Oscar no está vivo, no puede ser consciente. Por lo
tanto, dado la conexión semántica entre “vivo” y “consciente” en castellano, es
suficiente para demostrar que Oscar no está vivo.
Ahora, Ziff argumenta, que cuando queremos decir si algo está vivo o no, no nos
referimos a su comportamiento.
Incluso si una cosa que parece una flor, crece en mi jardín como una flor,
etc., si noto que al desarmarla consiste de engranajes, ruedas, hornos en
miniatura, tubos de vacío y demás, digo “qué mecanismo inteligente”, mas no
digo, “qué planta tan inusual”. Es la estructura, no la conducta lo que determina si algo está vivo o no; y es una
violación de las reglas semánticas de nuestro lenguaje, decir que cualquier
cosa que sea claramente un mecanismo, esté “viva”.
Hasta
ahora, el argumento de Ziff es inesperado por causa de la gran concentración en
el debate sobre la conducta. Pero
ciertamente llama la atención a la relevante lógica y las
relaciones semánticas. Sin embargo, no puedo concordar en que estas relaciones
sean tan claras como el argumento de Ziff lo requiere. Supongamos que
construimos un robot - o déjenme decir algo mejor, un androide, para emplear una palabra menos mecánica - que por fuera
sea de material suave (como protoplasma). Por ende, la afirmación de Ziff,
puede ser perfectamente correcta, si el androide es lo suficientemente
“natural” en estructura, para decir que tenemos “vida sintetizada”. Así, dado
estos dos artefactos, ambos “modelos” de la misma teoría psicológica, ambos con
completos sistemas deterministas físico-químicos, ambos designados para el
mismo fin y “programados” por el diseñador en la misma medida, puede ser que
debamos decir que uno de ellos es una “máquina” y no es consciente, y el otro
es un “cosa viviente” (aunque “artificialmente creada”) y consciente,
simplemente porque uno está constituido de “material liviano” y el otro está
constituido de “material duro”. Un gran número de hispanohablantes***, estoy seguro (y yo soy uno de
ellos), encontraría la afirmación de que esta decisión dogmática es requerida
por el significado de la palabra “vivo”, muy contraria a sus intuiciones
lingüísticas. Creo que la dificultad es fundamentalmente esta: Una planta no
exhibe mucho “comportamiento”. Por lo tanto, es natural que los criterios que
tienen que ver con la estructura,
dominen sobre los criterios que tienen que ver con la “conducta”, cuando la
pregunta es si algo que parece y se “comporta” como una planta está realmente
vivo o no. Pero en el caso de algo que se ve y se comporta como un animal (y especialmente como un ser humano), es natural que los
criterios que tengan que ver con la conducta y no solo con la conducta real,
sino con la organización del
comportamiento, deben jugar un papel mucho más importante en la decisión, como
se especificó por la teoría psicológica de la cosa. Por lo tanto, no es
antinatural que debamos estar preparados para argüir, en el caso de la
“pseudoplanta”, que “no es una cosa viva ya que es una máquina”, mientras que
algunos están preparados para argumentar, en el caso del robot, que “no es una mera máquina, porque está viva”, y “está
viva, porque es consciente”, y “es consciente porque tiene la misma organización
conductual de un ser humano vivo”. Sin embargo, la afirmación de Ziff bien
puede explicar por qué es que muchos hablantes no están convencidos por estos
argumentos. La tensión entre criterios conflictivos da lugar a la “evidencia”,
para algunas mentes del estatus de la “máquina” del robot, y la “evidencia” es
igual a otras mentes de su estatus de “vida artificial”.
Hay
un sentido de “mecanismo”, el cual es claramente analítico que un mecanismo no
puede estar vivo. El argumento de Ziff puede ser reducido a la contención sobre
la interpretación normal de los términos. Es analítico en castellano, que algo
cuyas partes son todas mecánicas, en ese sentido, tampoco pueda estar vivo. Si
esto es así, entonces los hispanohablantes no deberían suponer que él incluso
podría imaginar un robot pensando, volviéndose loco de poder, odiando humanos, o estar
enamorado, como tampoco debería suponer que puede imaginar un soltero
casado. Me parece evidente (y de hecho a la mayoría de hablantes) que,
absurdamente o no, podamos imaginar estas cosas. Concluyo, por lo tanto, que
Ziff está equivocado: Puede ser falso, pero no es una contradicción, afirmar que Oscar está vivo.
Tenemos
que considerar todavía la postura más tradicional de nuestra cuestión. De
acuerdo con esta postura, la cual se ha mantenido muy ampliamente, reza en que es posible que Oscar sea consciente, y es
posible que no sea consciente. En su forma teológica, el argumento dice
así: Soy una criatura con un cuerpo y un alma. Mi cuerpo se constituye de carne
y sangre, pero también podría haber sido una máquina, si Dios lo hubiera
preferido. Cada movimiento voluntario de mi cuerpo está correlacionado con una
actividad en mi alma (cómo y por qué, es un “misterio”). Así que, es bastante posible
que Oscar tenga un alma, y que cada movimiento “voluntario” de su cuerpo
mecánico está correlacionado de la misma misteriosa manera con una actividad en
su alma. También es posible - ya que las leyes de la física son suficientes
para explicar los movimientos del cuerpo de Oscar, sin usar la suposición de
que tiene un alma - que Oscar es sólo una máquina sin vida. No hay forma alguna
de saberlo. Este argumento también se puede dar de una forma no teológica (o al
menos aparentemente no teológica) eliminando la referencia a Dios, y colocando
“mente” en vez de “alma” en todas partes. Para completar el argumento, se
sostiene que no sé lo que significa
decir que Oscar tiene un “alma” (o que tiene un dolor, o la sensación del rojo,
etc.) desde mi propio caso.
Una
dificultad bien conocida con esta postura tradicional, es la que implica que
también sea posible que otros humanos no sean realmente conscientes, incluso si
son física y psicológicamente isomorfos a mí. Se sostiene que puedo saber con probabilidad que otros humanos son
conscientes por el “argumento de analogía”. Pero en las ciencias inductivas, un
argumento de analogía es generalmente considerado como bastante débil, a no ser
que la conclusión sea capaz de una verificación inductiva independiente. Así
que es duro aceptar que nuestras razones para creer que otras personas son
conscientes, son muy fuertes, si son simplemente un argumento analógico con una
conclusión que no admita observación
independiente, observacional, inductiva, o como sea. Recientemente, la mayoría
de filósofos lo han encontrado imposible de creer, ya que nuestras razones para creer que otras personas son
conscientes son muy débiles o que la
posibilidad existente de que otras personas - que si bien es cierto son física
y psicológicamente isomorfos (en el sentido del presente artículo), a mí - no
son conscientes. Argumentos sobre este punto pueden ser encontrados en los
escritos de la mayoría de los filósofos analíticos del presente siglo.
Infortunadamente, muchos de estos argumentos dependen de teorías dudosas del
significado.
La
afirmación crítica es la afirmación que se deduce del hecho de que yo he tenido
la sensación del rojo, puedo imaginar esa sensación, “sé cómo es”, puedo
entender la aserción de que Oscar tiene la sensación del rojo (o alguna otra
sensación o estado psicológico). En cierto sentido, esto es correcto. Yo puedo,
en algún sentido, entender las palabras.
Puedo analizarlas; no creo que la “sensación del rojo” signifique un cochecito de bebé, etc. Más que eso:
Podría saber qué experimentaría si estuviera consciente de cómo soy
psicológicamente, pero con el “cuerpo” mecánico de Oscar en vez del mío ¿cómo
es que esto es así? Esto es así, al menos en parte, porque tenemos que aprender
de la experiencia de nuestro propio cuerpo. Si un niño fuera criado con una
armadura especial, el niño podría ser engañado haciéndosele pensar que era un
robot. Sería más difícil engañarle haciéndole pensar que él tiene una
estructura interna de un robot, aunque esto también podría hacerse (con falsos
rayos x, etc.). Y cuando “me imagino en los zapatos de un robot (consciente)”,
lo que hago, por supuesto, es imaginar las sensaciones que puedo tener si yo
fuera un robot, o si más bien yo fuera un
humano que piensa erróneamente que es un robot. (Miro abajo a mis pies y
veo metal brillante, etc.).
Bueno,
admitamos que en ese sentido entendemos la
frase “Oscar está teniendo la sensación del rojo”. De esto no se deduce que la
frase posea un valor de verdad. Entendemos la frase “el actual rey de Francia
es calvo”, pero, en su interpretación normal en castellano, la frase no tiene
valor de verdad bajo las presentes condiciones. Podemos darle un valor de
verdad, adoptando una adecuada convención - por ejemplo, la teoría de las
descripciones de Russell - y existe más de una convención adecuada. Realmente
la pregunta en cuestión no es si
podemos “entender” las frases “Oscar es consciente” (o “tiene la sensación del
rojo” o “está enojado”) y “Oscar no es consciente”, en el sentido de poder
utilizarlas en contextos tales como, “me puedo imaginar perfectamente que Oscar
es consciente”, pero si hay realmente un sentido inteligible en el cual una de
estas oraciones es cierta, en una interpretación normal, y en otra falsa (y, en
ese caso, también si es cierto que no podamos decir cuál).
Volvamos,
por un momento, a nuestra fantasía anterior de ROBOTS - esto es, robots de
segundo orden, robots creados por robots y considerados por los robots como simples ROBOTS. Como ya dije, un robot
filósofo muy bien puede ser inducido a considerar la cuestión: ¿Son los ROBOTS
conscientes? El robot filósofo “sabe”, por supuesto, qué “experiencias” tendría
si fuera un ROBOT “consciente” (o un robot en un traje de robot). Él puede
“perfectamente imaginarse que un ROBOT podría tener “sensación”. De modo que
puede llegar perfectamente a la postura de que es lógicamente posible que los
ROBOTS tengan sensaciones (o mejor, “sensaciones”) y es perfectamente posible
que no las tengan, y además, nunca lo podrán saber. ¿Qué pensamos de esta
conclusión?
Es
claro qué debemos pensar: Debemos pensar que no hay la menor razón para suponer
(y toda razón para no suponer) que hay una propiedad especial, “teniendo la
‘sensación’ del rojo”, que el ROBOT pueda o no tener, pero que es inaccesible
para el robot. El robot, conociendo la descripción física y psicológica del
ROBOT, está en una buena posición para responder todas las preguntas acerca del
ROBOT que razonablemente se puedan hacer. La idea de que hay otra pregunta (u
otra clase de pregunta) acerca del ROBOT que el robot no pueda responder, es
sugerida al robot por el hecho de que estas supuestas “preguntas” están bien
formadas gramaticalmente, y pueden ser “comprendidas” en el sentido que en que
se discute arriba, y que las posibles “respuestas” pueden ser “imaginadas”.
Considero
que nuestra postura con respecto a los robots es exactamente aquella de los robots con respecto a los ROBOTS. No
existe la más leve razón para creer que la “conciencia” es una propiedad bien
definida, que cada robot tiene o carece,
pero que no es posible, sobre la base de la descripción física del robot, o
incluso sobre la base de la descripción psicológica (en el sentido de “psicológico”
explicado arriba), para decidir
cuáles (si algunos) de los robots poseen esta propiedad en la que (si la hay)
no la poseen. Las reglas del “lenguaje robot” pueden bien ser tales en las que
perfectamente le sea posible al robot “conjeturar” que los ROBOTS tienen
“sensaciones” y también sería perfectamente posible para un robot conjeturar
que los ROBOTS no tienen “sensaciones”. No se deduce que la descripción física
y psicológica de los ROBOTS es “incompleta”, sino que sólo el concepto de “sensación”
(“sorprendentemente”) es un concepto bien definido, sólo cuando es aplicado a
los robots. La pregunta planteada por el robot filósofo ¿son los ROBOTS
“conscientes”? demanda una decisión mas no un descubrimiento. La decisión, en
el fondo, es esta: ¿Trato a los ROBOTS como miembros de mi comunidad
lingüística, o como máquinas? Si los ROBOTS son aceptados como miembros plenos
de la comunidad robot, entonces un robot puede enterarse si un ROBOT está
“consciente” o “inconsciente”, “vivo” o “muerto”, de la misma manera en que se
descubren estas cosas en el caso de un robot amigo. Si son rechazados, entonces
nada cuenta como un ROBOT siendo
“consciente” o “vivo”. Hasta que se tome la decisión, el enunciado que reza en
que los ROBOTS son “conscientes” no tiene un valor de verdad. En el mismo
sentido, sugiero que la pregunta: ¿Son los robots conscientes? demanda una
decisión por nuestra parte, de tratar a los robots como miembros de nuestra
comunidad lingüística, o de no tratarlos como tal. Mientras dejemos sin resolver
esta decisión, la afirmación de que los robots (del tipo descrito) son
conscientes no tiene valor de verdad.
Si
rechazamos la idea de que la descripción física y psicológica de los robots es
incompleta (porque “no especifica si son o no conscientes”), no estamos
forzados a sostener que la “conciencia” es un atributo “físico” o que es un
atributo “implícitamente definido por una teoría psicológica”. La pregunta de
Russell en la filosofía de la matemática: ¿Si el número 2 no es el conjunto de
todos los números pares, entonces qué cosa sobre la tierra lo es? era una
pregunta tonta. El dos es simplemente el segundo número, y nada más.
Igualmente, la pregunta mentalista: ¿Si el atributo de “conciencia” no es un
atributo físico (o un atributo implícitamente definido por una teoría
psicológica) entonces qué cosa sobre la tierra lo es? Es una pregunta tonta.
Nuestros conceptos psicológicos en el lenguaje ordinario son como los hemos
formado. El “marco de referencia” del lenguaje ordinario de los predicados psicológicos
es lo que es y no otra cosa. ¡Por
supuesto que el materialismo es falso; pero es tan trivialmente falso, que los materialistas no deberían ser
molestados!
En
este artículo, he revisado una sucesión de fallas. Fallas para demostrar que debemos decir que los robots son
conscientes, fallas para demostrar que debemos
decir que no lo son, fallas para demostrar que debemos decir que no podemos hablar de eso. He concluido de estas
fallas que no hay una respuesta correcta para la pregunta ¿Es Oscar consciente?
Los robots pueden, en efecto, tener (o carecer) propiedades desconocidas por la
física e indetectables por nosotros; pero no se ha ofrecido la menor razón para
demostrar que ellos lo hacen, como lo ha demostrado la analogía de los ROBOTS.
Entonces, es razonable concluir que la pregunta que lleva por título este
artículo demande una decisión y no un descubrimiento. Si tomamos una decisión,
me parece preferible extender nuestro concepto para que los robots sean conscientes, pues la
“discriminación” basada en la “suavidad” o “dureza” de las partes del cuerpo de
un “organismo” sintético parece tan tonta como un criterio discriminatorio de
los humanos sobre la base del color de piel. Pero mi propósito en este artículo
no ha sido perfeccionar nuestros conceptos, sino hallar cuáles son.
* Este Artículo
fue presentado en el simposio “Minds and Machines” en la sexagésima primera
reunión anual de la American Philosophical Association, Division Este,
Diciembre 28, 1964.
** “English” en el original [N. del t.]
Comentarios
Publicar un comentario