EL
ALMA I |
---|
Tal y como hemos indicado en la página anterior, a estas alturas de nuestro análisis del conocimiento, podemos dar por conocida la ciencia. De entre sus distintas ramas, nos interesan ahora aquellas que describen a distintos niveles el cerebro humano. El funcionamiento del cerebro no es muy bien conocido, lo cual es comprensible, ya que, para avanzar, la ciencia necesita experimentar, y no sería de buen gusto experimentar con cerebros humanos vivos sin el consentimiento de su dueño, consentimiento que pocos seres humanos estarían dispuestos a otorgar. Así, el problema de entender el funcionamiento del cerebro humano podría compararse al problema de entender el funcionamiento interno de un ordenador para alguien que careciera a priori de conocimientos de electrónica o informática y no se le permitiera hurgar en el aparato mientras está encendido. Y aun si se le permitiera, comprender la relación entre el software y el hardware sin tener acceso al código fuente del sistema operativo sería prácticamente imposible. Y esto no convierte a un ordenador en un objeto "misterioso" ni, mucho menos, milagroso. Por eso mismo, tampoco debemos inferir de nuestras lagunas sobre el funcionamiento del cerebro que haya en él nada de misterioso o milagroso.
Pese a dichas lagunas, la principal conjetura racional en torno
al cerebro es que permite explicar totalmente el comportamiento
humano, es decir, que si tuviéramos un conocimiento del cerebro
humano similar al que tenemos de los ordenadores y pudiéramos
manipular cerebros con la misma precisión con la que podemos
manipular el hardware de un ordenador, entonces sería posible
insertar quirúrgicamente en un individuo conocimientos,
recuerdos, creencias, gustos, podríamos provocar sentimientos y
estados de ánimo, etc. Recíprocamente, analizando el cerebro de
un individuo podríamos "leer" lo que sabe, lo que piensa, lo que
recuerda, etc.
Estas conjeturas nos llevan a plantearnos si la conciencia es
el mero resultado de la actividad cerebral o si, por el
contrario, la existencia de la conciencia como internamente la
conocemos no puede fundamentarse únicamente en la existencia de
una actividad cerebral, sino que requiere la existencia de algo
más, algo que no tenga nada que ver con neuronas e impulsos
eléctricos, a lo que podemos llamar alma.
Ante todo, debemos tener presente que acabamos de introducir el
concepto de alma como un concepto totalmente vacío, del que no
podemos decir nada a priori. Si la razón nos llevara a concluir
que todo ser consciente ha de tener un alma, todavía estaría por
ver qué características tendría que tener esa alma. En
particular, sería del todo improcedente partir de la base de que
aquí estamos llamando alma a lo que alguna de las muchas
religiones que se han apropiado del término entienden por tal.
Por ejemplo, muchas religiones consideran que los seres humanos
tienen alma y los animales no. Ahora bien, si entendemos el alma
como un sustrato necesario para la existencia de conciencia
distinto de lo que es un cerebro (que es lo que en nuestro
contexto debemos entender), entonces es difícil imaginar un
argumento que niegue la existencia de alma en un perro o un
chimpancé.
Quizá, para concretar el problema de la
existencia del alma, sea útil recordar el argumento de otra
película: en El sexto día,
el malo es el dueño de una compañía que se dedica a clonar
ilegalmente seres humanos. El procedimiento es muy sencillo en
la práctica: se toma una muestra de ADN del sujeto a clonar y se
guarda en un ordenador toda la información necesaria para
reconstruir su estado cerebral en un momento dado. A partir de
estos dos datos, en un tiempo muy breve, la tecnología permite
construir un cuerpo idéntico al del sujeto y grabar en su
cerebro todos los datos leídos en el cerebro original. Los malos
se hacen periódicamente "copias de seguridad" de sus cerebros,
de modo que si, por ejemplo, uno de ellos muere (ser malo en una
película en la que el bueno es Arnold Schwarzenegger tiene sus
riesgos) al cabo de poco tiempo se "reencarna" en un clon que es
él mismo salvo que no recuerda nada de lo sucedido en el (breve)
intervalo de tiempo que va desde que se hizo la última copia de
su cerebro hasta su muerte. En realidad no es necesario morir
para clonarse. Si, por ejemplo, uno pierde un brazo, puede
suicidarse y clonarse, con lo que vuelve a vivir con el brazo
intacto.
Aunque es fácil encontrar mil inconvenientes a la viabilidad de
esta técnica, no hay ningún motivo a priori por el que no fuera
posible llevarla a la práctica (tal vez con variantes no
esenciales para nuestros argumentos, pero que la hicieran más
verosímil). El problema que se plantea entonces es si una
persona sobrevive realmente a la clonación. Si alguien piensa
que un ser consciente está vinculado necesariamente a un alma,
entonces es obvio que, tanto si el clon tiene o no alma, no
puede tener la misma alma que el original, dado que incluso
sería posible que ambos coexistieran, por lo que tendría que
concluir que el original ha muerto y el clon es otro, otro
igual, pero otro. En cambio, si alguien piensa que un ser
consciente no es más que la actividad de su cerebro, entonces
podría aceptar que el cerebro concreto que soporta dicha
actividad es irrelevante, por lo que el proceso de clonación
supone únicamente que una misma persona cambia de cuerpo. Si un
original coexiste con su clon (que es precisamente lo que le
ocurre a Schwarzenegger en la película) aparecerían problemas
legales sobre qué derechos tendría cada uno, pero
trascendentalmente no podría decirse que uno es "más él" que el
otro.
Hay otro ángulo desde el que abordar el problema que nos evita
los problemas derivados del desconocimiento que tenemos sobre el
funcionamiento del cerebro, o de las dificultades que podrían
impedir una manipulación como la que requeriría la clonación que
acabamos de describir. Hay muchas películas que nos pueden
servir de ilustración. Por ejemplo, podemos pensar en la saga de
la Guerra de las galaxias.
En ella se describe una sociedad en la que conviven seres
humanos, seres vivos de otras especies variopintas,
equiparables, en cuanto a seres conscientes racionales, con los
seres humanos y, por último, una amplia gama de robots, en la
que encontramos desde meras máquinas sofisticadas hasta
androides que se comportan exactamente igual que seres humanos.
El arquetipo es el androide protagonista, C3PO. Se trata de una
máquina, de la que se conocen todos los detalles sobre su
funcionamiento, pues ha sido fabricada por el hombre, pero se
comporta como un ser humano: habla, piensa, opina, tiene miedo,
se queja, se preocupa por sus seres queridos, etc. En este
contexto, el problema sobre la existencia del alma está
íntimamente relacionado con el problema de si podemos considerar
a C3PO como un ser
consciente. Precisemos esto:
Supongamos que le pregunto a un amigo de qué color es la camisa
que llevo puesta, y me responde que es azul. Entonces puedo
estar seguro de que mi amigo puede ver mi camisa y tiene la
capacidad necesaria para reconocer que es azul. Por otra parte,
podría hacer fácilmente que mi ordenador pronunciara la frase "veo que tu camisa es azul",
incluso hacer que lo dijera cuando me oyera decir "¿de qué color es mi camisa?".
En este caso alguien ingenuo podría pensar que mi ordenador ve
mi camisa y reconoce que es azul, pero no es verdad. Mi
ordenador no sabe lo que está haciendo. Simplemente, es una
máquina capaz de reconocer el patrón de voz "¿de qué color es mi camisa?",
en el sentido de que puede distinguir si pronuncio esa frase u
otra distinta, aunque no la entienda, y de activar, como
respuesta, siguiendo un programa, un sintetizador de voz que
reproduzca unos sonidos que para él no significan nada. Podría
decir que mi ordenador me oye preguntar por el color de mi
camisa, puesto que reconoce mi voz y reconoce que es
precisamente esa frase la que pronuncio, pero no puedo afirmar
que es consciente de que le estoy preguntando por el color de mi
camisa. De hecho, mi ordenador no es consciente de nada en
absoluto.
El problema es: suponiendo que existiera C3PO, cuando pregunto a C3PO de qué color es mi
camisa y él me responde que es azul, ¿podemos afirmar que él es
consciente, como lo sería yo en su lugar, de que le estoy
haciendo una pregunta y de que, al mirarme, ve que mi camisa es
azul, o solamente parece que es así, como lo parece cuando mi
modesto ordenador me responde con la frase "veo que tu camisa es azul"?
Aunque mi ordenador pudiera engañar a algún incauto, no cuesta
nada darse cuenta de que su "conciencia" es pura apariencia. Por
ejemplo, si le preguntara por el color de mi camisa vistiendo
una camisa roja, el seguiría respondiendo "veo que tu camisa es azul".
Esto no le ocurriría a C3PO:
si me pongo una camisa roja y le vuelvo a preguntar, me
responderá que ahora mi camisa es roja. En general (y esto es lo
que estamos suponiendo al suponer que existe C3PO) el robot responderá
siempre como lo haría un ser humano, de modo que no es posible
refutar su posible conciencia poniendo en evidencia que no
entiende lo que dice. Pero la pregunta sigue en pie: ¿Es C3PO consciente o sólo lo
aparenta con absoluta perfección?, ¿Cuando C3PO dice, por ejemplo, "¡R2D2, eres un cabezota, me
desesperas!", podemos entender literalmente que C3PO se desespera y que
está levemente disgustado en el mismo sentido en que podría
estarlo yo, o sólo es una máquina recitando frases con total
coherencia?
La relación de esto con el alma es obvia: No cabe duda de que C3PO no tiene alma, pues
todo su comportamiento puede ser explicado con el mismo detalle
con que podemos explicar todo lo que hace un ordenador de hoy en
día. Si admitimos que C3PO
es consciente en el pleno sentido de la palabra, entonces
debemos concluir que nosotros tampoco necesitamos un alma (al
menos, no como explicación de nuestra conciencia, aunque aquí no
entramos en si hay un dios que nos ha regalado un alma con otros
fines, pero eso sería otra clase de alma), por lo que postular
que tenemos alma sería irracional (si tratamos de extraer de ahí
alguna consecuencia sobre el mundo) o, cuanto menos, una
afirmación metafísica (en caso contrario). Recíprocamente, si,
de algún modo, concluyéramos que la mera actividad cerebral, o
cualquier clase de proceso físico, no puede explicar que yo sea
consciente como trascendentalmente sé que lo soy, entonces nos
veríamos obligados a concluir que C3PO no puede tener conciencia, no puede ver
lo que dice ver, ni sentir lo que dice sentir, ni entender lo
que dice entender, sino únicamente aparentarlo con absoluta
perfección.
No está de más apuntar aquí que el problema hipotético de si C3PO sería consciente o no
es exactamente el mismo que el problema real de si cualquier ser
humano distinto de mí mismo es consciente o no. Si miro en la
cabeza de C3PO,
ciertamente, no veré pensamientos, ni sentimientos, ni
intuiciones, etc., pero si miro en la cabeza de cualquier
persona, tampoco veré nada de eso. En un caso veré circuitos
electrónicos y en el otro neuronas, pero ni lo uno ni lo otro se
parece en nada a los pensamientos, sentimientos, etc.
La afirmación de que un ordenador capaz de comportarse como un
ser humano sería consciente exactamente igual que lo es un ser
humano, es decir, que no es posible parecer consciente sin ser
realmente consciente, se conoce como Tesis de la inteligencia artificial. El
matemático Alan Turing la planteó en términos de lo que hoy se
conoce como el test de
Turing, que, ligeramente actualizado, podríamos
plantearlo así: imaginemos que ponemos a un hombre a chatear con dos sujetos, es
decir, a dialogar sin verse, intercambiando mensajes a través de
un ordenador. De los dos interlocutores, uno es humano, mientras
que el otro es un ordenador autónomo, lo que significa que
recibe los mensajes y genera las respuestas sin que ningún
humano medie en el proceso. Si nuestro hombre es incapaz de
distinguir cuál de sus dos interlocutores es el humano y cuál es
el ordenador, entonces, el ordenador ha superado el test de
Turing y, si aceptamos la tesis de Turing, eso ha de
interpretarse como que es un ser plenamente consciente.
Naturalmente, sería necesario plantear el test en condiciones
de "deportividad". Por una parte, habría que repetirlo muchas
veces para evitar aciertos o errores por azar, o quizá plantear
diálogos entre un ordenador y muchos seres humanos para que la
probabilidad de acertar quién es el ordenador por puro azar
fuera pequeña. Por otra parte, el ordenador tiene permiso para
mentir, ya que su misión es engañar a su interlocutor. De lo
contrario, bastaría preguntarle ¿eres un ordenador? o ¿cuántos años tienes? para
identificarlo. También habría que evitar que el ordenador
pudiera ser descubierto por detalles no esenciales. Por ejemplo,
un humano puede cometer errores al teclear una frase, mientras
que las frases del ordenador no pasarían por el proceso físico
del tecleado, así que, o bien se corrigen los mensajes del
humano antes de hacérselos llegar a su interlocutor, o bien se
aconseja al ordenador que, de vez en cuando, provoque algún
error tipográfico en los suyos, etc.
Está de más aclarar que jamás se ha
construido (o, mejor dicho, programado) un ordenador capaz de
superar el test de Turing. De hecho, pese a que la inteligencia
artificial ha logrado avances interesantes en las últimas
décadas, hay que admitir que todavía se está muy lejos de lograr
dicha meta. De todos modos, para hacernos una idea de lo que
sería un ordenador consciente, conviene examinar un ejemplo real
de conversación improvisada entre un ser humano y un programa de
ordenador llamado SHRDLU. No
pretendemos en ningún momento presentar a un programa tan
limitado como lo es SHRDLU a modo de "prueba", o siquiera
indicio, de que los ordenadores pueden llegar a ser conscientes.
Simplemente creemos que nos ayudará a entender con más precisión
en qué consistiría un ordenador consciente.
Para empezar, SHRDLU nos permite descartar un tópico. Es fácil
creer que un ordenador que imitara el comportamiento intelectual
humano tendría una capacidad de cálculo incomparable con la de
los humanos reales, de modo que, si le preguntáramos cuánto da
253 por 827, nos respondería inmediatamente que 209.231; pero no
tiene por qué ser así. Por ejemplo, SHRDLU, como todo programa
de ordenador, realiza muchas operaciones matemáticas por
segundo; sin embargo, al mismo tiempo podemos decir que SHRDLU
sólo sabe contar hasta diez. Esto significa que si, al cabo de
un cierto tiempo, le preguntamos cuántos bloques ha movido, nos
dirá que muchos, más de los que puede contar. Y es que, a la
hora de entender a SHRDLU, es imprescindible distinguir entre su
parte "consciente" y su parte "inconsciente".
Por ejemplo, en algún lugar de la
memoria de SHRDLU está codificada la situación de su mundo de
bloques: de un modo u otro, allí consta que hay un bloque azul,
que ocupa tal posición, que tiene tales dimensiones, etc. Si le
preguntamos a SHRDLU cuántos bloques azules ve, el programa
analizará sus datos, recorrerá todos los registros de bloques
que hay en su memoria y comprobará que sólo uno tiene asignada
la propiedad "ser azul". Ello le llevará a generar la respuesta
"uno". En este sentido,
podemos decir que SHRDLU es consciente de que sólo ve un bloque
azul. Ahora bien, si le preguntamos cómo sabe que sólo hay un
bloque azul, la respuesta de SHRDLU no será "porque he recorrido los registros
de bloques que hay en mi memoria y sólo he encontrado uno con
la propiedad de ser azul". O bien SHRDLU será incapaz
de encontrar un sentido a la pregunta o, a lo sumo, responderá,
"no lo sé", y esto no
es una evidencia de que SHRDLU no es realmente consciente, hay
muchas evidencias de ello, pero esto no es una de ellas. Si
SHRDLU tuviera una capacidad intelectual similar a la humana y,
en particular, fuera capaz de entender la pregunta, su respuesta
seguiría siendo "no lo sé"
o, puestos a ser más precisos, podría decir "no lo sé, sólo sé que veo dos
bloques verdes, dos rojos y uno azul, además de otros objetos
que no son bloques, pero yo no hago nada para saber que es
así, simplemente lo sé". En última instancia, el hecho
de que un determinado bloque sea azul puede consistir en que en
la dirección de memoria 454.678 del ordenador que soporta a
SHRDLU esté escrito el número 1, mientras que el bloque sería
verde si hubiera un 2, etc. Ahora bien, SHRDLU puede manejar los
conceptos de "bloque", "color de un bloque", etc., pero no
conoce el concepto de "dirección de memoria número 454.678", ni
mucho menos está al corriente de que el ordenador que lo soporta
mire esa dirección para pintar de azul uno de los bloques que
muestra, ni que el color azul se codifique como un 1, etc.
En este punto es imprescindible una aclaración: El lector puede
pensar que estamos "haciendo trampa" al hablar de lo que SHRDLU
"conoce" y "desconoce", pues con ello ya estamos suponiendo
implícitamente que es consciente de algo. No es así. De hecho,
ya hemos dicho que no pretendemos afirmar que SHRDLU sea
consciente de nada. Lo que sucede es que es perfectamente
posible interpretar estos términos en sentido metafórico, pero
de forma que las frases en que aparezcan tengan un significado
concreto evidente. Por ejemplo, podemos decir que SHRDLU sabe
que un bloque puede sostener a otro bloque, pero no sabía que
una pirámide no puede sostener a otro bloque hasta que no ha
intentado hacerlo y ha visto que era imposible. Estas
afirmaciones únicamente pretenden describir de la forma más
clara posible el comportamiento de SHRDLU, lo cual no requiere
interpretarlas literalmente. Un ejemplo más sencillo: imaginemos
que juego al poker contra mi ordenador. En cierto sentido, mi
ordenador conoce mis cartas, pues están almacenadas en algún
lugar de su memoria, pero, si el programa contra el que juego es
"honrado", éste "no mirará" mis cartas, en el sentido de que no
las tendrá en consideración a la hora de establecer su política
de apuestas. Así, puedo decir que el ordenador "conoce" su
jugada, pero no "conoce" la mía, o incluso sería oportuno decir
que mi jugada está en su "subconsciente" y la suya en su "parte
consciente", y todo esto no es más que una forma cómoda de
describir lo que el ordenador hace y lo que no hace.
No obstante, aunque esta aclaración es suficiente para nuestros
fines, es obligado señalar que la llamada tesis de la inteligencia
artificial fuerte sostiene que estos usos de "saber",
"conocer", "pensar", etc. no son metafóricos en absoluto, sino
que tienen el mismo sentido que cuando se aplican a seres
humanos. Así, podemos decir que SHRDLU es consciente realmente
de que un bloque puede sostener a otro bloque, y que si alguien
se apoya en un coche y, sin querer, dispara su alarma antirrobo,
entonces el coche cree que alguien está intentando robarlo (pero
el coche se equivoca). Y quien piensa así no lo hace porque le
haya impactado en exceso la película Cars, en la que los coches son auténticas
personas, sino que está afirmando que lo que usualmente
entendemos por "saber", "creer", etc., aplicado a seres humanos,
son procesos de la misma naturaleza, sólo que mucho más
complejos. Si alguien oye desde su casa la alarma antirrobo de
su coche, entonces piensa lo mismo que su coche: que alguien
intenta robarlo. La diferencia está que en el caso del coche
éste es un pensamiento simple, que no puede descomponerse en
partes constitutivas, ya que el coche no es consciente de sí
mismo, ni de lo que es robar, etc. En cada momento, el coche
sólo sabe (o cree saber) si alguien está intentando robarlo o
no. En cambio, el dueño del coche es capaz de descomponer ese
pensamiento en partes más simples y a su vez vincularlo con
otros pensamientos. Sin embargo, en ambos casos estamos ante un
hecho análogo: un sistema (sea un choche, sea un ser humano) ha
pasado de un estado previo a otro asociado con la posibilidad de
que un determinado coche esté siendo víctima de un intento de
robo. Se podría discutir mucho sobre este punto de vista, pero
no vamos a hacerlo porque en ningún momento trataremos de
apoyarnos en la tesis de la inteligencia artificial fuerte.
Volviendo a SHRDLU, una vez que hemos entendido que un programa
de ordenador, sea SHRDLU o un mero programa de jugar al poker,
puede tener una parte consciente y una parte inconsciente,
deberíamos ver claramente la falta de fundamento de otro tópico
en torno a los androides: algunos estarían dispuestos a aceptar
que pudiera existir un ordenador con el que fuera posible
mantener una conversación racional, pero no que pudiera tener
sentimientos, corazonadas, gustos, iniciativas más o menos
caprichosas y, en suma, todo aquello que de "irracional" tienen
los seres humanos.
Aquí hay que distinguir dos problemas distintos: una cosa es el
problema de tratar de reproducir en un ordenador, por ejemplo,
el sentido estético humano, de modo que un ordenador pueda
distinguir un buen poema de un poema ridículo, o una melodía
hermosa de otra vulgar, de forma que su criterio, dentro del
margen de divergencia que encontramos en los propios seres
humanos cuando emiten sus propios juicios estéticos, pueda
considerarse propio de un ser humano; en cambio, otro problema
distinto es lograr que un ordenador tenga su propio sentido del
gusto, que no tiene por qué aproximarse en nada a los gustos
humanos.
Por poner un ejemplo muy simple: a muchos humanos les resulta
placentero que les acaricien la espalda, pero la misma caricia
en la planta de los pies la pueden considerar una tortura.
Igualmente, podríamos programar a un ordenador para que
considerara placentero que alguien pulse la tecla "A" de su
teclado, mientras que considerara insufrible que se pulse la
tecla "B". No costaría nada hacer que, en cuanto el ordenador
detecte que se ha pulsado la tecla "B", se bloquee cualquier
actividad mental que no vaya destinada a lograr que esto deje de
suceder, como suplicarlo, estar dispuesto a hacer cualquier cosa
a cambio, o incluso llegue a perder la conciencia temporalmente.
También es posible hacer que el ordenador sufra daños cuando se
le pulsa la "B": que pierda ciertos contenidos de memoria, etc.
Estas reacciones estarían en la parte subconsciente del
programa, de modo que, por una parte, a nivel consciente, no
sabría explicar por qué le molesta que se le pulse la "B", ni
sería capaz de no "prestar atención" a la tecla "B", del mismo
modo que SHRDLU no tiene capacidad para negarse a obedecer las
órdenes que se le dan y que es capaz de entender y ejecutar.
Más en general, podríamos programar un ordenador de modo que en cierta dirección de su memoria almacenara un número que puede variar de 0 a 10, donde 0 representaría el dolor más insoportable y 10 el mayor placer posible. Este número podría modificarse tanto por sucesos físicos, como que se le pulse la tecla "A" o la tecla "B", como por el propio estado mental del ordenador, pero no de forma consciente. Por ejemplo, la contemplación de ciertas imágenes podría provocarle un aumento de este número, mientras que otras lo harían disminuir. Esto sucedería como consecuencia de la aplicación de ciertos algoritmos, similares a los algoritmos que permiten a SHRDLU interpretar las órdenes y las preguntas que se le formulan. La única diferencia es que, en lugar de desencadenar procesos internos (como la búsqueda de una respuesta para una pregunta, o la forma de llevar a término una orden) proporcionarían juicios: ciertas imágenes aumentarían el grado de placer y otras lo disminuirían. El ordenador no sabría qué criterio emplean esos algoritmos subconscientes para decidir una cosa o la otra. Simplemente, cuando le preguntáramos si le gusta una imagen, sabría responder "Sí, me gusta mucho" o "es horrible, por favor, quítala de mi vista, que me da angustia verla", etc. según se haya modificado mucho o poco su grado de placer, ya en un sentido, ya en el contrario.
Es importante que no estamos discutiendo aquí si un ordenador
así realmente sentiría placer o dolor, sino que tan sólo estamos
esbozando cómo se podría lograr que un ordenador se comportara
como un ser humano y, en particular, que mostrara estados de
ánimo gobernados por procesos más o menos sofisticados de los
que el propio ordenador no fuera consciente y, en particular,
que no pudiera explicar satisfactoriamente. Este mismo esquema
podría hacer que un ordenador tuviera toda clase de gustos,
apetencias, voliciones, criterios personales, etc.
Como ya hemos indicado, otra cosa distinta es que sus criterios
subjetivos pudieran asemejarse a los humanos. Esto sería mucho
más difícil, tal vez del todo imposible en la práctica, pero no
porque los criterios humanos sean inabarcables racionalmente,
sino porque son demasiado caprichosos. Es como si tiramos al
suelo cien canicas y luego las recogemos marcando con un punto
el lugar donde ha caído cada una. Esa disposición de las canicas
no tiene nada de especial, lo cual no quita para que sea
prácticamente imposible estudiar la forma de lanzar las canicas
con la pretensión de que vuelvan a caer exactamente en las
mismas posiciones. Si pudiéramos acceder a los algoritmos que
sigue el cerebro humano para establecer sus criterios
subjetivos, no habría ninguna dificultad teórica para
reproducirlos en un ordenador, pero identificar un algoritmo
complejo sólo a partir de sus entradas y salidas puede ser
misión imposible. En ausencia de un diccionario, que es muy
dudoso que exista, es muy probable que jamás seamos capaces de
descifrar la escritura etrusca más allá de unos pocas palabras
que más o menos se conocen, pero esto no significa que la lengua
etrusca sea incomprensible. Los etruscos la entendían, porque
ellos la inventaron. Del mismo modo, que en la práctica sea
imposible reconstruir los algoritmos que regulan los
sentimientos humanos no significa que estos sean irracionales,
en el sentido fuerte de que sea imposible explicarlos mediante
un algoritmo suficientemente complejo y, en particular, que sea
imposible reproducirlos fielmente en un ordenador.
Esto nos lleva a concluir que el nivel necesario para superar
el test de Turing es mucho mayor que el que realmente es
razonable exigir para que un ordenador pueda considerarse
consciente. Podría darse el caso de que un ordenador se
comportara plenamente como un ser consciente y, pese a ello, se
distinguiera fácilmente de un ser humano por matices que nada
tienen que ver con la presencia o ausencia de conciencia. Un
ciego de nacimiento no puede entender el concepto de color en el
mismo sentido pleno en que lo entiende alguien que pueda ver,
pero eso no disminuye en nada su facultad de ser consciente. Si
programáramos un ordenador ciego, capaz de oír y de hablar, pero
no de ver, tal vez podría pasar el test de Turing convenciendo a
los humanos de que es un hombre ciego, pero si resulta incapaz
de explicar qué se siente al pasar hambre, o cuando se tiene
sueño, entonces no engañará a nadie, ya que es imposible que un
ser humano no haya pasado por tales experiencias, pero esas
carencias no son más relevantes que la ceguera a la hora de
evaluar la presencia o ausencia de conciencia.
Para terminar de perfilar el problema de la inteligencia
artificial, vamos a pintar un esbozo de cómo debería estar
organizado a grandes rasgos un ordenador que imitara la
conciencia humana en lo esencial. Si no queremos que sea un
ordenador ciego, deberemos dotarlo de una o varias cámaras que
le permitan captar imágenes de su entorno. Al menos dos, mejor
que una, pues comparar distintos puntos de vista facilita
enormemente el primer problema que el ordenador tendrá que
resolver para llegar a ser consciente del mundo: deberá traducir
la información plana que le ofrecen las cámaras a una imagen
tridimensional. En principio, la imagen digitalizada que le
proporciona cada cámara puede representarse como una sucesión de
ternas (x, y, t, c),
donde (x, y) es un par
de coordenadas relativas al campo visual de la cámara, t es un número que
representa el instante al que corresponde la imagen y c es un código que
representa un color. Lo que el ordenador necesita hacer a partir
de estos datos es asignar una profundidad a cada punto,
integrando los datos correspondientes a la misma cámara en
tiempos distintos, a cámaras distintas en un mismo tiempo, así
como los datos internos de que disponga sobre el movimiento al
que está sometida cada cámara. Finalmente, la información se
reorganizará en forma de una única sucesión de quíntuplas (x, y, z, t, c), donde
ahora (x, y, z) son
coordenadas espaciales, t
es el tiempo y c es de
nuevo un código de color.
El cerebro humano hace esto
(no en términos de cuádruplas y quíntuplas, naturalmente, pero
eso es irrelevante) con una rapidez endiablada. Si vemos una
imagen como la de la izquierda, inmediatamente somos capaces de
afirmar que vemos un prisma verde, que tiene encima una pirámide
roja, que detrás de ambos hay un prisma azul, etc. El problema
de obtener una imagen tridimensional a partir de una imagen
bidimensional como ésta es ya un problema muy complejo (incluso
sin tener en cuenta el movimiento) y, desde luego, dista mucho
de ser el más complejo que aparece al tratar de construir
inteligencia artificial; pero no es más que un problema
matemático, y no hay nada que sugiera que la única forma de
resolverlo con rapidez sea requiriendo los servicios de alguna
clase de alma. Probablemente, cualquier intento eficiente de
resolver este problema exigirá hacerlo simultáneo al paso
siguiente, que es obtener una descripción conceptual de la
imagen. El ordenador tiene que contar con subprogramas que
puedan responder, cuando sean solicitados, a preguntas tales
como cuántos objetos hay, de qué tamaños, de qué formas, de qué
colores, cómo se mueve cada uno, etc. Esto supone crear
registros estructurados de memoria individuales para cada objeto
que se detecte en las imágenes. SHRDLU proporciona indicios de
cómo un ordenador puede gestionar algunos conceptos, si bien, un
ordenador que pretenda equipararse a un ser consciente
necesitará ser capaz de manejar un sistema conceptual mucho más
amplio, más abstracto. De hecho, deberá ser capaz de formarse y
gestionar nuevos conceptos de cualquier grado de complejidad,
incluso si presentan ambigüedades esenciales. Con la capacidad
de entender frases de cualquier grado de complejidad, el
ordenador podrá almacenar cualquier información sobre el mundo,
ya sea en forma de textos que él entienda, ya en una forma más
abstracta acorde con la forma en que gestiona el lenguaje, es
decir, en términos de estructuración de conceptos. (Por ejemplo,
la estructura de memoria que contiene el uso del concepto de "sardina", podría contener
un apartado que lo vincule con el concepto de "pez", sin necesidad de que
dicha información esté expresada mediante la frase "la sardina es un pez", que
necesitaría ser interpretada para ser entendida. Al contrario,
dicha frase podría ser generada a partir de la estructura del
sistema conceptual.
La pretendida conciencia del ordenador estará determinada por
su grado de acceso a la información que él mismo maneja. Ya
hemos hablado de esto. En principio, no tendría por qué conocer
nada del proceso por el que las imágenes bidimensionales que
captan sus cámaras se traducen a imágenes tridimensionales, ni
de los criterios que siguen los subprogramas encargados de
conceptualizar estas imágenes. Por ejemplo, si le preguntamos si
los bordes del bloque azul son rectos, el ordenador activará un
subprograma que detecte las porciones de la imagen
correspondientes a dichos bordes y determine si son rectos. Para
ello, lo que hará el subprograma es comprobar si los puntos
identificados como parte de un mismo borde satisfacen (al menos
con suficiente aproximación) una relación lineal (en el sentido
matemático de la palabra) y, en función del resultado, darán una
respuesta afirmativa o negativa que podrá ser usada por otras
partes del programa, en especial por la que ha reclamado la
intervención del subprograma, pero todo el criterio empleado por
el subprograma, en términos de coordenadas y relaciones
numéricas, no trascenderá. En particular, si le preguntamos al
ordenador qué coordenadas tienen los vértices del bloque azul en
su sistema de referencia interno, a pesar de que estamos
preguntando por una información concreta que está contenida en
el ordenador, éste no sabrá responder, porque no dispondrá de
ningún subprograma que le aporte dichos datos. Es lo mismo que
si a nosotros nos preguntan en qué lugar del cerebro almacenamos
lo que sabemos sobre los peces. Ni siquiera sabemos cómo se
almacena esa información, aunque, sin duda, está ahí.
Observemos que todos los procesos que el ordenador emplea para
analizar las imágenes que recibe (o para construir imágenes
generadas por él espontáneamente) se basarán en la geometría
tridimensional euclídea. Por eso podemos decir (cuanto menos,
metafóricamente) que el ordenador posee una facultad de
intuición espacio-temporal que le impone a priori la geometría
tridimensional euclídea, en el sentido de que está condicionado
a que todas las imágenes que recibe se interpreten
necesariamente en términos de esta geometría. En particular, si
le preguntamos por qué dice que los bordes del prisma azul son
rectos, no sabrá qué responder. Dirá: "los veo rectos".
A diferencia de SHRDLU, el ordenador deberá disponer de
algoritmos internos que determinen qué quiere hacer en cada
momento. Aquí, en principio, hay muchas alternativas posibles,
al menos a priori: tal vez sea posible construir una conciencia
totalmente coherente consigo misma, que sepa en cada momento lo
que quiere, o bien se podría construir una conciencia "más
humana", que disponga de subprogramas subconscientes que
propongan distintas opciones en mutuo conflicto y que deban ser
conciliadas por otro subprograma. El grado de conciencia que el
ordenador tenga de cada uno de los subprogramas que regulen su
voluntad o que le aporten información sobre su estado interno
determinarán que su comportamiento sea, siempre en comparación
con los humanos, más "racional" o más "pasional". Ya hemos
explicado (siempre a grandes rasgos, evidentemente) cómo podría
hacerse para que el ordenador tuviera sus propios gustos,
intereses, etc. Por ejemplo, el ordenador podría disponer de un
subprograma inconsciente que analizara cada información
aprendida recientemente para evaluar si sería interesante
obtener más datos al respecto y, en caso afirmativo, modificara
una variable de "curiosidad" que formara parte de los datos
sobre los que operaría el algoritmo encargado de decidir lo que
el ordenador desea hacer en cada momento. Dicho algoritmo
debería conocer, no sólo el estado de curiosidad, sino también
el objeto de dicha curiosidad, aunque no necesariamente los
criterios que ha seguido el subprograma para establecer que
dicho objeto merece atención. Dichos criterios, a su vez, pueden
depender de varios parámetros que contribuirían a definir la
"personalidad" del ordenador (más dado a la ciencia, o a la
poesía, con más vehemencia o con menos, etc.)
No tiene sentido ir más allá en nuestra descripción, pues, al
fin y al cabo, estamos hablando de algo que nadie sabe realmente
cómo tendría que ser. Probablemente, un lector familiarizado con
los progresos de la inteligencia artificial podría señalar
muchos defectos en el esbozo que acabamos de hacer. No obstante,
esto carece de importancia. No hemos pretendido señalar un
camino a seguir en las investigaciones en torno a la
inteligencia artificial, sino únicamente mostrar al lector que
no es descabellado pensar en la posibilidad de que un ordenador
esté en condiciones de decir "veo
una silla verde" o "me
aburre esto de mover bloques de un sitio a otro" en un
contexto en el que dichas afirmaciones no puedan ser
consideradas como meras frases de papagayo, sino que expresen
realmente un estado interno del ordenador.
Nada de lo dicho aquí ha de entenderse como un argumento a
favor o en contra de la existencia del alma. En esta página nos
hemos limitado a plantear el problema en sus diversas facetas.
Si hemos dedicado más espacio a la relacionada con la
inteligencia artificial ha sido simplemente porque hemos
considerado que era la que más se prestaba a ser malinterpretada
y que, por tanto, requería más aclaraciones. En las dos páginas
siguientes defenderemos la tesis de que no hay razones para
suponer que la existencia de la conciencia, tal y como la
conocemos, requiera algo más que la actividad de un sistema
suficientemente complejo, sea un cerebro, sea un ordenador, por
lo que postular que cada ser humano tiene un alma es dogmático
o, a lo sumo, según como se plantee, es una afirmación puramente
metafísica.