ANTERIOR

EL ALMA I

SIGUIENTE

Tal y como hemos indicado en la página anterior, a estas alturas de nuestro análisis del conocimiento, podemos dar por conocida la ciencia. De entre sus distintas ramas, nos interesan ahora aquellas que describen a distintos niveles el cerebro humano. El funcionamiento del cerebro no es muy bien conocido, lo cual es comprensible, ya que, para avanzar, la ciencia necesita experimentar, y no sería de buen gusto experimentar con cerebros humanos vivos sin el consentimiento de su dueño, consentimiento que pocos seres humanos estarían dispuestos a otorgar. Así, el problema de entender el funcionamiento del cerebro humano podría compararse al problema de entender el funcionamiento interno de un ordenador para alguien que careciera a priori de conocimientos de electrónica o informática y no se le permitiera hurgar en el aparato mientras está encendido. Y aun si se le permitiera, comprender la relación entre el software y el hardware sin tener acceso al código fuente del sistema operativo sería prácticamente imposible. Y esto no convierte a un ordenador en un objeto "misterioso" ni, mucho menos, milagroso. Por eso mismo, tampoco debemos inferir de nuestras lagunas sobre el funcionamiento del cerebro que haya en él nada de misterioso o milagroso.

Pese a dichas lagunas, la principal conjetura racional en torno al cerebro es que permite explicar totalmente el comportamiento humano, es decir, que si tuviéramos un conocimiento del cerebro humano similar al que tenemos de los ordenadores y pudiéramos manipular cerebros con la misma precisión con la que podemos manipular el hardware de un ordenador, entonces sería posible insertar quirúrgicamente en un individuo conocimientos, recuerdos, creencias, gustos, podríamos provocar sentimientos y estados de ánimo, etc. Recíprocamente, analizando el cerebro de un individuo podríamos "leer" lo que sabe, lo que piensa, lo que recuerda, etc.

Estas conjeturas nos llevan a plantearnos si la conciencia es el mero resultado de la actividad cerebral o si, por el contrario, la existencia de la conciencia como internamente la conocemos no puede fundamentarse únicamente en la existencia de una actividad cerebral, sino que requiere la existencia de algo más, algo que no tenga nada que ver con neuronas e impulsos eléctricos, a lo que podemos llamar alma.

Ante todo, debemos tener presente que acabamos de introducir el concepto de alma como un concepto totalmente vacío, del que no podemos decir nada a priori. Si la razón nos llevara a concluir que todo ser consciente ha de tener un alma, todavía estaría por ver qué características tendría que tener esa alma. En particular, sería del todo improcedente partir de la base de que aquí estamos llamando alma a lo que alguna de las muchas religiones que se han apropiado del término entienden por tal. Por ejemplo, muchas religiones consideran que los seres humanos tienen alma y los animales no. Ahora bien, si entendemos el alma como un sustrato necesario para la existencia de conciencia distinto de lo que es un cerebro (que es lo que en nuestro contexto debemos entender), entonces es difícil imaginar un argumento que niegue la existencia de alma en un perro o un chimpancé.

Quizá, para concretar el problema de la existencia del alma, sea útil recordar el argumento de otra película: en El sexto día, el malo es el dueño de una compañía que se dedica a clonar ilegalmente seres humanos. El procedimiento es muy sencillo en la práctica: se toma una muestra de ADN del sujeto a clonar y se guarda en un ordenador toda la información necesaria para reconstruir su estado cerebral en un momento dado. A partir de estos dos datos, en un tiempo muy breve, la tecnología permite construir un cuerpo idéntico al del sujeto y grabar en su cerebro todos los datos leídos en el cerebro original. Los malos se hacen periódicamente "copias de seguridad" de sus cerebros, de modo que si, por ejemplo, uno de ellos muere (ser malo en una película en la que el bueno es Arnold Schwarzenegger tiene sus riesgos) al cabo de poco tiempo se "reencarna" en un clon que es él mismo salvo que no recuerda nada de lo sucedido en el (breve) intervalo de tiempo que va desde que se hizo la última copia de su cerebro hasta su muerte. En realidad no es necesario morir para clonarse. Si, por ejemplo, uno pierde un brazo, puede suicidarse y clonarse, con lo que vuelve a vivir con el brazo intacto.

Aunque es fácil encontrar mil inconvenientes a la viabilidad de esta técnica, no hay ningún motivo a priori por el que no fuera posible llevarla a la práctica (tal vez con variantes no esenciales para nuestros argumentos, pero que la hicieran más verosímil). El problema que se plantea entonces es si una persona sobrevive realmente a la clonación. Si alguien piensa que un ser consciente está vinculado necesariamente a un alma, entonces es obvio que, tanto si el clon tiene o no alma, no puede tener la misma alma que el original, dado que incluso sería posible que ambos coexistieran, por lo que tendría que concluir que el original ha muerto y el clon es otro, otro igual, pero otro. En cambio, si alguien piensa que un ser consciente no es más que la actividad de su cerebro, entonces podría aceptar que el cerebro concreto que soporta dicha actividad es irrelevante, por lo que el proceso de clonación supone únicamente que una misma persona cambia de cuerpo. Si un original coexiste con su clon (que es precisamente lo que le ocurre a Schwarzenegger en la película) aparecerían problemas legales sobre qué derechos tendría cada uno, pero trascendentalmente no podría decirse que uno es "más él" que el otro.

Hay otro ángulo desde el que abordar el problema que nos evita los problemas derivados del desconocimiento que tenemos sobre el funcionamiento del cerebro, o de las dificultades que podrían impedir una manipulación como la que requeriría la clonación que acabamos de describir. Hay muchas películas que nos pueden servir de ilustración. Por ejemplo, podemos pensar en la saga de la Guerra de las galaxias. En ella se describe una sociedad en la que conviven seres humanos, seres vivos de otras especies variopintas, equiparables, en cuanto a seres conscientes racionales, con los seres humanos y, por último, una amplia gama de robots, en la que encontramos desde meras máquinas sofisticadas hasta androides que se comportan exactamente igual que seres humanos. El arquetipo es el androide protagonista, C3PO. Se trata de una máquina, de la que se conocen todos los detalles sobre su funcionamiento, pues ha sido fabricada por el hombre, pero se comporta como un ser humano: habla, piensa, opina, tiene miedo, se queja, se preocupa por sus seres queridos, etc. En este contexto, el problema sobre la existencia del alma está íntimamente relacionado con el problema de si podemos considerar a C3PO como un ser consciente. Precisemos esto:

Supongamos que le pregunto a un amigo de qué color es la camisa que llevo puesta, y me responde que es azul. Entonces puedo estar seguro de que mi amigo puede ver mi camisa y tiene la capacidad necesaria para reconocer que es azul. Por otra parte, podría hacer fácilmente que mi ordenador pronunciara la frase "veo que tu camisa es azul", incluso hacer que lo dijera cuando me oyera decir "¿de qué color es mi camisa?". En este caso alguien ingenuo podría pensar que mi ordenador ve mi camisa y reconoce que es azul, pero no es verdad. Mi ordenador no sabe lo que está haciendo. Simplemente, es una máquina capaz de reconocer el patrón de voz "¿de qué color es mi camisa?", en el sentido de que puede distinguir si pronuncio esa frase u otra distinta, aunque no la entienda, y de activar, como respuesta, siguiendo un programa, un sintetizador de voz que reproduzca unos sonidos que para él no significan nada. Podría decir que mi ordenador me oye preguntar por el color de mi camisa, puesto que reconoce mi voz y reconoce que es precisamente esa frase la que pronuncio, pero no puedo afirmar que es consciente de que le estoy preguntando por el color de mi camisa. De hecho, mi ordenador no es consciente de nada en absoluto.

El problema es: suponiendo que existiera C3PO, cuando pregunto a C3PO de qué color es mi camisa y él me responde que es azul, ¿podemos afirmar que él es consciente, como lo sería yo en su lugar, de que le estoy haciendo una pregunta y de que, al mirarme, ve que mi camisa es azul, o solamente parece que es así, como lo parece cuando mi modesto ordenador me responde con la frase "veo que tu camisa es azul"? Aunque mi ordenador pudiera engañar a algún incauto, no cuesta nada darse cuenta de que su "conciencia" es pura apariencia. Por ejemplo, si le preguntara por el color de mi camisa vistiendo una camisa roja, el seguiría respondiendo "veo que tu camisa es azul". Esto no le ocurriría a C3PO: si me pongo una camisa roja y le vuelvo a preguntar, me responderá que ahora mi camisa es roja. En general (y esto es lo que estamos suponiendo al suponer que existe C3PO) el robot responderá siempre como lo haría un ser humano, de modo que no es posible refutar su posible conciencia poniendo en evidencia que no entiende lo que dice. Pero la pregunta sigue en pie: ¿Es C3PO consciente o sólo lo aparenta con absoluta perfección?, ¿Cuando C3PO dice, por ejemplo, "¡R2D2, eres un cabezota, me desesperas!", podemos entender literalmente que C3PO se desespera y que está levemente disgustado en el mismo sentido en que podría estarlo yo, o sólo es una máquina recitando frases con total coherencia?

La relación de esto con el alma es obvia: No cabe duda de que C3PO no tiene alma, pues todo su comportamiento puede ser explicado con el mismo detalle con que podemos explicar todo lo que hace un ordenador de hoy en día. Si admitimos que C3PO es consciente en el pleno sentido de la palabra, entonces debemos concluir que nosotros tampoco necesitamos un alma (al menos, no como explicación de nuestra conciencia, aunque aquí no entramos en si hay un dios que nos ha regalado un alma con otros fines, pero eso sería otra clase de alma), por lo que postular que tenemos alma sería irracional (si tratamos de extraer de ahí alguna consecuencia sobre el mundo) o, cuanto menos, una afirmación metafísica (en caso contrario). Recíprocamente, si, de algún modo, concluyéramos que la mera actividad cerebral, o cualquier clase de proceso físico, no puede explicar que yo sea consciente como trascendentalmente sé que lo soy, entonces nos veríamos obligados a concluir que C3PO no puede tener conciencia, no puede ver lo que dice ver, ni sentir lo que dice sentir, ni entender lo que dice entender, sino únicamente aparentarlo con absoluta perfección.

No está de más apuntar aquí que el problema hipotético de si C3PO sería consciente o no es exactamente el mismo que el problema real de si cualquier ser humano distinto de mí mismo es consciente o no. Si miro en la cabeza de C3PO, ciertamente, no veré pensamientos, ni sentimientos, ni intuiciones, etc., pero si miro en la cabeza de cualquier persona, tampoco veré nada de eso. En un caso veré circuitos electrónicos y en el otro neuronas, pero ni lo uno ni lo otro se parece en nada a los pensamientos, sentimientos, etc.

La afirmación de que un ordenador capaz de comportarse como un ser humano sería consciente exactamente igual que lo es un ser humano, es decir, que no es posible parecer consciente sin ser realmente consciente, se conoce como Tesis de la inteligencia artificial. El matemático Alan Turing la planteó en términos de lo que hoy se conoce como el test de Turing, que, ligeramente actualizado, podríamos plantearlo así: imaginemos que ponemos a un hombre a chatear con dos sujetos, es decir, a dialogar sin verse, intercambiando mensajes a través de un ordenador. De los dos interlocutores, uno es humano, mientras que el otro es un ordenador autónomo, lo que significa que recibe los mensajes y genera las respuestas sin que ningún humano medie en el proceso. Si nuestro hombre es incapaz de distinguir cuál de sus dos interlocutores es el humano y cuál es el ordenador, entonces, el ordenador ha superado el test de Turing y, si aceptamos la tesis de Turing, eso ha de interpretarse como que es un ser plenamente consciente.

Naturalmente, sería necesario plantear el test en condiciones de "deportividad". Por una parte, habría que repetirlo muchas veces para evitar aciertos o errores por azar, o quizá plantear diálogos entre un ordenador y muchos seres humanos para que la probabilidad de acertar quién es el ordenador por puro azar fuera pequeña. Por otra parte, el ordenador tiene permiso para mentir, ya que su misión es engañar a su interlocutor. De lo contrario, bastaría preguntarle ¿eres un ordenador? o ¿cuántos años tienes? para identificarlo. También habría que evitar que el ordenador pudiera ser descubierto por detalles no esenciales. Por ejemplo, un humano puede cometer errores al teclear una frase, mientras que las frases del ordenador no pasarían por el proceso físico del tecleado, así que, o bien se corrigen los mensajes del humano antes de hacérselos llegar a su interlocutor, o bien se aconseja al ordenador que, de vez en cuando, provoque algún error tipográfico en los suyos, etc.

Está de más aclarar que jamás se ha construido (o, mejor dicho, programado) un ordenador capaz de superar el test de Turing. De hecho, pese a que la inteligencia artificial ha logrado avances interesantes en las últimas décadas, hay que admitir que todavía se está muy lejos de lograr dicha meta. De todos modos, para hacernos una idea de lo que sería un ordenador consciente, conviene examinar un ejemplo real de conversación improvisada entre un ser humano y un programa de ordenador llamado SHRDLU. No pretendemos en ningún momento presentar a un programa tan limitado como lo es SHRDLU a modo de "prueba", o siquiera indicio, de que los ordenadores pueden llegar a ser conscientes. Simplemente creemos que nos ayudará a entender con más precisión en qué consistiría un ordenador consciente.

Para empezar, SHRDLU nos permite descartar un tópico. Es fácil creer que un ordenador que imitara el comportamiento intelectual humano tendría una capacidad de cálculo incomparable con la de los humanos reales, de modo que, si le preguntáramos cuánto da 253 por 827, nos respondería inmediatamente que 209.231; pero no tiene por qué ser así. Por ejemplo, SHRDLU, como todo programa de ordenador, realiza muchas operaciones matemáticas por segundo; sin embargo, al mismo tiempo podemos decir que SHRDLU sólo sabe contar hasta diez. Esto significa que si, al cabo de un cierto tiempo, le preguntamos cuántos bloques ha movido, nos dirá que muchos, más de los que puede contar. Y es que, a la hora de entender a SHRDLU, es imprescindible distinguir entre su parte "consciente" y su parte "inconsciente".

Por ejemplo, en algún lugar de la memoria de SHRDLU está codificada la situación de su mundo de bloques: de un modo u otro, allí consta que hay un bloque azul, que ocupa tal posición, que tiene tales dimensiones, etc. Si le preguntamos a SHRDLU cuántos bloques azules ve, el programa analizará sus datos, recorrerá todos los registros de bloques que hay en su memoria y comprobará que sólo uno tiene asignada la propiedad "ser azul". Ello le llevará a generar la respuesta "uno". En este sentido, podemos decir que SHRDLU es consciente de que sólo ve un bloque azul. Ahora bien, si le preguntamos cómo sabe que sólo hay un bloque azul, la respuesta de SHRDLU no será "porque he recorrido los registros de bloques que hay en mi memoria y sólo he encontrado uno con la propiedad de ser azul". O bien SHRDLU será incapaz de encontrar un sentido a la pregunta o, a lo sumo, responderá, "no lo sé", y esto no es una evidencia de que SHRDLU no es realmente consciente, hay muchas evidencias de ello, pero esto no es una de ellas. Si SHRDLU tuviera una capacidad intelectual similar a la humana y, en particular, fuera capaz de entender la pregunta, su respuesta seguiría siendo "no lo sé" o, puestos a ser más precisos, podría decir "no lo sé, sólo sé que veo dos bloques verdes, dos rojos y uno azul, además de otros objetos que no son bloques, pero yo no hago nada para saber que es así, simplemente lo sé". En última instancia, el hecho de que un determinado bloque sea azul puede consistir en que en la dirección de memoria 454.678 del ordenador que soporta a SHRDLU esté escrito el número 1, mientras que el bloque sería verde si hubiera un 2, etc. Ahora bien, SHRDLU puede manejar los conceptos de "bloque", "color de un bloque", etc., pero no conoce el concepto de "dirección de memoria número 454.678", ni mucho menos está al corriente de que el ordenador que lo soporta mire esa dirección para pintar de azul uno de los bloques que muestra, ni que el color azul se codifique como un 1, etc.

En este punto es imprescindible una aclaración: El lector puede pensar que estamos "haciendo trampa" al hablar de lo que SHRDLU "conoce" y "desconoce", pues con ello ya estamos suponiendo implícitamente que es consciente de algo. No es así. De hecho, ya hemos dicho que no pretendemos afirmar que SHRDLU sea consciente de nada. Lo que sucede es que es perfectamente posible interpretar estos términos en sentido metafórico, pero de forma que las frases en que aparezcan tengan un significado concreto evidente. Por ejemplo, podemos decir que SHRDLU sabe que un bloque puede sostener a otro bloque, pero no sabía que una pirámide no puede sostener a otro bloque hasta que no ha intentado hacerlo y ha visto que era imposible. Estas afirmaciones únicamente pretenden describir de la forma más clara posible el comportamiento de SHRDLU, lo cual no requiere interpretarlas literalmente. Un ejemplo más sencillo: imaginemos que juego al poker contra mi ordenador. En cierto sentido, mi ordenador conoce mis cartas, pues están almacenadas en algún lugar de su memoria, pero, si el programa contra el que juego es "honrado", éste "no mirará" mis cartas, en el sentido de que no las tendrá en consideración a la hora de establecer su política de apuestas. Así, puedo decir que el ordenador "conoce" su jugada, pero no "conoce" la mía, o incluso sería oportuno decir que mi jugada está en su "subconsciente" y la suya en su "parte consciente", y todo esto no es más que una forma cómoda de describir lo que el ordenador hace y lo que no hace.

No obstante, aunque esta aclaración es suficiente para nuestros fines, es obligado señalar que la llamada tesis de la inteligencia artificial fuerte sostiene que estos usos de "saber", "conocer", "pensar", etc. no son metafóricos en absoluto, sino que tienen el mismo sentido que cuando se aplican a seres humanos. Así, podemos decir que SHRDLU es consciente realmente de que un bloque puede sostener a otro bloque, y que si alguien se apoya en un coche y, sin querer, dispara su alarma antirrobo, entonces el coche cree que alguien está intentando robarlo (pero el coche se equivoca). Y quien piensa así no lo hace porque le haya impactado en exceso la película Cars, en la que los coches son auténticas personas, sino que está afirmando que lo que usualmente entendemos por "saber", "creer", etc., aplicado a seres humanos, son procesos de la misma naturaleza, sólo que mucho más complejos. Si alguien oye desde su casa la alarma antirrobo de su coche, entonces piensa lo mismo que su coche: que alguien intenta robarlo. La diferencia está que en el caso del coche éste es un pensamiento simple, que no puede descomponerse en partes constitutivas, ya que el coche no es consciente de sí mismo, ni de lo que es robar, etc. En cada momento, el coche sólo sabe (o cree saber) si alguien está intentando robarlo o no. En cambio, el dueño del coche es capaz de descomponer ese pensamiento en partes más simples y a su vez vincularlo con otros pensamientos. Sin embargo, en ambos casos estamos ante un hecho análogo: un sistema (sea un choche, sea un ser humano) ha pasado de un estado previo a otro asociado con la posibilidad de que un determinado coche esté siendo víctima de un intento de robo. Se podría discutir mucho sobre este punto de vista, pero no vamos a hacerlo porque en ningún momento trataremos de apoyarnos en la tesis de la inteligencia artificial fuerte.

Volviendo a SHRDLU, una vez que hemos entendido que un programa de ordenador, sea SHRDLU o un mero programa de jugar al poker, puede tener una parte consciente y una parte inconsciente, deberíamos ver claramente la falta de fundamento de otro tópico en torno a los androides: algunos estarían dispuestos a aceptar que pudiera existir un ordenador con el que fuera posible mantener una conversación racional, pero no que pudiera tener sentimientos, corazonadas, gustos, iniciativas más o menos caprichosas y, en suma, todo aquello que de "irracional" tienen los seres humanos.

Aquí hay que distinguir dos problemas distintos: una cosa es el problema de tratar de reproducir en un ordenador, por ejemplo, el sentido estético humano, de modo que un ordenador pueda distinguir un buen poema de un poema ridículo, o una melodía hermosa de otra vulgar, de forma que su criterio, dentro del margen de divergencia que encontramos en los propios seres humanos cuando emiten sus propios juicios estéticos, pueda considerarse propio de un ser humano; en cambio, otro problema distinto es lograr que un ordenador tenga su propio sentido del gusto, que no tiene por qué aproximarse en nada a los gustos humanos.

Por poner un ejemplo muy simple: a muchos humanos les resulta placentero que les acaricien la espalda, pero la misma caricia en la planta de los pies la pueden considerar una tortura. Igualmente, podríamos programar a un ordenador para que considerara placentero que alguien pulse la tecla "A" de su teclado, mientras que considerara insufrible que se pulse la tecla "B". No costaría nada hacer que, en cuanto el ordenador detecte que se ha pulsado la tecla "B", se bloquee cualquier actividad mental que no vaya destinada a lograr que esto deje de suceder, como suplicarlo, estar dispuesto a hacer cualquier cosa a cambio, o incluso llegue a perder la conciencia temporalmente. También es posible hacer que el ordenador sufra daños cuando se le pulsa la "B": que pierda ciertos contenidos de memoria, etc. Estas reacciones estarían en la parte subconsciente del programa, de modo que, por una parte, a nivel consciente, no sabría explicar por qué le molesta que se le pulse la "B", ni sería capaz de no "prestar atención" a la tecla "B", del mismo modo que SHRDLU no tiene capacidad para negarse a obedecer las órdenes que se le dan y que es capaz de entender y ejecutar.

Más en general, podríamos programar un ordenador de modo que en cierta dirección de su memoria almacenara un número que puede variar de 0 a 10, donde 0 representaría el dolor más insoportable y 10 el mayor placer posible. Este número podría modificarse tanto por sucesos físicos, como que se le pulse la tecla "A" o la tecla "B", como por el propio estado mental del ordenador, pero no de forma consciente. Por ejemplo, la contemplación de ciertas imágenes podría provocarle un aumento de este número, mientras que otras lo harían disminuir. Esto sucedería como consecuencia de la aplicación de ciertos algoritmos, similares a los algoritmos que permiten a SHRDLU interpretar las órdenes y las preguntas que se le formulan. La única diferencia es que, en lugar de desencadenar procesos internos (como la búsqueda de una respuesta para una pregunta, o la forma de llevar a término una orden) proporcionarían juicios: ciertas imágenes aumentarían el grado de placer y otras lo disminuirían. El ordenador no sabría qué criterio emplean esos algoritmos subconscientes para decidir una cosa o la otra. Simplemente, cuando le preguntáramos si le gusta una imagen, sabría responder "Sí, me gusta mucho" o "es horrible, por favor, quítala de mi vista, que me da angustia verla", etc. según se haya modificado mucho o poco su grado de placer, ya en un sentido, ya en el contrario.

Es importante que no estamos discutiendo aquí si un ordenador así realmente sentiría placer o dolor, sino que tan sólo estamos esbozando cómo se podría lograr que un ordenador se comportara como un ser humano y, en particular, que mostrara estados de ánimo gobernados por procesos más o menos sofisticados de los que el propio ordenador no fuera consciente y, en particular, que no pudiera explicar satisfactoriamente. Este mismo esquema podría hacer que un ordenador tuviera toda clase de gustos, apetencias, voliciones, criterios personales, etc.

Como ya hemos indicado, otra cosa distinta es que sus criterios subjetivos pudieran asemejarse a los humanos. Esto sería mucho más difícil, tal vez del todo imposible en la práctica, pero no porque los criterios humanos sean inabarcables racionalmente, sino porque son demasiado caprichosos. Es como si tiramos al suelo cien canicas y luego las recogemos marcando con un punto el lugar donde ha caído cada una. Esa disposición de las canicas no tiene nada de especial, lo cual no quita para que sea prácticamente imposible estudiar la forma de lanzar las canicas con la pretensión de que vuelvan a caer exactamente en las mismas posiciones. Si pudiéramos acceder a los algoritmos que sigue el cerebro humano para establecer sus criterios subjetivos, no habría ninguna dificultad teórica para reproducirlos en un ordenador, pero identificar un algoritmo complejo sólo a partir de sus entradas y salidas puede ser misión imposible. En ausencia de un diccionario, que es muy dudoso que exista, es muy probable que jamás seamos capaces de descifrar la escritura etrusca más allá de unos pocas palabras que más o menos se conocen, pero esto no significa que la lengua etrusca sea incomprensible. Los etruscos la entendían, porque ellos la inventaron. Del mismo modo, que en la práctica sea imposible reconstruir los algoritmos que regulan los sentimientos humanos no significa que estos sean irracionales, en el sentido fuerte de que sea imposible explicarlos mediante un algoritmo suficientemente complejo y, en particular, que sea imposible reproducirlos fielmente en un ordenador.

Esto nos lleva a concluir que el nivel necesario para superar el test de Turing es mucho mayor que el que realmente es razonable exigir para que un ordenador pueda considerarse consciente. Podría darse el caso de que un ordenador se comportara plenamente como un ser consciente y, pese a ello, se distinguiera fácilmente de un ser humano por matices que nada tienen que ver con la presencia o ausencia de conciencia. Un ciego de nacimiento no puede entender el concepto de color en el mismo sentido pleno en que lo entiende alguien que pueda ver, pero eso no disminuye en nada su facultad de ser consciente. Si programáramos un ordenador ciego, capaz de oír y de hablar, pero no de ver, tal vez podría pasar el test de Turing convenciendo a los humanos de que es un hombre ciego, pero si resulta incapaz de explicar qué se siente al pasar hambre, o cuando se tiene sueño, entonces no engañará a nadie, ya que es imposible que un ser humano no haya pasado por tales experiencias, pero esas carencias no son más relevantes que la ceguera a la hora de evaluar la presencia o ausencia de conciencia.

Para terminar de perfilar el problema de la inteligencia artificial, vamos a pintar un esbozo de cómo debería estar organizado a grandes rasgos un ordenador que imitara la conciencia humana en lo esencial. Si no queremos que sea un ordenador ciego, deberemos dotarlo de una o varias cámaras que le permitan captar imágenes de su entorno. Al menos dos, mejor que una, pues comparar distintos puntos de vista facilita enormemente el primer problema que el ordenador tendrá que resolver para llegar a ser consciente del mundo: deberá traducir la información plana que le ofrecen las cámaras a una imagen tridimensional. En principio, la imagen digitalizada que le proporciona cada cámara puede representarse como una sucesión de ternas (x, y, t, c), donde (x, y) es un par de coordenadas relativas al campo visual de la cámara, t es un número que representa el instante al que corresponde la imagen y c es un código que representa un color. Lo que el ordenador necesita hacer a partir de estos datos es asignar una profundidad a cada punto, integrando los datos correspondientes a la misma cámara en tiempos distintos, a cámaras distintas en un mismo tiempo, así como los datos internos de que disponga sobre el movimiento al que está sometida cada cámara. Finalmente, la información se reorganizará en forma de una única sucesión de quíntuplas (x, y, z, t, c), donde ahora (x, y, z) son coordenadas espaciales, t es el tiempo y c es de nuevo un código de color.

El cerebro humano hace esto (no en términos de cuádruplas y quíntuplas, naturalmente, pero eso es irrelevante) con una rapidez endiablada. Si vemos una imagen como la de la izquierda, inmediatamente somos capaces de afirmar que vemos un prisma verde, que tiene encima una pirámide roja, que detrás de ambos hay un prisma azul, etc. El problema de obtener una imagen tridimensional a partir de una imagen bidimensional como ésta es ya un problema muy complejo (incluso sin tener en cuenta el movimiento) y, desde luego, dista mucho de ser el más complejo que aparece al tratar de construir inteligencia artificial; pero no es más que un problema matemático, y no hay nada que sugiera que la única forma de resolverlo con rapidez sea requiriendo los servicios de alguna clase de alma. Probablemente, cualquier intento eficiente de resolver este problema exigirá hacerlo simultáneo al paso siguiente, que es obtener una descripción conceptual de la imagen. El ordenador tiene que contar con subprogramas que puedan responder, cuando sean solicitados, a preguntas tales como cuántos objetos hay, de qué tamaños, de qué formas, de qué colores, cómo se mueve cada uno, etc. Esto supone crear registros estructurados de memoria individuales para cada objeto que se detecte en las imágenes. SHRDLU proporciona indicios de cómo un ordenador puede gestionar algunos conceptos, si bien, un ordenador que pretenda equipararse a un ser consciente necesitará ser capaz de manejar un sistema conceptual mucho más amplio, más abstracto. De hecho, deberá ser capaz de formarse y gestionar nuevos conceptos de cualquier grado de complejidad, incluso si presentan ambigüedades esenciales. Con la capacidad de entender frases de cualquier grado de complejidad, el ordenador podrá almacenar cualquier información sobre el mundo, ya sea en forma de textos que él entienda, ya en una forma más abstracta acorde con la forma en que gestiona el lenguaje, es decir, en términos de estructuración de conceptos. (Por ejemplo, la estructura de memoria que contiene el uso del concepto de "sardina", podría contener un apartado que lo vincule con el concepto de "pez", sin necesidad de que dicha información esté expresada mediante la frase "la sardina es un pez", que necesitaría ser interpretada para ser entendida. Al contrario, dicha frase podría ser generada a partir de la estructura del sistema conceptual.

La pretendida conciencia del ordenador estará determinada por su grado de acceso a la información que él mismo maneja. Ya hemos hablado de esto. En principio, no tendría por qué conocer nada del proceso por el que las imágenes bidimensionales que captan sus cámaras se traducen a imágenes tridimensionales, ni de los criterios que siguen los subprogramas encargados de conceptualizar estas imágenes. Por ejemplo, si le preguntamos si los bordes del bloque azul son rectos, el ordenador activará un subprograma que detecte las porciones de la imagen correspondientes a dichos bordes y determine si son rectos. Para ello, lo que hará el subprograma es comprobar si los puntos identificados como parte de un mismo borde satisfacen (al menos con suficiente aproximación) una relación lineal (en el sentido matemático de la palabra) y, en función del resultado, darán una respuesta afirmativa o negativa que podrá ser usada por otras partes del programa, en especial por la que ha reclamado la intervención del subprograma, pero todo el criterio empleado por el subprograma, en términos de coordenadas y relaciones numéricas, no trascenderá. En particular, si le preguntamos al ordenador qué coordenadas tienen los vértices del bloque azul en su sistema de referencia interno, a pesar de que estamos preguntando por una información concreta que está contenida en el ordenador, éste no sabrá responder, porque no dispondrá de ningún subprograma que le aporte dichos datos. Es lo mismo que si a nosotros nos preguntan en qué lugar del cerebro almacenamos lo que sabemos sobre los peces. Ni siquiera sabemos cómo se almacena esa información, aunque, sin duda, está ahí.

Observemos que todos los procesos que el ordenador emplea para analizar las imágenes que recibe (o para construir imágenes generadas por él espontáneamente) se basarán en la geometría tridimensional euclídea. Por eso podemos decir (cuanto menos, metafóricamente) que el ordenador posee una facultad de intuición espacio-temporal que le impone a priori la geometría tridimensional euclídea, en el sentido de que está condicionado a que todas las imágenes que recibe se interpreten necesariamente en términos de esta geometría. En particular, si le preguntamos por qué dice que los bordes del prisma azul son rectos, no sabrá qué responder. Dirá: "los veo rectos".

A diferencia de SHRDLU, el ordenador deberá disponer de algoritmos internos que determinen qué quiere hacer en cada momento. Aquí, en principio, hay muchas alternativas posibles, al menos a priori: tal vez sea posible construir una conciencia totalmente coherente consigo misma, que sepa en cada momento lo que quiere, o bien se podría construir una conciencia "más humana", que disponga de subprogramas subconscientes que propongan distintas opciones en mutuo conflicto y que deban ser conciliadas por otro subprograma. El grado de conciencia que el ordenador tenga de cada uno de los subprogramas que regulen su voluntad o que le aporten información sobre su estado interno determinarán que su comportamiento sea, siempre en comparación con los humanos, más "racional" o más "pasional". Ya hemos explicado (siempre a grandes rasgos, evidentemente) cómo podría hacerse para que el ordenador tuviera sus propios gustos, intereses, etc. Por ejemplo, el ordenador podría disponer de un subprograma inconsciente que analizara cada información aprendida recientemente para evaluar si sería interesante obtener más datos al respecto y, en caso afirmativo, modificara una variable de "curiosidad" que formara parte de los datos sobre los que operaría el algoritmo encargado de decidir lo que el ordenador desea hacer en cada momento. Dicho algoritmo debería conocer, no sólo el estado de curiosidad, sino también el objeto de dicha curiosidad, aunque no necesariamente los criterios que ha seguido el subprograma para establecer que dicho objeto merece atención. Dichos criterios, a su vez, pueden depender de varios parámetros que contribuirían a definir la "personalidad" del ordenador (más dado a la ciencia, o a la poesía, con más vehemencia o con menos, etc.)

No tiene sentido ir más allá en nuestra descripción, pues, al fin y al cabo, estamos hablando de algo que nadie sabe realmente cómo tendría que ser. Probablemente, un lector familiarizado con los progresos de la inteligencia artificial podría señalar muchos defectos en el esbozo que acabamos de hacer. No obstante, esto carece de importancia. No hemos pretendido señalar un camino a seguir en las investigaciones en torno a la inteligencia artificial, sino únicamente mostrar al lector que no es descabellado pensar en la posibilidad de que un ordenador esté en condiciones de decir "veo una silla verde" o "me aburre esto de mover bloques de un sitio a otro" en un contexto en el que dichas afirmaciones no puedan ser consideradas como meras frases de papagayo, sino que expresen realmente un estado interno del ordenador.

Nada de lo dicho aquí ha de entenderse como un argumento a favor o en contra de la existencia del alma. En esta página nos hemos limitado a plantear el problema en sus diversas facetas. Si hemos dedicado más espacio a la relacionada con la inteligencia artificial ha sido simplemente porque hemos considerado que era la que más se prestaba a ser malinterpretada y que, por tanto, requería más aclaraciones. En las dos páginas siguientes defenderemos la tesis de que no hay razones para suponer que la existencia de la conciencia, tal y como la conocemos, requiera algo más que la actividad de un sistema suficientemente complejo, sea un cerebro, sea un ordenador, por lo que postular que cada ser humano tiene un alma es dogmático o, a lo sumo, según como se plantee, es una afirmación puramente metafísica.

Sobre el concepto de sustancia

Índice

El alma II (para lectores irracionales)