c o m u n i c a c i ó n
Adolfo Plasencia
adolfo@mag.upv.es
MAQUINAS que piensan, sienten, aprenden.
El cumpleaños de Hal.
2001 Una Odisea Espacial. Stanley Kubrick


[Conversación entre el Ordenador HAL 9000 y el astronauta Dave Bowman]
HAL: 
¿No te importa hablar de esto, Dave?.
Dave Bowman:  
No, nada.
HAL: 
Por supuesto, nadie podía ser inconsciente de las extrañas historias  que flotaban en el aire cuando salimos..., rumores sobre algo que desenterraron en la luna.
Nunca di mucha importancia a estos rumores, pero...
en vista de otras cosas que han ocurrido, me resulta muy difícil apartarlo de mi mente.


[HAL dirigiendose a Dave Bowman]. 2.001 de A. C. Clarke.
HAL: 
Mi centro de predicción de fallos me informa de un problema en la unidad A35E. Estará 100% fuera de servicio en 72 horas. 


[Los astronautas Dave Bowman y Frank Poole hablan en una cámara aislada mientras el ojo de HAL les observa a través del cristal]
Bowman: 
Que yo sepa, ningún computador 9000 ha sido jamás desconectado.
Poole: 
Pero es que ninguno se había portado mal antes.
Bowman: 
No me refería a eso...
Poole: 
Um. 
Bowman: 
Me pregunto como lo tomaría


[Dave Bowman de vuelta del exterior de la nave]
Bowman: 
Hola HAL. ¿Me recibes, HAL?.
HAL: 
Afirmativo, Dave, te recibo.
Bowman: 
Abre las puertas exteriores. HAL

HAL: 
Me temo que no puedo hacer eso.
Bowman: 
¿Cual es el problema?.
HAL: 
Pienso que tú sabes igual que yo cual es el problema.
Bowman: 
¿De qué estas hablando, HAL?.
HAL: 
La misión es demasiado importante para que tú la pongas en peligro
Bowman: 
No se de qué estas hablando, HAL.
HAL: 
Ya se que tú y Frank estabais planeando desconectarme y eso es algo que no puedo permitir.
Bowman: 
¿De dónde demonios has sacado esa idea, HAL?.
HAL: 
Aunque tomaste precauciones para que no te escuchara yo podía ver como movíais los labios.



[Cuando Dave Bowman consigue volver a entrar en la nave con gran riesgo, a pensar de que HAL trató de impedírselo]
HAL: 
Mira Dave, puedo ver que estás muy enfadado sobre esto..
... YA SE QUE HE TOMADO UNAS DECISIONES MUY poco afortunadas ULTIMAMENTE, PERO TE ASEGURO QUE MI TRABAJO VOLVERA A SER NORMAL.


[La desconexión de HAL. El ordenador habla con Dave mientras éste está  desconectando los módulos de memoria consciente de HAL]
HAL: 
Tengo miedo. Tengo miedo Dave, mi mente se va, lo puedo sentir. 
Lo puedo sentir. Mi mente se va.
No hay ninguna duda al respecto. Lo puedo sentir, lo puedo sentir. Tengo... miedo.
Buenas tardes, señores. Soy un computador HAL 9.000. Me hicieron operativo en la planta H.A.L. (1) en Urbana Illinois, el 12 de enero de 1992. Mi instructor fué el señor Langley y me enseñó a cantar una canción.
Si la quieres escuchar la cantaré para ti.
Bowman: 
Sí, me gustaría escucharla. Cántamela.
HAL: 
Se llama “Daisy”.
Daisy,...Dai...sy, dame tu respuesta.
Estoy medio loco por... tu amor.
No será un matrimonio típico...
No puedo permitirme un coche, pero tú...estarás muy...guapa sobre el asiento de...una bicicleta construida ... para dos.
[La voz de HAL se va haciendo lenta y grave hasta el silencio]

El 12 de enero de 1997, según la novela “2.001, Una Odisea Espacial” de Arthur C. Clarke (1992 según la cronología de Kubrick), es la fecha del “nacimiento consciente” del Ordenador HAL 9000, que el genial director Stanley Kubrick materializó para los espectadores, en una mítica película con el mismo título de la novela, la imagen perfectamente creíble de una máquina dotada de inteligencia superior. La suma de la creación de Clarke y Kubrick es la visualización más verosímil, no superada hasta ahora, de una criatura mecánica capaz de aprender por sí misma y, no sólo eso, capaz también de pensar, ver, hablar, sentir e incluso sufrir de neurosis; parámetros todos ellos exclusivos, hasta ese momento, de la condición humana.

Los ordenadores representan para nosotros el símbolo del estado más avanzado y sofisticado al que han llegado las máquinas inventadas por los humanos. El sueño del hombre de construir una máquina dotada de inteligencia autónoma y superior es hoy mas fácil de imaginar desde la extraordinaria película 2.001 de Kubrick. Es interesante ver, a treinta años de su creación, a Hal: una máquina no superada en la realidad ni en la ficción, que “habla” como una persona, piensa como una persona y conspira -aunque falla- contra los humanos, y cuando está a punto de morir (ser desconectada), suplica como una persona.

Aunque algunos detalles de la línea de tiempo tecnológico de la película han quedado desviados y ha sido superados por la línea de tiempo de la realidad, los ordenadores de hoy en día sí pueden ya llevar a cabo los cálculos y funciones más automáticas que HAL realizaba dirigiendo la nave Discovery en su viaje a Júpiter. Un conjunto (aunque, no uno sólo) de superordenadores de los de hoy, treinta años después, podrían realizar las funciones rutinarias de HAL, pero aún no se vislumbra con garantías que en el próximo futuro ninguna máquina u ordenador disponga, por sí solo, de las capacidades que aún hoy hacen que HAL resulte una máquina fascinante: con curiosidad, capacidad de aprender y de poseer sentimientos. La ciencia de la Inteligencia Artificial (AI) lleva cinco décadas trabajando para obtener algo artificial con inteligencia superior, pero hasta ahora a lo máximo que hemos llegado es al DeepBlue campeón de ajedrez o a los superordenadores Mountain Blue que llegan a procesar 35 terabytes (35 billones de instrucciones) en un segundo, pero que son incapaces de contarnos un mal chiste.

El hardware neural aprende con inteligencia digital.
La AI, desde hace cincuenta años, lucha en el intento de superar uno de los sueños del hombre: conseguir que una máquina piense y aprenda. Pero, ¿qué ocurre exactamente en su cerebro, cuando un humano piensa?. ¿Cómo el cerebro engendra la mente?.
Alan Turing decía que la habilidad en el lenguaje y el sentido común son la esencia de la inteligencia. Por tanto, una máquina inteligente debe, como mínimo, poder escuchar con conocimiento, comprender y “hablar”. Las tecnologías digitales desarrolladas en el campo de la inteligencia artificial que intentan ser capaces de emular al entendimiento humano, persiguen dominar la comprensión del lenguaje natural y los parámetros del sentido común. Actualmente, ya se han conseguido algunos avances, pero para algunos, la solución está muy lejos y para otros es imposible. Una máquina con una inteligencia de cualidad humana, ¿se conseguirá con el tiempo?, o, ¿es un problema sin solución?. Con el personaje de HAL, Clarke y Kubrick, sin complejos, nos colocaron el problema sobre la mesa hace ya treinta años. Y en este momento del umbral del milenio el asunto sigue navegando el mar de las dudas. 

Actualmente el principal conjunto de esfuerzos de investigadores de la Inteligencia Artificial (AI) para conseguir la máquina inteligente, se agrupan básicamente alrededor de dos grupos. Al enfoque de la AI basado en el modelo a base de inmensos programas de software (integrados en complejísimas y enormes bases de datos de heurística y sentido común, en forma de millones de líneas de código), se denomina modelo descendente. Es la línea de los fundadores de la AI. Enfrentado a él, existe el modelo de enfoque ascendente que, basado en criterios tomados de sistemas simples existentes en la biología y su evolución, avanza sobre el desarrollo de los mecanismos de redes neurales a base de hardware y elementos electrónicos interconectados.
Las diferentes líneas de investigación de modelo ascendente comparten una característica: orientan a las máquinas para que aprendan desde cero, al modo de los organismos biológicos. Como un bebé recién nacido, aprenden de su propia experiencia. La filosofía de éste modelo esta clara: el aprendizaje lo es todo; la lógica y la programación no sirven. Primero se crea una máquina que pueda aprender y, después, esa máquina ha de aprender por sí misma las leyes de la lógica y de la física en el mundo real a base de avanzar con ensayos, aciertos y superación de errores. En esta línea, se han desarrollado robots autónomos de pequeño tamaño, que no poseen sentido común, pero que son muy eficientes para aprender en entornos limitados, como el insectoide Attila, creado por Roodney Brooks en el Laboratorio de Inteligencia Artificial del MIT (Massachusetts Institute of Technology). Cada vez que se le activa, Attila, una especie de gran araña mecánica de 1,5 Kg. de peso hecha con diez minúsculos ordenadores y 150 sensores, empieza a agitar sus seis patas torpemente y después de una serie tediosa de torpes gestos va mejorando hasta que consigue aprender a andar desde cero y, moviéndose a 3 Km. por hora, consigue desplazarse por toda la habitación evitando obstáculos. Funciona sin programa y sólo necesita un sencillo sistema de retroalimentación para avanzar y aprender, al contrario que los grandes androides que para realizar pequeños y torpes movimientos necesitan una enorme cantidad de software informático preprogramado. Attila sirvió de modelo para el minirrobot Sojourner que nos proporcionó, funcionando autónomamente por la superficie de Marte, las mejores imágenes en primer plano del suelo marciano que habíamos contemplado jamás. Siguiendo el criterio ascendente, Books también ha diseñado su primer  humanoide: Cog. Su cerebro está constituido por ocho procesadores Motorola 68332 (la misma serie de los primitivos Apple) de 32 bits a 16 MHz, modificados para formar una red neural, construida siguiendo el modelo de conexión de las neuronas de nuestro cerebro. Cuando esté terminado se le habrán incluido 239 microprocesadores y estará dotado de una considerable capacidad intelectual. Como no esta diseñado como una máquina de Turing en el sentido habitual, Cog, no está programado y como en todas las máquinas ascendentes, aprende de forma equivalente a como lo hace un niño en el mundo real.

El ordenador no aprende. El software sí.
Pero, ¿Qué entendemos por ordenador?. ¿Podemos seguir llamando ordenador a esa caja y ese monitor que tenemos sobre la mesa cuando en su disco duro no hay instalado ningún sistema operativo?. 
¿Cómo podríamos denominar, desde el punto de vista de la inteligencia superior, a un ser humano si lo contiene un cuerpo cuyo cerebro se encuentra en estado de coma?.

La linea de enfoque ascendente en la investigación de la AI tiene uno de sus mayores defensores en Douglas Lenat, investigador en inteligencia artificial, que lleva trabajando desde los años setenta en una línea de investigación muy interesante que persigue como fin, conseguir que los programas de ordenador entiendan y aprendan por medio de un sotware de “sentido común”. Según Lenat, el quid de la cuestión, lo que puede diferenciar el HAL de 2001 de los ordenadores que usamos actualmente, no es sólo un programa informático mucho más sofisticado. La clave es el entendimiento; la totalidad de conceptos, sentido común y los conocimientos que compartimos y poseemos los humanos como especie: una enorme base de conocimientos, archivos con normas y heurística, sobre el mundo en que vivimos y que conocemos.

Hoy, la única base de datos y conocimientos de sentido común importante que existe en el mundo se llama “Cyc”. Es el más avanzado desarrollo de los realizados por la empresa de Lenat y se encuentra en Austin, Texas, en EE.UU. Douglas Lenat y su equipo de científicos y desarrolladores llevan trabajando en este banco de conocimientos casi quince años. Ahora contiene más de dos millones de afirmaciones acumuladas en forma de bits, estructuradas y ordenadas mediante una ontología bastante complicada. En estos momentos Cyc, está logrando avanzar en el entendimiento del lenguaje natural. Puede ya entender significados de sentido común contenidos en el texto escrito. 

Lenac está convencido que este es uno de los mejores caminos para llegar a la máquina inteligente. y afirma: “Cyc tiene conciencia de sí mismo. Si le preguntan lo que es, él sabe que es un programa de ordenador. Si se le pregunta quienes somos, él sabe que somos los usuarios. Sabe que está funcionando sobre un ordenador, en un cierto lugar y en un determinado tiempo. Sabe quién se está comunicando con él, quién le está hablando. Reconoce que una conversación o una aplicación informática está sucediendo o funcionando. Posee el mismo conocimiento y sentido del tiempo que Vd. y yo. Es mucho más que programar un ordenador para que diga: -yo soy un ordenador-. Cyc sabe lo que es un ordenador y puede utilizar este conocimiento para responder preguntas sobre sí mismo. De una forma en cierto modo similar a una persona puede realizar una cadena de razonamientos. Pero Cyc no puede aprender por sí mismo. Todas las estructuras de lenguaje heurístico han sido introducidas por los programadores u “ontologizadores”-como los denomina Lenat- , del equipo de desarrollo que ha creado Cyc”.

Pero el más ambicioso sueño de Douglas Lenat es crear un programa de ordenador al que enseñar a que aprenda por sí mismo. En su tesis doctoral desarrolló un programa denominado AM-Matemático Automático, diseñado para encontrar patrones matemáticos. A lo largo de varios centenares de ciclos de funcionamiento, el programa descubría la suma, multiplicación e incluso los números primos. Pero ocurrió con este software algo imprevisto. El programa, se detenía bruscamente tras funcionar unas cuantas horas. La causa: AM aprendió a hacerse modificaciones a sí mismo, guardando mutaciones que le resultaban interesantes. De un modo invariable, algo importante en el programa se modificaba fuera de lo que era su existencia inicial. Esto le hizo pensar a Lenac que para avanzar en el aprendizaje intelectual había que tener en cuenta más factores que los de aprendizaje sobre acierto, o error.

En el caso del proyecto de Cyc, pensado para un campo diferente al de las matemáticas abstractas, también le ocurrió una dificultad, en cierto modo, semejante al de AM: el sistema Cyc no podía aprender sobre el mundo en general porque había demasiadas cosas y conceptos que no sabía y con los que no podía establecer conexiones. Lenac, entonces propuso la idea de “priming the pump”(2), para que Cyc obtuviera un entendimiento más integral del mundo y pensó que cuando el marco conceptual fuera lo suficientemente grande, el sistema podría empezar a ir aprendiendo por sí mismo, por ejemplo, leyendo y conversando. En 1983, Lenac calculaba que costaría al equipo unos diez años conseguir una evolución de Cyc de tal grado, que fuera capaz de aprender inglés por sí mismo, sin ninguna supervisión exterior. Hoy, Lenac piensa que le gustaría conseguirlo hacia al 2.001. Es optimista y afirma: “estamos al final de la curva, si todo es correcto para el 2.001, el programa Cyc comenzará a ser un miembro creativo completo de un conjunto que inicia una secuencia de nuevos descubrimientos. Sorprendentes descubrimientos. Fuera de las cajas”.

La comprensión y el entendimiento son las claves del esfuerzo de los investigadores del campo de la inteligencia artificial para conseguir la máquina inteligente. 

Son las cuestiones que en mayor grado escapan aún a la ciencia y la tecnología. Tienen que ver con la definición del verdadero entendimiento como mecanismo, si es que se consigue aislar como tal. Para ello, se calcula ahora, van a necesitarse de diez a treinta años más. 

Háblame, te escucho. Ordéname, obedezco. Díctame, escribo.
Cualquiera puede oir hoy la “conversación” que se establece entre dos faxes o dos modems cuando inician la mutua conexión, cuyo sonido se interrumpe una vez se han “enganchado” mutuamente en línea. Cualquiera podría pensar que esa serie de berridos rrrbipbiiip, es una comunicación entre dos máquinas dotadas con una mínima inteligencia, cuando no es más que un intercambio de secuencias de órdenes y protocolos de comunicación preprogramados. Cuando hablamos por teléfono ya no somos prácticamente conscientes de lo que hace con nuestra voz la tecnología: deconstruye nuestras palabras y nuestro timbre de voz en tiempo real y la reconstruye en el altavoz del teléfono del otro lado. Lo que hay en medio sólo son bits en movimiento, ceros y unos, por llamarlos de alguna manera, que además alimentan unos ábacos digitales que, vibrando locamente, succionan con afán nuestra cuenta bancaria. 

En 2001, Dave Bowman y Frank Poole hablan: HAL escucha a través de sus micrófonos y comprende. Piensa, toma decisiones y ordena. Los mecanismos de la nave se mueven y actúan. El reconocimiento de voz es una de la capacidades del HAL de la película que más cerca estamos de conseguir, treinta años después, en ordenadores pequeños y personales, tanto en el sentido texto-al-habla (sintetizadores de voz) como en el de voz-a-texto (reconocimiento del habla).

En cuanto a que el ordenador “escuche” las palabras y las escriba desde el reconocimiento de voz, es un problema más complicado, pero resuelto. Hace ya más de seis años que dos empresas del área de Boston en EE.UU., Dragon Systems y Kurtzweil Applied Inteligence han vendido programas que permiten dirigir mediante voz las funciones de un ordenador personal. Hoy en día, pueden reconocer más de 80.000 palabras y son de grandísima ayuda para discapacitados físicos. Pero, no lo hacen como HAL. El usuario aún debe hacer pausas entre palabras para que la máquina las procese como una unidad y las pueda comparar en un diccionario fonético, creando una secuencia de aciertos y errores. Un base de conocimiento elemental de gramática colabora y ayuda a estos programas a elegir el término acertado y resolver la diferencia entre verdadero y falso. Los laboratorios de Kurtwzell ya han desarrollado un programa que puede reconocer más de mil comandos (órdenes de acciones concretas) diferentes, utilizadas por el conocido programa de procesado de textos Microsoft Word. Según su fabricante, el usuario puede ordenar al programa, a través del micrófono: “Ve al párrafo cuarto de la página siguiente y subraya todas las palabras de la siguiente frase: ...”, !Lo hace sin que tengamos que tratarle de Vd., ... pero, con pausas entre palabras. Para hablarle fluidamente aún tendremos que esperar, parece, otros tres años. Sobre cuando el ordenador leerá los labios del usuario como hacia HAL gracias a la imaginación de Kubrick hace treinta años, hoy, tres décadas después, es un tema aún en discusión. De esto, por ahora, ni hablamos.

Sentir no es imposible para una máquina
HAL dice durante su desconexión: “...Tengo miedo. Mi mente se va. Lo puedo sentir...”. ¿Pueden sentir las máquinas?.
 Según Michio Kaku, profesor de física teórica del City College de la Universidad de New York es razonable que, sobre el 2050, existan robots capaces de relacionarse con humanos de forma inteligente, dotados de emociones primitivas, reconocimiento del lenguaje y sentido común y que, además, deberán comprender y hacer frente a las emociones de sus “jefe” o “clientes” humanos. Una de las finalidades de nuestras emociones, desde una visión evolutiva es mejorar nuestra capacidad de supervivencia. Desde el punto de vista de la AI, intentar la reproducción de emociones en un robot, es difícil pero no imposible. Esto se resuelve “centrando” ciertas formas de comportamiento y censurando. Un “centrador” es, por ejemplo, una emoción como “gustar”. Si digo: “me gustan las naranjas”, esta expresión elimina un universo infinito de posibilidades, dejando como posibles unas pocas. Así, según M. Kaku, centramos la atención en unas pocas posibilidades que son buenas para nosotros y ello mejora nuestra capacidad de supervivencia. Otros centradores son por ejemplo: el “amor” que tiende a mejorar nuestra capacidad reproductiva, los “celos”, la “ira”, el “miedo” que son métodos de aviso, protección, etc. La “risa” sería del tipo de censura. “Centrar” en pocas alternativas nuestra conducta próxima, ayuda a descartar comportamientos peligrosos, censurados o prohibidos. Ello mejora nuestras posibilidades de superar con éxito las situaciones.

Programar un robot con emociones como las citadas es muy complicado, pero se puede conseguir. La metodología más adecuada es la consistente en programar procesos lógicos de “centrado”. Los programadores asignarían diferentes intensidades de “centrado”, o valores numéricos, a determinadas circunstancias peligrosas posibles. La máquina asignaría valores negativos al peligro y trataría, debido a ellos, de evitar las situaciones con esos valores de asignación. Por otra parte, es probable que dotar a las máquinas inteligentes de emociones básicas sea incluso una necesidad para que len su relación con los humanos se consiga un grado operativo aceptable.

Epílogo.
Pensar no es aún algo digital.
Después de cincuenta años de investigación, la inteligencia artificial persigue aún la manera de definir como funciona en nuestra cabeza el imaginarnos la forma de construir cualquier mecanismo. Tampoco podemos programar aún ordenadores con capacidades inteligentes autónomas, por la sencilla razón de que aún no hemos averiguado claramente el funcionamiento de nuestra propia inteligencia para programar los actuales, que funcionan cumpliendo secuencias de instrucciones decididas de antemano.

El científico cuántico John Hopfield ha contribuido hace pocos años a animar la línea de investigación ascendente aplicando los conceptos de la física del estado sólido al análisis del funcionamiento del cerebro humano. En su ensayo de 1982, “ Redes neurales y sistemas físicos con capacidades computacionales colectivas emergentes”, propone el siguiente funcionamiento de nuestro cerebro: “Del mismo modo que un sólido cuántico minimiza su anergía (los átomos, en un sólido, se organizan de manera que su energía se reduzca al mínimo), un circuito de redes neurales debe también minimizar su “energía”. Todas las neuronas del cerebro se activan de tal manera que se minimice la “energía” de la red. El aprendizaje es, para nuestro cerebro, el proceso de encontrar la mínima energía en sus circuitos y redes neurales. Al igual que el matemático Alan Turing captó la esencia conceptual de la máquina calculadora universal, Hopfield sintetizó de ésta manera, una de las leyes universales que explican las redes neurales. Esta propuesta revolucionaria ha relanzado de nuevo la línea de enfoque ascendente en la Inteligencia Artificial. Si embargo, aún no hay nada definitivo en la AI que se decante por alguna de los modelos enfrentados.

Hace décadas, los científicos pensaban que no podían construir máquinas inteligentes porque el hardware de que disponían no tenía la potencia, la velocidad y la capacidad de cálculo que creían necesaria para ello. Hoy, disponemos de esa potencia y velocidad de cálculo que ellos solicitaban. Y de un software infinitamente más potente. Sin embargo, parece que para hacerlo realidad, necesitaríamos un grado de comprensión de la esencia y del funcionamiento de la conciencia humana que aún no poseemos. En realidad, casi al final del siglo XX aún no sabemos realmente lo que significa, dentro del cerebro, pensar.
 Según S. Garfinkel es seguro que tarde o temprano construiremos ordenadores con inteligencia superior que puedan pensar y aprender por sí mismos, capaces de superar con soltura la célebre prueba de Turing. Es decir, que oculto su aspecto al espectador, su inteligencia no fuera diferenciable de la de un humano. Esa será seguro una tecnología que cumplirá la tercera ley (3) de Clarke: "Cualquier tecnología suficientemente avanzada es indistinguible de la magia."


(1) En los años siguientes a la realización de la película 2.001, comenzó a circular el rumor, probablemente interesado, de que el nombre de HAL era un juego de letras relacionado con el creador de los ordenadores IBM; el acrónimo parece formado por las tres letras anteriores en el alfabeto a las de la conocida marca. Artur C. Clarke negó enérgicamente éste rumor: el nombre no era un juego sobre IBM, eran la siglas que correspondían a las palabras Heurístico-ALgorítmico. En los años sesenta, herurísticos y algorítmicos eran dos sistemas propuestos controvertidamente y en competencia, para resolver el puzle de la AI (Inteligencia Artificial). Los heurísticos eran sistemas integrados por reglas de dígitos que un ordenador podría aplicar para resolver problemas. Los sistemas algorítmicos estaban compuestos de conjuntos de reglas directas denominadas algoritmos. Según Clarke, HAL utilizaba ambos.
_________________________________

(2) “Prim the pump”: literalmente, imprimar la bomba: “sangrar” una la máquina de bombeo: sacarle el aire inicial antes de llenarla de líquido para que pueda empezar a funcionar.
_________________________________

(3) LEYES DE ARTUR C. CLARKE
Primera Ley de Clarke:
"Cuando un distinguido científico de edad madura afirma que algo es posible,
es casi siempre correcto. Cuando afirma que algo es imposible, es muy
probable que esté equivocado."
Para Clarke 'edad madura' :"En física, matemáticas y astronaútica, significa mayor de treinta. En otras disciplinas, la decadencia senil la pospone a los cuarenta. Para él, por supuesto, existen gloriosas
excepciones y afirma: “ como cualquier investigador recién salido del colegio sabe,
los científicos de más de cincuenta son buenos para nada  salvo sesiones de pizarrón, y deben ser apartados del laboratorio a toda costa." 
Segunda Ley de Clarke:
"La única manera de descubrir los límites de lo posible es aventurándose un
poco hasta lo imposible."
Tercera Ley de Clarke:
"Cualquier tecnología suficientemente avanzada es indistinguible de la mágia."
...................................................................
Las leyes de Clarke, sólo son tres porque "Como tres leyes fueron suficientes para ambos Isaacs, Newton y Asimov, he decidido parar aquí":
Aunque luego, (en la más pura linea contradictoria de Clarke) aparecieron otras, como la:
 Ley de Clarke Nº 69:
"Leer manuales de computadora sin el hardware es tan frustrante como leer manuales de sexo sin el software."
 

FUENTES:
2001. Una Odisea Espacial. Novela de Artur C. Clarke.
2.001. Una Odisea Espacial. Película dirigida por Stanley Kubrick.1968.
Visions How Science Will Revolutionize. Libro de  Michio Kaku. 1998
2001 Toma Doble. Ensayo de Simson Garfinkel. 1997
El Legado de HAL. MIT
Perfiles del Futuro. Libro de Arthur C. Clarke.
“Redes neurales y sistemas físicos con capacidades computacionales colectivas emergentes”, ensayo de  John Hopfield.
Imágenes artículo


© Revista Contrastes
Página actualizada por Grupo mmm
Para cualquier cambio o sugerencia dirigirse a webmaster.
© 2000-2001