LA INTERNET COMO TELARAÑA: EL WORLD-WIDE WEB

(c) 1994
Jordi Adell <jordi@edu.uji.es>
Carles Bellver <bellverc@si.uji.es>
Universitat Jaume I. Castelló

version 0.2.2


CONTENIDO


INTRODUCCIÓN

A finales de la década de los ochenta la interconexión de miles de redes de área local había convertido la Internet en el mayor almacén de datos que jamás hubiese existido, pero también en el más caótico. Las posibilidades eran enormes, pero las dificultades resultaban frustrantes: formatos incompatibles, programas distintos, protocolos heterogéneos, etc. Se imponía pues la necesidad de simplificar el acceso a este caudal de información, hacerlo más sencillo y homogéneo. WAIS, desarrollado a partir de 1989 por un grupo de empresas [1] sólo fué una solución parcial: los datos debían indexarse con el nuevo software y distribuirse por medio de un nuevo protocolo, es decir, había que realizar un trabajo de adaptación de lo ya existente al nuevo sistema. El Gopher de la Universidad de Minnesota [2], ampliamente difundido desde 1991, aportó algo más: por medio de un sistema simple de ventanas (o de menús) se accede a todo tipo de archivos de texto, imágenes, bases de datos, etc., sin tener que preocuparse por su localización física en la red, el formato o el protocólo de recuperación: ftp y wais, por ejemplo, son protocolos que el gopher maneja desde el principio, además del suyo propio. Un interface unificado para el acceso a información distribuida: este ha sido el objetivo del gopher, y también el del Web. El proyecto World-Wide Web del CERN ha venido a suponer otra vuelta de tuerca en el intento de poner efectivamente al alcance de los usuarios el espacio virtual de conocimiento que es la Internet.

Hipertexto e hipermedia

La experiencia de la proliferación del conocimiento y de la angustia derivada de no poder abarcarlo todo no es nueva, no ha surgido con los ordernadores y la conectividad. Ya en 1945 Vannevar Bush (Bush, 1945) se lamentaba:
La suma de la experiencia humana se está expandiendo a un ritmo prodigioso y los medios que utilizamos para seguir el hilo a través del consiguiente laberinto de ítems momentáneamente importantes son los mismos que usábamos en los días de los barcos de vela. (Bush, 1945).
En su opinión el problema no era tanto una cantidad excesiva de publicaciones como el nulo avance de las tecnologías con que se gestionaba su manejo. Con los rudimentos tecnológicos de su época en mente, Bush fue capaz de idear un sistema llamado memex que permitiría archivar el conocimiento de un modo más eficaz: una especie de escritorio futurista en el que se guardarían, microfilmados, los libros, actas, ficheros, etc. Cada elemento de información se visualizaría en pantalla tecleando su código mnemotécnico correspondiente y, esto es lo más importante, podríamos registrar las conexiones observadas entre elementos distintos. Un usuario del memex que contase con una buena base de datos podría anotar conexiones entre, digamos, un artículo de enciclopedia sobre el escritor angloamericano H. Ph. Lovecraft, una fotografía suya y alguno de sus cuentos. Al leer el artículo, la simple pulsación de un boton le permitiría hojear "El horror de Dunwich" o visualizar la fotografía. Más tarde podría conectar con este conjunto la biografía de Lovecraft escrita por Pierre Bourbonnais.

Figura 1.-- Un link nos conduce a otros textos, imágenes, etc.

Bush remarcaba que este tipo de asociación no lineal de ideas era el modo de funcionamiento natural de la mente humana, y confiaba en que dispositivos semejantes al memex lo reproducirían en el futuro más adecuadamente. Es un hecho que los artículos de una enciclopedia, las notas al pie o las referencias bibliográficas contienen conexiones no lineales de aquel tipo, pero los medios tradicionales resultan inadecuados para gestionarlas. Cuando nos encontramos con una referencia bibliográfica que nos interesa, todo lo que podemos hacer es acudir a una biblioteca o una librería. Con el memex, idealmente, pulsaríamos un botón para consultar en nuestra pantalla el libro en cuestión. En el futuro, profetizaba Bush, las enciclopedias serían redes de conexiones que el usuario podría anotar y modificar a su antojo.

Bush era un visionario. En 1945 sus ideas no eran técnicamente realizables. Ni lo eran aún en 1965, cuando otro visionario, Ted Nelson, las ordenó conceptualmente. Fue Nelson quien acuñó el término `hipertexto' para referirse a "un cuerpo de material escrito o gráfico interconectado de un modo complejo que no se puede representar convenientemente sobre el papel; puede contener anotaciones, adiciones y notas de los estudiosos que lo examinan" (Nelson 1965). La idea es que el lector examina los nodos de una red, y pasa de unos a otros siguiendo las conexiones (links, en inglés). El hecho de que los nodos pueden contener texto, pero también pueden integrar otros medios: imagen, sonido, etc. es lo que se quiere remarcar con otro término complementario: `hipermedia'.

Durante las dos décadas siguientes se vivió el auge de los ordenadores, el almacenamiento digital y las redes. El propio Nelson cobró conciencia de lo apropiado de estas nuevas tecnologías para la realización del sueño de una red de elementos de información libremente accesible alrededor del mundo. Sin embargo, se diría que sus ideas sólo han llegado a concretarse recientemente con el World-Wide Web [3].

El proyecto World-Wide Web

En 1989 la red mundial de datos, el memex global, ya existía en potencia. La Internet, que se originó en el ámbito militar durante la guerra fría (Hardy 1993), se había desarrollado más allá de los propósitos originales como resultado de su uso por parte la comunidad científica internacional, que necesitaba nuevos sistemas de distribución de la información. Lo único que se requería, como decíamos al principio del artículo, eran vías de acceso sencillas y homogéneas. Este era uno de los objetivos que Tim Berners-Lee se planteó en 1989 cuando presentó a sus superiores del CERN la propuesta original para el proyecto World-Wide Web. Otro era la posibilidad de gestionar conexiones no lineales.

`World Wide-Web' (abreviado `Web'; escrito también `WWW' o incluso `W3') significa algo así como `red (o telaraña) global'. La propaganda oficial del CERN lo define como un "sistema hipermedia distribuido" (Boutell 1994). En principió se pensó como un medio para la distribución de la información entre equipos de investigadores geográficamente dispersos; concretamente se dirigía a la comunidad de físicos de altas energías vinculados al CERN (Berners-Lee 1994). En su primera propuesta, Berners-Lee exponía las desventajas del uso de sistemas incompatibles e inconexos:

"En el CERN, una diversidad de datos está ya disponible: informes, datos experimentales, datos personales, listas de direcciones de correo electrónico, documentación informática, documentación experimental y muchos otros conjuntos de datos están girando contínuamente en discos de ordenadores. Es sin embargo imposible 'saltar' de un conjunto a otro de una manera automática: una vez has encontrado que el nombre de Joe Bloggs se lista en una descripción incompleta de algun software en línea, no se encuentra directamente su dirección actual de correo electrónico. Usualmente, tendrás que utilizar un método de consulta distinto en un ordenador distinto con un interface distinto. Una vez has localizado la información, es difícil guardar sus conexiones o hacer una anotación privada que puedas después encontrar rápidamente."
La conclusión era que "hay un enorme beneficio potencial en la integración de una variedad de sistemas de un modo que permita a los usuarios seguir conexiones que apuntan de un elemento de información a otro".

Se pretendía pues que los recursos disponibles en formato electrónico, que residen en ordenadores distintos conectados a la red, fuesen accesibles para cada investigador desde su terminal, de un modo transparente y exento de dificultades, sin necesidad de aprender a utilizar varios programas distintos. Además, debería posibilitarse el salto entre elementos de información conexos. Los recursos existentes deberian integrarse en una red hipertextual distribuida gestionada por ordenadores.

Las primeras instalaciones del WWW para uso interno del CERN estuvieron listas en 1991. Ese mismo año el sistema se abrió ya a Internet. Desde entonces, para acceder al World-Wide Web no se requiere más que un terminal VT conectado a Internet, pero la máxima facilidad de uso y el máximo rendimiento se alcanzan con una pantalla gráfica (un modelo Next o Macintosh, un X-Terminal o un PC con tarjeta gráfica). Entonces el sistema nos ofrece hipertextos como el que muestra la figura 2, nodos de la telaraña global. Las palabras subrayadas, y las imágenes recuadradas, son links que nos conducen a otros nodos. Para viajar hasta ellos basta con situarse con el ratón sobre el link y pulsar el botón. El nodo de llegada puede ser otro hipertexto, o también un nodo no hipertextual integrado en la red: un servidor gopher, un grupo de netnews, una búsqueda en una base de datos WAIS, etc.

Figura 2.-- Pantalla típica del World-Wide Web

El éxito del WWW, el crecimiento de la telaraña, ha sido espectacular. Durante 1993 se pasó de 50 a 500 nodos. En 1994 se contabilizan ya miles de servidores en el WWW que distribuyen todo tipo de información (de ellos, trece en España [4]; el primero fue el del Departamento de Educación de la Universitat Jaume I, en septiembre de 1993).

Volver al Contenido


LA ARQUITECTURA DEL WORLD-WIDE WEB

El diseño del World-Wide Web sigue el modelo cliente-servidor: un paradigma de división del trabajo informático en el que las tareas se reparten entre un número de clientes que efectúan peticiones de servicios de acuerdo con un protocolo, y un número de servidores que las atienden (Malkin, 1993). En el Web, nuestras estaciones de trabajo son clientes que demandan hipertextos a los servidores. Para poner en marcha un sistema como como éste ha sido necesario:

a) Diseñar e implementar un nuevo protocolo que permitiera realizar saltos hipertextuales, esto es, de un nodo o lexia de origen a uno de destino, que podria ser un texto o parte de un texto, una imagen, un sonido, una animación, fragmento de vídeo, etc. Es decir, cualquier tipo de información en formato electrónico. Este protololo se denomina HTTP (HyperText Transfer Protocol) y es el "lenguaje" que "hablan" los servidores del WWW.

b) Inventar un lenguaje para representar hipertextos que incluyera información sobre la estructura y el formato de representación y, especialmente, indicar origen y destino de saltos hipertextuales. Este lenguaje es el HTML o (HyperTextex markup Language).

c) Idear una forma de codificar las instrucciones para los saltos hipertextuales de un objeto a otro de la Internet. Dada la variedad de protocolos, y por tanto, formas de almacenamiento y recuperación de la información, en uso en la Internet, esta información es vital para que los clientes (ver el siguiente punto) puedan acceder a dicha información.

d) Desarrollar aplicaciones cliente para todo tipo de plataforma y resolver el problema de cómo acceder a información que está almacenada y es accesible a través de protocolos diversos (FTP, NNTP, Gopher, HTTP, X.500, WAIS, etc.) y representar información multiformato (texto, gráficos, sonidos, fragmentos de vídeo, etc.). A este fin se han desarrollado diversos clientes, entre los que destaca la familia Mosaic, del NCSA (National Center for Supercomputer Applications) de la Universidad de Chicago, y su sucesor Netscape Navigator, de Netscape Communications Corporation.

Pero, veamos con cierto detenimiento los rasgos más sobresalientes de estos elementos clave del sistema.

HTTP: HyperText Transfer Protocol

El HTTP (HyperText Transfer Protocol) es el protocolo de alto nivel del World-Wide Web que rige el intercambio de mensajes entre clientes y servidores del Web. Un protocolo es:
"Una descripción formal de los formatos de los mensajes y las reglas que deben seguir dos ordenadores para intercambiar dichos mensajes. Los protocolos pueden describir detalles de bajo nivel de los interfaces de máquina a máquina (por ejemplo, el orden en el cual deben enviarse bits y bytes a través de un cable) o intercambios de alto nivel entre programas (por ejemplo, la forma en que dos programas transfieren un fichero a través de la Internet)." (Malkin y LaQuey Parker, 1993, pág. 39).
El HTTP es un protocolo genérico orientado a objetos que no mantiene la conexión entre transacciones (Berners-Lee, 1993d). Ha sido especialmente diseñado para atender las exigencias de un sistema hipermedia distribuido como es el World-Wide Web. Sus características principales son:
Ligereza: reduce la comunicación entre clientes y servidores a intercambios discretos, de modo que no sobrecarga la red y permite saltos hipertextuales rápidos.
Generalidad: puede utilizarse para transferir cualquier tipo de datos, según el estándar MIME [5]. Esto incluye también los que desarrollen en el futuro, ya que el cliente y el servidor pueden negociar en cualquier momento el modo de representación de los datos: el cliente notifica al servidor una lista de formatos que entiende, y en adelante el servidor sólo remitirá al cliente datos que este sea capaz de manejar. El cliente debe aceptar al menos dos formatos: text/plain (texto normal) y text/html (hipertexto codificado en HTML: el lenguaje en el que se escriben los hipertextos del Web --véase el apartado siguiente).
Extensibilidad: contempla distintos tipos de transacción entre clientes y servidores ("métodos", en la jerga HTTP), y la futura implementación de otros nuevos. Esto abre posibilidades más allá de la simple recuperación de objetos de la red: búsquedas, anotaciones, etc.
El esquema básico de cualquier transacción HTTP entre un cliente y un servidor es el siguiente (Berners-Lee, 1993):
Conexión:
El cliente establece una conexión con el servidor a través del puerto 80 (puerto estándar), u otro especificado.
Petición:
El cliente envía una petición al servidor.
Respuesta:
El servidor envía al cliente la respuesta (esto es, el objeco demandado o un código de error).
Cierre:
Ambas partes cierran la conexión.
La eficiencia del HTTP posibilita la transmisión de objetos multimedia y la realización de saltos hipertextuales con una rápidez razonable.

HTML: HyperText Markup Language

El HTML (HyperText Markup Language) es el lenguaje en el que se escriben los hipertextos del World-Wide Web. Cumple la norma SGML [6], y permite añadir a un documento de texto: Todo este "valor añadido" al texto se codifica como etiquetas ("tags", en la jerga) que se insertan en el propio texto. Un ejemplo nos permitirá hacernos una idea de todo ello:

Figura 3.-- Documento HTML

Las etiquetas del HTML se delimitan por medio de los signos < y >. Por ejemplo, la etiqueta <P> marca el inicio de cada párrafo. Otras, la mayor parte, van por parejas: <TITLE> y </TITLE> abren y cierran, respectivamente, el título del documento.

Los links se abren y cierran con las etiquetas <A> y </A>. El objeto de la red a donde nos lleva el link se codifica en la etiqueta de apertura por medio de una notación que se ha convertido de hecho en un estándar de Internet: los llamados URL.

URL: Uniform Resource Locator

Los URL (Uniform Resource Locator) son una notación estándar para la especificación de recursos presentes en Internet. Constituyen la piedra angular del Web, ya que hacen posible que un link de HTML se refiera a cualquier objeto de la red.

Un URL representa de un modo compacto la localización y el método de acceso de cualquier recurso de la red (Berners-Lee, Masinter y McCahill, 1994). No sólo hay más de dos millones de ordenadores conectados a los varios miles de redes que forman la Internet, sino que existen múltiples protocolos o formas diferentes de acceder a la información (ftp, gopher, http, etc.). Los URL aportan esos dos datos esenciales: dónde se encuentra un recurso y cómo se puede acceder a él.

La sintaxis de los URL es la siguiente:

URL:<esquema>:<parte-específica-del-esquema>
El esquema es un término convenido que representa el método de acceso a un recurso. La parte específica del esquema informa sobre su localización en la red, de un modo que depende de cada método de acceso. Un ejemplo nos ayudará a entender esto.

Cuando utilizamos ftp anónimo para copiar un fichero de un ordenador remoto a nuestro ordenador necesitamos saber lo siguiente: host o nombre del ordenador remoto donde se encuentra el fichero y path o via que conduce al fichero dentro de la estructura de ficheros del ordenador remoto. Supongamos que el fichero se llama README, y que está en el directorio pub del host ftp.uji.es; el URL de tal objeto sería éste:

Al recuperar un fichero mediante ftp anónimo usamos "anonymous" como nombre de usuario, y nuestra dirección de correo electrónico como password. En los URL esta información se omite dado que es conocida. Sin embargo, es posible incluirla si, por ejemplo, no se trata de ftp anónimo, sino que se necesita especificar un usuario real y su password. La sintaxis genérica de los URL para objetos accesibles por ftp es la siguiente:

URL:ftp://[user[:password]@]host[:port]/path[;type=<typdecode>]
El "port" puede omitirse si el servidor de ftp emplea el port estándar de ftp (el 21). Este principio de omitir lo ya conocido se sigue en todos los URL. Si los distintos servidores siguen las recomendaciones de la Internet no es necesario incluir información redundante.

El "path" es la lista ordenada de subdirectorios por los que hay que pasar para llegar al fichero, separados por "/", seguida del nombre del fichero.

El "type" es "d", "a", "i". "d" indica que se requiere la transmisión de una lista de nombres de ficheros (un directorio). "a" solicita una transmisión de líneas de texto. "i" solicita una transmisión binaria.

En la actualidad existen esquemas definidos para los siguientes servicios:

Esquema                                Sintaxis                                               
ftp (File Transfer Protocol)           ftp://user:password@host:port/path;type=<typecode>     
http (HyperText Transfer Protocol)     http://<host>:<port>/<path>?<searchpart>               
gopher (gopher)                        gopher://<host>:<port>/<gopher-path>                   
mailto (correo electrónico)            mailto:<rfc822-addr-spec>                              
news (USENET news)                     news:<newsgroup-name>                                  
nntp (USENET news especificando un     nntp://<host>:<port>/<newsgroup-name>/<article-number  
servidor nntp, NetNews Transfer        >                                                      
Protocol)                                                                                     
wais (Wide Area Information Server)    wais://<host>:<port>/<database> o                      
                                       wais://<host>:<port>/<database>?<search> o             
                                       wais://<host>:<port>/<database>/<wtype>/<wpath>        

Ejemplos

ftp://ftp.uji.es/pub/fichero.doc
http://www.uji.es
(URL de la página de entrada del servidor Web del Departamento de Educación de la Universitat Jaume I, en el host www.uji.es)
gopher://gopher.uji.es
(URL de la entrada del servidor gopher del "Servei d'Informació del Campus (sic) de la Universitat Jaume I")
mailto:jordi@edu.uji.es
(Este URL posibilita el envío de un mensaje de correo electrónico a la dirección jordi@edu.uji.es)
news:comp.infosystems.gopher
(URL del grupo de news comp.infosystems.gopher(
nntp://news.uji.es/comp.infosystems.gopher
(Este URL especifica el grupo de news comp.infosystems.gopher almacenado en el servidor news.uji.es)
wais://wais.uji.es/tractatus?ethics
(Este URL especifica la búsqueda del término "ethics" en la base de datos "tractatus" del servidor WAIS wais.uji.es)
La utilidad, y la necesidad, de una notación que, como ésta, introduzca algo de orden en el caos de la red es obvia. Los URL se idearon para un proyecto concreto y limitado, el del WWW, pero ha cundido el ejemplo. Ahora mismo se está produciendo un amplio debate en el seno de Internet, concretado en un grupo de trabajo de la IETF (Internet Engineering Task Force) para el desarrollo de sistemas universales de designación y caracterización de objetos persistentes de la red, inspirados en los URL pero que irían más allá: debería ser posible, por ejemplo, asignar un URN (Uniform Resource Name) invariable para un objeto, aunque cambiara su path e incluso su método de acceso [7]. Un sistema distribuido (similar al DNS o Domain Name System) resolveria un URN en uno o varios URL aplicando criterios de optimización de recursos (como proximidad al solicitante).

Volver al Contenido


EL INTERFACE DE USUARIO DEL WORLD-WIDE WEB

Dado que los nodos que forman el Web atienden peticiones en protocolos distintos, los programas cliente del Web (también llamados "Web browsers") deben ser lo más parecido a un cliente universal capaz de presentar al usuario cualquier recurso de la red, dado su URL. Actualmente existe un número de "web browsers" [8] para distintos sistemas y plataformas que satisfacen aquel requisito en mayor o menor medida. El más popular ha sido quizá el NCSA Mosaic, del National Center for Supercomputing Applications de la Universidad de Illinois, con versiones para X Window, Macintosh y MS Windows, sucedido recientemente por Netscape Navigator, de Netscape Communications Corporation. Una página típica del Web, vista con Netscape, tiene el aspecto que se aprecia en la figura 2. Los links se destacan en azul y se subrayan (o se recuadran, si son imágenes). Un clic con el ratón sobre el link produce un salto en el hiperespacio. Seguidamente examinaremos las características esenciales de un cliente Web a través de Netscape.

El cliente universal

Un cliente del Web debería ser capaz de gestionar cualquier URL. Netscape Navigator nos permite acceder a recursos de los tipos siguientes: ftp, gopher, news y, por supuesto, http. Cuando se accede con Netscape a un recurso que no es un hipertexto, el software lo presenta igualmente en formato hipertextual. Por ejemplo, un directorio gopher aparece com una lista de su contenido en la que cada entrada es un link. Un clic con el ratón sobre un elemento que representa un documento de texto hará que Netscape nos presente el contenido del documento. Un grupo de noticias de Usenet se presenta como una lista de las cabeceras de los mensajes; cada cabecera es un link que nos lleva al contenido del mensaje. Los mensajes se presentan como se ve en la figura siguiente:

Figura 4.-- Las news en el Web

En sus versiones actuales, Netscape y otros clientes del Web no entienden por sí mismos el protocolo WAIS. Es decir, no pueden consultar directamente bases de datos WAIS, sino sólo a través de pasarelas. Sin embargo, este procedimiento es transparente para el usuario. En la figura 5 se ve el resultado de la búsqueda del término "poetry" en la base de datos WAIS "Directory of Servers":

Figura 5.-- WAIS en el Web

Pasear por el hiperespacio

Un clic sobre un link nos lleva al nodo al que el link apunta. Netscape lleva un registro de nuestros pasos, de modo que en cualquier momento podemos movernos hacia atrás y hacia adelante por el sendero que habíamos seguido gracias a los botones "back" y "forward" de la parte superior de la ventana. El botón "home" nos permite volver al punto de partida original, la llamada "home page". "View History", en el menú "Go" nos permite saltar directamente a cualquier punto del sendero.

Una característica útil para desplazarnos a puntos arbitrarios de la red es la posibilidad de acceder directamente a una página dando su URL. Otra posibilidad aún más importante es la de mantener "bookmarks", listas personalizadas de páginas de nuestro interés, a las que podemos volver en cualquier momento.

Aplicaciones auxiliares

La información que se encuentra en el Web es accesible mediante protocolos distintos, como habíamos visto, pero los formatos de codificación también son diversos. Un cliente ideal del Web debería poder gestionar todos esos formatos actuales y futuros. Netscape soluciona este problema mediante aplicaciones auxiliares. Cuando el tipo MIME de un objeto no es uno de los que puede gestionar por sí mismo, consulta una tabla (que el usuario puede configurar) que le dice qué aplicación se encargará de él. Por ejemplo, una imagen en formato TIFF (tipo MIME image/tiff) puede visualizarse en un Macintosh mediante la aplicación JPEG View (u otra determinada por el usuario).

Volver al Contenido


LA INTERNET COMO TELARAÑA: EL WORLD-WIDE WEB

Al principio del artículo hemos presentado el World-Wide Web como un proyecto de integración de recursos de la red. Después hemos dicho que con el Web se cumplían los viejos anhelos de Vannevar Bush. Nos parece obvio que un sistema de acceso a la Internet debe ser hipermedia, porque la información no se ceñirá a un solo medio y porque ha de ser posible seguir las conexiones entre los elementos. Pero, ¿es el Web el sistema hipermedia perfecto? Es obvio que en algunos aspectos fundamentales dista de serlo. Sobre todo, en la posibilidad de personalizar las conexiones entre los elementos de información. Realizar anotaciones para comentar las páginas no es suficiente, y una adecuada personalización de páginas exige que escribamos nuestro propio código HTML, lo que no está (¿aún?) al alcance de todos [9].

El HTML, por su parte, también tiene puntos flacos. El hecho de que las marcas se integren en el propio texto dificulta el mantenimiento de éste. La modificación del texto hace necesario volver a aplicar las marcas.

También es arduo mantener los links, pero esto no es tanto un problema del HTML como del sistema de URL. Ya hemos dicho que se intenta superar los URL mediante la especificación de URN: nombres permanentes de objetos, independientes de sus localizaciones y métodos de acceso transitorios, que unos servidores de nombres resolverían en los URL correspondientes.

Finalmente, parece que no basta con el acceso hipermedia a la red. La Internet continua siendo un almacen caótico. Sólo hemos ordenado el interface de usuario, el acceso a los datos, pero estos continuan desordenados. Para solventar este desorden se requieren sistemas de indexación y catalogación que pueden estar basados en los actuales, como WAIS.

Volver al Contenido


REFERENCIAS

ADELL, J. y BELLVER, C. (1994). Hipermedia distribuido en el Mac: el proyecto World-Wide Web. Actas del I Congreso Universidad y Macintosh. UNED, Madrid, septiembre de 1994. También en el CD ROM Unimac'94, Depto. de Informática y Automética, Facultad de Ciencias, UNED. Madrid, 1994.

ANDREESSEN, M. (1993a). Getting Started with NCSA Mosaic. Software Development Group. National Center dor Supercomputing Applications, Champaing IL, May 8 1993.

ANDREESSEN, M. (1993b). NCSA Mosaic Technical Summary. Software Development Group. National Center dor Supercomputing Applications, Champaing IL, May 8 1993.

BALASUBRAMANIAN, V. (1994). Hypermedia Issues and Applications: A State-of-the-Art Review. Graduate School of Management, Rutgers University, Newark, New Jersey. Documento electrónico. E-mail: balasubr@andromeda.rutgers.edu

BERNERS-LEE, T. (1993a). The World-Wide Web Initiative. Documento Electrónico. <ftp://info.cer.ch/pub/www/doc/inet92.ps>

BERNERS-LEE, T. (1993b). Uniform Resource Locators (URL). A Unifying Syntax for the Expression of Names and Addresses of Objects on the Network, Internet Draft, IETF URL Working Group. Octubre 1993. <ftp://info.cern.ch/pub/www/doc/url7a.ps.Z>

BERNERS-LEE, T. (1993c). HTTP: A protocol for networked information. Documento hipertexto. <http://info.cern.ch/hypertext/WWW/MarkUp/HTTP.html>

BERNERS-LEE, T. (1993d). Hypertext Transfer Protocol: A Stateless Search, Retrieve and manipulation protocol.. Internet Draft. Documento electrónico <ftp://nic.switch.ch/mirror/internet-draft/draft-ietf-iiir-http-00.ps>

BERNERS-LEE, T. y CONOLLY, D. (1993). Hypertext Markup Language (HTML): A Representation of Textual Information and MetaInformation for Retrieval and Interchange, Internet Draft, IIIR Working Group, June 1993. <http://info.cern.ch/hypertext/WWW/MarkUp/HTML.html> o <ftp://info.cern.ch/pub/www/doc/html-spec.ps.Z>

BERNERS-LEE, T., CAILLAU, R., GROFF, J-F., POLLERMAN, B. (1992a). World-Wide Web: An Information Insfrastructure for High-Energy Physics, Presented al "Software Engineering, Artificial Inteligence and Expert Systems for High Energy and Nuclear Physics", at Londe-les-Maures, January 1992.

BERNERS-LEE, T., CAILLAU, R., GROFF, J-F., POLLERMAN, B. (1992b). World-Wide Web: The Information Universe, Electronic Networking: Research, Applications and Policy, Vol 1, No 2, Meckler, Westport CT, Spring 1992.

BOUTELL, Th. (1994). Frequently asked questions about World-Wide Web. Documento electrónico. <ftp://rtf.mit.edu/usenet/news.answers/www-faq>

BUSH, V. (1945). "As We May Think", Atlantic Montly, 176/1, July, pp. 101-108. Puede verse una traducción al castellado de parte de este texto en LAMBERT, S. y ROPIEQUET, S. (Eds.) (1987). CD ROM. El nuevo papiro. Madrid: Anaya-Multimedia, pp. 3-21.

HARDY, H. E. (1993). The History of the Net. Master's Thesis. School of Communications. Grand Valley State University. Allendale, MI 49401. v 8.5. September 28, 1993.

KALHE, B (1989). Wide Area Information Servers Concepts. Thinking Machines. Documento electrónico. <ftp://ftp.wais.com//pub/wais-inc-doc/wais-concepts.txt>

LINDNER, P. (1994). Frequently asked questions about Gopher. Documento electrónico. <ftp://rtf.mit.edu/usenet/news.answers/gopher-faq>

NELSON, T. H. (1965). A File Structure for the Complex, The Changing and The Indeterminate. ACM 20th National Conference. 1965.

NELSON, T.H. (1981). Literary Machines, publicado por el autor.

RAGGETT, D. (1993). HTML+ (Hypertext markup format). Internet Draft <ftp://nic.switch.ch/pub/mirror/internet-drafts/draft-raggett-www-html-00.ps&t;

WEIDER, C. y DEUTSCH, P. (1994). Uniform Resource Names. Internet Draft. IRTF. URI Working Group.<URL:ftp//ftp.isi.edu/internet-drafts/draft-ietf-uri-resource-names-02.xt>. Borrador de trabajo.

Volver al Contenido


Volver al Sumario