lunes, 27 de agosto de 2007

WWW

Cuando comenzamos este recorrido cronológico por el término hipertexto, ya advertimos que nos moveríamos en un terreno movedizo, el terreno propio de una noción vinculada a un determinado desarrollo tecnológico en constante evolución, que pretende ser atrapada en los límites de un término acuñado en los años sesenta. A lo largo de estas páginas nos ha interesado analizar el porqué del éxito del término hasta nuestros días y, después de nuestras investigaciones, podemos concluir que este éxito tiene que ver con su capacidad para hacer cristalizar en él un viejo anhelo del pensamiento científico secularizado, un anhelo que atraviesa transversalmente toda disciplina académica basada en la optimización de una racionalización finalista: el de alcanzar un sistema de gestión de la información que facilitara al máximo la exploración del universo textual y el intercambio de documentos entre los seres humanos. Así mismo, no podemos dejar de advertir cómo buena parte del material bibliográfico que ha asumido su estudio (sobre todo aquel que, como nosotros, se ha interesado por las implicaciones literarias que despertaba), ha limitado la percepción del hipertexto al plano de su novedosa gestión de la información y su sistema de exploración del documento, dejando de lado esa otra parcela que tiene que ver con el libre intercambio de información. Esta tendencia se ve claramente ilustrada en el trabajo de recopilación de definiciones de hipertexto que ofrece la profesora Adelaide Bianchini de la Universidad Simón Bolívar de Venezuela, dónde observamos que casi todas las definiciones posteriores a los pioneros Vannevar Bush y Ted Nelson, hacen hincapié en los modelos de disposición y exploración de los documentos pero no en su capacidad comunicadora. Solo la definición de Janet Fiderio[1], directora de publicaciones del Antioch New England Institute, (incluir referencia) interesada en los sistemas de investigación y trabajo colaborativo, incorpora en su definición de hipertexto esa faceta comunicativa con la que soñaron sus predecesores. Es cierto que las innovaciones en la estructura del texto, con la ruptura de la linealidad, con la posibilidad de realizar un recorrido ergódico por la obra literaria… son nociones tan atractivas que por sí mismas justifican el interés de buena parte de la crítica, pero también creemos que en el olvido del componente comunicativo del hipertexto ha influido indebidamente una determinada versión del hipertexto que atendía quizás más a sus posibilidades comerciales que a la idea originaria de sus fundadores. Nos referimos por supuesto a los sistemas pre-web, de los que hablamos en capítulos anteriores. Sistemas que producían objetos electrónicos aislados, incomunicados con el resto del mundo, concebidos como obras finitas en las que el lector tiene un papel muy activo en su recepción, pero que se agota en cuanto ha terminado de explorar la totalidad de las lexías. Obras en definitiva, que hacen alarde de un soporte tecnológico avanzadísimo, en el que pueden desarrollarse con facilidad organizaciones complejas del material literario, pero que como tales, no incorporan ninguna novedad que no apareciera ya antes en Borges o en los libros juveniles de “elige tu propia aventura”.

El rápido e incontrolable desarrollo de la Web, quizás lo polémico de sus contenidos, el desastre financiero de las famosas “punto com”, su temprana y pingüe aplicación comercial… son quizás elementos que han mantenido a los sectores más conservadores de la crítica escépticos ante el valor de la profunda intrusión de la Red en nuestras sociedades. Al fin y al cabo se trata de una tecnología muy reciente (desarrollada mayormente durante los años noventa) y los recelos y precauciones ante cualquier invento novedoso son totalmente razonables en el mundo plagado de falsas necesidades en el que vivimos. Pero los años pasan y el argumento de la “tecnología en pañales” se agota. Llegados a este punto de la historia y de mi trabajo, me veo en la obligación de posicionarme con respecto a esta cuestión, sobre todo teniendo en cuenta los últimos avances en la Web con sus sugerentes aplicaciones literarias, y debo decir que la Web, por su explotación inteligente del recurso Internet, me parece no solo el sistema más interesante de publicación de hipertexto, sino además, la razón misma por la que hoy estamos hablando de ese mismo concepto.

Para ilustrar esta postura nos centraremos en dos momentos que consideramos clave para cifrar el verdadero valor de la Web: sus orígenes y desarrollo, que nos revelarán el propósito primero de la Web, su filosofía inicial y la manera en que estos principios han reaccionado a la evolución social y tecnológica del medio; y su redescubrimiento en el nuevo milenio, que nos conduce a la reflexión de la crucial importancia que el hipertexto está teniendo y sin duda tendrá en los estudios literarios.

Orígenes y desarrollo

Hablar de los orígenes de la Web es hablar inevitablemente del CERN (Conseil Européenne pour la Recherche Nucléaire), un laboratorio creado en 1954 al noroeste de Ginebra, cerca de la frontera entre Suiza y Francia, por doce países europeos para la investigación nuclear. Se trata de uno de los laboratorios más importantes del mundo, y su cometido, tal y como se expresa en la página oficial del CERN, es muy sencillo: estudiar la construcción de los bloques de materia y las fuerzas que los mantienen unidos. Ciertamente una de las más ancestrales preocupaciones de la ciencia, desde que el mismísimo Demócrito de Abderea desarrollara sus teorías acerca del átomo al comprobar que cualquier piedra al ser golpeada insistentemente con un martillo, se dividía en partículas cada vez más pequeñas sin perder un ápice de su masa. El CERN ha sustituido el martillo por una herramienta algo más grande e infinitamente más complicada: el acelerador de partículas. Hasta el año 2000 el CERN contaba con, la máquina más grande construida por el ser humano, el LEP, un acelerador de partículas de veintisiete kilómetros de longitud circular instalado a cien metros bajo tierra. Para principios de 2008 está prevista la inauguración de un acelerador de partículas aún mayor y más potente dónde podrán realizarse experimentos a velocidades relativistas y poner en práctica muchas de las teorías sobre la materia que hasta ahora solo se han comprobado en el papel. Me interesa transmitir la idea de enormidad de este centro de investigaciones porque serán precisamente sus dimensiones las que harán posible el desarrollo en su seno del invento que nos ocupa.

Y es que el CERN, además de un próspero centro de investigación, es un monstruo ingente. Actualmente cuenta con veinte países miembros para su mantenimiento y financiación, y otros veintiocho países no miembros participan en él con científicos de más de doscientos institutos y universidades. Tres mil empleados trabajan en el CERN a jornada completa, y alrededor de seis mil quinientos científicos e ingenieros, representantes de quinientas universidades y ochenta nacionalidades, lo que supone la mitad de los físicos prácticos de todo el mundo, utilizan sus instalaciones para sus investigaciones. Semejantes dimensiones junto con el uso indispensable del ordenador como herramienta de trabajo, han hecho que el CERN sea históricamente (y continúe siéndolo en la actualidad) la mayor Red de Área Amplia de ordenadores del mundo.

En 1980 el CERN ofrece contratos a jóvenes investigadores para colaborar en el proceso de sustitución del sistema de control de dos de sus aceleradores de partículas, y así es como el joven ingeniero informático Tim Berners Lee entra en contacto por primera vez con este gigantesco laboratorio. Desde el primer momento Berners Lee quedó fascinado por la cantidad de información que se producía y se compartía en el CERN. Miles de investigadores de todo el mundo realizaban experimentos allí, para luego utilizar los datos obtenidos en proyectos de muy diversas instituciones, sin la necesidad de que el propio centro ejerciera una auténtica autoridad común. A Berners Lee le preocupaba que mucha de la información valiosa que se producía o con la que se especulaba en el centro, se perdiera en las libretas o la imaginación de muchos científicos que trabajaban temporalmente en el CERN, a los que era muy difícil seguir la pista. De hecho tenía serios problemas para localizar entre los más de diez mil colaboradores del centro, quién había programado tal o cuál fragmento de software cuando su trabajo lo requería. Así que diseñó un pequeño programa en lenguaje Pascal, el Enquire, en el que podían incorporarse páginas con la información referente a personas, programas o proyectos como en un archivador o una base de datos. Lo original del programa era que solo se podía generar una nueva página o “nodo” mediante la creación de un hipervínculo desde otra ya existente. El “link” quedaba registrado al final de cada página, como si de una referencia bibliográfica se tratara. La exploración del archivo no se realizaba con arreglo a un esquema determinado de orden alfabético, numérico o temático, sino saltando de un nodo a otro a través de sus vínculos de manera transversal, sin pasar por un centro o núcleo de información determinado. Naturalmente el Enquire funcionaba solo en el ordenador de desarrollo de software del grupo, y cuando terminó su periodo de trabajo, el disquete de doce pulgadas que lo contenía quedó prácticamente olvidado en algún cajón del departamento. Pero el germen de aquella idea persistiría en la mente de Berners Lee hasta convertirse en algo mucho más grande de lo que nunca hubiera podido imaginar.

En 1984, Tim Berners Lee regresa al CERN en calidad de becario para el departamento de “adquisición y control de datos”. El centro había crecido enormemente durante los cuatro años de su ausencia, se estaba construyendo el famoso LEP, y contaba con los últimos avances tecnológicos fruto de la explosión informática, aunque cada investigador usaba sus propios aparatos con los sistemas particulares del centro de investigación del que provinieran. El departamento para el que trabajaba Tim Berners Lee se encargaba de gestionar y facilitar la información entre todos los ordenadores y redes del centro, con lo que la utilidad de un programa del tipo Enquire se hacía cada vez más patente.

Durante algunos años Tim Berners Lee se centró en un tipo de software especializado en permitir que los documentos se puedan almacenar y más tarde se recuperen. De este modo entró en contacto con la novedosa Internet, que se estaba desarrollando en Estados Unidos y expandiendo a Gran Bretaña y el resto del mundo gracias a los satélites, facilitando la comunicación entre universidades y otras instituciones. La ventaja que ofrecía Internet para los sistemas de documentación era que establecía un protocolo universal el TCP/IP que garantiza que distintas redes físicas funcionen como una red lógica única. Mediante estos estándares convencionales los ordenadores pueden enviarse datos a través de distintos medios como líneas telefónicas, cable de televisión o satélites. El ordenador usa un software especial para descomponer los datos en paquetes conforme a los dos protocolos de Internet que controlan el modo en que los paquetes serán enviados: IP (Internet Protocol) y TCP (transmisión Control Protocol). El software etiqueta cada paquete con un número único y envía los paquetes a otro ordenador que usa el propio software de Internet para descifrarlos según las etiquetas. El problema de los estándares y protocolos comenzaba a ser de una importancia medular para el propósito de Tim Berners Lee, tanto más cuando el CERN no usaba los protocolos TCP/IP de Internet porque tenía su propia red inmensa con su propio sistema de correo electrónico, que era la aplicación más interesante que podía ofrecer Internet por aquellos tiempos.

Al mismo tiempo, Berners Lee estaba muy interesado en el hipertexto ya que éste encarnaba a la perfección el tipo de gestión del documento que él había previsto para su Enquire. Conoció los trabajos de Ted Nelson y el proyecto Xanadu y congenió inmediatamente con la idea de generar un espacio virtual en el que pudiera explorarse la totalidad de la documentación generada por la especie humana. De hecho su versión del hipervínculo estaba inspirada en una idea de Ted Nelson, que más tarde sería utilizada en el “Hipercard” de Apple Computer y otros sistemas pre-Web. Decidió que en su sistema, los hipervínculos serían palabras resaltadas de algún modo en el propio texto, y cada vez que el usuario clicara en una de estas palabras resaltadas, aparecería la información vinculada en su pantalla. Como el propio Berners Lee reconoce en numerosas ocasiones en su libro Tejiendo la Red, su mayor logro fue encontrarse en el lugar adecuado en el momento adecuado: Internet ya estaba consolidándose y el hipertexto disfrutaba de un cierto recorrido y aceptación; él solo tuvo que encontrar la manera de “hacer que casaran”.

Se había propuesto llegar al “hipertexto global”, pero para ello necesitaba que le aceptaran un proyecto de investigación en el CERN, y al ser éste un centro dedicado a la física, se hacía complicado conseguir financiación para un proyecto informático por más que estuviera encaminado a la gestión de la información del propio centro. Dos cosas fueron necesarias para llevar adelante el proyecto. La primera fue conseguir que el CERN comprara un NeXT, un nuevo ordenador personal creado por Steve Jobs, el fundador de Apple Computer, en el que Tim comenzó a programar su idea con la excusa de experimentar con el nuevo sistema operativo y el entorno altamente intuitivo del nuevo NeXT. Pero el paso decisivo resultó el apoyo de Robert Cailliau, un veterano programador del CERN que se mostró desde el principio muy entusiasta con las ideas de Berners Lee. Gracias a los contactos de Calliau, el CERN permitió definitivamente a Tim Berners Lee trabajar en su programa.

Buscando la forma definitiva de su programa, Berners Lee se acercó, naturalmente, al campo de investigación del hipertexto. En 1990, acude a la Conferencia Europea sobre Tecnología de Hipertextos (ECHT) en Versalles. Allí conoció Guide, el editor de hipertextos diseñado pro Peter Brown[2], y quedó impresionado por la manera en que habían resuelto la creación de hipervínculos y la navegación por el documento, tan similar a la que él mismo había imaginado para su propósito. Habló con los responsables del Guide y de otros interesantes proyectos sobre las posibilidades que ofrecería utilizar esas tecnologías a través de Internet, pero todos se mostraron escépticos ante su entusiasmo, en parte porque no era fácil hacerse una idea de sus propósitos sin una demostración práctica, en parte por los decepcionantes resultados comerciales de demasiadas iniciativas revolucionarias en los últimos años.

Por supuesto, también se interesó por los avances en materia de libros digitales, aunque al parecer, Tim Berners Lee desconocía por aquella época el Proyecto Gutenberg de Michael Hart, que proponía una interesante fusión de Internet con la letra digital. Se dirigió a la compañía Electronic Book Technology, pero estos tampoco fueron capaces de imaginar sus propósitos. La mayoría de técnicos, concebían los libros digitales como si de programas informáticos se tratara, es decir: como documentos compilados en un lenguaje de programación apto para ser decodificado y mostrado de forma eficaz por un software determinado. Pero Tim Berners Lee estaba pensando en un documento cuyo lenguaje cifrado original se enviara directamente por Internet y fuera el ordenador receptor el encargado de decodificarlo y mostrarlo en su formato definitivo. Esta perspectiva suponía la ausencia de cualquier tipo de “centro” en el sistema, la ausencia de una base de datos central en la que almacenar la información y gestionar los vínculos. Pero al parecer los del EBT no compartían esta filosofía, no comulgaban con el novedoso modo de pensar en rizoma (incluir aquí algún dato sobre el rizoma, sobre Guatari??).

Finalmente Tim Berners Lee se decidió a llevar a cabo con sus propios medios la programación de su proyecto, al que decidió llamar World Wide Web (pese a la complicada pronunciación de sus siglas), nombre que en español se traduce con cierta dificultad[3]. Sus medios consistían en el modernísimo NeXT a través del cual pudo programar un procesador de texto apto para sus propósitos. Luego ideó un sistema que permitía al programa diferenciar el texto que fuese vínculo del que no lo fuese y en este entorno redactó el código para el Protocolo de Transferencia de Hipertexto (Hypertext Transfer Protocol, HTTP), el lenguaje que los ordenadores usarían para comunicarse por Internet, y el Identificador de Recursos Universal (URI), el esquema para direcciones de documentos. Desde ese momento quedó establecido el modelo de dirección Web, el denominado URI o URL de una página Web que empieza por “http://”. Ese mismo año terminó de programar el Lenguaje Markup de Hipertexto (HTML), que describía cómo formatear páginas que contengan vínculos de hipertexto. Se trata del lenguaje de programación en el que están escritas todas las páginas Web de Internet, el preciado código que tantos beneficios ha reportado y sigue reportando a sus depositarios (posibilidad de alargar este argumento).

Definitivamente escribió el primer servidor del Web: el software que contiene páginas web en una parte de un ordenador y permite a otros acceder a ellas. Registró un nombre para él en la red de ordenadores del CERN, “info.cern.ch”, de manera que el servidor no estuviera atado por su dirección al NeXT, y podía trasladar toda la información que quisiera con sus hipervínculos a cualquier otro aparato sin causar ninguna modificación.

Toda la arquitectura básica de la World Wide Web estaba diseñada, pero solo funcionaba en la plataforma del NeXT y en la red, grande pero restringida, del CERN. El siguiente paso era mejorar el navegador y conseguir que siguiera vínculos no solo de servidores http, sino también de los incipientes artículos de noticias y grupos de noticias de Internet, que utilizaban un protocolo llamado FTP (File Transfer Protocol). Una vez hecho esto, gran cantidad de información ya existente en Internet pasó a estar disponible en el Web. Así mismo trabajaron profundamente en la estandarización del código de programación para que pudiese ser compatible con el mayor número de documentos sin importar el tipo de ordenadores donde estuvieran almacenados. El punto realmente interesante del Web sería que dos grupos pudieran utilizar el Web de manera totalmente independiente en instituciones distintas, y que una persona de un grupo pudiera crear un vínculo a un documento del otro sin tener que fusionar las dos bases de datos del documento o ni siquiera tener acceso al otro sistema.

Berners Lee era consciente de que su proyecto de Web global, excedía los términos del CERN sin ser de una utilidad inmediata para el mismo. Pero las perspectivas que Berners Lee vislumbraba para el futuro de la Web eran demasiado atractivas como para dedicarse a un objetivo más pragmático y limitado. El hecho de que el propio CERN fuera prácticamente un organismo acéfalo, posibilitaba un alto grado de independencia para los investigadores y sus proyectos. El CERN era una comunidad inmensa de científicos con un ambiente altamente creativo. Las razones tácticas, políticas, o propagandísticas que llevaran a los distintos países e instituciones a enviar allí a sus científicos, quedaban relativizadas ante la aventura del progreso científico efectivo y el intercambio de información entre tantos expertos. Un sistema de trabajo como éste, deslindado de presiones políticas, de la presión de tener que publicar, de tener que justificar el trabajo en términos de rentabilidad comercial, de cumplir una determinada cota de patentes… fue estrictamente necesario para el desarrollo del proyecto de Tim Berners Lee. Fue indispensable ese grado de “incondicionalidad”, que permitió a Berners Lee disponer de equipo humano y tecnológico suficiente para llevar a cabo un proyecto marginal a los estudios físicos que solían desarrollarse en el CERN, solo por su creatividad y el interés general que podía suponer para la humanidad. Como en la Universidad ideal imaginada por Derrida, el conocimiento real y útil a la humanidad, es algo que tiene que darse “sin condición”, al margen de los poderes estatales, mediáticos, ideológicos, religiosos y culturales que traten de apropiarse de él. Berners Lee llevó adelante un proyecto por su potencial utilidad para la comunicación humana, pero del que nadie en principio, ni siquiera el propio CERN, iba a extraer un beneficio particular, siguiendo la misma lógica altruista de la que hablamos en el caso de Michael Hart y su Proyecto Gutenberg. De hecho, en el prefacio de Tejiendo la Red (libro en el que Berners Lee explica todos los pormenores del desarrollo de su proyecto), Michael L Dertouzos, director del Laboratorio de Ciencia Computacional del Instituto Tecnológico de Massachussets, alaba precisamente ese interés incondicional de Berners Lee por sacar el máximo partido a las posibilidades del Web, por hacer del Web algo útil antes que algo productivo:

Cuando conocí a Tim, me sorprendió otro rasgo suyo único. Mientras los técnicos y los empresarios lanzaban o fusionaban compañías para explotar el Web, parecían fijarse sólo en una cuestión: “¿Cómo puedo hacer mío el Web?”. Mientras tanto, Tim preguntaba: “¿Cómo puedo hacer vuestro el Web?” (…) Su objetivo permanente era asegurarse de que el Web avanzase, floreciese y permaneciera íntegro, a pesar de los tiras y aflojas de todas las empresas que parecían querer controlarlo. Introducir cita.

Es en este sentido que consideramos el Web como el modelo que más se ajusta a los anhelos y aspiraciones que dieron luz al término hipertexto. Un término que nace de una vocación humanista de comunicación libre y acceso a la información, más allá de ningún proyecto preciso de realización, y que encuentra en la tecnología informática una herramienta felizmente apropiada para hacerlo realidad. Esa misma indeterminación en la forma definitiva del objeto hipertextual, es compartida por el World Wide Web en su propia naturaleza original. Puede que las primeras páginas Web no tuvieran la estructura más idónea o no optimizaran los últimos avances desarrollados por otros sistemas de hipertexto, pero las direcciones URI y el Protocolo de Transferencia de Hipertextos, así como el lenguaje de programación Web diseñado para poder viajar por Internet, no eran sino los pilares de un nuevo canal de comunicación entre las personas. Y fue gracias a esta capacidad comunicativa del Web, junto con su indefinición originaria, que se hizo posible la colaboración entre miles de personas en la mejora de los navegadores, el desarrollo de motores de búsqueda, la creación de nuevas aplicaciones… y finalmente en dotar de un contenido de interés a sus páginas, para llegar al modelo, o modelos, de hipertexto que podemos encontrar actualmente en la Red.

En 1991 la Web está funcionando aunque carece casi prácticamente de contenidos. Robert Coalliu y Tim Berners Lee se encuentran en plena campaña de difusión de su posible gran proyecto. Naturalmente acuden a la máxima autoridad por el momento en materia de hipertexto, la conferencia Hypertext que organiza anualmente la ACM, de la que hablamos en el anterior capítulo (introducir referencia). Redactan una propuesta de ponencia para explicar al mundo la World Wide Web, pero es rechazada por los organizadores por falta de referencias en la materia, defectos de forma y en parte también porque su arquitectura, efectivamente, no se amoldaba a los complejos sistemas de hipertexto que se usaban por entonces. Aun así, les permitieron llevar acabo una pequeña demostración de lo que podían hacer con su terminal de NeXT y un módem. La exhibición tuvo que hacerse con un acceso restringido a Internet porque el hotel donde se celebraba carecía de conexión. Nadie quedó muy impresionado. El mundo del hipertexto tenía formulado ya un discurso particular y un aparato crítico en el que no cabía la presencia de Internet. Se habían amoldado a un concepto de hipertexto en el que solamente existiera el vínculo en el interior del documento, de un fragmento a otro, pero no el vínculo externo, a la realidad virtual de Internet formada por imágenes, mapas, correos electrónicos, programas y otros documentos. No es de extrañar esta reacción, pues por aquel entonces pocos conocían Internet en profundidad, y aun menos eran capaces concebir siquiera el concepto de “vínculo externo”.

Si acudimos a la recopilación de todas las conferencias Hypertext and Hypermedia de la ACM que ofrece por ejemplo Interaction-design.org, observamos cómo paulatinamente el World Wide Web va incrementando su presencia en las conferencias que se pronuncian año tras año. En 1993 comienzan a aparecer títulos relacionados con la cooperación hipertextual, con los navegadores Web y las redes; en 1994, Peter J. Brown, que conocía de primera mano las primeras tentativas de Berners Lee de relacionar Internet con el mundo del hipertexto, pronuncia una conferencia titulada Adding Networking to Hypertext: Can it be Done Transparently?, y aparece por primera vez de manera expresa el tema de la World Wide Web en la conferencia de Robert Glushko, Dale Dougherty, Eliot Kimber, Antoine Rizk, Daniel M. Russell y Kent Summers, titulada HTML -- Poison or Panacea?; en el siguiente congreso, en 1996, el propio Michael Joyce, junto con Robert Kolker, Stuart Moulthrop, Ben Shneiderman y John Merritt Unsworth, presentan su conferencia Visual Metaphor and the Problem of Complexity in the Design of Web Sites: Techniques for Generating, Recognizing and Visualizing Structure. Notamos cierto recelo a aceptar la Web como un sistema completamente válido de edición y recepción hipertextual en todas estas ponencias, y naturalmente esta visión conservadora será la tónica dominante en el estado de la cuestión durante algunos años. Pero para bien o para mal, lo cierto es que la WWW irá acaparando progresivamente el interés del congreso sobre Hipertexto de la ACM de manera ininterrumpida hasta nuestros días. Una rápida hojeada al programa de la conferencia de éste año, Hypertext 2007, nos revela cómo lejos de estabilizarse el interés de los investigadores por el Web, éste no deja de crecer, hasta el punto de constituir, abiertamente ya, el tema de toda la conferencia. Incluso podemos observa un renovado impulso en el interés general por el hipertexto literario, que habla de una nueva generación Web con características semánticas, de los nuevos usos de la investigación literaria en la Web, de las características literarias del Weblog, de la literatura Wiki…

Y es que la WWW no es una tecnología definitiva. Desde que se puso en funcionamiento el valor y la utilidad se la han dado personas anónimas (en muchos casos expertos en informática) que han construido y mejorado el hiperespacio, compartiendo sus aportaciones sólo por la satisfacción intelectual de ver como una herramienta crece y se perfecciona. Pero para favorecer esta colaboración, era necesario que la mayor cantidad de personas posible pudiera participar. Berners Lee tenía serios problemas para conseguir una absoluta compatibilidad entre el prototipo de Web para su ordenador NeXT, y el resto de ordenadores personales PC, Macs o Unix, lo que limitaba mucho la expansión del proyecto, y en el CERN, había muchos físicos, pero no demasiados programadores informáticos. Fue por ello que en agosto de 1991, Berners Lee saca fuera del CERN el World Wide Web que usaba en su NeXT, el navegador y el servidor básico para cualquiera aparato. Lo publicita por Internet, especialmente en un grupo de noticias, alt.hypertext, vinculado al mundo del hipertexto, y poco a poco la gente fue conociendo el Web, montando sus propios servidores y lo más importante de todo: manteniendo un inestimable contacto vía e-mail con Berners Lee y su equipo gracias al cual podían resolver problemas, comentar mejoras, producir ideas… Pronto comenzó la batalla de los navegadores. La gente programaba sus propios navegadores que rastreaban con más eficacia los documentos de Internet, e incluso algunos de estos navegadores se comercializaban.

Llegados a este punto se planteó la posibilidad de registrar la Web y cobrar alguna tasa de licencia por su uso, pero Tim Berners Lee sabía que si lo hacía dejaría de tener la audiencia masiva que necesitaba el proyecto para alcanzar su objetivo primero: el hipertexto global. Si comenzaban a cobrar tasas, por pequeñas que fueran, la gente, las empresas y las instituciones comenzarían a tener reparos en utilizar el Web por miedo a excederse en sus derechos y sufrir alguna demanda. Además esto terminaría con la participación popular y altruista en la mejora del servicio, factor que objetivamente daba una garantía cualitativa al proyecto. Berners Lee desconfiaba de las licencias y las tasas. Había visto como otras iniciativas de gestión de contenidos de Internet, claudicaron en el momento que registraron bajo una licencia comercial el uso de su software. Él miraba en otra dirección, miraba en la misma dirección que miraba Richard Stallman, el presidente y uno de los fundadores de Free software foundation, una organización no lucrativa que desde 1985 difundía la filosofía del software libre, y que había desarrollado la Licencia Pública General (GPL), que permitía que las cosas se distribuyesen y usasen libremente, mientras controlaba que cualquier modificación entrara bajo la misma GPL. Berners Lee pidió al CERN que colocase los derechos de propiedad intelectual del World Wide Web bajo licencia GPL, pero el CERN no lo veía claro, y algunas compañías, como IBM, habían declarado que no permitirían que el Web entrase en sus instalaciones bajo ningún tipo de licencia. Finalmente, Berners Lee solicitó permiso al CERN para poner la tecnología Web a disposición del público sin ataduras. A finales de 1993 recibieron la declaración por parte de la dirección del CERN, que accedía a permitir a todo el mundo el uso del protocolo y el código web gratuitamente, crear un servidor o un navegador, repartirlo o venderlo, sin ningún royalty ni otras cargas (pág 69).

El tema de la libertad, que atraviesa toda la historia del hipertexto, es también un término en constante debate en el ámbito más general de la tecnología informática. “Libertad” es una palabra excesivamente presuntuosa. Pretende definir un estado del ser que, en rigor, es prácticamente inalcanzable. Siempre hay algo o alguien orbitando sobre nuestras conciencias que nos veta la posibilidad de realizar acciones que de otro modo emprenderíamos sin dudarlo. Desde esta perspectiva homocéntrica los únicos que pueden ser realmente libres, como reza el tropo ancestral, son los animales salvajes, es decir, aquellos que carecen de normas sociales, morales o legales. La noción de libertad entonces, se encuentra en diálogo permanente con la norma colectiva, más concretamente con su plasmación efectiva: el Marco Institucional. Y en cada momento de la historia, su reivindicación señala un conflicto entre la sociedad, o una parte relevante de ésta, y algún aspecto constitutivo de este Marco Institucional. Cuando en la Revolución francesa se gritaba la palabra libertad, en realidad se estaba reivindicando una cosa muy precisa, un cambio institucional muy concreto: terminar con el “Derecho divino” del estamento nobiliario; La libertad que proclamaban los artistas de las vanguardias históricas, era una manera de protesta contra una determinada institución arte que no consideraban que les representara; el exitoso concepto de libertad que tanto ha explotado el Imperio norteamericano, se basa precisamente en el tropo del animal salvaje: la individualidad absoluta y la lucha competitiva mediante los propios recursos, que también puede ser definida como la oposición al Marco Institucional absoluto que planifica cada parcela de la vida social, es decir, el comunismo. Sus resonancias épicas y capacidad para funcionar como antónimo de “esclavitud”, hacen del término libertad un magnífico eslogan para cualquier causa. Pero no conviene olvidar su naturaleza excesiva, si queremos concretar con objetividad cuál es el conflicto con el Marco Institucional que señala, en cada caso, su reivindicación.

En el caso del hipertexto, englobado ya como elemento preeminente del ámbito de la informática, la reivindicación de la libertad destapa una disconformidad de cierta parte de la sociedad con un apartado muy específico de la legalidad occidental: aquel que se refiere al intercambio libre entre los ciudadanos, lo que afecta muy seriamente a las condiciones de la propiedad intelectual. El propio concepto general de hipertexto establece, desde su misma enunciación, un debate moral a cerca de los límites de la propiedad intelectual y de quiénes deben ser sus depositarios; la realización práctica de un universo hipertextual de dimensiones globales gracias a Internet, traslada este mismo debate a los tribunales: el lugar donde se gestiona públicamente nuestra asignación de libertad.

Quisiera advertir en este punto la inexcusable toma de posiciones que debería asumir la comunidad académica en torno a esta cuestión, tanto más desde el ámbito de las humanidades que, siguiendo a Derrida, deberían tratar la historia de lo “propio del hombre” opuesto a los rasgos propios de lo animal, y por consiguiente tendrían qué decir en cuanto al Derecho humano (Referencia). Pero en cambio, éste es un tema hasta el momento muy restringido a la comunidad tecnológica y a las universidades politécnicas, en las que como todos sabemos, ciertos departamentos de ciencia aplicada funcionan como sucursales de consorcios a través de firmas internacionales y enormes masas financieras. En cambio, los departamentos de humanidades rara vez se pronuncian sobre el tema, quizás alguna idea, alguna voz aislada… cuando lo que verdaderamente necesitamos es una posición firme, pública y unívoca si queremos asegurar un futuro en el que Internet llegue a representar la vocación, común a la de la universidad, de convertirse en un espacio público de comunicación, información, archivación y producción de saber. El ejemplo de la Junta de Extremadura, que ha sido galardonada con varios premios nacionales e internacionales por su diligencia en la instalación de software libre en la administración autonómica, debería servirnos para despejar cualquier recelo que pudiera albergarse con respecto a la licitud de promover el software libre, y es que, de momento, no se conoce de nadie que haya sido premiado por lo contrario. Por mi parte, considero que la tesis resultante de este trabajo de investigación, constituiría un espacio privilegiado para tratar este tema concreto, que afecta tanto a la obra artística como a la labor investigadora, desde una perspectiva humanística no condicionada por los intereses lucrativos de un departamento subsidiario de ninguna compañía.

Mientras el debate sobre la propiedad intelectual se perpetraba, la WWW continuaba su avance imparable. La generalización del uso de Internet, en parte gracias al sistema organizativo y la facilidad de publicación que aportó la introducción del hipertexto, suponía un cambio paradigmático, un paso decisivo que modificaría definitivamente la sociedad. Pero suponía también la salida de Internet del ámbito académico o institucional, y su ingreso repentino como medio de difusión en la más llana realidad: la realidad mercantilista propia del capitalismo occidental. En este nuevo contexto, el valor de cualquier cosa se mide en términos del dinero que esa cosa pueda producir, así que la primera reacción que produjo a escala social fue la de tratar de encontrar la manera de hacer dinero con el nuevo medio. Las empresas vieron en la WWW una estupenda plataforma para publicitar sus productos. Además podían venderlos mediante transferencias bancarias y rematar la transacción utilizando la tradicional infraestructura postal. Algunas empresas ni siquiera necesitaban ese último paso porque ofrecían productos de Software, que podía ser enviado mediante la propia Internet. Se desarrollaba todo tipo de servicio en línea como noticias, enciclopedias, información de viajes, e-mail… y toda esta actividad comercial venía acompañada de una intensa investigación en la tecnología Web. Programadores e informáticos creativos de todo el mundo, desarrollaban todo tipo de aplicaciones para hacer más atractivas las páginas. Por sintetizar, simplificando mucho, podríamos decir que dos hitos tecnológicos determinan en este periodo el éxito de la Red. Mark Andersen junto con su socio Jim Clark, desarrollan el navegador Mosaic, con un entorno de ventanas basado totalmente en X-Windows de Unix (un programa que nada tenía que ver con Microsoft). Este avance en el sistema de navegación, con ventanas simultaneas y controlado mediante el puntero del ratón, determinó la manera de navegar por el Web que hoy en día todos conocemos. Por otra parte, ya en 1995 Sun Microsystems introdujo Java, una modificación del lenguaje de programación Oak de James Gosling, originalmente diseñado para aparatos como teléfonos, tostadoras y relojes de muñeca. Pequeños programas programados en Java, llamados applets, podían ser enviados entre ordenadores por Internet y funcionar directamente en una página web, lo que multiplicó las posibilidades en el diseño web y en su usabilidad.

Pero la mayor batalla comercial que tuvo lugar en Internet durante los años noventa, por sus dimensiones económicas y su impacto en el posterior desarrollo de la World Wide Web, fue sin duda la de los navegadores. El navegador se encarga de hacer una petición a la red, de una determinada dirección URI en la que se especifica el documento y el servidor en que está alojado. Si el documento está disponible, interpreta el código HTML/CSS/Javascript y lo devuelve al terminal solicitante con una presentación acorde con el medio visual utilizado. Un paso importante fue el que dio la empresa Navisoft Inc. cuando lanzó su navegador Navipress, que permitía navegar por duocumentos y editarlos al mismo tiempo. Pero el navegador más exitoso fue Netscape, un navegador en un entorno de “ventanas” desarrollado por Mark Andersen, el inventor de Mosaic. En 1994 Mosaic, traslada su sede a California y cambia de nombre por Netscape. La primera versión del navegador de Netscape fue Mozilla. Se trataba de una versión beta pensada para que la gente la utilizara y comentara sus carencias y mandase sugerencias para mejorarla. Cuando en diciembre de 1994 lanzaron la versión comercial Navigator 1.0. Fue un navegador muy significativo para la historia de la Web, no tanto por sus características técnicas, aunque habían conseguido mejorar sustancialmente la seguridad en el comercio electrónico con tarjetas de crédito, sino por la nueva dinámica de marketing que estableció. Una dinámica que marcó la tendencia general de los negocios web: ofrecer el producto gratis por la Red, hasta que fuera mundialmente famoso y omnipotente. A los pocos meses de aparecer, casi todos los usuarios de Internet funcionaban con el Navigator 1.0. La idea fundamental era crear una plataforma desde la que lanzar otros productos que pudiera cobrar. Así mismo atraería a millones de personas a la página de entrada de Netscape, la pantalla que se abría por defecto cuando en el Navigator, dónde se mostraban anuncios de compañías que pagaban por llegar a una gran cantidad de gente. El sitio también informaría instantáneamente a los navegadores de los demás servicios de Netscape, por los que la compañía podría cobrar. Hoy en día reconocemos esta dinámica comercial en todos los servicios web que conocemos. El caso más espectacular y rentable es el de Google, que no es un navegador, sino solamente un motor de búsqueda de URIs, que ha conseguido extenderse por todo el mundo gracias a incrementar incesantemente y de manera gratuita la calidad de su servicio.

Microsoft, por aquella época intentaba quedarse con Netscape siguiendo su política tradicional de comprar la competencia, para incorporarlo en su nuevo sistema operativo Windows 95. Pero nunca llegaron a un acuerdo y finalmente Microsoft comenzó a trabajar en un navegador propio. Para poder competir con Microsoft Netscape tenía que crecer rápido y su director Jim Barksdale, decidió hacer pública la compañía. La Oferta Pública Inicial (IPO) se realizó el nueve de agosto de 1995. Wall Street estaba pagando muy bien las acciones de alta tecnología, así que se lanzó con un precio relativamente alto de veintiocho dólares por acción. Pero la demanda hizo subir rápidamente las acciones a setenta y un dólares. Muchas grandes instituciones se interesaron por hacerse con una buena parte de la compañía, y finalmente al cierre de la bolsa hubo treinta y ocho millones de acciones en el mercado. Después de un solo día en bolsa Netscape valía 4500 millones de dólares. Era la mayor IPO de la historia, y eso que la compañía aún no había demostrado tener beneficios.

Esta operación bursátil sin precedentes inauguró un fenómeno que duró aproximadamente cinco años, en el que el precio de las acciones relacionadas con empresas “punto com” se disparó fuera de control, en muchas ocasiones impulsado por las firmas de capital riesgo y las corredurías de bolsa, que vendieron la moto de hacerse ricos jugando en bolsa al público en general. El magnífico blog de cultura y actualidad informática Microsiervos, recordaba, hace ahora un par de años, el décimo aniversario de la IPO de Netscape en una entrada concisa pero repleta de interesantísimos comentarios. Este episodio financiero terminó como todos sabemos con la quiebra de muchas empresas “punto com”, que nunca llegaron a producir ni de lejos, el dinero por el que cotizaban en bolsa. En realidad la valoración en bolsa de los títulos de una empresa siempre se efectúa con arreglo a las expectativas de beneficios a futuro, y poco importa lo que haya ingresado una empresa en el pasado o esté ingresando en el presente. El problema de la burbuja financiera de las punto com, fue que las expectativas de beneficios futuros no se podían prever puesto que su modelo de negocio era nuevo, nadie sabía con exactitud de dónde se iba a sacar el dinero ni cuánto dinero iba a ser.

A escasos meses de la IPO de Netscape Microsoft lanzó su navegador incluido en el sistema operativo Windows 95, el Internet Explorer. Era una versión de baja calidad, se notaba que había sido terminada con prisas. Las versiones de IE y de Netscape iban sucediéndose (no siempre mejorándose) en una lucha continua por controlar el mercado. Realmente el uso de navegadores web, quedó bastante polarizado en estas dos opciones, en lo que se conoce como la primera “guerra de navegadores”. En cierta medida, la explosión de la burbuja financiera de las “punto com” perjudicó definitivamente a Netscape. Pero la baza fundamental para Microsoft en esta guerra, fue el monopolio de facto que ostenta en el mercado de los sistemas operativos, algo contra lo que Netscape no tuvo nunca nada que hacer. (posibilidad de ampliar con lo de las dos ramas en que se separó).

El Web comenzaba a tener vida propia. Para muchos de sus primeros usuarios, frecuentemente personas del ámbito académico, la explotación comercial del Web iba en contra de su filosofía inicial de libre intercambio. Lo más preocupante era que alguna de las grandes compañías de informática o telecomunicaciones copara por completo alguno de los estratos en que se divide la red de Internet, y pudiera ejercer algún tipo de control sobre ella. Berners Lee llevaba tiempo planeando la creación de un consorcio, y el primer paso fue convocar una conferencia WWW que aglutinara a toda la comunidad de personas que estaban haciendo el Web. Se realizó en el CERN, con la organización de Robert Calliau, y en ella se vieron las caras por primera vez muchas personas que hasta la fecha sólo se conocían vía e-mail. Durante las sesiones de esa primera conferencia WWW se establecían las líneas de investigación para los próximos años en la mejora y ampliación del código HTML. Tras el éxito de la conferencia y tras una serie de negociaciones a varias bandas, el Massachussets Institute of Technology, aprobó la formación del consorcio. A finales de 1994 el CERN y el MIT, cerraron un acuerdo para poner en marcha el Consorcio World Wide Web Tim Berners Lee se trasladó a Cambridge con su familia donde viviría hasta la actualidad dirigiendo el consorcio con un salario fijo, por primera vez en su vida, derivado directamente de la creación de su criatura.

El W3C, como bautizaron el consorcio, se fundó con la intención de servir de referente para la comunidad Web en cuanto a la puesta al día permanente de las últimas tecnologías que van aplicándose en la Red. En su libro Tejiendo la Red, Berners Lee explica con gran claridad el funcionamiento interno del consorcio:

La pertenencia al consorcio estaba abierta a cualquier organización; comercial, educativa o gubernamental, ya fuese lucrativa o no. La cuota anual para ser miembro de pleno derecho era de cincuenta mil dólares; para miembros afiliados, de cinco mil dólares. No había diferencias en los beneficios, pero para ser un miembro afiliado una organización tenía que ser gubernamental o no lucrativa, o ser una compañía independiente con beneficios de menos de cincuenta millones de dólares. (…)

El propósito del consorcio era “conducir al Web a su más alto potencial”, en primer lugar desarrollando protocolos comunes para destacar la interoperabilidad y evolución del Web. Para hacerlo, estaríamos a la cabeza de una significativa oleada de aplicaciones, servicios y cambios sociales, cumpliendo una combinación única de papeles tradicionalmente adscritos a organizaciones muy diferentes. (pág 88)

Verdaderamente se trata de una iniciativa, cuanto menos, novedosa. El W3C tiene el estatuto de Organización No Gubernamental sin ánimo de lucro y carece de mecanismos de control directo sobre lo que se hace en la Web. Su máximo poder es la “recomendación” y su autoridad reside en el prestigio académico de sus publicaciones. Los miembros del comité superior del consorcio son una especie de “gramáticos” del lenguaje HTML y el resto de lenguajes que están usándose en la Web. Como todo lenguaje, el código en que se redacta la Web está vivo y varía constantemente. La labor de un gramático no debe ser la de esclerotizar de ninguna manera esa evolución, sino la de garantizar y favorecer la operabilidad de una lengua. Cuando esta lengua es (y debe ser) de dominio universal, con más razón que nunca la labor de estandarización que minimice las ambigüedades y las fallas de comunicación es crucial, pero también lo es la valoración y la aceptación de términos nuevos que favorezcan en cualquier medida el diálogo. Dada la facilidad de que disponen las pocas y omnipotentes empresas que dominan el sector de la informática para ejercer presiones y forzar la adopción de los estándares que más beneficien a sus intereses particulares, la necesidad de un orden regulador centralizado, inéditamente, surge precisamente de la voluntad de mantener a salvo las reglas del juego que hacen de Internet un universo descentralizado y en continuo proceso de formación. No es como cuando un estado determinado interviene con normas arancelarias o de otra índole para mantener la competencia de su mercado ante la amenaza de los de afuera; aquí, en principio no hay ningún afuera, no hay nacionalismo regional. Tampoco es como el Fondo Monetario Internacional u otras organizaciones internacionales que salvaguardan el estatus quo del sistema capitalista, con el que las potencias mundiales han conquistado su hegemonía. La máxima de la “apertura” y la “colaboración”, que hasta ahora prevalece en el W3C no se deriva de ninguna ley económica capitalista, sino de una necesidad técnica para el óptimo desarrollo de una tecnología en sus inicios, y posteriormente de la asunción por parte de los usuarios de esa tecnología de esos mismos principios rectores en términos ya políticos. De hecho apertura y colaboración son conceptos irreconciliables con el capitalismo, en el que lo habitual es la retención de la información, cuyo valor es directamente proporcional a su escasez; o como diría Michael Hart: es mejor si yo lo tengo y tú no.

El Web (y con mucha más importancia, los colaboradores que de manera altruista o no, han contribuido a su perfeccionamiento) ha hecho finalmente posible el sueño de llevar Internet, sin duda el mayor logro del paradigma científico digital, de manera funcional, a una porción por fin relevante de la humanidad. Al mismo tiempo, esta apertura ha sacado la “conversación” de los círculos académicos y técnicos en los que nació y la ha expuesto a las pasiones, los vicios y la ignorancia del vulgo. Pero, pedagógicamente, no ha sido la exposición al vulgo llano lo que más ha hecho y está haciendo vacilar la estabilidad desordenada de Internet; sino esa misma audiencia masificada puesta en los ávidos ojos de quienes hacen negocios con la audiencia y la opinión pública: los mass media. En los últimos años hemos visto incrementarse significativamente las fusiones entre grandes empresas de la comunicación. A lo largo de todo el siglo XX se comprobó lo rentable que podía llegar a ser el negocio del entretenimiento gracias a los nuevos medios de comunicación que estaban surgiendo: el cine, la radio y la televisión. Durante más de ochenta años se ha conformado un complejo sistema de poderes en el que algunas empresas, cada vez más grandes y menos numerosas, han ido haciéndose con el control de las emisiones en cualquiera que fuera su formato. Internet se revela en apenas cinco años de años desde la aparición del Web como un soporte tremendamente divertido, pero además, surgido de la nada, del mero intercambio de información entre sus usuarios, dónde la decisión de la “parrilla” la toman los navegantes con sus visitas a los sitios de otros navegantes o con su propia producción. Y todo esto ocurre en la era de la revolución del paradigma digital. La conversión de las imágenes y los sonidos en un flujo de datos uniforme, binario, decodificable por todo tipo de aparatos, lo cambia todo. De pronto el cine, la radio y la televisión, que son los medios en liza durante años entre los gigantes del cuarto poder, se ven sencillamente incluidos en este nuevo medio que nadie controla.

A finales de los años noventa los gigantes mediáticos se encaminaron en una seria batalla por el control de la audiencia en la Red. Si Internet veiculaba todos los medios de comunicación y los hacía visibles en todo tipo de receptor, la única manera de mantener la hegemonía era, o así lo creyeron las grandes compañías, adherirse el mayor número de empresas que tuvieran algo que ver en el proceso. Fue así que nacieron las grandes macro-corporaciones mediáticas, de las cuales AOL Time Warner en América y Vivendi Universal en Europa, son las más conocidas.

El caso europeo es realmente espectacular: el grupo francés Vivendi Universal, uno de los tres mayores del mundo, tiene su origen en la Compagnie Générale des Eaux (CGE), la compañía que desde 1853 se encarga de gestionar y distribuir el agua en Francia. Solo a partir de los años setenta del siglo pasado, comienza su incursión en otros sectores como los servicios, la tecnología, los transportes y la energía. En 1983 contribuye a la formación de Canal +, pero no será hasta los años noventa que el grupo comenzará su vertiginosa carrera por el control de las telecomunicaciones y los Mass Media. Su director Jean-Marie Messier, comienza una contundente campaña de adquisiciones bajo el lema “todos los contenidos en todas las pantallas”. Por esta razón se alió con el operador británico de telecomunicación Vodafon, apropiándose de un plumazo de gran cantidad de servicios multimedia para la Web. Vizzavi (un portal multi-acceso), Flipside (un portal de juegos en línea), Cadresonline (portal de anuncios clasificados), VUP Interactive (productos multimedia derivados de la actividad editorial), Pressplay (portal de telecarga de música de pago), Canal Numedia (sitios de Canal Plus y Canal Satélite), Educación.com (portal de venta de productos educativos)… eran algunos de los productos que conformarían el feudo de Vivendi en el Web. Pero su estrategia no se limitaba al Web, sino que pretendía desplegarse a otros soportes: sus empresas incluyen alguna de las mayores compañías de música del mundo, uno de los archivos de películas de mayor importancia, algunos de los principales estudios de cine, la segunda compañía de parques temáticos, enormes intereses editoriales e inversiones estratégicas en grupos como BskyB del Reino Unido o en Networks de EE.UU. Sus actividades en medios de comunicación se desarrollan a través del Grupo Canal+ (producción y distribución de cine, vídeo y televisión), Universal Music (UMG) y Vivendi Universal Games. En el ámbito internacional lidera la venta y distribución de vídeos y DVD, programas de televisión y largometrajes en más de 200 países, y cadenas de televisión en Europa, Asia e Iberoamérica. En España participa en Sogecable (Canal+ y Canal Satélite Digital) y explota, a través de Universal Studios, el parque temático Port Aventura (Barcelona). La división editorial del grupo (VUP) es propietaria de Alianza Editorial, Spes (fruto de la fusión con Larousse España) y Vox, marca especializada en diccionarios y la primera en lengua española en edición de obras de referencia. También es dueña de las editoriales españolas Anaya, Cátedra y Pirámide.

Pero la realidad ha demostrado que la Web no puede ser dominada y servida por nadie más que por sus propios usuarios. Las grades empresas pueden comprar todos los portales que quieran y pueden producir todos los contenidos que quieran, pero siempre estarán condenadas a ser una parte más del contenido total del ciberespacio. De esta manera la megalómana estrategia de Vivendi resulta un desastre financiero y en 2002, su presidente del consejo de administración y administrador delegado, Jean-Marie Messiere presenta la dimisión. Bajo la nueva dirección de Jean-Rene Fourtou, la compañía está llevando a cabo desde 2003 una política de cesiones para sortear la bancarrota.

Pero más allá del negocio del entretenimiento, los medios de comunicación siempre han tenido el papel de difusores de información y culturales. Y es precisamente en esta parcela donde la Web no tiene rival. Los grupos de noticias independientes han ido consolidándose poco a poco hasta adquirir una relevancia que ya podemos calificar de significativa. Así mismo, el ámbito de la cultura y la educación, no ha sido transportado con dificultad a la Red, sino que le pertenece por derecho propio, ya que éste fue el entorno en el que se desarrolló. También lentamente pero sin pausa, toda la comunidad académica y científica está haciendo uso de las posibilidades que ofrece el Web, y hasta ahora la calidad de los resultados nunca ha dejado de ir en aumento. Con la particularidad de que la comunidad académica seria e independiente, está tomando partido con total naturalidad por el movimiento de software libre que encabeza Richard Stallman con el Free Software Foundation y el proyecto GNU, y otras organizaciones ciudadanas como la Electronic Frontier Foundation. Y todo gracias a la inédita estrategia de la “masa colaboradora”, la “multitud” que, más que nunca, se ve perfectamente reflejada en la definición que Antonio Negri hace de ella: “un conjunto de singularidades cuyo utensilio de vida es el cerebro y cuya fuerza productiva consiste en la cooperación. Y si las singularidades que constituyen la multitud son plurales, el modo en que se conectan es cooperativo.” (115) Pero como veremos a continuación, las cotas más espectaculares de colaboración ciudadana en los contenidos Web no han sido alcanzadas sino muy recientemente, gracias de nuevo a la velocidad imparable de una avance científico que el sistema no da abasto a asimilar.



[1] [Fiderio, 1988]

"hipertexto, en el nivel más básico, es un manejador de base de datos que permite conectar pantallas de información usando enlaces asociativos. En un nivel mayor, hipertexto es un ambiente de software para realizar trabajo colaborativo, comunicación y adquisición de conocimiento. Los productos de este software emulan la habilidad del cerebro para almacenar y recuperar información haciendo uso de enlaces para un acceso rápido e intuitivo".

[2] Aquí referencia al capítulo de Aportaciones técnicas

[3] Los problemas los plantean la polisémica voz “Web”, que significa tanto “telaraña”, como de manera figurada “red intrincada”, y la palabra “Wide” que no tiene una correspondencia exacta en español. Además el nombre juega con una expresión idiomática del inglés, “Whole Wide World”, que viene a significar “el mundo entero”. “Telaraña del mundo entero”, podría ser una pobre traducción para el imaginativo nombre ideado por Tim Berners Lee.

Association for Computing Machinery

No podemos dejar de mencionar durante este recorrido histórico por el término hipertexto, la organización científica que más ha impulsado el estudio y desarrollo de la letra digital, la Association of computing machinery (ACM). Se trata de la primera sociedad profesional dedicada a la computación, creada por Edmund Berkeley en el año 1947. Creemos importante recordar aquí el inicio, el impulso original y las expectativas que despertó en sus fundadores, para entender hasta qué punto su actual trabajo puede estar vinculado con el mundo de la literatura.

Para ello, una vez más debemos volver la mirada al “año cero” de nuestro mundo tal y como lo conocemos: la segunda guerra mundial. Después de aquel desaforado episodio de la historia, cualquier posible orden planetario vigente quedó devastado o fue reestructurado. El exitoso desarrollo del positivismo condujo a las grandes potencias humanas a una desenfrenada exhibición del poder al que podían aspirar llevando a término los principios que Habermas denomina principios de racionalización en las sociedades secularizadas. Y esta exhibición se vio materializada en una competición, que por supuesto tenía que ver con la tecnología, por alcanzar el mayor poder de destrucción posible. Cuando el poder de destrucción superó con creces las dimensiones del planeta en el que toda forma de vida conocida mora, ni la guerra ni la paz volvieron a ser lo que eran en ninguna parte del globo.

Lo cierto es que la perspectiva de la autoaniquilación ahogaba cualquier exaltación excesivamente entusiasta de los distintos modelos de sociedades que habían participado de la porfía, lo que provocó sustanciales reconsideraciones ideológicas y filosóficas que afectaron, como es bien sabido, a todos los demás campos del conocimiento, desde el estudio tecnológico y científico hasta el de la estética. En cuanto al ámbito técnico-científico, si observamos su posterior desarrollo, nos percatamos de que la mayoría de avances y logros parten de las esforzadas mentes de muchos de los ingenieros que fueron utilizados para el perfeccionamiento de la matanza, y que luego, aterrorizados por los resultados, buscaron la posibilidad de volcar sus investigaciones científicas en la mejora de las condiciones de vida en paz. En esta dirección trabajó, como hemos visto, Vannevar Bush cuando ideó su Memex en 1945, y en este mismo rumbo se embarcó el propósito de Edmund Berkeley, como veremos a continuación.

Cuando fue llamado a filas en 1942 por la marina norteamericana, Berkeley era un joven graduado en matemáticas de la Universidad de Harvard empleado como experto en métodos de aseguración industrial en una compañía de seguros llamada Prudential Insurance Company. Debido a su formación matemática fue destinado al término de la guerra en agosto de 1945, a trabajar en el Harvard Mark I, el primer ordenador electromecánico de la historia, construido por Howard H. Aiken, con la subvención de IBM[1]. Berkeley que venía de un mundo, el de los seguros, en el que había trabajadores especializados en el cálculo mental que resolvían los complejísimos algoritmos que los matemáticos diseñaban para establecer según los riesgos, las tarifas de aseguración, supo ver enseguida, en esas enormes máquinas calculadoras bélicas, su perfecta aplicación a la vida civil. Cuando regresó a la compañía de seguros Prudential, estudió las posibilidades que estaban ofreciendo las máquinas calculadoras por aquel entonces en diversos laboratorios, y aventuró algunas aplicaciones prácticas. Pero no fue hasta 1947, durante un simposio sobre computación en la Universidad de Harvard, que se convenció del verdadero potencial multidisciplinar que esta tecnología brindaba, gracias al contacto con gran parte de la comunidad científica formada en torno a este campo. Berkeley, impresionado tras el simposio, decidió formar una asociación al margen de cualquier institución académica o gubernamental que se ocupara específicamente en materia de computación: la Eastern Association of Computing Machinery (EACM). La sociedad estaba compuesta en un principio por unos cuantos asistentes al simposio interesados en mantenerse al día en las nuevas tecnologías. Pero el verdadero éxito de la organización devino realmente cuando Berkeley emitió un comunicado entre todos sus miembros, citando unas palabras del por entonces director del MIT Center of Analysis, Samuel Cadwell, pronunciadas durante el simposio de Harvard. Cadwell se mostraba preocupado por la labor de encubrimiento que el propio ejército de los Estados Unidos estaba llevando a cabo con las investigaciones realizadas durante la segunda Guerra Mundial, y en su conferencia hizo un llamamiento a la libre difusión del conocimiento y al libre intercambio de información entre los investigadores de todas las áreas relacionadas con la computación. Berkeley se sumó a esta iniciativa, y la propuso como elemento motriz de su asociación con el fin de que todos sus miembros pudieran obtener beneficios profesionales. Muchos especialistas y directores de otras asociaciones relacionadas con la tecnología, vieron el proyecto con muy buenos ojos y se ofrecieron para colaborar en él. En agosto de 1948 ya eran 350 miembros, provenientes de una extensión geográfica tal, que Berkeley consideró que el Eastern, podía ser eliminado del nombre. Desde entonces hasta nuestros días, la ACM ha constituido un foro de debate en el que han participado especialistas de todo el mundo y de todas las áreas del conocimiento, legándonos un ingente material bibliográfico que puede ser consultado en su Librería Digital. Principalmente nos hemos interesado por la Association of Computing Machinery debido a dos conceptos fundamentales en los que se basó su fundación: la voluntad de libre intercambio y el carácter multidisciplinar de sus investigaciones.

Se trata de conceptos que el tiempo ha terminado por situar en el eje central de nuestras sociedades contemporáneas, pero que en el año cuarenta y siete no eran más que la arriesgada apuesta de un espíritu visionario. Cuando Berkeley pensaba en intercambio libre de información, imaginaba salones de actos en los que se reunirían cientos de estudiosos en conferencias periódicas para exponer las evoluciones progresivas de sus investigaciones. Nunca hubiera podido imaginar que la misma materia sobre la que versaban las inquietudes de los participantes en las conferencias de la ACM, iba a desencadenar en el futuro un cambio radical y definitivo en la manera de concebir el intercambio libre. Hemos llegado a un estadio tecnológico en materia de computación que nos permite trasladar ese “salón de actos” para el debate, a todas las pantallas de ordenador del mundo y poder así compartir con libertad y gratuidad cualquier cosa que nos interese. Asistimos al declive y remodelación de los antiguos métodos de difusión, lo que está provocando no pocos conflictos de intereses que afectan ya al ámbito legislativo en extremos que durante muchos años no habían sido cuestionados, del orden de la propiedad intelectual. Pero además, la comunicación libre, o mejor, el libre intercambio de información entre las personas, ha sido el caballo de batalla de muchos de los movimientos intelectuales, tecnológicos y humanísticos, del fin de milenio tales como el Software Libre o la noción de “multitud inteligente” de Hardt y Negri.

La otra noción que nos atrae de los fundamentos de la ACM es la multidisciplinariedad. Berkeley observó que en el seno de la tecnología de computación se daban cita muchas áreas de la ciencia: las matemáticas proveían de los modelos teóricos necesarios para diseñar las computadoras, pero era la física, la disciplina que se encargaba de que todos esos cálculos pudieran materializarse en un aparato real; además estaba la tecnología de válvulas que se utilizaba para la construcción de estas máquinas ingentes, lo que vinculaba su producción al ámbito de la ingeniería electrónica e industrial; por último, la versatilidad de estas máquinas para ser aplicadas en múltiples tareas de cálculo disparaba el número de disciplinas que podían verse involucradas en la confección de computadoras como, por ejemplo, la estadística, con la que Berkeley quiso implementar las primeras aplicaciones informáticas de la historia. Pero todo esto no es nada comparado con la cantidad de disciplinas científicas y artísticas que envuelven hoy día el mundo de las computadoras. Tan solo pensemos por un momento en la aplicación de la infografía en el cine o los videojuegos, o en la simbiosis que hoy día se verifica entre la informática y la medicina. La misma palabra “multidisciplinar”, se ha convertido en una especie de ensalmo propiciatorio para todo proyecto académico o profesional, como reflejo sugestivo del mundo globalizado en el que vivimos.

Precisamente, esta multidisciplinariedad de campos en los que se mueve la tecnología de computación, es la que llevará con el tiempo a la ACM a toparse de lleno con la creación literaria, y por lo tanto con nuestra parcela concreta de conocimiento. En realidad podrían verterse ríos de tinta sobre la relación que se establece entre la computación y la lingüística desde la creación de los primeros estándares en “lenguajes de programación”, pero como ya mencionamos en otro lugar, el uso del lenguaje en programación, aunque también esté basado en la tecnología de escritura digital, es de un uso restringido al entendimiento entre el hombre y la máquina, y, por lo tanto, compete su estudio y optimización, sobre todo, a la ingeniería informática. Nos parece mucho más interesante el momento en que la computadora se convierte en una plataforma para la comunicación, mediante la letra digital, de persona a persona, y este es un proceso lento pero continuo que no culminará hasta la entrada en escena del hipertexto con todas sus potencialidades.

Durante los años setenta causaron gran impacto en el mundo de la computación los conceptos hipertexto e hipermedia acuñados por Theodor Nelson, y con la exitosa explosión de los sistemas pre-Web en los años ochenta, el hipertexto acabó por situarse en una posición cardinal de los estudios sobre computación. La ACM debía hacerse eco de esta novedosa aplicación informática que estaba haciendo realidad algunas de las aspiraciones más optimistas y también más genuinas, de la historia de las computadoras. En 1982 el foco de interés de la ingeniería informática comenzaba a desviarse de los impulsos eléctricos y los transistores hacia el ser humano, y la ACM inaugura su primer congreso sobre “El Factor Humano en Sistemas de Computación”. Para 1987, ya se hacía indispensable la existencia de un congreso que tratara con exclusividad el tema del hipertexto. Nace así, la primera Conferencia sobre Hipertexto e Hipermedia de la ACM, que ha continuado celebrándose anualmente, con excepción de los años 1988 y 1995. En ella se dieron cita los principales protagonistas de la cultura hipertextual. Allí estaba Michael Joyce y David Bolter, estaba el mismo Theodor Nelson, Catherine Marshall y un todavía desconocido George P. Landow, quien años más tarde desempeñaría un papel decisivo en la constitución de la nueva “teoría crítica hipertextual”. Por supuesto también acudieron miembros importantísimos de la comunidad científico-tecnológica como el experto en diseño gráfico de interfaz Jef Raskin, pero lo más importante de este acontecimiento es que por primera vez participan de un proyecto común y en un mismo sentido el mundo del arte y las humanidades con el de la tecnología informática. Por primera vez escritores, artistas y críticos literarios reflexionan conjuntamente con los tecnólogos, para dar una visión conjunta del incesantemente complejo mundo en el que vivimos.

Precisamente, durante el congreso sobre hipertexto de la ACM de 1991 tuvo lugar una demostración de última hora de un nuevo programa informático que iba a cambiar el rumbo de la historia del hipertexto y de los contenidos mismos de las sucesivas conferencias de la ACM. Se trataba de una demostración que ni siquiera aparecía en el programa del congreso y que pudo llevarse a cabo con muchas dificultades, presentada por un joven suizo, Tim Berners Lee, y su compañero Robert Cailliau. Estaban trabajando en un sistema de hipertexto que aprovechara la tecnología de Internet para poder expandirse por todo el ancho mundo como una gran tela de araña: la World Wide Web, que supone el siguiente paso de gigante hacia la era de la comunicación en la que nos encontramos.



[1] Howard H. Aiken, al igual que Vannevar Bush y que William Gibson y Bruce Sterling en A different engine (obra magna del subgénero de ciencia-ficción conocido como “steampunk”), se inspiró para la creación del Mark I, en la mítica máquina electrónica que proyectara Charles Babbage en 1822 para la Royal Astronomical Society de Londres.

Aportaciones humanísticas

Si queremos rastrear la relación entre el Hipertexto y el mundo de las letras y las humanidades observaremos que ésta puede atestiguarse desde sus orígenes. El propio Ted Nelson, quien acuña el término en 1965, comienza su curriculum vitae online con la frase “I´m not a tekkie”, es decir que no se considera un tecnólogo en absoluto. Él se considera un “humanista de sistemas” (“a sistems humanist”), o bien un “poeta y un filósofo” tal y como lo definió la ministra francesa de cultura, Catherin Tasca, cuando lo envistió con los honores de Officier des Arts et Lettres. Su relación con el objeto hipertextual es como la de un incomprendido guionista de Hollywood con el producto final que se estrena: en ocasiones, por muy bien razonado que esté un proyecto, por brillante que sea su concepción, ve supeditada su realización ulterior a la aceptación de múltiples condicionantes que en la mayoría de casos terminan por desvirtuar el valor artístico de la obra. Un actor de moda, una ligera o drástica suavización de los textos para abarcar al público masivo, la decisión de rodar en un estudio y no en otro por cuestiones de tráfico de favores… son todo ello decisiones tomadas al margen del interés por la calidad artística de la película, pero que resultan de una relevancia absoluta a la hora de optimizar los beneficios económicos. Solo en algunos casos concretos, y siempre de manera fortuita, estas modificaciones al original contribuyen a aumentar el valor del producto. En el ámbito del Hipertexto y de forma más patente en el de la informática en general, ha sucedido algo similar: las ideas de muchos teóricos enderezadas a mejorar el mundo y la comunicación entre las personas a través de la informática, se han topado con las exigencias de un tipo de competitividad determinada, en un tipo de mercado concreto, que en muchos casos ha coartado definitivamente su potencial de mejora social. No obstante mencionaremos, en este somero recorrido cronológico por los avatares del término, algunas de las iniciativas que se plantearon con anterioridad a la explosión Web.

Iniciativas encaminadas a la publicación y almacenaje de textos tradicionales y su publicación en una red hiper-vinculada.

Recordemos que se trata éste de un objetivo capital e indisociable de toda propuesta Hipertextual desde aquella máquina Memex de Vannevar Bush hasta el proyecto Xanadú de Theodor Nelson.

La tentativa más exitosa hasta la fecha de conversión al formato digital de textos tradicionales es, sin duda, por su antigüedad y su adaptabilidad a los sucesivos avances informáticos, el Proyecto Gutenberg. Se trata a su vez de un producto indisociable de la tecnología que permitió la posibilidad de publicar documentos digitales accesibles desde cualquier ordenador, es decir, Internet. En el año 1971 la incipiente red conocida como ARPANET, conectaba diversas universidades norteamericanas mediante quince ordenadores que realizaban la función de nodos principales. A Michael Hart, estudiante en aquella época de la universidad de Illinois, le fue dado trabajar con uno de estos ordenadores, el Xerox Sigma V en una época en la que el potencial de la red era todavía mayor que las ideas a cerca de qué hacer realmente con él. El joven Hart se encontró con un valiosísimo tiempo de conexión a una red que ofreciendo posibilidades casi infinitas, carecía prácticamente de contenidos. De hecho, el joven Michael, que no se veía capaz de aportar gran cosa en el ámbito de tecnología de computerización, decidió emplear el tiempo de conexión del que disponía en dotar a la red de contenidos. El primer texto que incorporó fue la Declaración de Independencia de los Estados Unidos (por supuesto debía ser un texto libre de derechos de autor) y lo envió a todos los terminales a los que tenía acceso, no más de un centenar de personas, como si de un actual virus informático se tratara. Así nació el primer e-Book del proyecto Gutenberg, siguiendo la terminología de Andrie Van Dam para referirse a las publicaciones digitales. Nosotros preferimos utilizar el adjetivo “digital” en lugar de “electrónico” tal y como recomienda la Presentación del número 142 de la revista Novatica, que recoge una selección de artículos de las Jornadas de Publicación Electrónica: un Nuevo Espacio de Comunicación, celebradas en la Universidad Carlos III de Madrid en Julio de 1999[1].

Hoy en día el Proyecto Gutenberg cuenta con un ideario bien definido en el que se expone su filosofía, y con más de cincuenta mil libros digitales publicados en más de cuarenta lenguas distintas. Se trata de un proyecto de colaboración en el que cada usuario puede contribuir con su tiempo o dinero en las múltiples tareas que requiere el mantenimiento y ampliación de todo el servicio. La contrapartida de todo esto es que su propia magnitud está complicando en la actualidad su capacidad de crecimiento, tanto por problemas técnicos de almacenaje, como por agotamiento de los recursos humanos necesarios.

Pero el proyecto continúa y lo hace siendo fiel a sus premisas de gratuidad y accesibilidad, lo cual es muy meritorio en una sociedad racionalizada en torno a la productividad material. Ante todo, creemos que Michael Hart merece ser recordado por su capacidad visionaria. En un momento en el que la Red era un sistema de comunicación ínfimo, él supo ver el potencial que albergaba y vislumbró un futuro en el que miles de millones de personas podrían acceder a miles de millones de libros simultáneamente. Michael Hart supo ver y aprovechar una cualidad importantísima de la tecnología digital, la que él denomino Replicator Technology, que consiste en la capacidad de todo documento que se sube a la Red para producir un número potencialmente infinito de copias, a las cuales se puede acceder desde cualquier parte del mundo (“o de fuera de este mundo gracias a los satélites”, se atreve a bromear en la página oficial del Proyecto).

No han sido pocos los escollos que el proyecto de Michael Hart ha tenido que sortear para mantenerse activo durante treinta y seis años. Su propuesta de distribución pública y gratuita cuestionó desde el momento en que se subió a la red la primera letra, la utilidad de mantener un sistema editorial que basa la mayoría de sus ingresos en ofrecer unos servicios (de recopilación y distribución de obras clásicas) que se tornaban innecesarios, al menos en el nivel más primario de acceso al texto, es decir, el de el acceso al texto llano sin demasiada precisión filológica. Esto ha supuesto naturalmente fuertes tensiones con el mercado editorial y con las sociedades de autores que continuamente pugnan por ampliar el plazo de prescripción de los derechos autoriales. No es en absoluto casualidad que el Proyecto Gutenberg no haya tenido prácticamente resonancia mediática, ya que por su naturaleza marginal al sistema económico capitalista no se ha podido invertir en propaganda para su visibilización. Antes bien, los fortísimos intereses económicos que el Proyecto pone en peligro, se han esforzado en silenciarlo y boicotearlo en la medida de sus posibilidades, y buena prueba de ello es el hecho de que ningún gobierno ha consentido apoyar un servicio que, en el fondo, no dista del ofrecido por las bibliotecas públicas.

La “Tecnología de Replicación” supuso un paso adelante demasiado grande para ser asumido por el Marco Institucional de las sociedades desarrolladas. Lo atestiguan las continuas polémicas suscitadas por los programas que permiten compartir datos como Napster, e-Mule… (herederos, todos ellos, de la iniciativa original de Michael Hart) que han puesto de manifiesto una importante laguna legal: ¿debe ponerse cortapisas al avance tecnológico por mor del mantenimiento de un sistema que no favorece a la mayoría? ¿Debe punirse la voluntad de compartir sin ánimo lucrativo lo que uno tiene? Lo cierto es que los defensores del “antiguo régimen” como por ejemplo la SGAE —un organismo que funciona con el mismo espíritu conservador e interesado de los gremios medievales— han intentado “parchear” la situación con la imposición de tasas a la compra de cedés vírgenes y otro tipo de medidas de dudosa moralidad, que en cambio han contado con el beneplácito de las autoridades estatales y la justicia.

Puede decirse que Michael Hart es la persona que durante más tiempo ha sufrido la patente falta de simetría entre los cauces legales tradicionales de distribución y recepción de la propiedad intelectual y los nuevos modelos de comunicación instaurados por Internet. En una magnífica entrevista realizada por Sam Vaknin en 2005, Hart resumía con esta tesis concisa e incisiva, la base de todo el problema:

I would have to say the most important thing I learned in the past 35 years of thinking about eBooks is that the underlying philosophy since time immemorial is:

"It is better if I have it, and YOU do NOT have it."

En cualquier caso la situación actual del Proyecto Gutenberg es muy interesante ya que en la nuevísima generación de contenido Web estamos siendo testigos de un renacimiento de este tipo de iniciativas basadas en compartir desinteresadamente y de manera cada vez más sencilla. Por supuesto el Proyecto Gutenberg no ha permanecido al margen de los nuevos sistemas de gestión de contenidos Wiki ni de los formatos de publicación cada vez más versátiles.

Además del Proyecto Gutemberg en los últimos diez años y gracias a la tecnología Web, han proliferado las bibliotecas digitales por todo el mundo. La Universidad de Alicante publica una lista de las bibliotecas digitales y virtuales más importantes de España y Estados Unidos, entre las que cabe destacar la del Instituto Cervantes, que es una compilación de 280 proyectos de bibliotecas virtuales, o la Virtual Library of the W3 Consortium fundada por el propio Tim Berners Lee, que constituye un importante índice de contenidos académicos en la Web realizado por especialistas de cada campo. Lo más interesante de estas iniciativas es que pretenden proveer de versiones de los textos tan fidedignas y precisas como cualquier libro editado en forma tradicional.

Pero no nos interesa aquí desviarnos del análisis de los sistemas Hipertextuales pre-Web. Los e-Books de Michael Hart cubren una parcela importante de la noción que pretende abarcar el Hipertexto: la de crear un índice accesible que contenga toda la literatura mundial. Pero para llegar a ser Hipertextos les falta la característica imprescindible de estar conectados entre sí por una red no jerárquica de hipervínculos por la que el lector pueda moverse a voluntad. Tal y como está planteado el proyecto de Hart, se trata más bien de una base de datos de textos digitales que de un auténtico sistema de Hipertexto.

Esto nos lleva al siguiente tipo de iniciativa de orientación Humanista, enderezada a dotar de contenido real al concepto, hasta el momento tenue y etéreo, del hipertexto.

Los primeros pasos de la ficción hipertextual.

La ficción hipertextual, es uno de los fenómenos más interesantes de la literatura actual. Ahora nos gustaría dar cuenta de sus inicios, de los primeros autores que experimentaron con el nuevo formato y teorizaron acerca de lo que el Hipertexto aportaba al panorama literario. Para ello es nos es indispensable remitir al final del apartado de este capítulo dedicado a las aportaciones técnicas, donde se habla de los sistemas pre-Web de producción hipertextual.

Como se ha dicho más arriba, durante los años ochenta se produjo una gran proliferación de programas de “edición digital”. Programas que ofrecían herramientas a los escritores para organizar sus textos introduciendo hipervínculos de varios tipos, diagramas del contenido, etc. La profesora Mª José Lamarca Lapuente, ha confeccionado una exhaustiva lista de todos estos programas detallando cada una de sus características técnicas. Sin ninguna duda es un recorrido interesantísimo por la historia de la “era digital”, y de una relevancia indispensable para todo aquel que se acerque al fenómeno de la literatura hipertextual, pero no podemos permitirnos aquí gastar un espacio precioso en describir sistemas que han quedado obsoletos cuyos productos nunca han terminado de adecuarse a lo que la sociedad actual requiere. De modo que nos centraremos en señalar algunos de los artefactos artísticos concretos y de los autores que de mayor visibilidad han disfrutado entre la crítica en general.

La empresa más a la vanguardia en lo que a comercialización de programas de producción hipertextual se refiere, era por los años ochenta Eastgate Systems. En 1986 Jay David Bolter, John B. Smith y Michael Joyce diseñaron para Eastgate un programa dirigido a escritores que quisieran adentrarse en la nueva ficción hipertextual: Storyspace. Explotando al máximo sus posibilidades, uno de sus creadores, el propio Michael Joyce, escribe Afternoon, a story, que se ha convertido en el hipertexto de ficción más citado y reseñado de la historia del medio. Se trata de un relato fragmentado en el que la mayoría de palabras constituyen un vínculo a otros fragmentos del relato. El lector se ve impelido a explorar el documento en busca del rastro de un sentido que no se le ofrece expedito, contribuyendo como co-autor a la configuración de la trama y su conclusión (o la falta de ella). Cada lector realiza su propio recorrido particular, diferente al de los demás en cuanto al orden de lectura, y esta exclusividad del texto al que cada lector accede, se intensifica gracias a un ingenioso recurso por el cual las palabras vinculadas del mismo fragmento varían según se haya llegado a él desde una u otra lexía (o fragmento del hipertexto).

La publicación de Afternoon representa un momento clave para la historia del término hipertexto. Michael Joyce consigue llevar más allá la noción de “publicación digital” de lo que proponía el libro elctrónico de Michael Hart, donde los vínculos, de existir, son meras herramientas para facilitar la exploración del texto. En Afternoon, el vínculo se presenta como elemento tectónico en la elaboración del relato, como instrumento indispensable para llevar adelante la ficción literaria. Por primera vez se pone en marcha un artefacto literario basado totalmente en la escritura digital, que desafía preceptos ancestralmente asumidos en la creación literaria como la linealidad, la univocidad, la conclusión y la singularidad, desvelándolos, más a las claras que nunca, productos de la tiranía de una determinada tecnología de la escritura: la del soporte físico de la tinta.

Naturalmente no fue Michael Joyce el primero en cuestionar los fundamentos más sacros de la literatura. El arte del siglo XX se ha caracterizado precisamente por un continuo movimiento de disensión con los valores establecidos. Ya las vanguardias históricas en los años veinte, y muy especialmente en el ámbito de las artes plásticas, pusieron en evidencia la especificidad de su medio físico, rompiendo con una tradición secular de operar en el arte que consistía en solapar las propias técnicas artísticas que se empleaban. La técnica del collage, que incorpora elementos de la realidad al plano de lo que antes sólo era mimesis de ésta, es quizás la muestra más patente y emblemática de este desafío a la Historia del Arte universal. Y no olvidemos el importante papel que desempeñaron acontecimientos tan prosaicos como los avances tecnológicos en materia de óptica, con la aparición de la cámara fotográfica, para el desarrollo de estas nuevas sensibilidades artísticas. Así mismo en teatro, el expresionismo alemán o el constructivismo, eran movimientos que exhibían pródigamente los artificios propios del medio teatral, y lo hacían simultáneamente al desarrollo y perfeccionamiento de las técnicas cinematográficas.

Pero sin movernos del campo literario, son múltiples los ejemplos de obras vanguardistas que se proponen derribar los mismos principios que el hipertexto, por sus propias características formales, suspende. El Cesar Vallejo de Escalas melografiadas, salta de un género discursivo a otro, de una voz narrativa a otra, de un tiempo a otro de la narración, de una manera que difícilmente podemos catalogarlo de lineal; la obra El público de Federico García Lorca, probablemente su incursión más radical en el surrealismo, carece absolutamente de conclusión; en cuanto a la univocidad, se trata de un antiguo caballo de batalla del siglo XX desde que Batjin reivindicara la polifonía en las obras literarias; finalmente, la singularidad de la obra artística también fue puesta en entredicho con la práctica de las performances ofensivas cuyo desarrollo dependía de la reacción del público, o con muchas de las propuestas dadaístas que incorporan objetos fruto de la producción en cadena a la palestra artística.

Hoy en día los autores con características hipertextuales más mencionados por la crítica son Borges y Cortazar.

En efecto, si tomamos una obra como El jardín de senderos que se bifurcan, casi nos parece inquietantemente premonitoria la descripción que Stephen Albert hace de la novela de Ts'ui Pên, al confrontarla con la actual estructura de los hipertextos:

Creía en infinitas series de tiempos, en una red creciente y vertiginosa de tiempos divergentes, convergentes y paralelos. Esa trama de tiempos que se aproximan, se bifurcan, se cortan o que secularmente se ignoran, abarca todas la posibilidades.

Recientemente en el curso Literatura i cultura llatinoamericana: discursos en la frontera, inscrito en el congreso Per la mar, sense fronteres que se celebró en Gandía en julio de 2007, el profesor Eduardo Ramos señalaba muy acertadamente un precedente en el mismo Borges de una propuesta de escritura hipertextual. Se trata de la falsa reseña titulada Examen de la obra de Herbert Quain recogida en Ficciones en 1941. Aquí Borges nos habla de una novela, April March, que define como “novela regresiva, ramificada” en la que a partir de un nodo central se van abriendo posibilidades que determinan otras posibilidades, exactamente como hace Michael Joyce en Afternoon.

Rayuela, por su parte, tiene una estructura eminentemente hipertextual, ya que rompe con la linealidad absolutamente, haciéndonos saltar de unos fragmentos de texto a otros mediante unas indicaciones a final de cada capítulo que recuerdan tremendamente a los hipervínculos. El final dudoso de la novela que desde el capítulo 131 nos remite al capítulo 58 para volver a remitirnos al 131 y así en un bucle más o menos infinito, refleja a la perfección la sensación que se experimenta al acercarse al final de Afternoon, cuando el lector comprueba cómo todos los hipervínculos que clica, le remiten a fragmentos ya leídos del texto.

Por supuesto Michael Joyce es ávido lector de sus predecesores y no le cuesta confesar su deuda contraída con Borges y Cortazar. De hecho, esta influencia patente nos lleva a reflexionar en qué medida los hipertextos producidos en programas pre-Web, tan influidos todos por la obra de Michael Joyce, no sean sino la puesta en práctica de unas ideas bien antiguas aprovechando nuevas tecnologías, antes que la evolución paradigmática del texto que conocemos, como pretenden sus vendedores. Porque Eastgate, y las demás empresas productoras de programas de creación de hipertextos, no dejan de ser marcas comerciales cuyo máximo interés reside en vender su producto. No podemos olvidar que Afternoon: a story, además de un indiscutible referente para toda la posterior ficción hipertextextual, era un modelo demostrativo de las posibilidades creativas que ofrecía el nuevo lanzamiento comercial de Eastgate, el programa Storyspace, en manos de uno de sus diseñadores. Hoy en día, gracias a la excelente promoción que les brindó el éxito de Afternoon: a story, Eastgate sigue vendiendo su programa Storyspace al más que razonable precio de 295 dólares.

Es cierto que estas plataformas que facilitaban la autoedición de hipertextos suscitaron gran entusiasmo en los años ochenta y Eastgate albergó a muchos de los autores pioneros de la crítica y la literatura hipertextual, como es el caso de Stuart Moulthrop, Shelley Jackson, Deena Larsen… todos ellos grandes teóricos de la literatura hipertextual, y sin duda reconocidísimos autores de ficciones hipertextuales. De hecho, gracias a la repercusión de muchos de estos autores que participaron del proyecto, hoy en día, Eastage consigue mantenerse a base de su papel como “distribuidora” de obras hipertextuales[2] diseñadas con sus programas. Pero el interés de toda iniciativa privada nunca es “mejorar el mundo”, como rezan sus campañas publicitarias, sino “aumentar sus ingresos”, y una buena manera de conseguirlo siempre ha sido la de introducir en el mercado un artefacto remediador de un problema que previamente no existía. Tanto más en la era de revolución tecnológica continua en la que vivimos.

Lo cierto es que, transcurridas dos décadas y un año desde la publicación de Afternoon, la popularidad de estos artefactos literarios producidos en sistemas del tipo Storyspace, lejos de crecer, ha disminuido bastante. Como veremos inmediatamente, la World Wide Web tiene mucho que ver con esto, pero además, consideramos que esta especie de objeto comercial que es Storyspce, que se autoimpone indispensable para la producción del hipertexto, restringe en tal medida la amplitud del término, que las obras producidas en este sistema, en nuestra opinión, no hubieran podido en ningún caso protagonizar la revolución literaria “definitiva” que en sus inicios preconizaban.

La primera restricción que supone un programa como Storyspace es la de producir documentos aislados. Estos programas hacen realidad punto por punto la definición nelsoniana de hipertexto en sus aspectos técnicos: permiten la producción de documentos formados por “una serie de bloques de texto conectados entre sí por nexos, que forman diferentes itinerarios para el usuario”. Su foco de atención recae sobre aquel anhelo al que aspiraba Vannevar Bush de crear un sistema de organización textual más acorde con los procesos perceptivos y asociativos del cerebro humano, que se emancipara de las limitaciones de un tipo determinado de tecnología basada en la linealidad. Y en este sentido cubren con bastante éxito la carencia de la que adolecía el e-book, de Michael Hart, que se limitaba a reproducir una tecnología analógica en formato digital. Pero al mismo tiempo, por tratarse de artefactos aislados, cuyos vínculos no pueden exceder por razones comerciales los límites de la compilación de fragmentos que dispone el autor, estos documentos traicionan una de las aspiraciones más interesantes de la noción de hipertexto: la de generar una red de textos que fuera capaz, en potencia, de albergar la totalidad de documentos que se produjeran en el mundo; precisamente el propósito establecido por Michael Hart en su Proyecto Gutenberg y, por supuesto, por Ted Nelson en Xanadu. La manera en que se comercializan, distribuyen y adquieren los hipertextos de Eastgate, explota óptimamente los recursos más avanzados de la “era de la reproductividad técnica”, pero no aprovecha el avance comunicativo más sustancial que le brinda la tecnología de Internet: la tecnología de replicación, “la capacidad de todo documento que se sube a la Red para producir un número potencialmente infinito de copias, a las cuales se puede acceder desde cualquier parte del mundo”. Este tipo de hipertextos son copias que facilita la empresa distribuidora a sus compradores vía Internet y que solo pueden ser explorado por el comprador. Adquirir uno de estos artefactos es como comprar una película o una fotocopia, pero lo que Internet nos propone funciona mucho más acorde con la filosofía globalizadora del hipertexto: nos ofrece un lugar en el que publicar una copia y que ésta se replique en la pantalla de todo aquel que acceda a ella simultáneamente. Se producen exactamente el mismo número de copias que terminales de ordenador la solicitan, y estas copias existen durante el mismo tiempo que dura su consulta. Con la añadidura de que los consultantes pueden guardar una copia perpetua del documento en su disco duro. Pero semejante facilidad para la transmisión de la información puede ser cualquier cosa menos rentable en términos económicos, y es por ello que se eludieron las posibilidades que ofrecía la tecnología replicante, tan apropiada para los objetivos organizativos y comunicativos que se perseguían, en las versiones comerciales que las empresas privadas desarrollaron del hipertexto en los años ochenta.

El otro problema que encuentro en esta noción concreta de hipertexto, no tiene tanto que ver con sus características técnicas o de distribución como con una cierta actitud de sus alentadores provenientes sobre todo del ámbito de la crítica literaria. El hipertexto literario fue presentado invariablemente por todo aquel que se interesó en el tema como una forma de superación de la literatura, en tanto que la tecnología rizomática de escritura de que se servía (tan apropiada al parecer a los mecanismos de asociación del cerebro humano) superaba la tecnología lineal de escritura precedente. Con ello se estaba diciendo que la forma tradicional de escritura había llegado a su fin y que sería sustituida por una nueva manera de comunicarse entre las personas, y de comunicar los propios sentimientos. La “muerte del libro” de la que tanto se venía hablando desde finales de los sesenta se concretaba literalmente, y en el lugar de los viejos tomos polvorientos surgía el hipertexto con sus ramificaciones asociativas entre nodos, a imagen y semejanza de los enlaces neuronales y los impulsos eléctricos que rigen el cerebro humano. De nuevo el ímpetu imaginativo llegaba al paroxismo alucinado como cuando Vannevar Bush pretendió conectar el Memex a los impulsos eléctricos cerebrales, para poder así controlarlo con la mente igual que el resto de actividades intelectuales.

Como hemos visto, detrás de este entusiasmo desaforado en torno al modelo de hipertexto literario que se estaba produciendo en los años ochenta, había en muchas ocasiones un interés puramente comercial. Pero además, consideramos que la situación por la que atravesaba la teoría literaria en aquellos años, en muchos sentidos servía de acicate a los teóricos que postulaban revoluciones copernicanas. La corriente post-estructuralista originada principalmente en Francia en torno a los acontecimientos del sesenta y ocho, cuajó en el ámbito académico norteamericano y se extendió por todo el orbe humanístico. Se comenzó a hablar de post-modernidad para describir los cambios sustanciales que experimentaba la sociedad; los principios en los que se asentaba la racionalización occidental eran cuestionados y, en la mayoría de producciones críticas de este periodo, se percibe una sensación de crisis de un modelo en el que algo ha cambiado o tiene que cambiar. De hecho, es muy interesante cotejar, como muchos otros han hecho, las nuevas nociones teóricas acerca del conocimiento, el texto, el arte, las instituciones… que se producen en esta época —casi siempre al margen de la investigación informática— con las innovaciones tecnológicas simultáneas que iban a alterar para siempre muchos de estos mismos conceptos. Pero este tema será tratado en profundidad en un apartado específico de esta tesis que se ocupará de las convergencias teóricas entre hipertexto y teoría crítica postmoderna.

Que los estudios literarios y sociológicos de grandes pensadores como Derrida, Roland Barthes, Foucault o Deleuze, estuvieran en estrecha relación con las nuevas formas de la tecnología de la comunicación, no es algo de lo que quepa sorprenderse. Ahora bien, que el formato de hipertexto en el que se desarrolla Afternoon: a story, fuera a sustituir la literatura impresa, me parece de una osadía tal que no soporta la crítica más exigua.

En primer lugar tenemos que sumarnos a la voz de Susana Pajares Tosca, en el tema referente a la supuesta identificación del sistema de almacenamiento y disposición del hipertexto con el modo en que se comporta el cerebro humano ante los datos e impulsos externos. Lo que esta autora plantea en su libro, Literatura digital: el paradigma hipertextual, es que no puede plantearse una reproducción de ningún tipo del pensamiento cuando “ni siquiera los neurólogos están seguros de cómo funciona exactamente la mente humana” (2004: 38). Un hipervínculo que relaciona dos fragmentos de texto puede “sugerir” la asociación mental que experimentamos cuando conocemos a alguien que nos recuerda a otra persona, cuando leemos algo en una novela que evoca a otro texto literario… pero todo eso no equivale a la reproducción de un sistema como el de la psique humana con sus anhelos, sus complejos, su capacidad creativa, su sensibilidad, sus dudas, sus miedos y, en definitiva, su libertad, porque a fin de cuentas, la principal limitación de los hipertextos en sistemas del tipo Storyspace, es el hecho de que el lector no pueda exceder las posibilidades de elección que le traza el autor. Lo que nos propone un hipertexto como Afternoon: a story es una tecnología que facilita enormemente la realización de ciertas actividades que ya estaban incluidas en la textualidad tradicional como posibilidades marginales, tal y como demuestran numerosos ejemplos de la literatura clásica a parte de los ya mencionados. Y las ha facilitado hasta el punto de convertirse en absolutamente centrales. Del mismo modo en que el medio impreso o físico impone al texto escrito una posición central y a los textos relacionados una posición de marginalidad, así, con la nueva tecnología, se disuelve toda relación jerárquica entre el texto base y sus relaciones. La “relación” es lo que pasa a ocupar el centro de interés.

Este tipo de hipertextos (que no dejan de ser una interesante forma de expresión) proporcionan un nuevo medio, no la superación del ancestral método de producción y recepción de textos que es la escritura. Afirmar una cosa así sería como afirmar que el cine es la superación del teatro por el hecho de que resuelva con facilidad muchos aspectos de la dramatización de una obra literaria que resultaban problemáticos en el medio teatral. La aparición de un nuevo medio puede imponer la reorganización de los otros medios, puede afectar a su popularidad, puede, incluso, inducir a los autores de otros medios a modificar sustancialmente la forma y el contenido de sus obras, en muchas ocasiones reforzando la especificidad del medio en que trabajan, pero en ningún caso puede sustituirlos situándose en su lugar.



[1] “Nos quedamos, en este caso, y en otros muchos más referidos a éste fenómeno [la Publicación Electrónica], enredados en la parte material y visible (pantallas, cables…) antes de aceptar y comprender que lo realmente importante está detrás de lo que vemos y tocamos, y que no podemos ver ni tocar: el espacio digital”. En la revista Novatica nº 142 Publicación Electrónica 1999

[2] A través de su página Web se pueden adquirir por el precio de 24 dólares algunas de las ficciones hipertextuales más conocidas y referidas de la historia. Y no sólo eso, también podemos comprar libros, hipertextos no ficcionales y poesía hipertextual, una interesante aplicación lírica del enlace que ya comentaremos a su debido tiempo.