lunes, 27 de agosto de 2007

WWW

Cuando comenzamos este recorrido cronológico por el término hipertexto, ya advertimos que nos moveríamos en un terreno movedizo, el terreno propio de una noción vinculada a un determinado desarrollo tecnológico en constante evolución, que pretende ser atrapada en los límites de un término acuñado en los años sesenta. A lo largo de estas páginas nos ha interesado analizar el porqué del éxito del término hasta nuestros días y, después de nuestras investigaciones, podemos concluir que este éxito tiene que ver con su capacidad para hacer cristalizar en él un viejo anhelo del pensamiento científico secularizado, un anhelo que atraviesa transversalmente toda disciplina académica basada en la optimización de una racionalización finalista: el de alcanzar un sistema de gestión de la información que facilitara al máximo la exploración del universo textual y el intercambio de documentos entre los seres humanos. Así mismo, no podemos dejar de advertir cómo buena parte del material bibliográfico que ha asumido su estudio (sobre todo aquel que, como nosotros, se ha interesado por las implicaciones literarias que despertaba), ha limitado la percepción del hipertexto al plano de su novedosa gestión de la información y su sistema de exploración del documento, dejando de lado esa otra parcela que tiene que ver con el libre intercambio de información. Esta tendencia se ve claramente ilustrada en el trabajo de recopilación de definiciones de hipertexto que ofrece la profesora Adelaide Bianchini de la Universidad Simón Bolívar de Venezuela, dónde observamos que casi todas las definiciones posteriores a los pioneros Vannevar Bush y Ted Nelson, hacen hincapié en los modelos de disposición y exploración de los documentos pero no en su capacidad comunicadora. Solo la definición de Janet Fiderio[1], directora de publicaciones del Antioch New England Institute, (incluir referencia) interesada en los sistemas de investigación y trabajo colaborativo, incorpora en su definición de hipertexto esa faceta comunicativa con la que soñaron sus predecesores. Es cierto que las innovaciones en la estructura del texto, con la ruptura de la linealidad, con la posibilidad de realizar un recorrido ergódico por la obra literaria… son nociones tan atractivas que por sí mismas justifican el interés de buena parte de la crítica, pero también creemos que en el olvido del componente comunicativo del hipertexto ha influido indebidamente una determinada versión del hipertexto que atendía quizás más a sus posibilidades comerciales que a la idea originaria de sus fundadores. Nos referimos por supuesto a los sistemas pre-web, de los que hablamos en capítulos anteriores. Sistemas que producían objetos electrónicos aislados, incomunicados con el resto del mundo, concebidos como obras finitas en las que el lector tiene un papel muy activo en su recepción, pero que se agota en cuanto ha terminado de explorar la totalidad de las lexías. Obras en definitiva, que hacen alarde de un soporte tecnológico avanzadísimo, en el que pueden desarrollarse con facilidad organizaciones complejas del material literario, pero que como tales, no incorporan ninguna novedad que no apareciera ya antes en Borges o en los libros juveniles de “elige tu propia aventura”.

El rápido e incontrolable desarrollo de la Web, quizás lo polémico de sus contenidos, el desastre financiero de las famosas “punto com”, su temprana y pingüe aplicación comercial… son quizás elementos que han mantenido a los sectores más conservadores de la crítica escépticos ante el valor de la profunda intrusión de la Red en nuestras sociedades. Al fin y al cabo se trata de una tecnología muy reciente (desarrollada mayormente durante los años noventa) y los recelos y precauciones ante cualquier invento novedoso son totalmente razonables en el mundo plagado de falsas necesidades en el que vivimos. Pero los años pasan y el argumento de la “tecnología en pañales” se agota. Llegados a este punto de la historia y de mi trabajo, me veo en la obligación de posicionarme con respecto a esta cuestión, sobre todo teniendo en cuenta los últimos avances en la Web con sus sugerentes aplicaciones literarias, y debo decir que la Web, por su explotación inteligente del recurso Internet, me parece no solo el sistema más interesante de publicación de hipertexto, sino además, la razón misma por la que hoy estamos hablando de ese mismo concepto.

Para ilustrar esta postura nos centraremos en dos momentos que consideramos clave para cifrar el verdadero valor de la Web: sus orígenes y desarrollo, que nos revelarán el propósito primero de la Web, su filosofía inicial y la manera en que estos principios han reaccionado a la evolución social y tecnológica del medio; y su redescubrimiento en el nuevo milenio, que nos conduce a la reflexión de la crucial importancia que el hipertexto está teniendo y sin duda tendrá en los estudios literarios.

Orígenes y desarrollo

Hablar de los orígenes de la Web es hablar inevitablemente del CERN (Conseil Européenne pour la Recherche Nucléaire), un laboratorio creado en 1954 al noroeste de Ginebra, cerca de la frontera entre Suiza y Francia, por doce países europeos para la investigación nuclear. Se trata de uno de los laboratorios más importantes del mundo, y su cometido, tal y como se expresa en la página oficial del CERN, es muy sencillo: estudiar la construcción de los bloques de materia y las fuerzas que los mantienen unidos. Ciertamente una de las más ancestrales preocupaciones de la ciencia, desde que el mismísimo Demócrito de Abderea desarrollara sus teorías acerca del átomo al comprobar que cualquier piedra al ser golpeada insistentemente con un martillo, se dividía en partículas cada vez más pequeñas sin perder un ápice de su masa. El CERN ha sustituido el martillo por una herramienta algo más grande e infinitamente más complicada: el acelerador de partículas. Hasta el año 2000 el CERN contaba con, la máquina más grande construida por el ser humano, el LEP, un acelerador de partículas de veintisiete kilómetros de longitud circular instalado a cien metros bajo tierra. Para principios de 2008 está prevista la inauguración de un acelerador de partículas aún mayor y más potente dónde podrán realizarse experimentos a velocidades relativistas y poner en práctica muchas de las teorías sobre la materia que hasta ahora solo se han comprobado en el papel. Me interesa transmitir la idea de enormidad de este centro de investigaciones porque serán precisamente sus dimensiones las que harán posible el desarrollo en su seno del invento que nos ocupa.

Y es que el CERN, además de un próspero centro de investigación, es un monstruo ingente. Actualmente cuenta con veinte países miembros para su mantenimiento y financiación, y otros veintiocho países no miembros participan en él con científicos de más de doscientos institutos y universidades. Tres mil empleados trabajan en el CERN a jornada completa, y alrededor de seis mil quinientos científicos e ingenieros, representantes de quinientas universidades y ochenta nacionalidades, lo que supone la mitad de los físicos prácticos de todo el mundo, utilizan sus instalaciones para sus investigaciones. Semejantes dimensiones junto con el uso indispensable del ordenador como herramienta de trabajo, han hecho que el CERN sea históricamente (y continúe siéndolo en la actualidad) la mayor Red de Área Amplia de ordenadores del mundo.

En 1980 el CERN ofrece contratos a jóvenes investigadores para colaborar en el proceso de sustitución del sistema de control de dos de sus aceleradores de partículas, y así es como el joven ingeniero informático Tim Berners Lee entra en contacto por primera vez con este gigantesco laboratorio. Desde el primer momento Berners Lee quedó fascinado por la cantidad de información que se producía y se compartía en el CERN. Miles de investigadores de todo el mundo realizaban experimentos allí, para luego utilizar los datos obtenidos en proyectos de muy diversas instituciones, sin la necesidad de que el propio centro ejerciera una auténtica autoridad común. A Berners Lee le preocupaba que mucha de la información valiosa que se producía o con la que se especulaba en el centro, se perdiera en las libretas o la imaginación de muchos científicos que trabajaban temporalmente en el CERN, a los que era muy difícil seguir la pista. De hecho tenía serios problemas para localizar entre los más de diez mil colaboradores del centro, quién había programado tal o cuál fragmento de software cuando su trabajo lo requería. Así que diseñó un pequeño programa en lenguaje Pascal, el Enquire, en el que podían incorporarse páginas con la información referente a personas, programas o proyectos como en un archivador o una base de datos. Lo original del programa era que solo se podía generar una nueva página o “nodo” mediante la creación de un hipervínculo desde otra ya existente. El “link” quedaba registrado al final de cada página, como si de una referencia bibliográfica se tratara. La exploración del archivo no se realizaba con arreglo a un esquema determinado de orden alfabético, numérico o temático, sino saltando de un nodo a otro a través de sus vínculos de manera transversal, sin pasar por un centro o núcleo de información determinado. Naturalmente el Enquire funcionaba solo en el ordenador de desarrollo de software del grupo, y cuando terminó su periodo de trabajo, el disquete de doce pulgadas que lo contenía quedó prácticamente olvidado en algún cajón del departamento. Pero el germen de aquella idea persistiría en la mente de Berners Lee hasta convertirse en algo mucho más grande de lo que nunca hubiera podido imaginar.

En 1984, Tim Berners Lee regresa al CERN en calidad de becario para el departamento de “adquisición y control de datos”. El centro había crecido enormemente durante los cuatro años de su ausencia, se estaba construyendo el famoso LEP, y contaba con los últimos avances tecnológicos fruto de la explosión informática, aunque cada investigador usaba sus propios aparatos con los sistemas particulares del centro de investigación del que provinieran. El departamento para el que trabajaba Tim Berners Lee se encargaba de gestionar y facilitar la información entre todos los ordenadores y redes del centro, con lo que la utilidad de un programa del tipo Enquire se hacía cada vez más patente.

Durante algunos años Tim Berners Lee se centró en un tipo de software especializado en permitir que los documentos se puedan almacenar y más tarde se recuperen. De este modo entró en contacto con la novedosa Internet, que se estaba desarrollando en Estados Unidos y expandiendo a Gran Bretaña y el resto del mundo gracias a los satélites, facilitando la comunicación entre universidades y otras instituciones. La ventaja que ofrecía Internet para los sistemas de documentación era que establecía un protocolo universal el TCP/IP que garantiza que distintas redes físicas funcionen como una red lógica única. Mediante estos estándares convencionales los ordenadores pueden enviarse datos a través de distintos medios como líneas telefónicas, cable de televisión o satélites. El ordenador usa un software especial para descomponer los datos en paquetes conforme a los dos protocolos de Internet que controlan el modo en que los paquetes serán enviados: IP (Internet Protocol) y TCP (transmisión Control Protocol). El software etiqueta cada paquete con un número único y envía los paquetes a otro ordenador que usa el propio software de Internet para descifrarlos según las etiquetas. El problema de los estándares y protocolos comenzaba a ser de una importancia medular para el propósito de Tim Berners Lee, tanto más cuando el CERN no usaba los protocolos TCP/IP de Internet porque tenía su propia red inmensa con su propio sistema de correo electrónico, que era la aplicación más interesante que podía ofrecer Internet por aquellos tiempos.

Al mismo tiempo, Berners Lee estaba muy interesado en el hipertexto ya que éste encarnaba a la perfección el tipo de gestión del documento que él había previsto para su Enquire. Conoció los trabajos de Ted Nelson y el proyecto Xanadu y congenió inmediatamente con la idea de generar un espacio virtual en el que pudiera explorarse la totalidad de la documentación generada por la especie humana. De hecho su versión del hipervínculo estaba inspirada en una idea de Ted Nelson, que más tarde sería utilizada en el “Hipercard” de Apple Computer y otros sistemas pre-Web. Decidió que en su sistema, los hipervínculos serían palabras resaltadas de algún modo en el propio texto, y cada vez que el usuario clicara en una de estas palabras resaltadas, aparecería la información vinculada en su pantalla. Como el propio Berners Lee reconoce en numerosas ocasiones en su libro Tejiendo la Red, su mayor logro fue encontrarse en el lugar adecuado en el momento adecuado: Internet ya estaba consolidándose y el hipertexto disfrutaba de un cierto recorrido y aceptación; él solo tuvo que encontrar la manera de “hacer que casaran”.

Se había propuesto llegar al “hipertexto global”, pero para ello necesitaba que le aceptaran un proyecto de investigación en el CERN, y al ser éste un centro dedicado a la física, se hacía complicado conseguir financiación para un proyecto informático por más que estuviera encaminado a la gestión de la información del propio centro. Dos cosas fueron necesarias para llevar adelante el proyecto. La primera fue conseguir que el CERN comprara un NeXT, un nuevo ordenador personal creado por Steve Jobs, el fundador de Apple Computer, en el que Tim comenzó a programar su idea con la excusa de experimentar con el nuevo sistema operativo y el entorno altamente intuitivo del nuevo NeXT. Pero el paso decisivo resultó el apoyo de Robert Cailliau, un veterano programador del CERN que se mostró desde el principio muy entusiasta con las ideas de Berners Lee. Gracias a los contactos de Calliau, el CERN permitió definitivamente a Tim Berners Lee trabajar en su programa.

Buscando la forma definitiva de su programa, Berners Lee se acercó, naturalmente, al campo de investigación del hipertexto. En 1990, acude a la Conferencia Europea sobre Tecnología de Hipertextos (ECHT) en Versalles. Allí conoció Guide, el editor de hipertextos diseñado pro Peter Brown[2], y quedó impresionado por la manera en que habían resuelto la creación de hipervínculos y la navegación por el documento, tan similar a la que él mismo había imaginado para su propósito. Habló con los responsables del Guide y de otros interesantes proyectos sobre las posibilidades que ofrecería utilizar esas tecnologías a través de Internet, pero todos se mostraron escépticos ante su entusiasmo, en parte porque no era fácil hacerse una idea de sus propósitos sin una demostración práctica, en parte por los decepcionantes resultados comerciales de demasiadas iniciativas revolucionarias en los últimos años.

Por supuesto, también se interesó por los avances en materia de libros digitales, aunque al parecer, Tim Berners Lee desconocía por aquella época el Proyecto Gutenberg de Michael Hart, que proponía una interesante fusión de Internet con la letra digital. Se dirigió a la compañía Electronic Book Technology, pero estos tampoco fueron capaces de imaginar sus propósitos. La mayoría de técnicos, concebían los libros digitales como si de programas informáticos se tratara, es decir: como documentos compilados en un lenguaje de programación apto para ser decodificado y mostrado de forma eficaz por un software determinado. Pero Tim Berners Lee estaba pensando en un documento cuyo lenguaje cifrado original se enviara directamente por Internet y fuera el ordenador receptor el encargado de decodificarlo y mostrarlo en su formato definitivo. Esta perspectiva suponía la ausencia de cualquier tipo de “centro” en el sistema, la ausencia de una base de datos central en la que almacenar la información y gestionar los vínculos. Pero al parecer los del EBT no compartían esta filosofía, no comulgaban con el novedoso modo de pensar en rizoma (incluir aquí algún dato sobre el rizoma, sobre Guatari??).

Finalmente Tim Berners Lee se decidió a llevar a cabo con sus propios medios la programación de su proyecto, al que decidió llamar World Wide Web (pese a la complicada pronunciación de sus siglas), nombre que en español se traduce con cierta dificultad[3]. Sus medios consistían en el modernísimo NeXT a través del cual pudo programar un procesador de texto apto para sus propósitos. Luego ideó un sistema que permitía al programa diferenciar el texto que fuese vínculo del que no lo fuese y en este entorno redactó el código para el Protocolo de Transferencia de Hipertexto (Hypertext Transfer Protocol, HTTP), el lenguaje que los ordenadores usarían para comunicarse por Internet, y el Identificador de Recursos Universal (URI), el esquema para direcciones de documentos. Desde ese momento quedó establecido el modelo de dirección Web, el denominado URI o URL de una página Web que empieza por “http://”. Ese mismo año terminó de programar el Lenguaje Markup de Hipertexto (HTML), que describía cómo formatear páginas que contengan vínculos de hipertexto. Se trata del lenguaje de programación en el que están escritas todas las páginas Web de Internet, el preciado código que tantos beneficios ha reportado y sigue reportando a sus depositarios (posibilidad de alargar este argumento).

Definitivamente escribió el primer servidor del Web: el software que contiene páginas web en una parte de un ordenador y permite a otros acceder a ellas. Registró un nombre para él en la red de ordenadores del CERN, “info.cern.ch”, de manera que el servidor no estuviera atado por su dirección al NeXT, y podía trasladar toda la información que quisiera con sus hipervínculos a cualquier otro aparato sin causar ninguna modificación.

Toda la arquitectura básica de la World Wide Web estaba diseñada, pero solo funcionaba en la plataforma del NeXT y en la red, grande pero restringida, del CERN. El siguiente paso era mejorar el navegador y conseguir que siguiera vínculos no solo de servidores http, sino también de los incipientes artículos de noticias y grupos de noticias de Internet, que utilizaban un protocolo llamado FTP (File Transfer Protocol). Una vez hecho esto, gran cantidad de información ya existente en Internet pasó a estar disponible en el Web. Así mismo trabajaron profundamente en la estandarización del código de programación para que pudiese ser compatible con el mayor número de documentos sin importar el tipo de ordenadores donde estuvieran almacenados. El punto realmente interesante del Web sería que dos grupos pudieran utilizar el Web de manera totalmente independiente en instituciones distintas, y que una persona de un grupo pudiera crear un vínculo a un documento del otro sin tener que fusionar las dos bases de datos del documento o ni siquiera tener acceso al otro sistema.

Berners Lee era consciente de que su proyecto de Web global, excedía los términos del CERN sin ser de una utilidad inmediata para el mismo. Pero las perspectivas que Berners Lee vislumbraba para el futuro de la Web eran demasiado atractivas como para dedicarse a un objetivo más pragmático y limitado. El hecho de que el propio CERN fuera prácticamente un organismo acéfalo, posibilitaba un alto grado de independencia para los investigadores y sus proyectos. El CERN era una comunidad inmensa de científicos con un ambiente altamente creativo. Las razones tácticas, políticas, o propagandísticas que llevaran a los distintos países e instituciones a enviar allí a sus científicos, quedaban relativizadas ante la aventura del progreso científico efectivo y el intercambio de información entre tantos expertos. Un sistema de trabajo como éste, deslindado de presiones políticas, de la presión de tener que publicar, de tener que justificar el trabajo en términos de rentabilidad comercial, de cumplir una determinada cota de patentes… fue estrictamente necesario para el desarrollo del proyecto de Tim Berners Lee. Fue indispensable ese grado de “incondicionalidad”, que permitió a Berners Lee disponer de equipo humano y tecnológico suficiente para llevar a cabo un proyecto marginal a los estudios físicos que solían desarrollarse en el CERN, solo por su creatividad y el interés general que podía suponer para la humanidad. Como en la Universidad ideal imaginada por Derrida, el conocimiento real y útil a la humanidad, es algo que tiene que darse “sin condición”, al margen de los poderes estatales, mediáticos, ideológicos, religiosos y culturales que traten de apropiarse de él. Berners Lee llevó adelante un proyecto por su potencial utilidad para la comunicación humana, pero del que nadie en principio, ni siquiera el propio CERN, iba a extraer un beneficio particular, siguiendo la misma lógica altruista de la que hablamos en el caso de Michael Hart y su Proyecto Gutenberg. De hecho, en el prefacio de Tejiendo la Red (libro en el que Berners Lee explica todos los pormenores del desarrollo de su proyecto), Michael L Dertouzos, director del Laboratorio de Ciencia Computacional del Instituto Tecnológico de Massachussets, alaba precisamente ese interés incondicional de Berners Lee por sacar el máximo partido a las posibilidades del Web, por hacer del Web algo útil antes que algo productivo:

Cuando conocí a Tim, me sorprendió otro rasgo suyo único. Mientras los técnicos y los empresarios lanzaban o fusionaban compañías para explotar el Web, parecían fijarse sólo en una cuestión: “¿Cómo puedo hacer mío el Web?”. Mientras tanto, Tim preguntaba: “¿Cómo puedo hacer vuestro el Web?” (…) Su objetivo permanente era asegurarse de que el Web avanzase, floreciese y permaneciera íntegro, a pesar de los tiras y aflojas de todas las empresas que parecían querer controlarlo. Introducir cita.

Es en este sentido que consideramos el Web como el modelo que más se ajusta a los anhelos y aspiraciones que dieron luz al término hipertexto. Un término que nace de una vocación humanista de comunicación libre y acceso a la información, más allá de ningún proyecto preciso de realización, y que encuentra en la tecnología informática una herramienta felizmente apropiada para hacerlo realidad. Esa misma indeterminación en la forma definitiva del objeto hipertextual, es compartida por el World Wide Web en su propia naturaleza original. Puede que las primeras páginas Web no tuvieran la estructura más idónea o no optimizaran los últimos avances desarrollados por otros sistemas de hipertexto, pero las direcciones URI y el Protocolo de Transferencia de Hipertextos, así como el lenguaje de programación Web diseñado para poder viajar por Internet, no eran sino los pilares de un nuevo canal de comunicación entre las personas. Y fue gracias a esta capacidad comunicativa del Web, junto con su indefinición originaria, que se hizo posible la colaboración entre miles de personas en la mejora de los navegadores, el desarrollo de motores de búsqueda, la creación de nuevas aplicaciones… y finalmente en dotar de un contenido de interés a sus páginas, para llegar al modelo, o modelos, de hipertexto que podemos encontrar actualmente en la Red.

En 1991 la Web está funcionando aunque carece casi prácticamente de contenidos. Robert Coalliu y Tim Berners Lee se encuentran en plena campaña de difusión de su posible gran proyecto. Naturalmente acuden a la máxima autoridad por el momento en materia de hipertexto, la conferencia Hypertext que organiza anualmente la ACM, de la que hablamos en el anterior capítulo (introducir referencia). Redactan una propuesta de ponencia para explicar al mundo la World Wide Web, pero es rechazada por los organizadores por falta de referencias en la materia, defectos de forma y en parte también porque su arquitectura, efectivamente, no se amoldaba a los complejos sistemas de hipertexto que se usaban por entonces. Aun así, les permitieron llevar acabo una pequeña demostración de lo que podían hacer con su terminal de NeXT y un módem. La exhibición tuvo que hacerse con un acceso restringido a Internet porque el hotel donde se celebraba carecía de conexión. Nadie quedó muy impresionado. El mundo del hipertexto tenía formulado ya un discurso particular y un aparato crítico en el que no cabía la presencia de Internet. Se habían amoldado a un concepto de hipertexto en el que solamente existiera el vínculo en el interior del documento, de un fragmento a otro, pero no el vínculo externo, a la realidad virtual de Internet formada por imágenes, mapas, correos electrónicos, programas y otros documentos. No es de extrañar esta reacción, pues por aquel entonces pocos conocían Internet en profundidad, y aun menos eran capaces concebir siquiera el concepto de “vínculo externo”.

Si acudimos a la recopilación de todas las conferencias Hypertext and Hypermedia de la ACM que ofrece por ejemplo Interaction-design.org, observamos cómo paulatinamente el World Wide Web va incrementando su presencia en las conferencias que se pronuncian año tras año. En 1993 comienzan a aparecer títulos relacionados con la cooperación hipertextual, con los navegadores Web y las redes; en 1994, Peter J. Brown, que conocía de primera mano las primeras tentativas de Berners Lee de relacionar Internet con el mundo del hipertexto, pronuncia una conferencia titulada Adding Networking to Hypertext: Can it be Done Transparently?, y aparece por primera vez de manera expresa el tema de la World Wide Web en la conferencia de Robert Glushko, Dale Dougherty, Eliot Kimber, Antoine Rizk, Daniel M. Russell y Kent Summers, titulada HTML -- Poison or Panacea?; en el siguiente congreso, en 1996, el propio Michael Joyce, junto con Robert Kolker, Stuart Moulthrop, Ben Shneiderman y John Merritt Unsworth, presentan su conferencia Visual Metaphor and the Problem of Complexity in the Design of Web Sites: Techniques for Generating, Recognizing and Visualizing Structure. Notamos cierto recelo a aceptar la Web como un sistema completamente válido de edición y recepción hipertextual en todas estas ponencias, y naturalmente esta visión conservadora será la tónica dominante en el estado de la cuestión durante algunos años. Pero para bien o para mal, lo cierto es que la WWW irá acaparando progresivamente el interés del congreso sobre Hipertexto de la ACM de manera ininterrumpida hasta nuestros días. Una rápida hojeada al programa de la conferencia de éste año, Hypertext 2007, nos revela cómo lejos de estabilizarse el interés de los investigadores por el Web, éste no deja de crecer, hasta el punto de constituir, abiertamente ya, el tema de toda la conferencia. Incluso podemos observa un renovado impulso en el interés general por el hipertexto literario, que habla de una nueva generación Web con características semánticas, de los nuevos usos de la investigación literaria en la Web, de las características literarias del Weblog, de la literatura Wiki…

Y es que la WWW no es una tecnología definitiva. Desde que se puso en funcionamiento el valor y la utilidad se la han dado personas anónimas (en muchos casos expertos en informática) que han construido y mejorado el hiperespacio, compartiendo sus aportaciones sólo por la satisfacción intelectual de ver como una herramienta crece y se perfecciona. Pero para favorecer esta colaboración, era necesario que la mayor cantidad de personas posible pudiera participar. Berners Lee tenía serios problemas para conseguir una absoluta compatibilidad entre el prototipo de Web para su ordenador NeXT, y el resto de ordenadores personales PC, Macs o Unix, lo que limitaba mucho la expansión del proyecto, y en el CERN, había muchos físicos, pero no demasiados programadores informáticos. Fue por ello que en agosto de 1991, Berners Lee saca fuera del CERN el World Wide Web que usaba en su NeXT, el navegador y el servidor básico para cualquiera aparato. Lo publicita por Internet, especialmente en un grupo de noticias, alt.hypertext, vinculado al mundo del hipertexto, y poco a poco la gente fue conociendo el Web, montando sus propios servidores y lo más importante de todo: manteniendo un inestimable contacto vía e-mail con Berners Lee y su equipo gracias al cual podían resolver problemas, comentar mejoras, producir ideas… Pronto comenzó la batalla de los navegadores. La gente programaba sus propios navegadores que rastreaban con más eficacia los documentos de Internet, e incluso algunos de estos navegadores se comercializaban.

Llegados a este punto se planteó la posibilidad de registrar la Web y cobrar alguna tasa de licencia por su uso, pero Tim Berners Lee sabía que si lo hacía dejaría de tener la audiencia masiva que necesitaba el proyecto para alcanzar su objetivo primero: el hipertexto global. Si comenzaban a cobrar tasas, por pequeñas que fueran, la gente, las empresas y las instituciones comenzarían a tener reparos en utilizar el Web por miedo a excederse en sus derechos y sufrir alguna demanda. Además esto terminaría con la participación popular y altruista en la mejora del servicio, factor que objetivamente daba una garantía cualitativa al proyecto. Berners Lee desconfiaba de las licencias y las tasas. Había visto como otras iniciativas de gestión de contenidos de Internet, claudicaron en el momento que registraron bajo una licencia comercial el uso de su software. Él miraba en otra dirección, miraba en la misma dirección que miraba Richard Stallman, el presidente y uno de los fundadores de Free software foundation, una organización no lucrativa que desde 1985 difundía la filosofía del software libre, y que había desarrollado la Licencia Pública General (GPL), que permitía que las cosas se distribuyesen y usasen libremente, mientras controlaba que cualquier modificación entrara bajo la misma GPL. Berners Lee pidió al CERN que colocase los derechos de propiedad intelectual del World Wide Web bajo licencia GPL, pero el CERN no lo veía claro, y algunas compañías, como IBM, habían declarado que no permitirían que el Web entrase en sus instalaciones bajo ningún tipo de licencia. Finalmente, Berners Lee solicitó permiso al CERN para poner la tecnología Web a disposición del público sin ataduras. A finales de 1993 recibieron la declaración por parte de la dirección del CERN, que accedía a permitir a todo el mundo el uso del protocolo y el código web gratuitamente, crear un servidor o un navegador, repartirlo o venderlo, sin ningún royalty ni otras cargas (pág 69).

El tema de la libertad, que atraviesa toda la historia del hipertexto, es también un término en constante debate en el ámbito más general de la tecnología informática. “Libertad” es una palabra excesivamente presuntuosa. Pretende definir un estado del ser que, en rigor, es prácticamente inalcanzable. Siempre hay algo o alguien orbitando sobre nuestras conciencias que nos veta la posibilidad de realizar acciones que de otro modo emprenderíamos sin dudarlo. Desde esta perspectiva homocéntrica los únicos que pueden ser realmente libres, como reza el tropo ancestral, son los animales salvajes, es decir, aquellos que carecen de normas sociales, morales o legales. La noción de libertad entonces, se encuentra en diálogo permanente con la norma colectiva, más concretamente con su plasmación efectiva: el Marco Institucional. Y en cada momento de la historia, su reivindicación señala un conflicto entre la sociedad, o una parte relevante de ésta, y algún aspecto constitutivo de este Marco Institucional. Cuando en la Revolución francesa se gritaba la palabra libertad, en realidad se estaba reivindicando una cosa muy precisa, un cambio institucional muy concreto: terminar con el “Derecho divino” del estamento nobiliario; La libertad que proclamaban los artistas de las vanguardias históricas, era una manera de protesta contra una determinada institución arte que no consideraban que les representara; el exitoso concepto de libertad que tanto ha explotado el Imperio norteamericano, se basa precisamente en el tropo del animal salvaje: la individualidad absoluta y la lucha competitiva mediante los propios recursos, que también puede ser definida como la oposición al Marco Institucional absoluto que planifica cada parcela de la vida social, es decir, el comunismo. Sus resonancias épicas y capacidad para funcionar como antónimo de “esclavitud”, hacen del término libertad un magnífico eslogan para cualquier causa. Pero no conviene olvidar su naturaleza excesiva, si queremos concretar con objetividad cuál es el conflicto con el Marco Institucional que señala, en cada caso, su reivindicación.

En el caso del hipertexto, englobado ya como elemento preeminente del ámbito de la informática, la reivindicación de la libertad destapa una disconformidad de cierta parte de la sociedad con un apartado muy específico de la legalidad occidental: aquel que se refiere al intercambio libre entre los ciudadanos, lo que afecta muy seriamente a las condiciones de la propiedad intelectual. El propio concepto general de hipertexto establece, desde su misma enunciación, un debate moral a cerca de los límites de la propiedad intelectual y de quiénes deben ser sus depositarios; la realización práctica de un universo hipertextual de dimensiones globales gracias a Internet, traslada este mismo debate a los tribunales: el lugar donde se gestiona públicamente nuestra asignación de libertad.

Quisiera advertir en este punto la inexcusable toma de posiciones que debería asumir la comunidad académica en torno a esta cuestión, tanto más desde el ámbito de las humanidades que, siguiendo a Derrida, deberían tratar la historia de lo “propio del hombre” opuesto a los rasgos propios de lo animal, y por consiguiente tendrían qué decir en cuanto al Derecho humano (Referencia). Pero en cambio, éste es un tema hasta el momento muy restringido a la comunidad tecnológica y a las universidades politécnicas, en las que como todos sabemos, ciertos departamentos de ciencia aplicada funcionan como sucursales de consorcios a través de firmas internacionales y enormes masas financieras. En cambio, los departamentos de humanidades rara vez se pronuncian sobre el tema, quizás alguna idea, alguna voz aislada… cuando lo que verdaderamente necesitamos es una posición firme, pública y unívoca si queremos asegurar un futuro en el que Internet llegue a representar la vocación, común a la de la universidad, de convertirse en un espacio público de comunicación, información, archivación y producción de saber. El ejemplo de la Junta de Extremadura, que ha sido galardonada con varios premios nacionales e internacionales por su diligencia en la instalación de software libre en la administración autonómica, debería servirnos para despejar cualquier recelo que pudiera albergarse con respecto a la licitud de promover el software libre, y es que, de momento, no se conoce de nadie que haya sido premiado por lo contrario. Por mi parte, considero que la tesis resultante de este trabajo de investigación, constituiría un espacio privilegiado para tratar este tema concreto, que afecta tanto a la obra artística como a la labor investigadora, desde una perspectiva humanística no condicionada por los intereses lucrativos de un departamento subsidiario de ninguna compañía.

Mientras el debate sobre la propiedad intelectual se perpetraba, la WWW continuaba su avance imparable. La generalización del uso de Internet, en parte gracias al sistema organizativo y la facilidad de publicación que aportó la introducción del hipertexto, suponía un cambio paradigmático, un paso decisivo que modificaría definitivamente la sociedad. Pero suponía también la salida de Internet del ámbito académico o institucional, y su ingreso repentino como medio de difusión en la más llana realidad: la realidad mercantilista propia del capitalismo occidental. En este nuevo contexto, el valor de cualquier cosa se mide en términos del dinero que esa cosa pueda producir, así que la primera reacción que produjo a escala social fue la de tratar de encontrar la manera de hacer dinero con el nuevo medio. Las empresas vieron en la WWW una estupenda plataforma para publicitar sus productos. Además podían venderlos mediante transferencias bancarias y rematar la transacción utilizando la tradicional infraestructura postal. Algunas empresas ni siquiera necesitaban ese último paso porque ofrecían productos de Software, que podía ser enviado mediante la propia Internet. Se desarrollaba todo tipo de servicio en línea como noticias, enciclopedias, información de viajes, e-mail… y toda esta actividad comercial venía acompañada de una intensa investigación en la tecnología Web. Programadores e informáticos creativos de todo el mundo, desarrollaban todo tipo de aplicaciones para hacer más atractivas las páginas. Por sintetizar, simplificando mucho, podríamos decir que dos hitos tecnológicos determinan en este periodo el éxito de la Red. Mark Andersen junto con su socio Jim Clark, desarrollan el navegador Mosaic, con un entorno de ventanas basado totalmente en X-Windows de Unix (un programa que nada tenía que ver con Microsoft). Este avance en el sistema de navegación, con ventanas simultaneas y controlado mediante el puntero del ratón, determinó la manera de navegar por el Web que hoy en día todos conocemos. Por otra parte, ya en 1995 Sun Microsystems introdujo Java, una modificación del lenguaje de programación Oak de James Gosling, originalmente diseñado para aparatos como teléfonos, tostadoras y relojes de muñeca. Pequeños programas programados en Java, llamados applets, podían ser enviados entre ordenadores por Internet y funcionar directamente en una página web, lo que multiplicó las posibilidades en el diseño web y en su usabilidad.

Pero la mayor batalla comercial que tuvo lugar en Internet durante los años noventa, por sus dimensiones económicas y su impacto en el posterior desarrollo de la World Wide Web, fue sin duda la de los navegadores. El navegador se encarga de hacer una petición a la red, de una determinada dirección URI en la que se especifica el documento y el servidor en que está alojado. Si el documento está disponible, interpreta el código HTML/CSS/Javascript y lo devuelve al terminal solicitante con una presentación acorde con el medio visual utilizado. Un paso importante fue el que dio la empresa Navisoft Inc. cuando lanzó su navegador Navipress, que permitía navegar por duocumentos y editarlos al mismo tiempo. Pero el navegador más exitoso fue Netscape, un navegador en un entorno de “ventanas” desarrollado por Mark Andersen, el inventor de Mosaic. En 1994 Mosaic, traslada su sede a California y cambia de nombre por Netscape. La primera versión del navegador de Netscape fue Mozilla. Se trataba de una versión beta pensada para que la gente la utilizara y comentara sus carencias y mandase sugerencias para mejorarla. Cuando en diciembre de 1994 lanzaron la versión comercial Navigator 1.0. Fue un navegador muy significativo para la historia de la Web, no tanto por sus características técnicas, aunque habían conseguido mejorar sustancialmente la seguridad en el comercio electrónico con tarjetas de crédito, sino por la nueva dinámica de marketing que estableció. Una dinámica que marcó la tendencia general de los negocios web: ofrecer el producto gratis por la Red, hasta que fuera mundialmente famoso y omnipotente. A los pocos meses de aparecer, casi todos los usuarios de Internet funcionaban con el Navigator 1.0. La idea fundamental era crear una plataforma desde la que lanzar otros productos que pudiera cobrar. Así mismo atraería a millones de personas a la página de entrada de Netscape, la pantalla que se abría por defecto cuando en el Navigator, dónde se mostraban anuncios de compañías que pagaban por llegar a una gran cantidad de gente. El sitio también informaría instantáneamente a los navegadores de los demás servicios de Netscape, por los que la compañía podría cobrar. Hoy en día reconocemos esta dinámica comercial en todos los servicios web que conocemos. El caso más espectacular y rentable es el de Google, que no es un navegador, sino solamente un motor de búsqueda de URIs, que ha conseguido extenderse por todo el mundo gracias a incrementar incesantemente y de manera gratuita la calidad de su servicio.

Microsoft, por aquella época intentaba quedarse con Netscape siguiendo su política tradicional de comprar la competencia, para incorporarlo en su nuevo sistema operativo Windows 95. Pero nunca llegaron a un acuerdo y finalmente Microsoft comenzó a trabajar en un navegador propio. Para poder competir con Microsoft Netscape tenía que crecer rápido y su director Jim Barksdale, decidió hacer pública la compañía. La Oferta Pública Inicial (IPO) se realizó el nueve de agosto de 1995. Wall Street estaba pagando muy bien las acciones de alta tecnología, así que se lanzó con un precio relativamente alto de veintiocho dólares por acción. Pero la demanda hizo subir rápidamente las acciones a setenta y un dólares. Muchas grandes instituciones se interesaron por hacerse con una buena parte de la compañía, y finalmente al cierre de la bolsa hubo treinta y ocho millones de acciones en el mercado. Después de un solo día en bolsa Netscape valía 4500 millones de dólares. Era la mayor IPO de la historia, y eso que la compañía aún no había demostrado tener beneficios.

Esta operación bursátil sin precedentes inauguró un fenómeno que duró aproximadamente cinco años, en el que el precio de las acciones relacionadas con empresas “punto com” se disparó fuera de control, en muchas ocasiones impulsado por las firmas de capital riesgo y las corredurías de bolsa, que vendieron la moto de hacerse ricos jugando en bolsa al público en general. El magnífico blog de cultura y actualidad informática Microsiervos, recordaba, hace ahora un par de años, el décimo aniversario de la IPO de Netscape en una entrada concisa pero repleta de interesantísimos comentarios. Este episodio financiero terminó como todos sabemos con la quiebra de muchas empresas “punto com”, que nunca llegaron a producir ni de lejos, el dinero por el que cotizaban en bolsa. En realidad la valoración en bolsa de los títulos de una empresa siempre se efectúa con arreglo a las expectativas de beneficios a futuro, y poco importa lo que haya ingresado una empresa en el pasado o esté ingresando en el presente. El problema de la burbuja financiera de las punto com, fue que las expectativas de beneficios futuros no se podían prever puesto que su modelo de negocio era nuevo, nadie sabía con exactitud de dónde se iba a sacar el dinero ni cuánto dinero iba a ser.

A escasos meses de la IPO de Netscape Microsoft lanzó su navegador incluido en el sistema operativo Windows 95, el Internet Explorer. Era una versión de baja calidad, se notaba que había sido terminada con prisas. Las versiones de IE y de Netscape iban sucediéndose (no siempre mejorándose) en una lucha continua por controlar el mercado. Realmente el uso de navegadores web, quedó bastante polarizado en estas dos opciones, en lo que se conoce como la primera “guerra de navegadores”. En cierta medida, la explosión de la burbuja financiera de las “punto com” perjudicó definitivamente a Netscape. Pero la baza fundamental para Microsoft en esta guerra, fue el monopolio de facto que ostenta en el mercado de los sistemas operativos, algo contra lo que Netscape no tuvo nunca nada que hacer. (posibilidad de ampliar con lo de las dos ramas en que se separó).

El Web comenzaba a tener vida propia. Para muchos de sus primeros usuarios, frecuentemente personas del ámbito académico, la explotación comercial del Web iba en contra de su filosofía inicial de libre intercambio. Lo más preocupante era que alguna de las grandes compañías de informática o telecomunicaciones copara por completo alguno de los estratos en que se divide la red de Internet, y pudiera ejercer algún tipo de control sobre ella. Berners Lee llevaba tiempo planeando la creación de un consorcio, y el primer paso fue convocar una conferencia WWW que aglutinara a toda la comunidad de personas que estaban haciendo el Web. Se realizó en el CERN, con la organización de Robert Calliau, y en ella se vieron las caras por primera vez muchas personas que hasta la fecha sólo se conocían vía e-mail. Durante las sesiones de esa primera conferencia WWW se establecían las líneas de investigación para los próximos años en la mejora y ampliación del código HTML. Tras el éxito de la conferencia y tras una serie de negociaciones a varias bandas, el Massachussets Institute of Technology, aprobó la formación del consorcio. A finales de 1994 el CERN y el MIT, cerraron un acuerdo para poner en marcha el Consorcio World Wide Web Tim Berners Lee se trasladó a Cambridge con su familia donde viviría hasta la actualidad dirigiendo el consorcio con un salario fijo, por primera vez en su vida, derivado directamente de la creación de su criatura.

El W3C, como bautizaron el consorcio, se fundó con la intención de servir de referente para la comunidad Web en cuanto a la puesta al día permanente de las últimas tecnologías que van aplicándose en la Red. En su libro Tejiendo la Red, Berners Lee explica con gran claridad el funcionamiento interno del consorcio:

La pertenencia al consorcio estaba abierta a cualquier organización; comercial, educativa o gubernamental, ya fuese lucrativa o no. La cuota anual para ser miembro de pleno derecho era de cincuenta mil dólares; para miembros afiliados, de cinco mil dólares. No había diferencias en los beneficios, pero para ser un miembro afiliado una organización tenía que ser gubernamental o no lucrativa, o ser una compañía independiente con beneficios de menos de cincuenta millones de dólares. (…)

El propósito del consorcio era “conducir al Web a su más alto potencial”, en primer lugar desarrollando protocolos comunes para destacar la interoperabilidad y evolución del Web. Para hacerlo, estaríamos a la cabeza de una significativa oleada de aplicaciones, servicios y cambios sociales, cumpliendo una combinación única de papeles tradicionalmente adscritos a organizaciones muy diferentes. (pág 88)

Verdaderamente se trata de una iniciativa, cuanto menos, novedosa. El W3C tiene el estatuto de Organización No Gubernamental sin ánimo de lucro y carece de mecanismos de control directo sobre lo que se hace en la Web. Su máximo poder es la “recomendación” y su autoridad reside en el prestigio académico de sus publicaciones. Los miembros del comité superior del consorcio son una especie de “gramáticos” del lenguaje HTML y el resto de lenguajes que están usándose en la Web. Como todo lenguaje, el código en que se redacta la Web está vivo y varía constantemente. La labor de un gramático no debe ser la de esclerotizar de ninguna manera esa evolución, sino la de garantizar y favorecer la operabilidad de una lengua. Cuando esta lengua es (y debe ser) de dominio universal, con más razón que nunca la labor de estandarización que minimice las ambigüedades y las fallas de comunicación es crucial, pero también lo es la valoración y la aceptación de términos nuevos que favorezcan en cualquier medida el diálogo. Dada la facilidad de que disponen las pocas y omnipotentes empresas que dominan el sector de la informática para ejercer presiones y forzar la adopción de los estándares que más beneficien a sus intereses particulares, la necesidad de un orden regulador centralizado, inéditamente, surge precisamente de la voluntad de mantener a salvo las reglas del juego que hacen de Internet un universo descentralizado y en continuo proceso de formación. No es como cuando un estado determinado interviene con normas arancelarias o de otra índole para mantener la competencia de su mercado ante la amenaza de los de afuera; aquí, en principio no hay ningún afuera, no hay nacionalismo regional. Tampoco es como el Fondo Monetario Internacional u otras organizaciones internacionales que salvaguardan el estatus quo del sistema capitalista, con el que las potencias mundiales han conquistado su hegemonía. La máxima de la “apertura” y la “colaboración”, que hasta ahora prevalece en el W3C no se deriva de ninguna ley económica capitalista, sino de una necesidad técnica para el óptimo desarrollo de una tecnología en sus inicios, y posteriormente de la asunción por parte de los usuarios de esa tecnología de esos mismos principios rectores en términos ya políticos. De hecho apertura y colaboración son conceptos irreconciliables con el capitalismo, en el que lo habitual es la retención de la información, cuyo valor es directamente proporcional a su escasez; o como diría Michael Hart: es mejor si yo lo tengo y tú no.

El Web (y con mucha más importancia, los colaboradores que de manera altruista o no, han contribuido a su perfeccionamiento) ha hecho finalmente posible el sueño de llevar Internet, sin duda el mayor logro del paradigma científico digital, de manera funcional, a una porción por fin relevante de la humanidad. Al mismo tiempo, esta apertura ha sacado la “conversación” de los círculos académicos y técnicos en los que nació y la ha expuesto a las pasiones, los vicios y la ignorancia del vulgo. Pero, pedagógicamente, no ha sido la exposición al vulgo llano lo que más ha hecho y está haciendo vacilar la estabilidad desordenada de Internet; sino esa misma audiencia masificada puesta en los ávidos ojos de quienes hacen negocios con la audiencia y la opinión pública: los mass media. En los últimos años hemos visto incrementarse significativamente las fusiones entre grandes empresas de la comunicación. A lo largo de todo el siglo XX se comprobó lo rentable que podía llegar a ser el negocio del entretenimiento gracias a los nuevos medios de comunicación que estaban surgiendo: el cine, la radio y la televisión. Durante más de ochenta años se ha conformado un complejo sistema de poderes en el que algunas empresas, cada vez más grandes y menos numerosas, han ido haciéndose con el control de las emisiones en cualquiera que fuera su formato. Internet se revela en apenas cinco años de años desde la aparición del Web como un soporte tremendamente divertido, pero además, surgido de la nada, del mero intercambio de información entre sus usuarios, dónde la decisión de la “parrilla” la toman los navegantes con sus visitas a los sitios de otros navegantes o con su propia producción. Y todo esto ocurre en la era de la revolución del paradigma digital. La conversión de las imágenes y los sonidos en un flujo de datos uniforme, binario, decodificable por todo tipo de aparatos, lo cambia todo. De pronto el cine, la radio y la televisión, que son los medios en liza durante años entre los gigantes del cuarto poder, se ven sencillamente incluidos en este nuevo medio que nadie controla.

A finales de los años noventa los gigantes mediáticos se encaminaron en una seria batalla por el control de la audiencia en la Red. Si Internet veiculaba todos los medios de comunicación y los hacía visibles en todo tipo de receptor, la única manera de mantener la hegemonía era, o así lo creyeron las grandes compañías, adherirse el mayor número de empresas que tuvieran algo que ver en el proceso. Fue así que nacieron las grandes macro-corporaciones mediáticas, de las cuales AOL Time Warner en América y Vivendi Universal en Europa, son las más conocidas.

El caso europeo es realmente espectacular: el grupo francés Vivendi Universal, uno de los tres mayores del mundo, tiene su origen en la Compagnie Générale des Eaux (CGE), la compañía que desde 1853 se encarga de gestionar y distribuir el agua en Francia. Solo a partir de los años setenta del siglo pasado, comienza su incursión en otros sectores como los servicios, la tecnología, los transportes y la energía. En 1983 contribuye a la formación de Canal +, pero no será hasta los años noventa que el grupo comenzará su vertiginosa carrera por el control de las telecomunicaciones y los Mass Media. Su director Jean-Marie Messier, comienza una contundente campaña de adquisiciones bajo el lema “todos los contenidos en todas las pantallas”. Por esta razón se alió con el operador británico de telecomunicación Vodafon, apropiándose de un plumazo de gran cantidad de servicios multimedia para la Web. Vizzavi (un portal multi-acceso), Flipside (un portal de juegos en línea), Cadresonline (portal de anuncios clasificados), VUP Interactive (productos multimedia derivados de la actividad editorial), Pressplay (portal de telecarga de música de pago), Canal Numedia (sitios de Canal Plus y Canal Satélite), Educación.com (portal de venta de productos educativos)… eran algunos de los productos que conformarían el feudo de Vivendi en el Web. Pero su estrategia no se limitaba al Web, sino que pretendía desplegarse a otros soportes: sus empresas incluyen alguna de las mayores compañías de música del mundo, uno de los archivos de películas de mayor importancia, algunos de los principales estudios de cine, la segunda compañía de parques temáticos, enormes intereses editoriales e inversiones estratégicas en grupos como BskyB del Reino Unido o en Networks de EE.UU. Sus actividades en medios de comunicación se desarrollan a través del Grupo Canal+ (producción y distribución de cine, vídeo y televisión), Universal Music (UMG) y Vivendi Universal Games. En el ámbito internacional lidera la venta y distribución de vídeos y DVD, programas de televisión y largometrajes en más de 200 países, y cadenas de televisión en Europa, Asia e Iberoamérica. En España participa en Sogecable (Canal+ y Canal Satélite Digital) y explota, a través de Universal Studios, el parque temático Port Aventura (Barcelona). La división editorial del grupo (VUP) es propietaria de Alianza Editorial, Spes (fruto de la fusión con Larousse España) y Vox, marca especializada en diccionarios y la primera en lengua española en edición de obras de referencia. También es dueña de las editoriales españolas Anaya, Cátedra y Pirámide.

Pero la realidad ha demostrado que la Web no puede ser dominada y servida por nadie más que por sus propios usuarios. Las grades empresas pueden comprar todos los portales que quieran y pueden producir todos los contenidos que quieran, pero siempre estarán condenadas a ser una parte más del contenido total del ciberespacio. De esta manera la megalómana estrategia de Vivendi resulta un desastre financiero y en 2002, su presidente del consejo de administración y administrador delegado, Jean-Marie Messiere presenta la dimisión. Bajo la nueva dirección de Jean-Rene Fourtou, la compañía está llevando a cabo desde 2003 una política de cesiones para sortear la bancarrota.

Pero más allá del negocio del entretenimiento, los medios de comunicación siempre han tenido el papel de difusores de información y culturales. Y es precisamente en esta parcela donde la Web no tiene rival. Los grupos de noticias independientes han ido consolidándose poco a poco hasta adquirir una relevancia que ya podemos calificar de significativa. Así mismo, el ámbito de la cultura y la educación, no ha sido transportado con dificultad a la Red, sino que le pertenece por derecho propio, ya que éste fue el entorno en el que se desarrolló. También lentamente pero sin pausa, toda la comunidad académica y científica está haciendo uso de las posibilidades que ofrece el Web, y hasta ahora la calidad de los resultados nunca ha dejado de ir en aumento. Con la particularidad de que la comunidad académica seria e independiente, está tomando partido con total naturalidad por el movimiento de software libre que encabeza Richard Stallman con el Free Software Foundation y el proyecto GNU, y otras organizaciones ciudadanas como la Electronic Frontier Foundation. Y todo gracias a la inédita estrategia de la “masa colaboradora”, la “multitud” que, más que nunca, se ve perfectamente reflejada en la definición que Antonio Negri hace de ella: “un conjunto de singularidades cuyo utensilio de vida es el cerebro y cuya fuerza productiva consiste en la cooperación. Y si las singularidades que constituyen la multitud son plurales, el modo en que se conectan es cooperativo.” (115) Pero como veremos a continuación, las cotas más espectaculares de colaboración ciudadana en los contenidos Web no han sido alcanzadas sino muy recientemente, gracias de nuevo a la velocidad imparable de una avance científico que el sistema no da abasto a asimilar.



[1] [Fiderio, 1988]

"hipertexto, en el nivel más básico, es un manejador de base de datos que permite conectar pantallas de información usando enlaces asociativos. En un nivel mayor, hipertexto es un ambiente de software para realizar trabajo colaborativo, comunicación y adquisición de conocimiento. Los productos de este software emulan la habilidad del cerebro para almacenar y recuperar información haciendo uso de enlaces para un acceso rápido e intuitivo".

[2] Aquí referencia al capítulo de Aportaciones técnicas

[3] Los problemas los plantean la polisémica voz “Web”, que significa tanto “telaraña”, como de manera figurada “red intrincada”, y la palabra “Wide” que no tiene una correspondencia exacta en español. Además el nombre juega con una expresión idiomática del inglés, “Whole Wide World”, que viene a significar “el mundo entero”. “Telaraña del mundo entero”, podría ser una pobre traducción para el imaginativo nombre ideado por Tim Berners Lee.

No hay comentarios: