Hipertexto

1990: nace la web en un laboratorio de física

Bernes Lee delante de la primera página web, la del CERN

Durante la década de los años 80, además del tecno-pop, va cogiendo fuerza la idea de que el hipertexto puede ser la mejor solución para la gestión de la información porque la tecnología ya comenzaba a ofrecer soluciones para ello y porque cada vez se veía más claro que las bases de datos relacionales no se ajustaban bien del todo a las exigencias de unos sistemas de información cada vez más grandes y más multimedia. En aquella época es cuando surgen los primeros sistemas de hipertexto de uso más o menos corriente:

IBM BookMaster (1980s). Herramienta de autoría de documentos con capacidades de hipertexto y estructuración. Estaba concebida para crear manuales técnicos y documentación corporativa pero que introdujo ideas que posteriormente aparecieron en otras herramientas de hipertexto.

Pantalla de inicio de Guide Hypertext de OWL

Guide (1982). Sistema desarrollado por Peter J. Brown en la Universidad de Kent y comercializado por Owl International, fue pionero en la navegación hipertextual estructurada. Se usaba para crear documentos extensos y complejos, como manuales técnicos y enciclopedias, en los que los usuarios exploraban la información por medio de enlaces integrados en el texto. Recuerdo de este sistema (llegué a usarlo a principio de los años 90) que introdujo el concepto de «expansión y contracción» del texto, en el que las secciones vinculadas se desplegaban o contraían dentro del mismo documento, ofreciendo una experiencia fluida sin necesidad de cambiar de pantalla (algo que no hace la web). Esta característica era especialmente útil para gestionar grandes cantidades de información de manera organizada y estos enlaces de expansión eran tremendamente útiles y sólo los vemos ahora en las barras de menús.

NoteCards (1984). Creado en el mítico Xerox PARC, fue otro sistema pionero que permitía gestionar ideas interconectadas con informaciones mediante «notas» que podían representar texto, imágenes o gráficos y estaban organizadas en «tarjetas» vinculadas por enlaces. Estaba programado en LISP (uno de los lenguajes de programación más emblemáticos en el campo de la IA creado por John McCarthy, uno de los padres de estas «inteligencias») y permitía a los autores usar comandos de este lenguaje para personalizar o crear tipos de nodos completamente nuevos (recuerda en algo las IA de gramática generativa, ¿verdad?).

Una pantalla típica de trabajo con la aplicación Notecards

HyperCard (1987). Fue la aplicación más conocida aunque solo funcionaba en los ordenadores Macintosh. Desarrollado por Bill Atkinson para Apple era una aplicación que combinaba características de bases de datos, programación y diseño multimedia. Así, permitía crear «pilas» de tarjetas interconectadas. En estas tarjetas podía haber texto, imágenes y botones interactivos que conducían a otras tarjetas, creando así una experiencia de navegación hipertextual. Si bien no pudimos usarlo en nuestra entonces pequeña escuela universitaria (no había presupuesto para adquirir un ordenador de la empresa de la «manzanita»), sí tuve ocasión de leer un manual del sistema. El mismo destacaba enormemente por su facilidad de uso y, además, incluía el lenguaje de programación HyperTalk que permitía a usuarios sin experiencia técnica crear aplicaciones personalizadas. Esta flexibilidad lo convirtió en una herramienta popular para la enseñanza, el desarrollo de juegos y la creación de aplicaciones interactivas. Influyó en el diseño de interfaces gráficas y en la concepción de la web al popularizar los enlaces que conectan diferentes piezas de información.

Pantalla principal de trabajo de Hypercard de Apple

La disponibilidad de una tecnología capaz de gestionar la información de forma gráfica y, especialmente, que propiciase una lectura de forma no estrictamente secuencial, «cierra el ciclo» y termina «conectando» en el tiempo de Vannevar Bush y Ted H. Nelson con Tim Berners-Lee, joven (entonces) investigador británico que trabajaba en el CERN a principios de los 90 y quien asistía incrédulo a principios de esta década a la paradoja de comprobar día a día cómo en este laboratorio (un lugar donde todos los días se llevan a cabo pequeños milagros”, escucha el imaginario historiador Robert Langdon de boca de un también imaginario director del CERN en la novela “Ángeles y demonios” de Dan Brown), perdía información o tenía problemas para localizar proyectos desarrollados por científicos de muy alto nivel tras costosísimas horas de trabajo.

Collage con fotos de Tim Berners-Lee hace unos pocos años, de Ted Nelson en la actualidad y de Vannevar Bush a mediados de los años 40

A Berners-Lee le desesperaba que esa “maravillosa organización” adoleciera de este problema, especialmente cuando en ella trabajaban miles de personas de alta cualificación intelectual, muy creativas la mayoría. Si bien estaban organizados en una estructura jerárquica, esto no limitaba la manera en la que se comunicaba y compartía información, equipo y software en todos los grupos. En realidad, más que de una jerarquía, la estructura de trabajo real del CERN era una red conectada que, además, aumentaba su tamaño con el paso del tiempo.

En este entorno, una persona que se incorporase a este laboratorio, como mucho recibía alguna pista sobre quiénes serían contactos útiles para recabar información verbal de lo disponible acerca de su proyecto y poco más: el resto consistía en un proceso de autoaprendizaje. Por entonces, no se tomaba esto como un problema porque las investigaciones del CERN alcanzaban un éxito notable (y alcanzan hoy en día), a pesar de los malentendidos ocasionales y de la duplicación de esfuerzos en la transmisión interna del conocimiento, sin olvidar las pérdidas de información (los detalles técnicos de proyectos anteriores a veces se perdían para siempre o sólo se recuperaban tras llevar a cabo una investigación típica de detective en una emergencia). El problema se agrandaba por la alta rotación de este personal investigador (muchos investigadores solo llegan a dos años de estancias en este centro).

Tim Berners Lee delante del ordenador consultando la primera web: la del CERN.

También detectó otro problema que había pasado desapercibido: el modo de registrar la documentación de un proyecto. Si un experimento analizaba un fenómeno estático y particular, toda la información se podía registrar en un libro para posteriores consultas, pero esto no era lo frecuente. Cuando había que introducir un cambio en un proyecto que afectaba a una pequeña parte de la organización (cambiar una parte del experimento o comprar un nuevo detector de señales), el investigador debía averiguar qué otras partes de la organización y otros proyectos se iban a ver afectados. Con el tipo de libro de registro utilizado era prácticamente imposible de mantener actualizado y no ofrecía respuestas a cuestiones

Con el paso del tiempo esto se hubiera hecho insostenible. Era un problema a resolver en ese momento que no podía ser visto como un hecho aislado. La supervivencia de una organización de investigación está íntegramente ligada a su capacidad de mejorar su gestión de información. Para hacerla posible, el método de almacenamiento no debería imponer restricciones a la información. Una «red» de notas con enlaces (referencias) entre los documentos era una solución mucho más útil que un sistema jerárquico fijo (tipo carpetas de un administrador de ficheros).

Para describir un sistema complejo, muchas personas recurren a diagramas con círculos y flechas, esto permite describir relaciones entre los objetos de una manera que las tablas o directorios no pueden. Si llamamos a los círculos “nodos” y “enlaces” a las flechas e imaginamos cada nodo como una pequeña nota o pieza de información (da igual que sea un artículo, un resumen o una foto), se puede construir un sistema vinculado de información entre personas y piezas informativas en constante evolución. Así, la información de un proyecto no residirá sólo en una carpeta de documentos que difícilmente un nuevo investigador iba a reutilizar, ahora formaría parte de la red informativa organizacional en la que se establecerían vínculos entre otras personas y departamentos, garantizando la supervivencia de la información. Esta propuesta de sistema de almacenamiento iba va a conseguir implantar, al fin, la idea del hipertexto como sistema de gestión de información.

esquema del hipertexto que sería luego la WWW de Berners Lee

Lo verdaderamente curioso, algo que poca gente conoce, es que cuando Berners-Lee presentó su memorándun ‘Information Management: a proposal‘, su jefe de equipo le dio permiso para hacerlo «cuando no tuviera algo más importante que hacer«.

Foto de personas creativas

Menos mal que era gente «creativa«.


Fuente recomendada: Berners-Lee. T. (1989-1990). Information Management: a proposal.

El hipertexto como una solución de gestión de información

esquema de un hipertexto

El final de la II Guerra Mundial trajo consigo la constatación de que los sistemas de información existentes en esa época no iba a ser capaces de clasificar y organizar debidamente las ingentes cantidades de información que ya entonces comenzaban a manipularse, conjuntos de documentos que, de forma incipiente, comenzaban a no estar siempre en formato textual, incorporando otros tipos de media: gráficos, sonidos, planos de diseños, mapas, fotografías, etc. Fueron varios millones de documentos microfilmados por las tropas norteamericanas en archivos e industrias alemanas que fueron puestos a disposición de los gestores de información de entoces, que verificaron, al aplicar sobre ellos los sistemas de clasificación e indización de la época, su inutilidad.

Portada de la novela "El buen alemán" de Joseph Kanon

Esta realidad ha llamado la atención para el cine y la literatura, especialmente en la novela de Joseph KanonEl buen alemán”, resultando ser el inicio de la llamada “guerra fría” entre las dos grandes potencias de entonces (Estados Unidos y la Unión Soviética) por la posesión de los preciados proyectos de ingeniería y de ciencia que se habían desarrollado en la Alemania de principios de siglo XX.

De esta stituación de crisis surge la idea de disponer de otra manera de organizar estos fondos documentales por medio de unos sistemas que permitieran la colaboración de los gestores, facilitando la asociación de ideas y conceptos, y permitiendo adquirir el conocimiento de forma no estrictamente secuencial.

Vannevar Bush, asesor científico del Presidente Franklin Delano Roosevelt y pionero del concepto del hipertexto.

Vannevar Bush, asesor científico del Presidente Franklin Delano Roosevelt, planteó esas necesidades de una nueva solución para la gestión de la información en su artículo ‘As we may think‘ y llegó a pensar en la construcción de una máquina llamada ‘Memex’ (para algunos autores es el acrónimo de Memory – Index, probablemente por similitud a ‘Rolodex’ (Rolling – Index), un dispositivo para almacenamiento y búsqueda de información en fichas muy popular en esa época).

Esta máquina fue concebida como una gran base de datos donde se almacenarían todo tipo de documentos y constaría de una mesa con un teclado y unas palancas que permitirían la consulta de datos almacenados en microfilms que serían proyectados en unas pantallas translúcidas.

Reconstrucción de Memex, la máquina ideada por Bush que nunca llegó a construirse.

Este aparato incluiría también una opción para que el usuario pudiera tomar anotaciones en los márgenes. De esta forma, el usuario lector podría convertirse también en usuario autor, algo verdaderamente innovador y que se pretendía conseguir casi setenta años antes que se fijaran las características de la Web 2.0 que tanta importancia confieren al doble sentido de la publicación en la web. ‘Memex‘ fue un proyecto teórico que nunca llegó a materializarse, la tecnología de la época no lo permitía. Lo que más subyace de los pensamientos de Bush es su idea de que algo nuevo había que hacer, porque seguir gestionando la información de la misma manera, difícilmente podría llevar a buen término esta tarea.

Diagrama de la arquitectura von Neumann
Arquitectura von Neumann

De forma contemporánea a estos planteamientos y circunstancias, se fue imponiendo paulatinamente la Arquitectura de Von Neumann en el diseño y construcción de las computadoras. Una máquina basada en esta arquitectura, al igual que los ordenadores modernos, debía disponer de cuatro componentes esenciales: dispositivo de operaciones, unidad de control, memoria y dispositivos de entrada y salida. Von Neumann, de origen austrohúngaro, había emigrado a EE.UU. antes del inicio de la II Guerra Mundial, era judío y tuvo que abandonar Europa.

Caricatura de Ted Nelson dentro su hipertexto.

Habrían de pasar varios años para que estas máquinas primigenias pudieran llevar a cabo estas tareas en la forma deseada. Uno de los autores más destacados de este campo, el científico norteamericano Ted H. Nelson, ha asistido prácticamente durante toda su vida al desarrollo de un sistema de información que él denominó “hipertexto” y que sería capaz de gestionar piezas (fragmentos) de información de forma que permitiera un aprendizaje de sus contenidos y una gestión de los mismos de forma no estrictamente secuencial, facilitando a sus usuarios la integración de cualquier pieza informativa en sus propios documentos, sin tener que copiar y pegar esa pieza porque se establecerían vínculos entre ellos pasando los documentos de los usuarios a formar parte de una red universal, un sistema imaginario donde residiría toda la información científica: Xanadú (nombre tomado de un poema de Samuel Taylor Coleridge. Nelson interpretó la palabra como «ese mágico sitio de la memoria literal donde nada se pierde nunca» (en el poema era el palacio de Kublai Khan).

reconstrucción figurada de la Biblioteca de Alejandría

Resulta curioso el paralelismo con el palacio del conocimiento que representó en la antigüedad la Biblioteca de Alejandría construida por orden de Ptolomeo I, rey de Egipto y antiguo general de Alejandro Magno.

Este proyecto tenía como objetivo principal la construcción de un servidor de hipertexto para almacenar y enlazar toda la literatura mundial, accesible desde cualquier ordenador. La idea era reunir toda la producción escrita existente y conectar unos textos con otros. Esos documentos estarían almacenados en ordenadores particulares y disponibles al mismo tiempo para el resto de los usuarios (como pasó con Napster y otras redes P2P) por medio de una dirección única para cada uno de ellos, del mismo modo que ahora un objeto publicado en la web tiene asociado un identificador único de documento URI/URL. Esto viene a ser una metáfora muy parecida a lo que Berners-Lee y otros “popes” de la internet han llamado recientemente ‘decentralized web

Representación del almacenamiento “xanalógico” de T.H. Nelson.
Representación del almacenamiento “xanalógico” de T.H. Nelson.

Esta idea también resultó irrealizable en los años 60 y resulta muy parecida a la web actual, aunque existe una importante diferencia: los documentos del hipertexto de Nelson se construirían en el momento de la consulta, en la edición el autor introduciría nuevos textos y enlaces a fragmentos de texto ya escritos por otros autores, la reconstrucción del documento para su lectura estaría garantizada por la técnica del almacenamiento “xanalógico”, técnica con la que el autor pretendía hacer viable su red (en aquella época los ordenadores apenas tenían memoria de almacenamiento disponible). Aunque los problemas de almacenamiento están superados en la actualidad, resulta curioso que esto no haya sido implementado en la web actual, donde abunda (mucho más de lo deseable), la copia de textos desde otros documentos originales. Por esta razón, desde un punto de vista conceptual, el hipertexto de Nelson aún no se ha desarrollado del todo y no es de extrañar la frustración que arrastra este autor por tener que ceder el protagonismo y reconocimiento de su idea a un joven (entonces) investigador británico que trabajaba becado en el Centro Europeo de Investigación Nuclear (CERN, hoy Organización Europea para la Investigación Nuclear) a principios de los años 90.

Cuando comenzó a popularizarse la tecnología de la web, algunos autores la presentaban como: ‘WWW, Xanadu at least‘, homenajeando de alguna manera a Nelson, si bien este reconocimiento no parece satisfacer del todo al autor quien ha reconocido públicamente que, si bien no puede negar el éxito y trascendencia de la web, este sistema aun no es un hipertexto completo en el sentido conceptual que él había imaginado, sino una “brillante simplificación”.