Internet

La web: motor del cambio

las primeras web

Cuando Berners-Lee volvió al CERN el uso de la propia red internet había cambiado: “el mundo había cambiado. La internet, aunque todavía desconocida para gran parte del público, estaba ahora firmemente arraigada. Era esencialmente una escueta infraestructura, un enrejado de tubos vacíos. Había formas de recuperar los datos, pero no existían maneras muy fáciles para llevarlo a cabo, y ciertamente, no había nada y nada con la estructura intuitiva y neuronal estructura del hipertexto” (Wright, 1997).

La propuesta de solución de hipertexto para la gestión de información prosperó. La misma conllevó la creación de la web. Para ello, Berners-Lee no se anduvo con medias tintas planteando propuestas teóricas pendientes de implantación posterior, todo lo contrario, buscó una solución a partir de nuevos desarrollos y adaptaciones de algunas aportaciones anteriores. Así, desarrolló el protocolo ligero de comunicaciones que permite llevar a cabo la navegación por la web – http – y desarrolló el lenguaje HTML de marcado que permite elaborar páginas. A estas dos propuestas unió las soluciones informáticas para el soporte (servidor web), para la navegación (cliente web o navegadore), y la edición de textos en HTML. Con ello se puso en marcha el sistema de información que todo lo revolucionó.

fragmento de la primera página web de la historia
Vista parcial de la primera página web en el CERN (sigue activa en https://info.cern.ch/hypertext/WWW/TheProject.html).

Siendo, sin duda alguna, la mayor creación tecnológica jamás desarrollada en nuestro campo desde la creación de internet, su importancia queda algo reducida si la comparamos con el resultado unos años después: un orbe infinito de información de acceso libre y universal (sin limitaciones en lo geográfico como en las posibles discapacidades personales o tecnológicas, al menos al principio, hasta que muchos intereses espúreos se hicieron presentes en la web).

infografía que ilustra el concepto de nativo digital, uno joven dentro de un móvil

Si alguna vez, Berners-Lee fue consciente de la grandiosidad de su invento sólo él lo sabe, y sólo a él, en justicia cabe preguntarle, los demás sólo podemos elucubrar al respecto. Lo que sí es cierto es el hecho irrefutable de que la web y sus tecnologías asociadas forman parte del modo de vida cotidiano de todos nosotros. De hecho, quienes han nacido este siglo (y en los últimos años del anterior), los llamados “nativos digitales”, no conciben la vida sin su existencia, especialmente desde la popularización del uso de aplicaciones como el correo electrónico outlook o los motores de búsqueda Google o Yahoo! (por citar algunas de las tecnologías más clásicas), o la mensajería por Whatsapp o el intercambio de fotos, opiniones y comentarios en la red de microblogging Twitter (ahora X).

Vista de un sistema de información Gopher con interface web y vista original.
Vista de un sistema de información Gopher con interface web y vista original.

La implantación de la web fue meteórica. En pocos meses había ocupado el espacio que había ocupado Gopher, sistema de información en formato de tablero electrónico (parecido al teletexto de la televisión) muy popular entre las comunidades universitarias que permitió plasmar en la red dos ideas importantes: (1) la interconexión de servidores (a modo de enlace) y (2) la interoperabilidad con aplicaciones a las que se accedía por acceso remoto o telnet, como era el caso de los primeros módulos de consulta en línea de catálogos de bibliotecas (OPACs). Hacia 1995 existían en internet más de dos millones de servidores basados en esta tecnología que fueron rápidamente sustituidos por la web por la mejor experiencia de usuario y la multitud de ventajas aportadas por la web, convirtiendo el uso de esta aplicación en un recuerdo casi romántico en la mente de aquellos que la llegamos a manipular. Sobre Gopher se construyó la primera Hytelnet que interconectaba los catálogos de las bibliotecas (luego se implementó en la web).

Hytelnet and telnet access

Leonard Kleinrock, uno de los inventores de internet, comentó en una entrevista hace unos años que lo más le gustaba de su invento era el hecho de “haber estado allí«. A un nivel infinitamente menor de relevancia y desde la perspectiva de un humilde profesor, muchos profesores de Tecnologías de la Información y Documentación Automatizada en los estudios de Biblioteconomía y Documentación en España tenían que utilizar diapositivas o versiones de demostración para simular a los alumnos la recuperación de información online en bases de datos bibliográficas (Medline, ERIC o Lisa por ejemplo) porque no podíamos asumir los costes de la conexión telefónica. Conectar las universidades a internet de y la creación de la web acercó a los profesores y estudiantes a una industria de la información hasta entonces prácticamente inaccesible. Estos profesores y estudiantes pudieron, de una manera humilde obviamente, colaborar en el desarrollo de este nuevo entorno que además ayudó a aumentar el conocimiento de la tecnología que lo sustentaba. De hecho, la creación de la web coincidió con la mejora y liberalización del acceso a la internet en muchos lugares del mundo, por lo que en el imaginario colectivo de buena parte de los ciudadanos reside la idea de que la web trajo la internet a nuestra vida, algo que tiene algo de cierto, incluso puede ser que mucho pero que no es así del todo.

Y por una vez, que no la única afortunadamente (véase el tremendo empujón que los investigadores del mundo llevaron a cabo para diseñar vacunas contra la COVID-19), acompañando a profesores e investigadores en el descubrimiento de los posibles usos y aplicaciones de la web ahí estaban también los profesionales de la información, participando en su desarrollo, no dejándolo (como ocurre con otras tecnologías) en las manos exclusivas de los informáticos.

Página principal de la Universidad de Murcia más antigua conservada en la web Wayback Machine. Octubre de 1997.
Página web más antigua de la Universidad de Murcia conservada en Wayback Machine (12-10-1997).

Y con ello comenzaron a publicarse las primeras páginas web – la mayoría con un diseño manifiestamente mejorable como la que hicimos en la Universidad de Murcia – y se comenzó a dar forma a los primeros sitios web para, poco a poco, conseguir la integración de la información con servicios y aplicaciones en el formato de portal web (López Carreño, 2004). Todo esto no fue flor de un día, sino que precisó de algunos años para su consolidación y desarrollo, período de tiempo que, obviamente, no resultó igualitario entre países y organizaciones. En esa primera etapa se trataba de una web de un sólo sentido: desde el editor (autor) al usuario (lector). Al principio no había retroalimentación ni interactividad alguna, algo que hoy en día parece imposible de concebir para muchos. En estos primigenios sitios web – la ahora llamada “Web 1.0” – solía incluirse una página con enlaces a un conjunto de otras páginas que el autor consideraba interesantes para sus lectores a modo de miscelánea. Esta acción no era otra cosa que la traslación del muy tradicional servicio de referencia que desde tiempos inmemoriales llevan a cabo los profesionales de la información en las bibliotecas y constituyó el germen para el desarrollo de los primeros sistemas de recuperación de información en la web: los índices o directorios, sistemas de los cuales Yahoo! fue durante un tiempo el mejor ejemplo. Los directorios, como todos recordarán son un producto documental considerado una fuente de información de carácter secundario porque dirige a la fuente original, justo lo que hacían y actualmente hacen estos sistemas de recuperación. Una actividad de gestión de información vuelve a confluir con la tecnología de la web.

pantalla principal de Yahoo Search cuando era un directorio en los años 90
Pantalla de inicio de Yahoo Search cuando era un directorio.

El tremendo crecimiento de la edición y publicación de contenidos en la web, hizo muy pronto imposible la gestión manual de estos directorios que sólo alcanzaban a realizar una revisión muy superficial de lo publicado. Esto llevó al desarrollo de los motores de búsqueda, sistemas que alimentan sus bases de datos a partir de la ejecución de unos programas de rastreo (‘crawlers‘) que recopilan direcciones de páginas a partir de los enlaces insertos en las mismas y las indexan de forma automática llevando a cabo una revisión mucho más profunda de lo publicado y de los cambios producidos en los documentos ya recopilados anteriormente. Altavista, Lycos y AlltheWeb fueron algunos de estos sistemas y representaron una innovación de gran impacto en su momento, por primera vez se podía acceder a grandes cantidades de documentos con sólo introducir unas pocas palabras en la ecuación de búsqueda sin necesidad de tener apenas que estudiar el lenguaje de recuperación de información.

Página principal del motor Altavista hacia 1999, cuando todo comenzó a cambiar.
Página principal del motor Altavista hacia 1999.

1990: nace la web en un laboratorio de física

Bernes Lee delante de la primera página web, la del CERN

Durante la década de los años 80, además del tecno-pop, va cogiendo fuerza la idea de que el hipertexto puede ser la mejor solución para la gestión de la información porque la tecnología ya comenzaba a ofrecer soluciones para ello y porque cada vez se veía más claro que las bases de datos relacionales no se ajustaban bien del todo a las exigencias de unos sistemas de información cada vez más grandes y más multimedia. En aquella época es cuando surgen los primeros sistemas de hipertexto de uso más o menos corriente:

IBM BookMaster (1980s). Herramienta de autoría de documentos con capacidades de hipertexto y estructuración. Estaba concebida para crear manuales técnicos y documentación corporativa pero que introdujo ideas que posteriormente aparecieron en otras herramientas de hipertexto.

Pantalla de inicio de Guide Hypertext de OWL

Guide (1982). Sistema desarrollado por Peter J. Brown en la Universidad de Kent y comercializado por Owl International, fue pionero en la navegación hipertextual estructurada. Se usaba para crear documentos extensos y complejos, como manuales técnicos y enciclopedias, en los que los usuarios exploraban la información por medio de enlaces integrados en el texto. Recuerdo de este sistema (llegué a usarlo a principio de los años 90) que introdujo el concepto de «expansión y contracción» del texto, en el que las secciones vinculadas se desplegaban o contraían dentro del mismo documento, ofreciendo una experiencia fluida sin necesidad de cambiar de pantalla (algo que no hace la web). Esta característica era especialmente útil para gestionar grandes cantidades de información de manera organizada y estos enlaces de expansión eran tremendamente útiles y sólo los vemos ahora en las barras de menús.

NoteCards (1984). Creado en el mítico Xerox PARC, fue otro sistema pionero que permitía gestionar ideas interconectadas con informaciones mediante «notas» que podían representar texto, imágenes o gráficos y estaban organizadas en «tarjetas» vinculadas por enlaces. Estaba programado en LISP (uno de los lenguajes de programación más emblemáticos en el campo de la IA creado por John McCarthy, uno de los padres de estas «inteligencias») y permitía a los autores usar comandos de este lenguaje para personalizar o crear tipos de nodos completamente nuevos (recuerda en algo las IA de gramática generativa, ¿verdad?).

Una pantalla típica de trabajo con la aplicación Notecards

HyperCard (1987). Fue la aplicación más conocida aunque solo funcionaba en los ordenadores Macintosh. Desarrollado por Bill Atkinson para Apple era una aplicación que combinaba características de bases de datos, programación y diseño multimedia. Así, permitía crear «pilas» de tarjetas interconectadas. En estas tarjetas podía haber texto, imágenes y botones interactivos que conducían a otras tarjetas, creando así una experiencia de navegación hipertextual. Si bien no pudimos usarlo en nuestra entonces pequeña escuela universitaria (no había presupuesto para adquirir un ordenador de la empresa de la «manzanita»), sí tuve ocasión de leer un manual del sistema. El mismo destacaba enormemente por su facilidad de uso y, además, incluía el lenguaje de programación HyperTalk que permitía a usuarios sin experiencia técnica crear aplicaciones personalizadas. Esta flexibilidad lo convirtió en una herramienta popular para la enseñanza, el desarrollo de juegos y la creación de aplicaciones interactivas. Influyó en el diseño de interfaces gráficas y en la concepción de la web al popularizar los enlaces que conectan diferentes piezas de información.

Pantalla principal de trabajo de Hypercard de Apple

La disponibilidad de una tecnología capaz de gestionar la información de forma gráfica y, especialmente, que propiciase una lectura de forma no estrictamente secuencial, «cierra el ciclo» y termina «conectando» en el tiempo de Vannevar Bush y Ted H. Nelson con Tim Berners-Lee, joven (entonces) investigador británico que trabajaba en el CERN a principios de los 90 y quien asistía incrédulo a principios de esta década a la paradoja de comprobar día a día cómo en este laboratorio (un lugar donde todos los días se llevan a cabo pequeños milagros”, escucha el imaginario historiador Robert Langdon de boca de un también imaginario director del CERN en la novela “Ángeles y demonios” de Dan Brown), perdía información o tenía problemas para localizar proyectos desarrollados por científicos de muy alto nivel tras costosísimas horas de trabajo.

Collage con fotos de Tim Berners-Lee hace unos pocos años, de Ted Nelson en la actualidad y de Vannevar Bush a mediados de los años 40

A Berners-Lee le desesperaba que esa “maravillosa organización” adoleciera de este problema, especialmente cuando en ella trabajaban miles de personas de alta cualificación intelectual, muy creativas la mayoría. Si bien estaban organizados en una estructura jerárquica, esto no limitaba la manera en la que se comunicaba y compartía información, equipo y software en todos los grupos. En realidad, más que de una jerarquía, la estructura de trabajo real del CERN era una red conectada que, además, aumentaba su tamaño con el paso del tiempo.

En este entorno, una persona que se incorporase a este laboratorio, como mucho recibía alguna pista sobre quiénes serían contactos útiles para recabar información verbal de lo disponible acerca de su proyecto y poco más: el resto consistía en un proceso de autoaprendizaje. Por entonces, no se tomaba esto como un problema porque las investigaciones del CERN alcanzaban un éxito notable (y alcanzan hoy en día), a pesar de los malentendidos ocasionales y de la duplicación de esfuerzos en la transmisión interna del conocimiento, sin olvidar las pérdidas de información (los detalles técnicos de proyectos anteriores a veces se perdían para siempre o sólo se recuperaban tras llevar a cabo una investigación típica de detective en una emergencia). El problema se agrandaba por la alta rotación de este personal investigador (muchos investigadores solo llegan a dos años de estancias en este centro).

Tim Berners Lee delante del ordenador consultando la primera web: la del CERN.

También detectó otro problema que había pasado desapercibido: el modo de registrar la documentación de un proyecto. Si un experimento analizaba un fenómeno estático y particular, toda la información se podía registrar en un libro para posteriores consultas, pero esto no era lo frecuente. Cuando había que introducir un cambio en un proyecto que afectaba a una pequeña parte de la organización (cambiar una parte del experimento o comprar un nuevo detector de señales), el investigador debía averiguar qué otras partes de la organización y otros proyectos se iban a ver afectados. Con el tipo de libro de registro utilizado era prácticamente imposible de mantener actualizado y no ofrecía respuestas a cuestiones

Con el paso del tiempo esto se hubiera hecho insostenible. Era un problema a resolver en ese momento que no podía ser visto como un hecho aislado. La supervivencia de una organización de investigación está íntegramente ligada a su capacidad de mejorar su gestión de información. Para hacerla posible, el método de almacenamiento no debería imponer restricciones a la información. Una «red» de notas con enlaces (referencias) entre los documentos era una solución mucho más útil que un sistema jerárquico fijo (tipo carpetas de un administrador de ficheros).

Para describir un sistema complejo, muchas personas recurren a diagramas con círculos y flechas, esto permite describir relaciones entre los objetos de una manera que las tablas o directorios no pueden. Si llamamos a los círculos “nodos” y “enlaces” a las flechas e imaginamos cada nodo como una pequeña nota o pieza de información (da igual que sea un artículo, un resumen o una foto), se puede construir un sistema vinculado de información entre personas y piezas informativas en constante evolución. Así, la información de un proyecto no residirá sólo en una carpeta de documentos que difícilmente un nuevo investigador iba a reutilizar, ahora formaría parte de la red informativa organizacional en la que se establecerían vínculos entre otras personas y departamentos, garantizando la supervivencia de la información. Esta propuesta de sistema de almacenamiento iba va a conseguir implantar, al fin, la idea del hipertexto como sistema de gestión de información.

esquema del hipertexto que sería luego la WWW de Berners Lee

Lo verdaderamente curioso, algo que poca gente conoce, es que cuando Berners-Lee presentó su memorándun ‘Information Management: a proposal‘, su jefe de equipo le dio permiso para hacerlo «cuando no tuviera algo más importante que hacer«.

Foto de personas creativas

Menos mal que era gente «creativa«.


Fuente recomendada: Berners-Lee. T. (1989-1990). Information Management: a proposal.

El hipertexto como una solución de gestión de información

esquema de un hipertexto

El final de la II Guerra Mundial trajo consigo la constatación de que los sistemas de información existentes en esa época no iba a ser capaces de clasificar y organizar debidamente las ingentes cantidades de información que ya entonces comenzaban a manipularse, conjuntos de documentos que, de forma incipiente, comenzaban a no estar siempre en formato textual, incorporando otros tipos de media: gráficos, sonidos, planos de diseños, mapas, fotografías, etc. Fueron varios millones de documentos microfilmados por las tropas norteamericanas en archivos e industrias alemanas que fueron puestos a disposición de los gestores de información de entoces, que verificaron, al aplicar sobre ellos los sistemas de clasificación e indización de la época, su inutilidad.

Portada de la novela "El buen alemán" de Joseph Kanon

Esta realidad ha llamado la atención para el cine y la literatura, especialmente en la novela de Joseph KanonEl buen alemán”, resultando ser el inicio de la llamada “guerra fría” entre las dos grandes potencias de entonces (Estados Unidos y la Unión Soviética) por la posesión de los preciados proyectos de ingeniería y de ciencia que se habían desarrollado en la Alemania de principios de siglo XX.

De esta stituación de crisis surge la idea de disponer de otra manera de organizar estos fondos documentales por medio de unos sistemas que permitieran la colaboración de los gestores, facilitando la asociación de ideas y conceptos, y permitiendo adquirir el conocimiento de forma no estrictamente secuencial.

Vannevar Bush, asesor científico del Presidente Franklin Delano Roosevelt y pionero del concepto del hipertexto.

Vannevar Bush, asesor científico del Presidente Franklin Delano Roosevelt, planteó esas necesidades de una nueva solución para la gestión de la información en su artículo ‘As we may think‘ y llegó a pensar en la construcción de una máquina llamada ‘Memex’ (para algunos autores es el acrónimo de Memory – Index, probablemente por similitud a ‘Rolodex’ (Rolling – Index), un dispositivo para almacenamiento y búsqueda de información en fichas muy popular en esa época).

Esta máquina fue concebida como una gran base de datos donde se almacenarían todo tipo de documentos y constaría de una mesa con un teclado y unas palancas que permitirían la consulta de datos almacenados en microfilms que serían proyectados en unas pantallas translúcidas.

Reconstrucción de Memex, la máquina ideada por Bush que nunca llegó a construirse.

Este aparato incluiría también una opción para que el usuario pudiera tomar anotaciones en los márgenes. De esta forma, el usuario lector podría convertirse también en usuario autor, algo verdaderamente innovador y que se pretendía conseguir casi setenta años antes que se fijaran las características de la Web 2.0 que tanta importancia confieren al doble sentido de la publicación en la web. ‘Memex‘ fue un proyecto teórico que nunca llegó a materializarse, la tecnología de la época no lo permitía. Lo que más subyace de los pensamientos de Bush es su idea de que algo nuevo había que hacer, porque seguir gestionando la información de la misma manera, difícilmente podría llevar a buen término esta tarea.

Diagrama de la arquitectura von Neumann
Arquitectura von Neumann

De forma contemporánea a estos planteamientos y circunstancias, se fue imponiendo paulatinamente la Arquitectura de Von Neumann en el diseño y construcción de las computadoras. Una máquina basada en esta arquitectura, al igual que los ordenadores modernos, debía disponer de cuatro componentes esenciales: dispositivo de operaciones, unidad de control, memoria y dispositivos de entrada y salida. Von Neumann, de origen austrohúngaro, había emigrado a EE.UU. antes del inicio de la II Guerra Mundial, era judío y tuvo que abandonar Europa.

Caricatura de Ted Nelson dentro su hipertexto.

Habrían de pasar varios años para que estas máquinas primigenias pudieran llevar a cabo estas tareas en la forma deseada. Uno de los autores más destacados de este campo, el científico norteamericano Ted H. Nelson, ha asistido prácticamente durante toda su vida al desarrollo de un sistema de información que él denominó “hipertexto” y que sería capaz de gestionar piezas (fragmentos) de información de forma que permitiera un aprendizaje de sus contenidos y una gestión de los mismos de forma no estrictamente secuencial, facilitando a sus usuarios la integración de cualquier pieza informativa en sus propios documentos, sin tener que copiar y pegar esa pieza porque se establecerían vínculos entre ellos pasando los documentos de los usuarios a formar parte de una red universal, un sistema imaginario donde residiría toda la información científica: Xanadú (nombre tomado de un poema de Samuel Taylor Coleridge. Nelson interpretó la palabra como «ese mágico sitio de la memoria literal donde nada se pierde nunca» (en el poema era el palacio de Kublai Khan).

reconstrucción figurada de la Biblioteca de Alejandría

Resulta curioso el paralelismo con el palacio del conocimiento que representó en la antigüedad la Biblioteca de Alejandría construida por orden de Ptolomeo I, rey de Egipto y antiguo general de Alejandro Magno.

Este proyecto tenía como objetivo principal la construcción de un servidor de hipertexto para almacenar y enlazar toda la literatura mundial, accesible desde cualquier ordenador. La idea era reunir toda la producción escrita existente y conectar unos textos con otros. Esos documentos estarían almacenados en ordenadores particulares y disponibles al mismo tiempo para el resto de los usuarios (como pasó con Napster y otras redes P2P) por medio de una dirección única para cada uno de ellos, del mismo modo que ahora un objeto publicado en la web tiene asociado un identificador único de documento URI/URL. Esto viene a ser una metáfora muy parecida a lo que Berners-Lee y otros “popes” de la internet han llamado recientemente ‘decentralized web

Representación del almacenamiento “xanalógico” de T.H. Nelson.
Representación del almacenamiento “xanalógico” de T.H. Nelson.

Esta idea también resultó irrealizable en los años 60 y resulta muy parecida a la web actual, aunque existe una importante diferencia: los documentos del hipertexto de Nelson se construirían en el momento de la consulta, en la edición el autor introduciría nuevos textos y enlaces a fragmentos de texto ya escritos por otros autores, la reconstrucción del documento para su lectura estaría garantizada por la técnica del almacenamiento “xanalógico”, técnica con la que el autor pretendía hacer viable su red (en aquella época los ordenadores apenas tenían memoria de almacenamiento disponible). Aunque los problemas de almacenamiento están superados en la actualidad, resulta curioso que esto no haya sido implementado en la web actual, donde abunda (mucho más de lo deseable), la copia de textos desde otros documentos originales. Por esta razón, desde un punto de vista conceptual, el hipertexto de Nelson aún no se ha desarrollado del todo y no es de extrañar la frustración que arrastra este autor por tener que ceder el protagonismo y reconocimiento de su idea a un joven (entonces) investigador británico que trabajaba becado en el Centro Europeo de Investigación Nuclear (CERN, hoy Organización Europea para la Investigación Nuclear) a principios de los años 90.

Cuando comenzó a popularizarse la tecnología de la web, algunos autores la presentaban como: ‘WWW, Xanadu at least‘, homenajeando de alguna manera a Nelson, si bien este reconocimiento no parece satisfacer del todo al autor quien ha reconocido públicamente que, si bien no puede negar el éxito y trascendencia de la web, este sistema aun no es un hipertexto completo en el sentido conceptual que él había imaginado, sino una “brillante simplificación”.

De Arpanet a Internet

de arpanet a intermet. el gran salto

Si bien conceptualmente se habían producido grandes avances en muy pocos años, el alcance de la red Arpanet seguía estando restringida a un número muy pequeño de usuarios. Esto hizo que durante bastante tiempo se continuara utilizando el protocolo “host a host” para conectar los nodos principales de la red mientras que se continuaban desarrollando implementaciones del protocolo TCP/IP más cercanas a los usuarios finales. En el seno de la comunidad científica (los principales usuarios de la red en ese momento), tuvo especial repercusión la inserción de este protocolo como un elemento más del núcleo del sistema operativo UNIX BSD, utilizado en la mayoría de los equipos informáticos de esas instituciones en ese momento, lo que aumentó el número de usuarios y de equipos conectados.

Este crecimiento, unido al acceso desde ordenadores personales a la red (algo infrecuente entonces pero que también sumaba), hizo necesaria la creación del sistema de nombres de dominio o DNS (‘Domain Name System‘), para la asignación de una dirección de red a los equipos conectados al mismo tiempo que les asignaba una dirección nemotécnica más fácil de recordar que la dirección de red de cada ordenador (la «dirección IP» o “IP-Address”). 

UNIX es un sistema operativo portable, multitarea y multiusuario; desarrollado en el año 969 en los laboratorios Bell de AT&T por Ken ThompsonDennis Ritchie y Douglas McIlroy. La especificación BSD corresponde a la conocida como «distribución de Berkeley«.

Hacia el año 1991, un estudiante finlandés de Informática, Linus Torvaldsdesarrolló un núcleo para ordenadores de arquitectura x86 Intel que emulaba en gran parte a UNIX y lo lanzó en código abierto en 1991 bajo el nombre de  (millones de servidores web emplean ese sistema operativo hoy en día). En 1992, el Proyecto GNU comenzó a utilizar el núcleo de Linux junto a sus programas.

Así, de esta forma, a un equipo con dirección de red 155.54.120.1 se le asignaba un nombre de dominio como, por ejemplo, javima.edu.um.es en el cual se informa de que ese ordenador tiene de nombre “javima”, pertenece a un subdominio educativo “edu” de la organización Universidad de Murcia “um”, registrada en el dominio nacional de España “es”. Este sistema de identificación permite una gestión más directa por parte de los usuarios finales para quienes es más simple recordar los nombres nemotécnicos que un complicado sistema de dígitos numéricos que además, precisan ser revisados de vez en cuando.

Este sistema, que hasta entonces se gestionaba de forma centralizada, pasó a gestión descentralizada de manera que ahora cada entidad responsable de una las redes conectadas debía mantener su propia tabla DNS dentro de una base de datos distribuida y jerárquica.

Estructura general del DNS (espacio de nombres de dominio).

De esta forma, si se solicita acceder a un ordenador cuyo DNS no está en la tabla de nuestro servidor local, el sistema busca en un servidor raíz por si éste tuviera esa dirección en su tabla y así, sucesivamente hasta dar con él (por ejemplo, un usuario de la red de la Universidad de Murcia solicita visualizar la página de la Universidad Politécnica de Valencia como esa dirección de máquina no está en el servidor DNS de la primera universidad habrá de buscarla en el servidor DNS raíz, en este caso el de Red Iris (entidad responsable de la infraestructura de la red del Plan Nacional de I+D+i de España).

El 1 de enero de 1983, sin muchos problemas, se llevó a cabo (a pesar de mensajes algo caóticos que rodeaban a este proceso y que con el tiempo se han repetido varias veces en el mundo de la Informática), la transición hacia el protocolo TCP/IP de los principales servidores de Arpanet. De esta manera, todos los equipos de esta red estaban interconectados. Es entonces cuando entre los especialistas se comienza a hacer uso del vocablo ‘internetworking‘ para hablar de este hecho, palabra que – abreviada a los 8 primeros caracteres – quedará en poco espacio de tiempo en la forma ‘internet‘, que muy pronto comienza a ser usada para denominar a la red.

Es precisamente ese año cuando el Departamento de Defensa de los Estados Unidos decide dividirla, creando MILNET como red propia asociada a DARPA y dejando a Arpanet (ya rebautizada como internet) para su uso por parte de la comunidad científica.

ARPANET: el origen primigenio

Sello conmemorativo del paseo espacial de la perrita "Laika".
Sello conmemorativo del paseo espacial de «Laika».

Internet es fruto de varios proyectos desarrollados en Estados Unidos de forma paralela sin mucho contacto entre llos (al principio), de forma algo más coordinada al final, por la intervención de la agencia ARPA (siglas de Advanced Research Projects Agency), institución directamente vinculada al Departamento de Defensa de los EE.UU, creada en 1958 en respuesta al lanzamiento soviético del satélite Sputnik 2 tripulado por la perrita Laika (aunque la gran divulgadora Nieves Conconstrina contaba el otro día que «laika», en realidad, es el nombre de una raza de perros, no el de la perrita que dio unas cuantas vueltas a nuestro planeta antes que el cosmonauta Yuri Gagarin)

Por ello, muchos autores la consideran fruto de un proyecto de investigación militar destinado a buscar soluciones de comunicación informática en plena “guerra fría”, contexto donde se vivía permanentemente bajo la amenaza de una guerra nuclear que afortunadamente no llegó a producirse. Lo cierto es que la participación de la administración norteamericana en este desarrollo fue vital, independientemente de los objetivos que la auspiciasen. Contribuyó durante bastante tiempo al desarrollo de la verdadera infraestructura de red, algo que tuvo lugar unos cuantos años más tarde.

Dos eran los objetivos perseguidos por estos grupos de trabajo. Hasta entonces, los sistemas informáticos funcionaban generalmente en entornos mainframes, donde se centralizaban los procesos en el ordenador principal, al mismo tiempo que la gestión y el almacenamiento de los datos. Los terminales que se usaban para interaccionar con ellos no eran ordenadores como los que usamos hoy en día, sino simples consolas de comunicaciones con reducidas capacidades de proceso de datos. Transformar esa idea «centralista» en una metáfora de sistema descentralizado donde todas las estaciones de trabajo pudieran acceder a datos y programas y tuvieran cierta capacidad de proceso (que no fueran unos simples terminales de comunicaciones, sino ordenadores), representaba una nueva idea que vino a plasmarse años después: la de red de ordenadores, independientemente de su alcance.

Este cambio, por sí mismo, es trascendental y constituye la base de los sistemas de comunicaciones actuales. En este nuevo paradigma es donde se encuentran los vínculos con proyectos de investigación militares: el sistema centralizado es más vulnerable que un sistema descentralizado y la defensa estratégica estadounidense necesitaba de otros modos de comunicación. En realidad, el sistema descentralizado también podía llegar a ser vulnerable (hay que recordar que el mundo vivía entonces en plena psicosis de posible guerra nuclear) por lo que Paul Baran (1964) llegó a proponer una red de conmutación de paquetes para comunicación vocal segura en el ámbito militar en un entorno distribuido. Sobre esa idea, y unos cuantos años más tarde, se concibió Arpanet si bien el proyecto de Baran ya había sido cerrado para entonces por RAND Corporationel laboratorio de ideas de las fuerzas armadas norteamericanas.

Baran, en 2010, explicando en RAND su proyecto de red.
Baran, en 2010, explicando en RAND
su idea de red.

El segundo objetivo que concentró una gran cantidad de esfuerzos fue cambiar el modo en el que podrían dialogar los ordenadores entre sí (una vez conectados), abandonando la tradicional conmutación de circuitos (que precisaba del establecimiento de la llamada y de la ocupación de todo un circuito de datos para la transmisión) e implementando la conmutación de paquetes de datos (donde no se tiene que esperar al establecimiento de la llamada y cada paquete transmitido procura aprovechar al máximo la capacidad del enlace). Esto permitió a los equipos informáticos compartir datos y aplicaciones en tiempo real. Ambas ideas estaban predestinadas a confluir en la creación de algo importante, como así fue.

También fueron dos las fases en las que se podría dividir esta época. De 1961 a 1965 se puede hablar de planteamientos teóricos, siendo el más destacado el de la “Red Galáctica” de Licklider quien presentó su idea de red interconectada globalmente por medio de la cual cada uno pudiera acceder desde cualquier lugar a datos y programas (el concepto era muy parecido a la internet actual, aunque entonces era un sueño). En 1965 entramos en la primigenia conexión de dos equipos informáticos que llevó a cabo Roberts para verificar que la conmutación de circuitos no servía para sus propósitos. La segunda etapa coincide con su incorporación a ARPA en 1966 para desarrollar el concepto de red de ordenadores, idea que plasma en un proyecto denominado Arpanet presentado en una conferencia científica donde se percatan de que otros grupos de trabajo habían conseguido avances importantes en este campo.

A partir de ahí se suceden los avances y en septiembre de 1969 se elige al ordenador del equipo de Kleinrock como el primer IMP (“procesador de mensajes de interfaz”) y desde ese equipo, un mes más tarde, se envía el primer mensaje a otro ordenador del SRI (algunos participantes en el proyecto han comentado recientemente que la segunda letra de la palabra “Hi” no llegó nunca a California). Después se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Así, a finales de 1969, cuatro ordenadores (“hosts” en la jerga de la red) estaban conectados a la Arpanet inicial, la primigenia internet.

Esquema técnico de la primera Arpanet dibujado a mano. http://www.sri.com/about/timeline/arpanet.html)

«Internet está en plena pubertad. Es un adolescente loco, misterioso, rebelde, impredecible. La pregunta es: ¿se convertirá en un adulto responsable? Ojalá. Pero no todos los adolescentes lo hacen».

Kleinrock, hace unos pocos años.

Fuente: «Una breve historia de internet» escrita por quienes allí estuvieron: Barry M. Leiner, Vinton G. Cerf, David D. Clark, Robert E. Kahn, Leonard Kleinrock, Daniel C. Lynch, Jon Postel, Larry G. Roberts, Stephen Wolff.

Evolución de internet

Hoy en día usamos la expresión “nativos digitales” para referirnos a las personas que han crecido con internet y la usan permanentemente con una habilidad consumada. Estas personas sienten atracción por todo lo relacionado con las TIC por medio de las cuales cubren una buena parte de sus necesidades de entretenimiento, diversión, comunicación, información y, tal vez, de formación.

Trabajo en un centro de compiutación en los años 70.
Ordenador de los años 70

Para estas personas, conocer que el primer mensaje de correo electrónico constaba de una palabra de dos letras: «Hi» y que fue enviado en octubre del año 1969 por Kleinrock desde el MIT (Instituto Tecnológico de Massachussets) al Network Information Center de la Universidad de Stanford, puede resultar increíble a la par que paradójico, pudiendo llegar a ser para ellos bastante complicado aceptar que internet ya existía cuando sus padres iban al instituto, cuando The Beatles era aún un grupo de música en activo que acababa de editar el disco “Yellow Submarine”, la famosa Guerra de Vietnam estaba en su apogeo, el Muro de Berlín seguía en su sitio (sin graffiti alguno y con muchos guardias), en los Juegos Olímpicos, de forma repetitiva (a veces apabullante) atletas «amateurs» de un país llamado CCCP (siglas en cirílico de Союз Советских Социалистических Республик, la antigua Unión Soviéticaganaban montones de medallas cada cuatro años.

Cubierta del disco Yellow Submarine de The Beatles
Cubierta y parte trasera del LP «Yellows Submarine» de The Beatles

Y sin embargo, parafreseando a Galileo: «todo eso es cierto«.

Otras páginas sobre la evolución de internet:

Telefónica. Historia de Internet: ¿cómo nació y cuál ha sido su evolución? https://www.telefonica.com/es/sala-comunicacion/blog/historia-internet-como-nacio-evolucion/

ONTSI. La evolución de Internet en España: del Tesys a la economía digital. https://www.ontsi.es/sites/ontsi/files/2022-01/50%20A%C3%B1os%20de%20la%20Red%20de%20Redes.pdf

Wikipedia. Historia de Internet. https://es.wikipedia.org/wiki/Historia_de_Internet

Berners-Lee vende una copia digital del código original del primer navegador web por más de 5 millones de dólares.

Tim Berners Lee

Tim Berners Lee

Tim Berners Lee creó la WWW en 1989, conectando diferentes piezas de información en internet a través de hipervínculos. Para ello construyó el primer navegador y servidor web, y siempre se negó a patentar su invención porque quería garantizar el acceso universal a este nuevo sistema. En el año 1993, el CERN (la organización de investigación para la que trabajaba) renunció a todos sus derechos sobre la tecnología y la puso en el dominio abierto.

Hace unos días se anunció la subasta de una copia de ese código original (y de una carta firmada digitalemente por Berners-Lee y alguna otra fruslería) en Sotheby’s, pero en forma de una NFT (‘Tokens no fungibles’, por sus siglas en inglés, archivos digitales que se basan en la misma tecnología que sustenta las criptomonedas para crear un registro inalterable de una creación digital, que no puede ser modificado o copiado sin perder su firma criptográfica original). La recaudación iba a ser íntegramente donada con fines sociales.

Berners-Lee dijo al diario inglés ‘The Guardian‘ que «los códigos y protocolos centrales en la web están libres de regalías, como siempre lo han sido». Y no estaba «vendiendo la web«, y no habrá que empezar a pagar dinero para seguir enlaces porque “no estoy vendiendo el código fuente, vendo una imagen que hice, con un programa escrito en Python que escribí yo mismo, de cómo se vería el código fuente si estuviera pegado en la pared y firmado por mí».

Sotheby’s describió el lote como «la única copia firmada del código del primer navegador web existente«, comparando su venta con la de los documentos manuscritos de una figura histórica. Las NFT han sido criticadas por su impacto en el medio ambiente, ya que la cadena de bloques, donde los registros de propiedad se almacenan en un libro de contabilidad digital, requiere grandes cantidades de energía para funcionar. Sotheby’s dijo que pagaría una compensación de carbono por los «costos de acuñación y transacción de la venta».

Si quieres «revivir» cómo funcionaba ese primer navegador web hace algo más de 30 años, el CERN ha preparado un enlace para ello.

HyperMedia browser/editor. El primer navegador web que utilizó Berners-Lee para crear la web.
HyperMedia browser/editor. El primer navegador web que utilizó Berners-Lee para crear la web.

El primer método de evaluación de los buscadores web

tabla de comparativa de la efectividad de dos buscadores web

Three Web search engines, namely, Alta Vista, Excite, and Lycos, were compared and evaluated in terms of their search capabilities (e.g., Boolean logic, truncation, field search, word and phrase search) and retrieval performances (i.e., precision and response time) using sample queries drawn from real reference questions. Recall, the other evaluation criterion of information retrieval, is deliberately omitted from this study because it is impossible to assume how many relevant items there are for a particular query in the huge and ever changing Web system. The authors of this study found that Alta Vista outperformed Excite and Lycos in both search facilities and retrieval performance although Lycos had the largest coverage of Web resources among the three Web search engines examined. As a result of this research, we also proposed a methodology for evaluating other Web search engines not included in the current study.
Seguir leyendo…

Sistemas de recuperación de información desarrollados a partir del ‘dataset’ CORD-19

logo del conjunto de datos CORD19

Aquí os dejo enlace al artículo «Vista de Sistemas de recuperación de información implementados a partir de CORD-19: herramientas clave en la gestión de la información sobre COVID-19» que he publicado con Rosana López Carreño en la Revista Española de Documentación Científica (número de diciembre de 2020).

La investigación sobre el coronavirus ha generado una producción de documentos científicos extraordinaria. Su tratamiento y asimilación por parte de la comunidad científica ha necesitado de la ayuda de sistemas de recuperación de información diseñados de forma específica para esta cuestión. Algunas de las principales instituciones mundiales dedicadas a la lucha contra la pandemia han desarrollado el conjunto de datos CORD-19 que destaca sobre otros proyectos de similar naturaleza.

Los documentos recopilados en esta fuente han sido procesados por distintas herramientas de recuperación de información, a veces prototipos o sistemas que ya estaban implementados. Se ha analizado la tipología y características principales de estos sistemas concluyendo que hay tres grandes categorías no excluyentes entre ellas: búsqueda terminológica, visualización de información y procesamiento de lenguaje natural. En el artículo podemos ver que la gran mayoría de ellos emplean preferentemente tecnologías de búsqueda semántica con el objeto de facilitar la adquisición de conocimiento s los investigadores y ayudarlas en su ingente tarea.

Concluimos convencidos de que la crisis provocada por la pandemia ha sido aprovechada por los buscadores semánticos para encontrar su sitio. Y seguramente para no abandonarlo.

logo del conjunto de datos CORD19

El origen de la palabra «ordenador».

IBM 650, finales de los años 50

Tanto la palabra «ordenador» como la palabra «informática» son de origen francés y ambas comparten una misma idea, que las máquinas que se estaban desarrollando de forma frenética en los años 60 servían para algo más que para contar, tal como hacían las calculadoras (concepto más cercano a la idea de ‘computer’ que había en esos tiempos).

Por esta razón, cuando la empresa IBM quiso introducir en Francia su equipo 650 en el año 1955, su responsable de publicidad en este país, François Girard, insistió en buscar una palabra más familiar en su lengua y para ello recurrió (hizo bien sin duda alguna) a un antiguo profesor de filología en la Sorbona. Jacques Perretquien «le puso en la pista» sugiriendo la palabra ‘ordonnateur‘ («alguien que lo pone todo en orden») que provenía del latín ‘ordinare’.

IBM 650, finales de los años 50

Finalmente, IBM no terminó de hacer caso del todo a las sugerencias del antiguo profesor e introdujo la palabra ‘ordinateurque termina introduciéndose como término de normal uso en francés y se «traslada» a otras muchas lenguas, como el español que usamos en Europa (porque en América se sigue usando «computador» o «computadora» de forma masiva).