admin

Factores «clave» para el ranking de Google

La web Backlinko dedica una página informativa sobre los factores de alineamiento de Google ofreciendo una guía exhaustiva de más de 200 elementos que influyen en el algoritmo. Su propósito es «educar» a las personas que administran sitios web y a profesionales del SEO sobre cómo mejorar la posición de sus páginas en los resultados de búsqueda. En este análisis dividen los factores en categorías clave, como la calidad del contenido, ‘backlinks‘ y la experiencia del usuario (UX) y aspectos técnicos tales como la velocidad de carga y la optimización para el escosistema móvil. También se analizan señales de comportamiento del usuario y actualizaciones constantes del algoritmo.

Imagen inspirada en el ranking de Google creada con Delle - 3, la IA para gráficos de chatgpt
El ranking de Google dibunado por Delle – 3

En la siguiente tabla recogemos una síntesis de los once (como si fuera una alineación de un equipo de fútbol) factores que más se destacan en este artículo.

FactorDescripciónEjemplo
Calidad del ContenidoGoogle prioriza contenido de alta calidad, informativo y relevante.Un artículo detallado y bien investigado sobre un tema específico que responde completamente a las preguntas de los usuarios.
Backlinks‘ (enlaces entrantes)Los enlaces de otros sitios web actúan como votos de confianza. Cuantos más enlaces de entrada de alta calidad tenga tu sitio, mejor se posicionará.Un sitio web que recibe enlaces de universidades y sitios de noticias reconocidos.
SEO TécnicoAspectos técnicos del sitio web, como la velocidad de carga, la compatibilidad con dispositivos móviles y la capacidad de rastreo.Un sitio web optimizado para cargar rápidamente en dispositivos móviles y que utiliza un archivo robots.txt adecuado para permitir el rastreo de los motores de búsqueda.
Optimización de palabras claveUso de palabras clave relevantes en el contenido del sitio web para ayudar a los motores de búsqueda a entender de qué trata el sitio.Un blog de recetas que utiliza palabras clave como “recetas saludables” y “comida vegana” en sus artículos.
Experiencia del usuario (UX)Medida de lo fácil y agradable que es para los usuarios utilizar el sitio web. Google prefiere sitios que proporcionan una buena experiencia de usuario.Un sitio web con una navegación intuitiva, tiempos de carga rápidos y diseño responsive.
Marcado de esquema (Schema Markup)Datos estructurados que se pueden añadir al sitio web para ayudar a los motores de búsqueda a entender mejor el contenido.Un sitio de comercio electrónico que utiliza marcado de esquema para mostrar reseñas de productos y precios directamente en los resultados de búsqueda.
Señales socialesInteracciones sociales como “me gusta”, “compartir” y otros. Aunque no son un factor directo, pueden influir en la visibilidad del contenido.Un artículo que recibe muchas comparticiones en redes sociales como Facebook y Twitter.
Señales de marcaLa percepción general de la marca en línea. Google favorece marcas bien conocidas y respetadas.Un sitio web de una marca reconocida que recibe menciones en medios de comunicación y tiene una fuerte presencia en redes sociales.
Edad del dominioLos dominios más antiguos pueden tener una ligera ventaja, ya que se consideran más confiables.Un sitio web que ha estado activo durante más de 10 años y ha mantenido un historial constante de contenido de calidad.
Velocidad de carga del sitioLa rapidez con la que se carga un sitio web es un factor importante, especialmente en dispositivos móviles.Un sitio web que utiliza técnicas de optimización como la compresión de imágenes y el almacenamiento en caché para mejorar los tiempos de carga.
Intención de búsquedaLa capacidad del contenido para satisfacer la intención del usuario en el momento de la búsqueda.Un artículo que proporciona una guía completa y detallada sobre “cómo plantar un jardín de hierbas” cuando los usuarios buscan información sobre jardinería.
RTabla resumen de los 11 factores más importantes en el ranking de Google. Fuente: Backlinko

Como pasa con las selecciones de fútbol donde cualquier aficionado o aficionada tiene su propio «once«, si buscamos en otras páginas web es más que seguro que algunas de estas características no sean consideradas por sus autores e incluyan otras que hemos dejado fuera. Es ley de vida.

Evan Bailyn, CEO de la empresa de SEOFirst Page Sage‘, escribió en diciembre de 2021 un artículo en Linkedln una nota informatica titulada ‘The 2022 Google Algorithm Ranking Factors‘ donde presentaba los factores ordenados a partir de su «peso» en la fórmula final del algoritmo de ranking, que podemos visualizar en el siguiente diagrama circular.

peso de los distintos factores del algoritmo de ranking de Google en 2022

Como se observa, un 26% de la fórmula final se debe al contenido de calidad (de alto nivel se menciona), un 17% se le asigna a las metaetiquetas del título de la página, los enlaces de entrada (‘backlinks‘) tienen un peso del 15% (con Pagerank era el factor clave, desde 2018 ha descencido mucho en importancia). También tiene importancia la presencia de esa página entre lo que se considera «nichos de expertos» (13%) y la involucración de los usuarios (fidelidad) que alcanza el 11%. Entre estos cinco factores suman un poco más del 75% del peso de la fóruma final según Evan Bailyn. Aquí va la tabla completa.

factores principales del algoritmo de Google según firstpagesage.com

¿Qué es «contenido de calidad» para Google?

Son varios aspectos a considerar:

Se trata de contenido original, único y valioso. Google da preferencia al contenido nuevo y único. Es conveniente crear entradas que respondan a las preguntas de sus lectores, que aporten valor y que sean originales. Como regla general, Google premia el contenido de liderazgo intelectual producido al menos dos veces por semana. Si tu contenido es similar al de otras páginas web, causará un impacto negativo en tu SEO. Para empezar, el motor podría no indexar y clasificar la página y ralentizará la tasa de rastreo de su sitio web (la web se hará “obsoleta”). Por lo tanto, cuando creemos contenido, ha de ser diferente y mejor que el de otros sitios web clasificados para el término de búsqueda. Ya lo avisaba Bill Gates en 1996 en su frase «Content is king» (que viene a ser I Ley Universal de la Gestión de Contenidos en la Web para mis alumnos).

Hay que mantener el contenido fresco y actualizado. Si las publicaciones se actualizan y se añade habitualmente información  nueva, se envía una señal positiva al motor de búsqueda. La frescura del contenido juega un papel importante si en nuestras entradas se tratan noticias o tendencias. En estos casos, Google prefiere las páginas que proporcionan la información más reciente. Por ejemplo, si escribimos sobre la crisis sanitaria mundial, nuestro contenido debe contener noticias e investigaciones recientes. Una forma sencilla de encontrar la información más reciente para mantener tu contenido fresco es utilizar Google Trends.

La longitud del contenido es otro factor clave. Una de las preguntas recurrentes en SEO ha sido siempre si la extensión del contenido forma parte de los factores de clasificación de Google. La respuesta es “”. Según diferentes estudios, los posts con 1.890 palabras de media se sitúan en la primera página de resultados. Dicho esto, no hay una regla rígida por la que debamos ceñirnos a un límite de palabras. Lo mejor es crear contenido con profundidad y que cubra un tema con gran detalle. Google prefiere las páginas que responden completamente a la pregunta del usuario y proporcionan soluciones detalladas.

longitud de entradas en la web y posición en google
Relación entre la longitud de una entrada web y la posición en la respuesta de Google.

La estructura del contenido y su organización también influye en la valoración de su calidad. Las entradas deben estar bien organizadas y estructuradas. Esto facilita a los visitantes la lectura y la búsqueda de soluciones a sus problemas. Para mejorar la estructura y la organización de estos artículos, se pueden utilizar distintos niveles de encabezado (H2, H3, H4, etc.) para agrupar el contenido. Mantener debidamente actualizado el fichero sitemap.xml ayuda también. También podemos utilizar etiquetas HTML para viñetas  y listas numéricas para organizar aún más el contenido. Esto es beneficioso ya que Google recoge estas listas y las muestra como fragmentos destacados para diferentes palabras clave.

Declaración de Barcelona sobre información de investigación en abierto

Siguiendo la estela de la Universidad de la Sorbona, cincuenta instituciones de investigación y de educación superior han suscrito declaración contra el uso de las bases de datos científicas comerciales (Clarivate y Elsevier).

Estas plataformas (es el nombre que reciben estos productos comerciales que integran información de múltiples bases de datos, especialmente Clarivate), suelen recibir cantidades desmesuradas de dinero público que podría derivarse a otros usos y actividades de investigación. La prestigiosa universidad francesa anunció la interrupción de su suscripción a la base de datos Web of Science y a las herramientas bibliométricas vinculadas en 2024, además de reorientar sus esfuerzos hacia la exploración de herramientas abiertas, libres y participativas, en consonancia con la política global de apertura de esta universidad que trabaja para consolidar una alternativa sostenible e internacional, en particular mediante el uso de OpenAlex. Esta declaración, presentada en abril de 2024 en Barcelona es otro paso más en esa línea.

Collage de carátulas de revistas científicas.
Carátulas de revistas científicas

El preámbulo de la declaración recuerda que la gestión de la investigación precisa de grandes cantidades de información sobre los diferentes actores y sus actividades, los insumos, los resultados obtenidos y los datos sobre uso, valoración e impacto social de la actividad investigadora. En el momento presente, esa información resulta fundamental y decisiva en la distribución de recursos y en la evaluación de investigadores e instituciones. Las organizaciones financiadoras (las administraciones públicas en su mayor parte) utilizan esta información para establecer prioridades estratégicas y se produce la paradoja, desagradable y desconcertante, de que gran parte de esta información «está encerrada» en infraestructuras privadas porque la gestionan empresas, como las citadas anteriormente, líderes del mercado y que rinden cuentas a sus accionistas, no a la comunidad investigadora y mucho menos a las administraciones públicas representantes de la sociedad que sustenta la actividad investigadora con sus impuestos.

Existe el problema añadido de que tanto la comunidad investigadora como las instituciones financiadores se han vuelto muy dependientes de estas empresas. Hasta hace poco se ha venido evaluando la carrera investigadora (y también de la carrera docente) a partir de evidencias no transparentes. De hecho, se ha llegado al sinsentido (ahora en corrección afortunadamente desde la promulgación de la ENCA) de supervisar e incentivar la Ciencia Abierta utilizando datos cerrados. Igualmente, se han tomado durante mucho tiempo decisiones de forma rutinaria basadas en información sesgada en contra de idiomas y/o regiones geográficas menos privilegiadas (como es el caso del español y de todos los países del mundo donde se habla y se escribe en una de las lenguas más expandidas).

Para avanzar en la evaluación responsable de la investigación y la Ciencia Abierta, y promover la toma de decisiones imparcial y de calidad, es urgente que la información sobre investigación esté disponible de manera abierta a través de infraestructuras académicas también abiertas. La apertura de la información sobre investigación debe ser la nueva norma.

En la Declaración de Barcelona (cuyo texto completo puede leerse haciendo clic sobre el enlace anterior), las instituciones firmantes manifiestan que el panorama de la información sobre investigación requiere un cambio fundamental y se proponen a liderar su reforma y transformar las prácticas y procedimientos. Con este fin, se comprometen a:

  1. Hacer que la apertura de la información de investigación sea la norma.
  2. Trabajar con servicios y sistemas que apoyen y permitan la apertura de la información de investigación.
  3. Apoyar la sostenibilidad de las infraestructuras para la apertura de la información de investigación.
  4. Trabajar juntos para llevar a cabo la transición de una información de investigación cerrada a una información de investigación abierta.

infraestructuras abiertas de acceso a la información Hacer que la apertura de la información sea la norma para la información sobre investigación que utilizamos y producimpos.

Este principio debe regir tanto para la la evaluación de los investigadores e instituciones como para la información de investigación que produzcamos, por ejemplo la información sobre nuestras actividades, los resultados (por supuesto), con excepción de la información cuya apertura sería inapropiada: «tan abierta como sea posible y tan cerrada como sea necesario«.

infraestructuras abiertas de acceso a la información Se trabajará con servicios y sistemas que apoyen y hagan posible la información abierta sobre investigación.

En cuanto a los servicios y plataformas de publicación, se requiere que la información
de investigación generada en el proceso de publicación (metadatos de
artículos de investigación y otros resultados, además de los datos manejados en la información) esté disponible de forma abierta a través de infraestructuras académicas abiertas.

infraestructuras abiertas de acceso a la información Hay que apoyar la sostenibilidad de las infraestructuras para la información abierta sobre investigación.

Las entidades firmantes asumen la responsabilidad de apoyar infraestructuras para la información abierta sobre investigación, participando en la creación de comunidades y en la gobernanza de las mismas y aportando contribuciones justas y equitativas a la estabilidad financiera y al desarrollo de estas infraestructuras. Es preciso que estas infraestructuras apliquen buenas prácticas de gobernanza comunitaria y sostenibilidad. (por ejemplo, los Principios de la Infraestructura Académica Abierta).

infraestructuras abiertas de acceso a la información Se apoyarán actuaciones colectivas para acelerar la transición hacia la apertura de la información sobre investigación

Las entidades firmantes reconocen la importancia de compartir experiencias y coordinar acciones para
promover en todo el sistema la transición de cerrada a abierta de la información de investigación. Para poder facilitarlo, se apoya la creación de una coalición para la información abierta» sobre investigación y el refuerzo de la colaboración con otras iniciativas y organizaciones afines.

.

Ciencia Abierta: una oportunidad para las bibliotecas universitarias

bibliotecas de ciencia abierta

La Ciencia Abierta es una oportunidad excepcional para que las bibliotecas universitarias recuperen una posición de prestigio dentro de las comunidades académicas.

Solo el tremendo apoyo que han dado la mayoría de estas instituciones a su comunidad investigadora en la pasada convocatoria de sexenios de investigación en la que ANECA ha comenzado a introducir el cumplimiento de principios de la Ciencia Abierta entre los requisitos y los méritos, sería suficiente justificación de esta afirmación, pero vamos a justificarla un poco. Veamos algunas de las razones que sustentan esta afirmación:

1. Relevancia renovada: La Ciencia Abierta, con su énfasis en el acceso abierto a la información y la transparencia en los procesos de investigación, coloca a las bibliotecas en el centro del ecosistema científico. Las bibliotecas pasan a ser actores clave para la gestión, difusión y preservación de datos, publicaciones y otros recursos científicos: Esto les ha de permtir recuperar un rol protagónico en la producción y el intercambio de conocimiento.

2. Nuevos servicios y habilidades: La Ciencia Abierta demanda innovar parte de los servicios que ofrecen estas bibliotecas. Estas deben estar situadas a la vanguardia en la gestión de datos de investigación, la creación de repositorios digitales, la formación en ciencia abierta y el asesoramiento a investigadores en temas como la publicación en acceso abierto y la gestión de las licencias y los derechos de autor. Al ofrecer estos servicios especializados, las bibliotecas se volverán a convertir en socios indispensables para la comunidad científica.

3. Mayor visibilidad e impacto: La participación activa en la Ciencia Abierta permite a las bibliotecas aumentar su visibilidad e impacto dentro de la universidad y la sociedad en general. Al facilitar el acceso al conocimiento científico y promover la transparencia en la investigación, las bibliotecas contribuyen a democratizar la ciencia y a mejorar la calidad de la investigación. Pero para esto se debe permanecer activo todo el año, no solo cuando llega la convocatoria de sexenios.

4. Colaboración y liderazgo: La Ciencia Abierta abre nuevas oportunidades para la colaboración entre las bibliotecas, los investigadores y otras instituciones. Las bibliotecas pueden liderar iniciativas en este campo a nivel institucional, regional e internacional, fortaleciendo su posición como agentes de cambio y promoviendo la innovación en el ámbito cientifico. Las bibliotecas pueden liderar la implementación de políticas de acceso abierto en todas sus instituciones, por ejemplo. Dentro de este punto podemos incluir el desarrollo del sistema de indentificación ORCID, liderado por las universidades de Oxford y Cambridge (obviamente hacen mucho más que competir en una regata) y que asigna identificadores únicos a los investigadores, facilitando la atribución y la interoperabilidad de la investigación a nivel mundial.

En resumen, la Ciencia Abierta es una oportunidad única para que las bibliotecas universitarias recuperen un rol protagónico en el ecosistema científico. Al adaptarse a las nuevas necesidades de la investigación y ofrecer servicios especializados, las bibliotecas pueden aumentar su visibilidad, impacto y relevancia dentro de las comunidades académicas. Este nuevo paradigma es una aliada estratégica para que las bibliotecas universitarias consoliden su papel como centros de conocimiento y motores de innovación en el ámbito científico. Y para que sean más valoradas por sus comunidades investigadoras.

Aumentan los datasets de investigación publicados por las universidades públicas

Recientemente apareció en la revista Scire el artículo «Implementación de los repositorios de datos de investigación en las universidades públicas españolas: estado de la cuestión» que escribimos en febrero de 2023 Ana Alice Baptista, Rosana Lopez y Ángel M. Delgado-Vázquez. En este trabajo revisamos el total de conjuntos de datos (‘datasets’) de investigación publicados en los repositorios de las universidades públicas españolas hasta 2022. Ha pasado casi un año, estamos a mitad de enero de 2024, buen momento para actualizar los resultados obtenidos y certificar tendencias.

Durante el pasado año se publicaron 961 datasets en los repositorios de las universidades públicas españolas. Los datos, a excepción de la Universidade da Coruña y la Universidad de Las Palmas de Gran Canaria que remiten a su comunidad investigadora al repositorio comunitario ZENODO, los extraemos de los sitios web de cada universidad. También se han actualizado datos de alguna universidad de la que no pudimos extraer información hace un año y hemos levantado «el veto» que aplicábamos a una por usar software propietario en lugar de software libre para gestionar el repositorio. También se han actualizado los datos de los años anteriores porque, en algunos casos, se han detectado errores en los subtotales o pequeñas diferencias (como si se hubiera dado de baja algún ‘dataset’, algo que no debería de ocurrir habitualmente).

total de datasets de investigaciones publicados en los repositorios de las universidades españolas actualizado a 2023

Los resultados son buenos, está claro que que se van notando los resultados del trabajo de REBIUN de y las directrices de la división de #CienciaAbierta de Fundación Española para la Ciencia y la Tecnología, FECYT en el aumento de la presencia de los conjuntos de datos de investigación en estos repositorios. Las bibliotecas universitarias públicas apoyan claramente el movimiento hacia la #CienciaAbierta: en un año en el que se han publicado más ‘datasets’ que el total de la suma de los dos inmediatamente anteriores, que ya marcaban máximos en la serie.

Casi el 75% de los nuevos ‘datasets’ han sido publicados por los consorcios autonómicos. Ese apoyo de la administración regional es muy adecuado y beneficioso y deberían tomar nota todas aquellas comunidades que tienen varias universidades públicas en sus territorios (Andalucía, Aragón, Valencia, etc.). Esta desproporción aún no se nota tanto en el total de ‘datasets’ publicados: 1693 por los consorcios frente a 1126 por las universidades que trabajan de forma indvidual.

Para tener una idea más global del nivel de publicación de #datasets de datos de investigación por parte de las universidades públicas españolas, habría que ampliar estos datos con el total de conjuntos publicados en Zenodo. En unos días tendremos más datos.

Relación entre las buenas prácticas DWBP y los principios FAIR

Cláudia Sofia Teixeira dos Santos presentó en enero de 2023 en la Universidade do Minho su tesis de máster ‘OGD Lens: avaliação  automática da qualidade dos dados do European Data Portal’  sobre la evaluación de la calidad de los conjuntos de datos publicados en el portal de datos abiertos de la Unión Europea (sitio web aloja más de millón y medio de conjuntos de datos y 179 catálogos de datos puestos a disposición de la ciudadanía) para proporcionar una guía de mejora de su calidad. Para poder medir esa calidad desarrolló una metodología basada een los siguientes criterios:

criterios de calidad del portal de datos abiertos de la UE
  1. Facilidad de uso con la que los usuarios pueden acceder a los datos y utilizarlos para fines de investigación.
  2. La disponibilidad de los datos en un formato estándar y abierto y la accesibilidad de los conjuntos de datos a través de un repositorio en línea o una página web.
  3. Calidad técnica: la precisión, integridad y consistencia de los datos.
  4. Documentación: la información proporcionada junto con los datos, como la descripción de la fuente de los datos, las limitaciones de uso y la frecuencia de actualización.
  5. Legalidad: la conformidad de los datos con las leyes de privacidad y derechos de autor.

Los metadatos empleados para describir los conjuntos de datos representan una valiosa fuente de información para satisfacer estos niveles de calidad. Por ello, la investigadora llevó a cabo un estudio empírico desarrollando un analizador semiautomático de evaluación de la información aportada por los metadatos en una serie de conjuntos de datos publicados. Los resultados obtenidos mostraron que la calidad de esos conjuntos varía significativamente. En líneas generales tienen una buena facilidad de uso, pero la calidad técnica, la documentación y la legalidad son aspectos que presentan deficiencias significativas.

En cuanto a la facilidad de uso, se dispone de buena información para el acceso a los datos y cómo reutilizarlos. En cambio, en cuanto a la calidad técnica, en muchos conjuntos de datos se carece de información sobre la fuente, las limitaciones de uso y la frecuencia de actualización. En lo relativo a la legalidad, muchos conjuntos no proporcionan información sobre los derechos de autor y la privacidad, lo que puede derivar en un uso inadecuado de los datos.

En este estudio se analizó la calidad de los catálogos y de los conjuntos de datos. Un catálogo de datos es un repositorio que contiene información detallada de los conjuntos de datos disponibles en una organización. Ofrece metadatos sobre los conjuntos de datos: descripción, origen, estructura, formatos, licencias, fechas de actualización. etc. También puede proporcionar información sobre cómo acceder y utilizarlos.

La autora consideró los beneficios derivados del uso de las buenas prácticas DWBP en la gestión de datos en la web que sintetiza Juan Antonio Pastor Sánchez en esta diapositiva.

beneficios de usar las Data Web Best Practices del W3C para gestionar datos en la wev

Y asoció a cada buena práctica la serie de beneficios que se derivaban de su uso. En la siguiente imagen podemos ver un fragmento de la tabla que construyó que afecta a las cinco primeras.

Buena prácticaBeneficios
BP 1: Proporcionar metadatos  Reusabilidad Comprensibilidad Descubribilidad Procesabilidad
BP 2: Proporcionar metadatos descriptivos  Reusabilidad Comprensibilidad Descubribilidad  
BP 3: Proporcionar metadatos estructurales  Reusabilidad Comprensibilidad Procesabilidad
BP 4: Proporcionar información sobre la licencia de los datos  Reusabilidad Confiabilidad
BP 5: Proporcionar información sobre la procedencia de los datosReusabilidad Confiabilidad
Asociación de las DWBP (1 a 5) con sus beneficios de uso (Teixeira dos Santos, 2023, 26-27).

Nosotros hemos sintetizado esa vinculación en la siguiente tabla que nos permite concluir que la reusabilidad es el beneficio (y principio FAIR)l que agrupa a un número mayor de buenas prácticas seguido de la confianza.

BeneficioBuenas prácticas
AccesibilidadBP17, BP18, BP19, BP20, BP21, BP23, BP24, BP32
ComprensiónBP1, BP2, BP3. BP13 , BP15, BP16, BP29, BP31, BP32, BP33
ConectividadBP9, BP10, BP18, BP24
ConfianzaBP4, BP5, BP6, BP7, BP8, BP11, BP15, BP22, BP25, BP26, BP27, BP28, BP29, BP30, BP31, BP32, BP34, BP35
DescubribilidadBP1, BP2, BP9, BP10, BP11, BP24, BP35
InteroperabilidadBP9, BP10, BP15, BP16, BP23, BP24, BP26, BP33
ProcesabilidadBP1, BP3, BP12, BP14, BP15, BP18, BP23, BP24, BP31
ReusabilidadBP1, BP2, BP3, BP4, BP5, BV6, BP7, BP8, BP9, BP10, BP11, BP12, BP13, BP14, BP15, BP16, BP17, BP18, BP19, BP20, BP21, BP22, BP23, BP24, BP25, BP26, BP27, BP28, BP29, BP30, BP31, BP32, BP33, BP34, BP35
Clasificación de las DWBP según beneficio asociado a su uso.

RDA FAIR data maturity model

Los principios FAIR datan del año 2106. Como todas las normas genéricas, dan lugar a distintas interpretaciones en su aplicación. Para remediar la proliferación de medidas del cumplimiento de estos principios (‘FAIRness’ en inglés), la ‘Research Data Alliance’ creó un grupo de trabajo para desarrollar un modelo de madurez en la implementación de los conjuntos de datos (2020).

Este modelo consiste en una serie criterios básicos de evaluación que establece indicadores y niveles de madurez asociados. En un principio, se elaboró un primer conjunto de directrices y una lista de verificación relacionada con la implementación de los indicadores, alineando así las directrices para evaluar el nivel de cumplimiento FAIR con las necesidades de la comunidad. Los indicadores se derivan, lógicamente de los principios FAIR y pretenden formular aspectos mensurables de cada principio que puedan ser utilizados por los enfoques de evaluación.

Enlace al texto del modelo Fair Maturity Model

Los principios se toman tal cual; es decir, los indicadores no amplían o modifican los principios, sólo cubren aspectos que se mencionan en ellos o en aclaraciones adicionales. El planteamiento del modelo se basa en crear un indicador para cada aspecto distinguible en la descripción del principio. Así, cuando se habla de un identificador persistente y globalmente único, se definen dos indicadores: uno para evaluar la persistencia y otro para evaluar la unicidad.

Otra característica a destacar es que se definen indicadores distintos para los metadatos y para los datos, siempre que un principio se hable de «(meta)datos» y la evaluación del aspecto para los metadatos sea distinta de la evaluación para los datos. En la siguiente tabla se presenta un resumen del modelo basado en la lista de recomendaciones (fuente: https://zenodo.org/record/3909563).

Principio
FAIR
IndicadorPropósitoNaturaleza
F1RDA-F1-01MLos metadatos se identifican mediante un identificador persistenteEsencial
RDA-F1-01DLos datos se identifican mediante un identificador persistenteEsencial
RDA-F1-02MLos metadatos se identifican mediante un identificador único globalEsencial
RDA-F1-02DLos datos se identifican mediante un identificador único globalEsencial
F2RDA-F2-01MSe proporcionan metadatos enriquecidos para permitir la localizaciónEsencial
F3RDA-F3-01MLos metadatos incluyen el identificador de los datosEsencial
F4RDA-F4-01MLos metadatos se presentan de forma que puedan ser recolectados e indexados.Esencial
A1RDA-A1-01MLos metadatos contienen información que permite al usuario acceder a los datos.Importante
RDA-A1-02MLos metadatos pueden ser accedidos manualmente (por ejemplo, con intervención humana).Esencial
RDA-A1-02DLos datos pueden ser accedidos manualmente (por ejemplo, con intervención humana).Esencial
RDA-A1-03MEl identificador de los metadatos resuelve un registro de metadatos.Esencial
RDA-A1-03DEl identificador de los datos resuelve un objeto digital.Esencial
RDA-A1-04MSe accede a los metadatos a través de un protocolo estandarizado.Esencial
RDA-A1-04DSe accede a los datos a través de un protocolo estandarizado.Esencial
RDA-A1-05DLos datos pueden ser accedidos de forma automática (por ejemplo, por medio de un programa de ordenador).  Importante
A1.1RDA-A1.1-01MLos metadatos son accesibles a través de un protocolo de acceso libre.Esencial
RDA-A1.1-01DLos datos son accesibles a través de un protocolo de acceso libre.Importante
A1.2RDA-A1.2-01DLos datos son accesibles por medio de un protocolo de acceso que soporta autenticación y autorización.Útil
A2RDA-A2-01MSe garantiza que los metadatos seguirán disponibles después de que los datos dejen de estarlo.Esencial
I1RDA-I1-01MLos metadatos usan representación del conocimiento expresada en formatos estandarizados.Importante
RDA-I1-01DLos datos usan representación del conocimiento expresada en formatos estandarizados.Importante
RDA-I1-02MLos metadatos utilizan una representación del conocimiento comprensible para las máquinasImportante
RDA-I1-02DLos datos utilizan una representación del conocimiento comprensible para las máquinasImportante
I2RDA-I2-01MLos metadatos utilizan vocabularios conformes con los principios FAIRImportante
RDA-I2-01DLos datos utilizan vocabularios conformes con los principios FAIRÚtil
I3RDA-I3-01MLos metadatos incluyen referencias a otros metadatosImportante
RDA-I3-01DLos datos incluyen referencias a otros metadatosÚtil
RDA-I3-02MLos metadatos incluyen referencias a otros datosÚtil

La evaluación de cada indicador se lleva a cabo estableciendo cinco niveles de cumplimiento de los principios:

  • 0, no aplicable
  • 1, aún no se está considerando
  • 2, en estudio o en fase de planificación
  • 3, en fase de implementación
  • 4, totalmente implementado

Se ofrece la posibilidad de «descartar un indicador«, ya que este podría no ser relevante para una comunidad concreta. La razón de ser de este enfoque es dar crédito a la evolución y ayudar a mejorar la gestión de datos. Este enfoque puede ser muy útil para los proveedores y editores de datos que quieran hacer una prueba de autoevaluación y tener una idea más clara de dónde concentrar los esfuerzos para que sus conjuntos de datos satisfagan mejor los principios FAIR.

Como ejemplos de aplicación disponemos del caso de la Agencia Europea de Medio Ambiente (EEA) que ha utilizado el modelo para mejorar la calidad de sus datos alcanzando el nivel 2 de madurez (camino del siguiente nivel). La Universidad de California, Berkeley ha utilizado el modelo para mejorar la calidad de sus datos de investigación, alcanzando el mismo nivel de cumplimiento. Google ha utilizado el modelo para mejorar la calidad de sus datos de investigación llegando al nivel 3 de madurez.

Data web best practices (DWBP by W3C)

El World Wide Consortium (W3C) publicó en 2017 el documento ‘Data on the Web Best Practices: W3C Recommendation(DWBP), una detallada guía para el diseño, publicación y uso de datos enlazados en la web, con el objeto de promover su accesibilidad, interoperabilidad y reutilización.

logo del W3C

Este documento proporciona orientación a los editores de datos en línea sobre cómo representarlos y compartirlos en un formato estándar y accesible. Las prácticas se han desarrollado para fomentar y permitir la expansión continua de la web como medio para el intercambio de datos. El documento menciona el crecimiento en la publicación de datos abiertos por parte de los gobiernos en todo el mundo, la publicación en línea de los datos de investigación, la recolección y análisis de datos de redes sociales, la presencia de importantes colecciones de patrimonio cultural y, en general, el crecimiento sostenido de los datos abiertos en la nube, destacando la necesidad de una comprensión común entre editores y consumidores de datos, junto con la necesidad de mejorar la consistencia en el manejo de los datos.

Estas buenas prácticas cubren diferentes aspectos relacionados con la publicación y el consumo de datos, como son los formatos, el acceso, los identificadores y la gestión de los metadatos. Con el fin de delimitar el alcance y obtener las características necesarias para implementarlas, se recopilaron casos de uso que representan escenarios de cómo se publican habitualmente estos datos y cómo se utilizan. El conjunto de requisitos derivados de esta recopilación se utilizó para guiar el desarrollo de las DWBP, independientes del dominio y la aplicación. Estas recomendaciones pueden ampliarse o complementarse con otros documentos de similar naturaleza. Si bien las DWBP recomiendan usar datos enlazados, también promueven el empleo de otros formatos abiertos como son CSV o json, maximizando más si cabe el potencial de este contexto para establecer vínculos.

CATEGORÍABUENA PRÁCTICA
Metadatos Requisito fundamental. Los datos no podrán ser descubiertos o reutilizados por nadie más que el editor si no se proporcionan metadatos suficientes.BP 1: Proporcionar metadatos
BP 2: Proporcionar metadatos descriptivos
BP 3: Proporcionar metadatos estructurales
Licencias
Según el tipo de licencia adoptada por el editor, puede haber más o menos restricciones a la hora de compartir y reutilizar los datos.
BP 4: Proporcionar información sobre la licencia de los datos
Procedencia
El reto de publicar datos en la web es proporcionar un nivel adecuado de detalle sobre su origen.
BP 5: Proporcionar información sobre la procedencia de los datos
Calidad
Puede tener un gran impacto en la calidad de las aplicaciones que utilizan un conjunto de datos.
BP 6: Proporcionar información sobre la calidad de los datos
Versiones
Los conjuntos de datos pueden cambiar con el tiempo. Algunos tienen previsto ese cambio y otros se modifican a medida que las mejoras en la recogida de datos hacen que merezca la pena actualizarlos.
BP 7: Proporcionar un indicador de versión BP 8: Proporcionar el historial de versiones
Identificadores
El descubrimiento, uso y citación de datos en la web depende fundamentalmente del uso de URI HTTP (o HTTPS): identificadores únicos globales.
BP 9: Utilizar URIs persistentes como identificadores de conjuntos de datos
BP 10: Utilizar URIs persistentes como identificadores dentro de conjuntos de datos
BP 11: Asignar URIs a versiones y series de conjuntos de datos
Formatos
El mejor y más flexible mecanismo de acceso del mundo carece de sentido si no se sirven los datos en formatos que permitan su uso y reutilización.
BP 12: Utilizar formatos de datos estandarizados legibles por máquina
BP 13: Utilizar representaciones de datos neutras respecto a la localización
BP 14: Proporcionar datos en múltiples formatos  
Vocabularios
Se utiliza para clasificar los términos que pueden utilizarse en una aplicación concreta, caracterizar las posibles relaciones y definir las posibles restricciones en su uso.
BP 15: Reutilizar vocabularios, preferentemente estandarizados BP 16: Elegir el nivel adecuado de formalización
Acceso a los datos
Facilitar el acceso a los datos permite tanto a las personas como a las máquinas aprovechar las ventajas de compartir datos utilizando la infraestructura de la red.
BP 17: Proporcionar descarga masiva
BP 18: Proporcionar subconjuntos para conjuntos de datos grandes
BP 19: Utilizar negociación de contenidos para servir datos disponibles en múltiples formatos
BP 20: Proporcionar acceso en tiempo real
BP 21: Proporcionar datos actualizados
BP 22: Proporcionar una explicación para datos que no están disponibles
BP 23: Hacer datos disponibles a través de una API
BP 24: Utilizar estándares web como base de las APIs
BP 25: Proporcionar documentación completa para su API
BP 26: Evitar cambios que rompan su API
Preservación
Las medidas deben tomar los editores para indicar que los datos se han eliminado o archivado.
BP 27: Preservar identificadores
BP 28: Evaluar la cobertura del conjunto de datos
Retroalimentación (‘feedback’)
Ayuda a los editores en la  mejora de la integridad de los datos, además de fomentar la publicación de nuevos datos. Permite a los consumidores de datos tener voz describiendo experiencias de uso.
BP 29: Recopilar comentarios de los consumidores de datos
BP 30: Hacer comentarios disponibles
Enriquecimiento
Procesos que pueden utilizarse para mejorar, perfeccionar los datos brutos o previamente procesados. Esta idea y otros conceptos similares contribuyen a hacer de los datos un activo valioso para casi cualquier negocio o empresa moderna.
BP 31: Enriquecer datos generando nuevos datos
BP 32: Proporcionar presentaciones complementarias
Republicación
Combinar datos existentes con otros conjuntos de datos, crear aplicaciones web o visualizaciones, o reempaquetar los datos en una nueva forma.
BP 33: Proporcionar comentarios al editor original
BP 34: Seguir los términos de la licencia
BP 35: Citar la publicación original
Resumen de las Data Web Best Practices del W3C

Beneficios e incovenientes de las DWBP

Como podemos ver, se trata de unas pautas que precisan de cierto volumen de trabajo y muchas han de ser aplicadas por personas con mucha experiencia. A continuación, resumimos los beneficios y los (posibles) inconvientes de las mismas.

Beneficios:

  1. Interoperabilidad: Las prácticas están diseñadas para asegurar que los datos publicados sean comprensibles y accesibles para una amplia variedad de aplicaciones y sistemas. Esto facilita la integración y el intercambio de datos entre organizaciones y plataformas.
  2. Reutilización: Si se siguen las buenas prácticas, los datos se estructuran coherentemente y se proporcionan metadatos claros. Esto facilita la reutilización de los datos por parte de otros usuarios y organizaciones para crear nuevas aplicaciones, servicios o análisis. Esto fomenta la innovación y la creación de valor.
  3. Calidad de los datos: Las buenas prácticas promueven la calidad de los datos al definir estándares para la representación y la semántica de los datos. Esto reduce los errores y las ambigüedades en los datos publicados, mejorando la confiabilidad y la precisión de la información.
  4. Accesibilidad: Un seguimiento de las buenas prácticas asegura que los datos estén disponibles y sean accesibles para un público amplio, incluyendo personas con discapacidades. Esto promueve la inclusión y garantiza que los datos estén disponibles para todos los usuarios, independientemente de sus necesidades.
  5. Indexación y búsqueda: Los motores de búsqueda comprenden mejor e indexan más eficazmente los datos que siguen las DWBP. Esto mejora su encontrabilidad, aumentando la visibilidad de los datos en los resultados, lo que aumenta su alcance y utilidad.
  6. Transparencia: Publicar datos según estándares abiertos y transparentes, se promueve la transparencia y la rendición de cuentas. Esto es especialmente importante en los datos de las administraciones públicas y también en datos científicos, donde la accesibilidad a los conjuntos de datos es esencial para la toma de decisiones informadas y la supervisión.
  7. Facilita la colaboración: Estas buenas prácticas fomentan la colaboración entre organizaciones y comunidades al proporcionar un marco común para compartir datos. Esto es especialmente útil en proyectos de colaboración donde múltiples partes necesitan compartir y trabajar con datos de manera eficiente.

Posibles inconvenientes

  1. Coste: Implementar las DWBP puede requerir inversiones significativas en recursos humanos y tecnológicos, lo que es un problema para organizaciones con presupuestos limitados.
  2. Complejidad: Algunas de las mejores prácticas del W3C resultan técnicamente complejas de implementar, especialmente para personas u organizaciones sin experiencia previa en estándares web y tecnologías relacionadas.
  3. Cumplimiento: Asegurarse de cumplir con todas las directrices y recomendaciones puede ser un desafío, y el incumplimiento podría afectar la efectividad de la publicación de datos.
  4. Adopción: No todas las organizaciones y comunidades pueden estar dispuestas o capacitadas para adoptar estas prácticas de inmediato. Esto puede limitar la interoperabilidad y la reutilización de datos.
  5. Seguridad y privacidad: La publicación de datos ha de hacerse con precaución para evitar la divulgación de información sensible o privada. El cumplimiento de las normativas de protección de datos es esencial y requiere un esfuerzo adicional.
  6. Actualización continua: Mantener los datos actualizados y en conformidad con las buenas prácticas puede ser un verdadero desafío a largo plazo. Esto va a precisar de dedicación y recursos continuos.
trabajando con buenas prácticas de datos en la web

En resumen, publicar datos siguiendo las Data Web Best Practices del W3C ofrece numerosos beneficios en términos de interoperabilidad, reutilización de datos, calidad de datos, accesibilidad y transparencia. Sin embargo, también conlleva inconvenientes relacionados con el costo, la complejidad, el cumplimiento, la adopción, la seguridad y la privacidad, así como la necesidad de mantener los datos actualizados. Seguir estas mejores prácticas va a depender de los objetivos y recursos de la organización y de su compromiso con la calidad y la accesibilidad de los datos a publicar.

En otras entradas seguiremos hablando de buenas prácticas y conjuntos de datos, algo preciso para llegar a la Ciencia Abierta.

No lo digo yo, lo dice CNEAI (es decir, ANECA)

convocatorio de sexenio de ANECA CNEAI

Los méritos que los investigadores queramos ver reconocidos en la Convocatorio de Sexenios de CNEAI y que hayan sido publicados desde 2011, deben ser depositados en repositorios institucionales o temáticos (si no lo están ya).

Comienzan a notarse algunos cambios impuestos por la LOSU. De confirmarse lo indicado en el borrador de criterios que han sido expuestos a consulta pública, de acuerdo con su artículo, 12 en todos los campos se requerirá el depósito en repositorios institucionales o temáticos de acceso abierto de las publicaciones científicas, conjuntos de datos, códigos y metodologías que se sometan a evaluación, incluyendo un identificador persistente (DOI, Handle, o similar), a fin de alcanzar los objetivos de investigación e innovación responsables y de libre circulación de los conocimientos científicos y las tecnologías que promulgan las políticas europeas de ciencia abierta.

Así, en el caso de las publicaciones seriadas o periódicas, se recuerda a las personas solicitantes que, desde la entrada en vigor de la LCTI, el 2 de diciembre de 2011, el personal de investigación cuya actividad investigadora esté financiada mayoritariamente con fondos públicos hará pública la versión final aceptada para publicación en repositorios institucionales o temáticos de acceso abierto (artículo 37 de la LCTI, en su versión previa a la Ley 17/2022). Este precepto, reforzado ahora en los artículos 12.2 y 12.3 de la LOSU, será por tanto de aplicación para las publicaciones presentadas con fecha 2011 o posterior, excepto en el caso de otros formatos de publicación como las monografías.

Principios FAIR
Principios FAIR

Además, el vigente artículo 37 de la LCTI, tras su modificación por la Ley 17/2022), añade que se deberá depositar una copia de la versión final aceptada para publicación y los datos asociados a las mismas en repositorios institucionales o temáticos de acceso abierto, de forma simultánea a la fecha de publicación, siendo este precepto de aplicación para las publicaciones presentadas con fecha 2022 o posterior. Asimismo, de acuerdo con el citado artículo 37 de la LCTI y el artículo 12.5 de la LOSU, los conjuntos de datos que se sometan a evaluación, con fecha 2022 o posterior, deberán cumplir con los principios FAIR (fáciles de encontrar, accesibles, interoperables y reutilizables) y, siempre que sea posible, se difundirán en acceso abierto en repositorios o infraestructuras de datos de confianza.

programa informático, su código

En el caso de las aplicaciones informáticas, se valorará que sean desarrolladas según los principios de colaboración abierta del software libre y publicadas bajo la Licencia Pública de la Unión Europea o licencias compatibles

La sociedad de la información

Si internet posee actualmente el nivel de desarrollo y popularización tan alto es debido, sin duda alguna, al interés que despertó entre algunos políticos de primer nivel a principios de los años 90. Se ha hablado mucho (y con razón) de la trascendencia de la información y de la necesidad de disponer de una adecuada gestión de la misma como recurso vital para el desenvolvimiento de las organizaciones en el contexto actual: la Sociedad de la Información (entorno que ya aventuraba el sociólogo japonés Yoneji Masuda como: ‘sociedad que crece y se desarrolla alrededor de la información y aporta un florecimiento general de la creatividad intelectual humana, en lugar de un aumento del consumo material» (‘The information society as post-industrial society‘, 1981).

Yoneji Mausda, el inventor de la sociedad de la información como concepto.
Yoneji Masuda

Yoneji Masuda fue un eminente sociólogo japonés, fallecido en 1995, cuya actividad profesional y académica tuvo una importancia decisiva en la definición estratégica de un modelo de sociedad tecnológica para Japón impulsado desde las políticas públicas. Al tiempo, fue uno de los pioneros en la conceptualizar la idea de Sociedad de la Información. Trabajó en diversos programas de los ministerios de Trabajo y Educación japoneses destinados a mejorar y racionalizar las prácticas de producción y formación de la población. Fue director del Instituto para el Desarrollo de los Usos de los Computadores en Japón y fundador y presidente del Instituto para la Informatización de la Sociedad, profesor de la Universidad de Aomuri y director de la Sociedad Japonesa de Creatividad. A partir de un informe del Ministerio de Industria y Comercio (MITI) elabora para el Instituto JACUDI un plan para la Sociedad de la Información como «objetivo nacional para el año 2000«.

Imagen que ilustra cómo la información y la tecnología están integradas en la vida cotidiana de personas de diversas edades y orígenes étnicos. Espero que estas representaciones te ayuden a visualizar el impacto de la tecnología en nuestra sociedad.
Alegoría de la Sociedad de la Información (dibujada por Dalle 3 – chat GPT).

Cuando DARPA deja de ser el principal soporte financiero, el proyecto de internet se desarrolló en esta década al amparo de otras organizaciones financiadoras, destacando entre todas enormemente la NSF (‘National Science Foundation’, agencia del gobierno de EEUU independiente del Departamento de Defensa que impulsa investigación y educación fundamental en todos los campos no médicos). En esa época llegó a establecerse un altísimo vínculo entre los ordenadores de su propia red y los que procedían de la originaria Arpanet. De esta forma surge la declaración RFC 985 (‘Request for comments» o «Requisitos para pasarelas de Internet», serie de notas sobre la red y sobre sistemas que se conectan a internet, que comenzaron a publicarse en 1969) que formalmente aseguraba la interoperabilidad entre las partes de la red y establecía los mecanismos necesarios para asegurar y facilitar la incorporación de nuevas redes.Tanto NSF como otras agencias financiaban los costes de la infraestructura común, incluidos los circuitos transoceánicos destinados a dar acceso a la red a comunidades científicas de otras partes del mundo. Al mismo tiempo surgió el interés de organizaciones privadas de hacer uso de la red, infraestructura que hasta entonces había estado dedicada de forma exclusiva a usos educativos y de investigación. Hacia el año 1988 se comienza a hablar de la necesidad de disponer de una infraestructura nacional de redes que permitierse ese uso conjunto y justo en todo momento.Esta iniciativa llama la atención de Al Gore (senador entonces y después vicepresidente de los EEUU, ahora Premio Nobel de la Paz por su labor en defensa del Medio Ambiente) quien propició la elaboración de la iniciativa NII (siglas en inglés de ‘National Information Infrastructure’)

Foto de Al Gore cuando era vicepresidente USA
Al Gore cuando era vicepresidente USA

NII era una propuesta de red avanzada y perfecta de las redes de comunicaciones públicas y privadas, servicios interactivos, de hardware y software interoperable, computadoras, bases de datos y electrónica de consumo a poner una gran cantidad de información al alcance de los usuarios). En este documento y (casi seguramente) por primera vez hallamos un texto político que habla del valor estratégico de la información en el contexto actual, basando su éxito en el desarrollo de una infraestructura de telecomunicaciones de alcance mundial que promoviera el uso de internet en todos los ámbitos.

Más o menos en la misma época, la Unión Europea redactaba un documento similar en la línea de desarrollar un acceso global a la red y a desarrollar un mercado de servicios y productos alrededor de la misma. Este documento es conocido como el «Informe Bangemann» (1994) donde el excomisario europeo Martin Bangemann afirmaba:

«cuya principal meta ha sido acelerar la instauración de un mercado mundial abierto y «autoregulado». Política que ha contado con la estrecha colaboración de organismos multilaterales como la Organización Mundial del Comercio (OMC), el Fondo Monetario Internacional (FMI) y el Banco Mundial, para que los países débiles abandonen las regulaciones nacionales o medidas proteccionistas que «desalentarían» la inversión; todo ello con el conocido resultado de la escandalosa profundización de las brechas entre ricos y pobres en el mundo».

Informe Bangemann

A pesar de esta visión tan economicista y neoconservadora, el propio autor reconocía que las TIC eran un factor clave en la aceleración de la globalización económica porque su imagen está más asociada a aspectos más «amigables» de este proceso, como internet, telefonía celular e internacional, TV por satélite, etc. Así, la Sociedad de la Información ha asumido la función de «embajadora de buena voluntad» de la globalización, cuyos beneficios» podrían estar al alcance de todos/as, si solamente si pudiera estrechar la brecha digital«.

Para ampliar información sobre este concepto, la Fundación Telefónica edita regularmente textos e informes sobre la Sociedad de la Informaciónse recomienda su lectura.

TCP/IP: la base de la interconexión global

El siguiente paso en la evolución de internet fue la introducción en la red de un protocolo de comunicaciones (conjunto de reglas y procedimientos que regulan las comunicaciones telemáticas) global, robusto y eficaz para hacer posible la sencilla conexión de nuevos hosts y de nuevas redes independientes. En su primera implementación, Arpanet disponía de un protocolo “host a host” de manera que había que modificarlo según las características de los diferentes equipos informáticos que pretendieran incorporarse a ella.

Entonces, los ordenadores eran bastante incompatibles unos con otros e incluso a nivel interno manejaban distintos códigos para la representación de la información (ASCIIEBCDIC, etc.). Por tanto, no se trataba únicamente de conectar equipos, sino de conseguir que pudieran dialogar entre ellos y compartir información de manera comprensible. Este inmenso trabajo, unido al rápido crecimiento de la red, hizo inviable continuar con la conexión «punto a punto» y propició el desarrollo de una nueva familia de protocolos de comunicaciones.

Surge así un nuevo paradigma: la interconexión de sistemas abiertos (‘internetworking‘), de manera que equipos informáticos de distinta naturaleza pudieran compartir datos y aplicaciones dentro de un entorno abierto de comunicaciones.

  • ASCII (‘American Standard Code for Information Interchange’ – Código Estándar Estadounidense para el Intercambio de Información). Código de caracteres basado en el alfabeto latino creado en 1963 por el Comité Estadounidense de Estándares (conocido desde 1969 como Instituto Estadounidense de Estándares Nacionales, o ANSI) como refundición o evolución de los conjuntos de códigos usados entonces en telegrafía. En 1967, se incluyeron las minúsculas, y se redefinieron códigos de control para formar el código US-ASCII.
  • EBCDIC (acrónimo de ‘Extended Binary Coded Decimal Interchange Code’) es un código estándar de 8 bits usado por computadoras mainframe IBM, la empresa que adaptó el EBCDIC del código de tarjetas perforada en los años 1960 y lo promulgó como una táctica customer-control cambiando el código estándar ASCII.
Mapas que muestran el crecimiento de arpanet camino de ser interet
Crecimiento de Arpanet en su primera década

Esta idea nace en contraposición a los sistemas propietarios (o cerrados), típicos de la época cuyo paradigma lo representaba perfectamente la familia de ordenadores IBM S/360, sistemas donde tanto el hardware como el software eran específicos y propiedad del fabricante y existían muchísimos problemas, tanto técnicos como económicos, para hacerlos compatibles con otros equipos (además, como la empresa IBM era el “gigante informático” de la época, con un nivel de dominio superior incluso al que ha llegado a tener Microsoft, el mercado se veía muy condicionado por sus sistemas y tecnologías). 

Vista frontal de un ordenador IBM 360.
Frontal de un ordenador IBM 360.

El IBM 360 fue el primer ordenador en usar microprogramación. Con su introducción en el mercado se creó el concepto de arquitectura de familia que consistió en 6 ordenadores que podían hacer uso del mismo software y los mismos periféricos. El sistema también hizo popular la computación remota, con terminales conectados a un servidor, por medio de una línea telefónica. El IBM 360 es uno de los primeros ordenadores comerciales que usó circuitos integrados, y podía realizar tanto análisis numéricos como administración o procesamiento de archivos. Se considera que la tercera generación de computadoras comenzó con su introducción. Estos modelos comenzaron a ser retirados a partir del año 1977 (aunque no era raro verlos operativos en la década de los 80, y más fuera de Estados Unidos, donde igual acababan de «llegar»).

Robert E. Khan y Vinton Cerf, padres del TCP/IP, hoy en día.
Khan y Cerf hoy en día

La solución a la incompatibilidad entre  equipos conectados a una misma red pasaba por definir una arquitectura de comunicaciones en la que, en forma de niveles o capas, se planteara la resolución de los problemas por medio de unas funciones que desarrollan distintos protocolos de comunicaciones. Bajo esta perspectiva se define un nivel de “interconexión” superior al nivel de “intrared”. Así, los equipos trabajan a nivel local según las características de su sistema operativo y luego operan a nivel de red bajo nuevas reglas, formatos y procedimientos especificados por un protocolo de red con vocación de sistema abierto. En el caso de internet ese protocolo de comunicaciones es el TCP/IP  (‘Transmission Control Protocol/Internet Protocol’), propuesto y desarrollado por dos de los ingenieros más importantes en la historia de la redVinton Cerf y Robert Khan (1974).

TCP/IP es en realidad una familia de protocolos donde TCP es el encargado del control del flujo de datos y de la transmisión segura por la red de los paquetes de datos e IP de la identificación de origen y destino de la transmisión y del adecuado direccionamiento de los paquetes de datos (se corresponden con los niveles 3 y 4 del Modelo OSI de interconexión de sistemas abiertos).DARPA (la siguiente denominación de ARPA, en la que ya se incluçó la palabra «Defense») financió la implementación de este protocolo y, en poco tiempo, existieron versiones independientes que podían interoperar.

Esquema general del protocolo TCP/IP
Esquema general del protocolo TCP/IP

Al principio, todos estos desarrollos se realizaban conectando grandes equipos informáticos (aún no se había popularizado el ordenador personal). Por ello, se desarrollaron versiones más sencillas y compactas que dieron fruto a dos implementaciones: la del PARC de Xerox y otra, la que resultó más trascendente (al menos para el gran público), para el PC de IBM, consiguiéndose que los ordenadores personales también pudieran convertirse en hosts de ARPANET sin necesidad de formar parte de otras redes más grandes: con esto se había dado un paso definitivo hacia la interconexión global.

Ordenador personal de IBM con monitor en color.
Ordenador personal de IBM con monitor en color.

El IBM Personal Computer, fue el ordenador que lo cambió todo. Introducido en agosto de 1981 y creado por el equipo del IBM Entry Systems Division. Junto al «microcomputador» y al «computador casero», el término «computador personal» ya estaba en uso antes. Se empleó en 1972 para caracterizar al Alto de Xerox PARC, pero el éxito de IBM hizo que PC equivaliese al microcomputador compatible con sus productos. El grupo de trabajo reunido para desarrollarlo decidió que el sistema operativo viniera de vendedores externos. Esta ruptura con la tradición de la compañía (siempre habían apostado por desarrollos internos), se llevó a cabo para ahorrar tiempo. Microsoft fue la empresa seleccionada como fabricante del sistema operativo: el PC-DOS (MS-DOS si la máquina no era de IBM como ocurrió al poco tiempo). En pocos años, esta decisión se vio claro que esta decisión fue el mayor error estratégico de la empresa, básicamente porque propició el lanzamiento de otro gigante informático: la empresa de Bill Gates, Steve Pallmer y Paul AllenMicrosoft Curiosamente, en la misma época, incluso un poco antes, Steve Wozniak y Steve Jobs lanzaban el Apple II, la primera serie de microcomputadores de producción masiva a través de otro gigante actual de la informática: Apple Computer, pero este avance quedó un poco «escondido» por la trascendencia del IBM PC. 

'Floppys' (disquetes) con una de las primeras versiones de windows.
‘Floppys’ (disquetes) con una de las versiones de windows para IBM.

Y también pasó algo desapercibido un nuevo término que comenzó a usarse con cierta profusión en aquella época: la palabra ‘internetting‘ («interconexión») que al poco tiempo quedó en «internet» y fue como comenzó a conocerse a la red de redes (en detrimento de Arpanet).

Mapa lógico de Arpanet hacia 1977.
Mapa lógico de Arpanet hacia 1977. Fuente Wikipedia https://es.wikipedia.org/wiki/ARPANET 

Y también pasó algo desapercibido un nuevo término que comenzó a usarse con cierta profusión en aquella época: la palabra ‘internetting‘ («interconexión») que al poco tiempo quedó en «internet» y fue como comenzó a conocerse a la red de redes (en detrimento de Arpanet).