Web of Science y SCOPUS no son índices de impacto.

logo de impactoResulta algo desconcertante (por no decir algo más fuerte) observar la gran confusión y el tremendo desconocimiento existente en el personal docente e investigador universitario sobre qué es un índice de citas y qué es un ranking de revistas ordenadas según su factor de impacto. Puedo entender que la relación entre ambos conceptos (esos rankings no serían posibles si no existieran los índices de citas) pueda confundir un poco, pero solo eso.

Un índice de citas es una base de datos donde se recopilan los artículos publicados en una gran cantidad de revistas como si de un repertorio se tratara y, además, se computan las citas que cada artículo ha recibido. Para ello, la estructura de estas bases de datos incorpora una serie de campos adicionales a los de los clásicos repertorios (las referencias bibliográficas por ejemplo que no suelen aparecer en las bases de datos clásicas como Medline, LISA, ERIC o Inspec, por ejemplo). Una característica importante y que condiciona enormemente a estos índices, es que las citas que se computan son aquellas que han aparecido en las revistas "fuente" del índice, es decir, aquellas que han sido recopiladas por el editor de esta base de datos (entrar a forma parte de esa colección de revistas - 'core collection' - es el objetivo de casi todos los editores de revistas académicas del mundo).

ejemplo de estructura del SCI

Un ranking de estas revistas consiste en una lista ordenada de las mismas en función de su impacto que es medido por medio de una fórmula basada en el número de citas recibida por la revista y en la que también participa el número de artículos publicados por una revista (si se reciben muchas citas pero se publican muchos más artículos, el "prestigio" de esa revista no puede ser tan algo como cuando se publican pocos y selectos artículos en cada número y se reciben considerables citas).Esa fórmula es conocida como "Factor de impacto" y es un concepto introducito por Eugene Garfield (fundador del Instituto para la Información Científica de Filadelfia y creador de los primeros índice de citas, los más famosos sin duda alguna en la literatura tradicional, el Science Citation Index SCI - y el Social Science Citation indexSSCI). Este indicador se calcula normalmente considerando un periodo de 2 años, así el factor de impacto de una publicación en el año 2016 se calcula: 

  • A = Número de veces en que los artículos publicados en esta revista en los años 2015 y 2016 han sido citados por las publicaciones que forman parte de la colección del índice de citas en el año 2016.
  • B = Número de artículos publicados en esta revista en esos dos años.
  • Factor de impacto = A/B (el cociente entre las citas recibidas y el total de artículos publicados).

Este método de calcular el pretigio y relevancia de una publicación científica está muy asentado entre la comunidad científica (a pesar de ser un indicador polémico, como mínimo), y no digamos ya entre las autoridades académicas y científicas que parecen que solo saben valorar el trabajo de un profesor y/o investigador en función de estas listas ordenadas. En los últimos años, las bases de datos SCISSCI se han fusionado en una plataforma denominada Web of Science (editada por Clarivate Analytics) y en esa misma plataforma puede consultarse el ranking JCR que ordena a las revistas científicas por categoría y factor de impacto siguiendo la fórmula original planteada por Garfield (si bien siempre hay unos criterios adicionales conducentes a paliar intentos de mejora de estos indicadores de forma artificial, una especia de 'spam' del prestigio de una publicación). La otra gran base de datos de citas es SCOPUS (editada por Elsevier Inc. y de ella emana otro ranking, no suficientemente valorado por parte de la comunidad científica y por las administraciones, denominado SJR ('Scimago Journal Ranking'). Este ranking es elaborado por un grupo de investigación español, Scimago Research Group

ejemplo de lista de revistas ordenadas por su factor de impacto en el informe JCR

Igual que no llamamos "danone" a todos los yogures (o lo intentamos al menos), algo parecido habría que hacer con estos conceptos, entre otras cosas porque los mismos son utilizados para evaluar la calidad de un trabajo científico y podemos estar pensando que poseemos un mérito inexistente (por ejemplo, haber publicado dentro de una revista incluida en alguna de las bases de datos de la plataforma WOS como ESCI o Scielo pero que no tiene factor de impacto y llevarnos un chasco - "decepción que causa a veces un suceso contrario a lo que se esperaba" según la RAE). De hecho, en nuestra comisión de doctorado hace poco que rechazamos un proyecto de tesis por compendio por esa causa, si el estudiante lo hubiera sabido imagino que habría publicado su trabajo en otra revista de más "calidad" (entrecomillo la palabra porque la calidad debería ir asociada al trabajo del investigador si bien al final es la revista "la que manda").

Para finalizar, dejo aquí un par de vídeos, uno sobre cómo encontrar el factor de impacto de una revista en el ranking JCR y otra en SJR.