
En diversas ocasiones he comentado en este espacio sobre el desafortunado manejo que la comunidad científica hace con la métrica del Factor de Impacto (FI), particularmente en Europa y en Latinoamérica. El FI se diseñó para saber en qué revistas se están citando los artículos de los últimos dos años y así, los bibliotecarios tuvieran un elemento para decidir a qué revistas suscribirse. De manera errónea, muchas personas lo utilizan para evaluar a la revista o al investigador. Se cree que una revista sin FI es muy mala, o aquella con FI de 3 es mejor que una de 1, o que una de 6, es mejor que la de 3 y que la de 20, es mejor que la de 10 y esto se extiende para evaluar a los investigadores. Esto es erróneo, pero hay gente que se desvive por el FI.
La semana pasada la revista Nature publicó un editorial con los 100 artículos más citados y lo comparó con uno similar de hace diez años, a raíz del cual también escribí al respecto (La Crónica de Hoy, 10-12-2014). El análisis se basa en el número de citas en la base de datos de Clarivate (la dueña del FI) que contiene más de 98 millones de artículos, que datan de 1900 a la fecha.
Hace diez años para estar en la lista de los 100 artículos más citados se necesitaban más de 12 mil citas (12,199 el número 100 en 2014), pero ahora se necesitan más de 30 mil (32,082 el número 100 en 2025). Esto muestra como han aumentado las citaciones. Hay más investigadores y revistas. Como investigador en 1950 tener mil citas era muchísimo, pero ahora no es nada.
Alrededor de 50 artículos de la lista del 2014 salieron de la del 2015. Pero en general, sigue mostrando que los artículos más citados no son los que publicaron grandes descubrimientos, sino los que proveen a investigadores con metodologías de laboratorio, de estadísticas o software útiles para el trabajo diario. El artículo más citado de todos, con 355,968 citas, sigue siendo el de Lowry con la metodología para medir proteínas, publicado en el Journal of Biological Chemistry en 1951, una revista con mucho abolengo, con FI de 4. Es interesante que aparece ahora en el lugar número 7 un artículo de 2016, sobre algoritmos para reconocimiento de imágenes en el inicio de la inteligencia artificial, con 116,706 citas y está publicado en memorias de un congreso que no tiene FI.
Doce de los 100 artículos más citados vienen de memorias de congresos o de revistas que NO tienen FI, por lo que serían descalificados. Otros doce son de revistas con FI menor de 3, que muchos ven como de bajo nivel y 22 son de revistas con FI de 3.1 a 4. Es decir, 46 de los 100 artículos más citados son de revistas con FI de 0 a 4. Solo 12 de la lista vienen de revistas con FI de 20, a las que nuestro sistema les confiere un gran valor.
La revista Physical Review B, de la American Physical Society (FI 3.2) encabeza la lista con nueve de los artículos. Le siguen el Journal of the Royal Statistical Society (FI 3.1) y el Nucleic Acids Research (FI 17) con 4 cada una. Hay ocho revistas con tres y nueve revistas con dos artículos en la lista. Nature tiene 2. Science, Cell y Lancet solo uno y el New England Journal of Medicine, ninguno. Sin temor a equivocarme, supongo que, si se analizara la lista de los mil o diez mil artículos más citados, las proporciones entre los FI serían similares.
Los artículos de mi laboratorio los enviamos a las revistas de nuestra especialidad con más abolengo, leídas y reconocidas por nuestros pares, sin que nos preocupe el FI. Ojalá y los colegas y los sistemas de evaluación obsesionados con el FI reflexionaran al respecto.
Dr. Gerardo Gamba
Instituto Nacional de Ciencias Médicas y Nutrición Salvador Zubirán e
Instituto de Investigaciones Biomédicas, UNAM