El Supremo condena el modelo que evalúa la calidad científica en España

Dicta que las investigaciones deben valorarse por su contenido, no por donde se publican


redacción / la voz

¿Cómo se mide la calidad de una investigación? ¿Qué determina los méritos para que un científico pueda ser contratado dentro del sistema o aspirar a un reconocimiento mayor? La respuesta es compleja, pero un criterio básico que se sigue en España para establecer la criba y puntuar los méritos del candidato pasa por la publicación de sus trabajos en las revistas científicas de mayor impacto, que a su vez se mide por el número de citas que otros expertos hacen de estas publicaciones. No es lo mismo publicar un artículo en Science, Nature, Cell o en alguna de las revistas especializadas de cada campo que en otras que no estén indexadas. Para estarlo deben estar incluidas en catálogos internacionales que le asignan un índice calidad, como los listados Journal Citation Reports (JCR), Science Edition del Web of Science o Scopus. La regla es sencilla: a mayor calidad de las revistas, mayor puntuación. Y si no aparecen en los listados, incluso no se valoran los trabajos.

Este sistema es el que sigue la Comisión Nacional Evaluadora de la Actividad Investigadora (CNEAI), de la Aneca, un criterio que ahora, y por primera vez, acaba de ser cuestionado por el Tribunal Supremo. La Justicia, en lo que supone un duro varapalo, ha determinado que las investigaciones del personal universitario deben ser valoradas por su contenido y no solo por la revista o medio donde son publicadas. Da así la razón a una profesora de Economía de la Universidad de Extremadura que presentó un recurso después de que el comité evaluador rechazara su solicitud porque dos de sus trabajos fueron publicados por un medio de divulgación «inadecuado», pues no figuraba en las fuentes de referencia indicadas. «Es el trabajo, la aportación, no la publicación, el que ha de valorarse en función de si contribuye o no al progreso del conocimiento, si es o no innovador y creativo, o meramente divulgador», recoge la sentencia.

El sistema no es perfecto

Un segundo fallo en la misma línea crearía jurisprudencia, por lo que pondría en un brete al sistema nacional de evaluación de la ciencia. Pero, ¿es posible cambiar los criterios para ajustarse a lo que dicta el Supremo? David Posada, profesor de Genética en la Universidad de Vigo y miembro de varios paneles de evaluación, entre ellos del Consejo Europeo de Investigación (ERC), entiende que el sistema actual no es perfecto, pero no cree posible cambiarlo a día de hoy. «Con tantos candidatos que hay para ser evaluados no es factible. Entrar a evaluar los contenidos de cada trabajo no es operativo en la mayoría de las evaluaciones, por lo que hay establecer un sistema de que permita valorar un número amplio de solicitudes, de la forma más justa posible. Puede que no sea el más justo, puede haber errores, pero hay que guiarse por alguna métrica y es aceptado por todos como la solución menos mala», explica. «Los aspirantes -añade- conocen las reglas del juego, por lo que si tienen un trabajo bueno no tiene sentido que lo envíen a una revista que no está indexado. La verdad es que es una sentencia sorpresiva que refleja un desconocimiento de la realidad».

Francisco Rivadulla, investigador del Ciqus de la Universidade de Santiago y participante en paneles de evaluación de la Aneca, comparte la filosofía del Supremo cuando se refiere a que lo que debe valorarse es el contenido de los trabajos. Pero también entiende que es imposible que un órgano centralizado de evaluación pueda pararse a examinar todos los trabajos. Considera, pese a todo, que el sistema actual no es el más justo y que «non ten sentido que todas as avaliacións en España se fagan a través dunha axencia centralizada», por lo que cree que «os concursos tiñan que estar en mans das universidades, que se fagan responsables de a quen contratan en función das súas necesidades e con criterios de valoración máis específicos». Tampoco ve justo que se valore más un artículo en una revista de primer nivel con pocas citas que otro en una publicación inferior, pero con más aceptación.

Valora este artículo

2 votos
Comentarios

El Supremo condena el modelo que evalúa la calidad científica en España