Aliaga F. y Orellana, N. (2001). Análisis de estabilidad del Journal Citation Report y su implicación como requisito para la evaluación de la calidad de las publicaciones sobre investigación educativa: problemas y limitaciones. Comunicación presentada al X Congreso Nacional de Modelos de Investigación Educativa. La Coruña, Septiembre. Publicado en AIDIPE, Investigación y evaluación educativas en la Sociedad del Conocimiento., pp. 339-344. La Coruña: AIDIPE. Disponible en http://www.uv.es/~aliaga/curriculum/Evolucion_JCR.htm

 

 

Análisis de la estabilidad  del  Journal Citation Report y su implicación como requisito para la evaluación de la calidad de las publicaciones sobre investigación educativa: problemas y limitaciones

 

Francisco M. Aliaga Abad (Francisco.Aliaga@uv.es)

Natividad Orellana Alonso (Natividad.Orellana@uv.es)

 

 

La Ley de Reforma Universitaria contemplaba la evaluación del profesorado, tanto en su vertiente docente como en la investigadora. Sin embargo, los procedimientos en los que este tipo de evaluaciones se han plasmado en la práctica han sido objeto de una amplia polémica (vid. Aliaga y Orellana, 1999)

 

En concreto, la normativa actualmente vigente para la evaluación de la investigación, que es la que vamos a tratar en el siguiente trabajo, (resolución de 6 de noviembre de 1996, BOE 280/96) establece los criterios que han de regir la evaluación de las publicaciones en los distintos campos científicos y humanísticos. En concreto el punto dos indica que "Se valorarán preferentemente las aportaciones que sean artículos en revistas de prestigio reconocido, aceptándose como tales las que ocupan posiciones relevantes en los listados por ámbitos científicos en el "Subject Category Listing" del Journal Citation Reports del Social Sciences Citation Index (Institute of Scientific Information, Philadelphia, PA, USA)".

 

En el ámbito de las ciencias duras este procedimiento parece relativamente válido, a pesar de sesgos evidentes como un porcentaje de errores y confusiones muy alto en esa base de datos, que se ha calculado en torno al 25% del total (Rice et al., 1989), hay notables sesgos en el método para medir el impacto (Nederhof y Zwaan, 1991; Nederhof et al., 1989; Bellavista et al, 1997), el impacto de un trabajo no es necesariamente sinónimo de calidad –a veces incluso lo contrario- (Tainer, 1991),  o que los temas de investigación que incumben a un grupo relativamente pequeño tiene siempre un número de citas bajo, independientemente de su calidad (Gómez Caridad y Bordóns, 1996). A pesar de estos problemas, en general, el objeto de estudio es de interés común para toda la comunidad científica, y las normas  y medios de publicación están bastante arraigados.

 

El problema, sin embargo, ha surgido de manera más evidente respecto a la adecuación de estos procedimientos de evaluación a otros ámbitos, particularmente el de las Ciencias Humanas y Sociales (Gómez y Bordans 1996). En este caso, puesto que el objeto de estudio es claramente dependiente de aspectos culturales, se presentan unos problemas añadidos a los nombrado anteriormente para tales  procedimientos de evaluación. Así, por ejemplo, se ha verificado frecuentemente que los temas de interés "local" están infrarepresentados (Fernández Cano, 1997, Aliaga y Orellana, 1999), como por otra parte reconoce explícitamente el propio Institute of Scientific Information en sus criterios para aceptar que una publicación periódica sea aceptada en el Journal Citation Reports (JCR). Además, el JCR, como su propio nombre indica, sólo se ocupa de publicaciones periódicas, cuando es bien sabido que en las Ciencias Sociales la mayor parte de las aportaciones se realiza mediante libros (entre el 50% y el 60%), teniendo también una notable importancia los informes de diverso tipo (entre el 15% y el 25%). Las contribuciones que se canalizan a través de revistas apenas representan, dependiendo de las distintas disciplinas, entre un 10% y un 35% del total (Piñero y Terrada, 1992a).

 

La conclusión que buena parte de los investigadores, a la luz de los anteriores argumentos, hemos alcanzado han sido bien expresados por Maltrás, Quintanilla y Vidal, (1998, p. 147) al indicar "la imposibilidad de utilizar estas bases de datos como criterio de calidad", y mucho menos como referente prescriptivo.

 

Estas posturas han hecho reflexionar al legislador que, modificando posturas previas, indica "No obstante, en diversos ámbitos científicos correspondientes a este Campo[1], la base de datos mencionada es incompleta en el entorno europeo y la Comisión Nacional podrá ampliar estos listados reconociendo la calidad de otras revistas". A pesar de este reconocimiento, sigue vigente la exigencia de que "como norma general, para obtener una evaluación positiva las cinco aportaciones del curriculum vitae abreviado deberán cumplir lo descrito en los puntos anteriores y, al menos, una de ellas cumplir lo prescrito en el punto 2 (es decir, que se haya publicado en una revista incluida en el JCR, los subrayados son nuestros). Entendemos que el mantenimiento de esta exigencia parte del supuesto de que aparecer en tales listados es una garantía de calidad e internacionalización de la investigación. En un trabajo anterior (Aliaga y Orellana, 1999) hemos verificado que, al menos por lo que respecta al ámbito educativo, el JCR no es sinónimo de internacionalización, sino que, más bien al contrario, está imbuido por un poderosísimo sesgo anglosajón (apenas aparecen dos revistas de países no anglosajonas, una alemana y otra china -aunque escrita en inglés. Ninguna revista en español).

 

Entendemos que el mantenimiento del requisito de que, al menos una de las publicaciones, se haya editado en revistas que aparezcan en el JCR como un intento de atender a criterios objetivos de calidad utilizados internacionalmente. Ya hemos comentado, sin embargo, que dicho "reconocimiento internacional" es más que discutible en el caso del JCR de Ciencias Sociales, y sin duda mucho menos apropiado que en el de Ciencias (donde el objeto de estudio es común a todos los países, al igual que las conclusiones alcanzadas, algo que no ocurre en las Ciencias Sociales y Humanas).  Pero lo que queremos analizar en este trabajo es más bien la otra vertiente, es decir, la de considerar el JCR como una medida objetiva de calidad. En este sentido, y como todas las medidas, cabría esperar que cumpliese ciertos criterios de bondad clásicos, tales como la fiabilidad y la validez. Respecto a la validez, remitimos a la amplia bibliografía que se ha desarrollado en el ámbito de la bibliometría, algunos de cuyos trabajos se citan en la introducción a este trabajo (Ver, para una revisión más amplia, Fernández Cano, 1995). Es sin embargo respecto a la fiabilidad, entendida como estabilidad de la medida, sobre la que nos queremos centrarnos en esta ocasión.

 

Hemos analizado la evolución de las revistas que aparecen en el JCR en un periodo de 5 años, desde 1995 hasta el año 1999 (último del que se tenían datos en el momento de escribir este trabajo). Por centrarnos más en nuestro ámbito de interés, nos hemos circunscrito exclusivamente a las revistas de las categorías "Special Education" y "Education & Educational Research". Estas son las dos únicas categorías del JCR exclusivamente educativas, aunque evidentemente existen otros campos relacionados, tales como rehabilitación o psicología.

 

Conjuntamente, en los dos apartados anteriormente mencionados hay en total 136 revistas diferentes citadas en los cinco años analizados. A lo largo de los años se han producido abundantes modificaciones en el listado del JCR. Así, hay 111 revistas que cumplen todos los requisitos en 1995, 114 en 1996, 123 en 1997, 120 en 1998 y 121 en 1999, es decir, una media de algo menos de 118 revistas por año.

 

Para comprender mejor esta variación, hemos de indicar que no sólo cambia el número de revistas, sino también las revistas que aparecen cada uno de los años. Así, hay cinco revistas que sólo aparecen un único año (4 sólo en 1995 y otra sólo en 1999), ocho revistas que sólo aparecen dos años (6 en el 95-96, 1 en 96-97 y otra en el 98 y 99), dieciocho revistas aparecen sólo en tres de los cinco años (15 en los tres últimos años analizados, tres en la tríada inicial) y once aparecen en cuatro años del lustro analizado (ocho de ellos en el periodo 1996-1999). Quedan por tanto un total de 94 títulos de revistas (el 69,12%) que aparecen durante los cinco años que estamos considerando, es decir, que están plenamente estabilizadas según los criterios del JCR.

 

Esta estabilidad ha de entenderse tan sólo en el sentido de permanencia en la lista, ya que los puestos que ocupan según su índice de impacto sufren grandes oscilaciones. Así, por ejemplo, la revista que ocupa el primer lugar en 1995 y en 1996 (Educational Research) pasa a ocupar el lugar 116 (del total de 123 incluidas en el JCR de ese año) en 1997, es decir, pasa de ser la más valorada a estar prácticamente excluida del listado de revistas más relevantes y de mayor impacto en un solo año.

 

Ante esta falta de estabilidad de este modo de medir calidad de las revistas sobre educación, es decir, medidas con los criterios del JCR), y a la vista de la obligación legalmente establecida se plantean diversas dudas. Para saber si una revista en la que se publica va a considerarse como de calidad, y dado que un porcentaje significativo (más del 30%) aparece y desaparece del listado, ¿cuál es el año de referencia que habrá de tomarse para consultar el JCR?. Son varias las respuestas posibles:

 

a)     cuando se envió el manuscrito: Cuando un autor decide enviar su manuscrito a una revista que pretende que sea de prestigio e impacto internacional, el único referente que tiene es el de consultar el JCR, que siempre es retrospectivo. Se podría dar el caso, no obstante, de que por razones ajenas a dicho autor esa revista desapareciese en años posteriores, algo imposible de predecir. ¿Deberíamos considerar que una publicación en esa revista ya no tiene el impacto suficiente para ser considerada de “calidad internacional” y por tanto considerar que no cumple los requisitos legales?. Ante la notable variación existente, esta interpretación dejaría en estado de indefensión absoluta a los investigadores, que serían evaluados por la evolución, completamente ajena a sus  trabajos, de una publicación sobre la que no tiene control. Si por el contrario se considera de “calidad” una publicación aunque se produzca en un medio no incluido ya para esa época en el JCR se estaría haciendo una interpretación ciertamente forzada de la prescripción legal.

b)    el año en que se publica: Sabemos que en no pocas editoriales hay una gran lista de espera para publicar, lo que se traduce en demoras notables (en algunos casos de hasta dos años - Carrol, 2001), lo que ha propiciado la costumbre de que muchas revistas incluyan la fecha de recepción y aceptación de manuscritos cuando los publican. La presencia de una revista en el JCR se hace atendiendo a las citas recibidas por dicha publicación periódica a artículos anteriormente publicados, es decir, en las que el trabajo concreto evaluado no habrá podido en modo alguno contribuir. Puesto que sabemos que la calidad de la publicación no garantiza en la calidad de los trabajos en ella publicados, ni siquiera su impacto individual (Tainer, 1991), sólo nos queda el argumento de que los métodos de selección de manuscritos sean tan rigurosos que pasen a ser editados los trabajos de calidad. Sin embargo, no son pocos los casos de artículos que se publican en revistas de gran impacto y que no reciben atención por parte de la comunidad científica o académica (Bellavista et al. 1997). De hecho, el 75% de los artículos incluidos en el Social Science Citation Index (tan bien del ISI) no reciben ninguna cita en los cinco años posteriores a su publicación (cif. Gómez y Bordons, 1996). Por tanto, proponer de nuevo criterios de calidad que ni dependen ni pueden ser conocidos previamente por el investigador que remite su manuscrito a la editorial parece manifiestamente injustos.

c)     el año en el que se hace la evaluación: Los miembros del tribunal que ha de evaluar los sexenios de investigación pueden consultar la base de datos del JCR relativa al año en el que se hace la evaluación. La idea es que al ser de años posteriores a la publicación puede recoger la aportación hecha (las citas recibidas) por el artículo en cuestión. Puede pero, como hemos visto, no necesariamente es así. Podría darse la situación de que se envía un manuscrito a una revista que el autor ha visto, en su momento, reflejada en el JCR, pero que desaparezca poco después ya que otros artículos que aparecen en la misma revista no reciben citas. En esas circunstancias un  artículo podría no conseguir cumplir con el requisito impuesto, a pesar de recibir diversas citas en revistas prestigiosas, por circunstancias de nuevo ajenas a las posibilidades reales del investigador.

d)    En cualquiera de los últimos años (desde antes de la publicación hasta el momento de la evaluación): A nuestro entender, el principal problema del criterio "internacional" tal y como se plantea actualmente es de procedimiento, de tal modo que con una medida tan grosera de impacto como es la utilizada por el JCR (que no analiza el impacto de los trabajos individuales, sino del promedio de la revista). Al no analizar los artículos de manera individualizada, sino conjuntamente con los publicados en la misma revista, pueden darse casos paradójicos como que un artículo que jamás sea citado se considere de “impacto y calidad internacional” según nuestra legislación, mientras que otros trabajos de gran interés social para nuestro país se consideren “insuficientes”, por no cumplir el “requisito JCR.  

 

Como conclusión global podemos decir que el procedimiento actualmente vigente, que pretende garantizar una cierta "proyección internacional" de la investigación, y que en la práctica no es más que una mimesis de los procedimientos usuales en las "ciencias duras", no se justifica ni por el objeto, ni por la tradición, ni por entorno cultural, ni por las prioridades sociales, ni por la propia lógica del procedimiento. A nuestro entender debería someterse a un proceso de revisión profunda el método utilizado, eliminándose el requisito de publicar en revistas incluidas en el JCR y promoviéndose, como método alternativo, la creación de una Base de Datos alternativa que cubra de una manera más adecuada las características de la investigación educativa europea y española, como venimos defendiendo (Aliaga y Orellana, 1999), coincidiendo con autoridades en la materia como Garfield (1979) o López Piñero y Terrada (1992b).

 

 

Bibliografía

 

Aliaga, F. y Orellana, N. (1999). La utilización de las bases de datos del ISI para la evaluación de la calidad de las publicaciones sobre investigación educativa en España: argumentos para un debate. En AIDIPE, Nuevas realidades educativas, nuevas necesidades metodológicas, pp. 29-34. Málaga: CEDMA.

Bellavista, J. , Guardiola, E., Méndez, A. y Bordóns, M. (1997). Evaluación de la investigación. Madrid:CIS

Carrol, R.J. (2001) Review times in Statistical Journals: Tilting at windmilles?. Biometrics, vol 57, n 1, p 1-6.

de Miguel, M. (1997). La evaluación de la actividad investigadora del profesorado universitario en el ámbito de las Ciencias de la Educación. Revista de Investigación Educativa, vol 15 (1), pp. 171-186.

Fernández Cano, A (1995). Métodos para evaluar la investigación en psicopedagogía. Madrid: Síntesis

Fernández Cano, A (1997). Evaluación de la investigación educativa española: una revisión integrativa de realizaciones en 25 años. Revista Española de Pedagogía, nº 207, pp. 279-301.

García Garrido, J.L., Buj, A., González Anleo, J. Ibañez Marín, J.A., de la Orden Hoz, A. y Rodriguez Diéguez, J.L. (1998). Elementos para un diagnóstico del Sistema Educativo Español. Informe Global. Madrid: INCE

Garfield, E. (1979). Citation indexing. Its thory and application in science, technology and humanities. Nueva York: Wiley

Gomez Caridad, I. y Bordons, M. (1996). Limitaciones en el uso de los indicadores bibliométricos para la evaluación científica. Política Científica, nº 46, pp 21-26.

López Piñero, J.M. y Terrada, M.L. (1992a). Los indicadores bibliométricos y la evaluación de la actividad médico científica.(II). La comunicación científica en las distintas áreas de las ciencias médicas. Medicina Clínica, vol 98, 101-106.

López Piñero, J.M. y Terrada, M.L. (1992b). Los indicadores bibliométricos y la evaluación de la actividad médico científica.(III). Los indicadores de producción, circulación y dispersión, consumo de la información y repercusión. Medicina Clínica, vol 98, 142-148.

Maltrás, B., Quintanilla, M.A. y Vidal, J. (1998). Indicadores bibliométricos en la evaluación de la investigación. Revista de Educación, nº 315, pp. 141-151.

Rice, R., Borgman, C. y Bednarski, D. (1989). Journal-to-journal citation data: issues of validity and reliability. Scientometrics, vol. 15, pp. 257-282.

Tainer, J.A. (1991). Science, Citation, and Funding. Science, vol 251, p. 1408.

Velho, L. y Krige, J. Publication and citation practices of Brazilian agricultural scientists. Social Studies of  Science, vol. 47, pp. 23-27.

 

 

Aliaga F. y Orellana, N. (2001). Análisis de estabilidad del Journal Citation Report y su implicación como requisito para la evaluación de la calidad de las publicaciones sobre investigación educativa: problemas y limitaciones. Comunicación presentada al X Congreso Nacional de Modelos de Investigación Educativa. La Coruña, Septiembre. Publicado en AIDIPE, Investigación y evaluación educativas en la Sociedad del Conocimiento., pp. 339-344. La Coruña: AIDIPE. Disponible en http://www.uv.es/~aliaga/curriculum/Evolucion_JCR.htm

 

[Volver a Página Principal]   [Volver a Índice del curriculum]

 



[1] Recordemos que el Campo 7 incluye Ciencias Sociales, Políticas, del Comportamiento y de la Educación