Sistema de blogs Diarium
Universidad de Salamanca
José Antonio Merlo Vega
Profesor del Departamento de Biblioteconomía y Documentación de la Universidad de Salamanca
 

Criterios de evaluación de revistas científicas

Merlo Vega, J. A., & Montoya-Roncancio, V. (2023). Criterios de evaluación de revistas científicas. Revista Estudios De La Información1(1), 71-89. https://doi.org/10.54167/rei.v1i1.1223

La evaluación de revistas científicas se realiza para disponer de indicadores que permitan clasificar las publicaciones en función de su calidad. Los índices de revistas agrupados por su calidad pueden encontrarse en diferentes plataformas, que basan sus evaluaciones en criterios e indicadores de diferentes tipos. Las plataformas de revistas se estructuran a partir de su finalidad, estableciendo tres categorías: plataformas de impacto (finalidad bibliométrica), plataformas de contenidos (finalidad bibliográfica) y plataformas de calidad (finalidad cualitativa). El estudio define cada tipo de plataforma de revista y ofrece ejemplos de cada grupo. El objetivo principal de esta investigación es caracterizar los modelos de evaluación de revistas científicas y establecer indicadores que se puedan aplicar en cualquier tipo de plataforma o servicio de revistas científicas. El estudio establece indicadores cuantitativos y cualitativos que se agrupan en tres bloques de criterios. El objetivo específico es disponer de datos sobre el uso de indicadores en las clasificaciones de publicaciones producidas por las diferentes plataformas de revistas. Se emplea una metodología en la que se han establecido una serie de quince indicadores, organizados a partir de tres criterios: editoriales, bibliométricos y divulgativos. Se han seleccionado tres plataformas representativas de cada tipo y se ha examinado el grado de cumplimiento o presencia de los quince indicadores en las nueve plataformas seleccionadas: impacto (Scopus, Web of Science, Google Scholar), contenidos (Redalyc, Dialnet, Redib) y calidad (MIAR, Latindex, CARHUS). El estudio concluye que los indicadores de tipo editorial son los que están más presentes en las plataformas de revistas científicas, mientras que los indicadores divulgativos apenas son contemplados en las mismas.

The quality of scientific journals is evaluated in different resources using specific indicators which do not provide an integrated evaluation of all the data that can be measured in a scientific periodical. The study presents a hybrid methodology that makes it possible to know what journal evaluation models exist and what criteria are used to carry out classifications, indexes, and rankings of scientific journals. The article is based on two research questions: how the quality of scientific journals is evaluated and what quality criteria are examined in journal rankings. Specialized bibliography and original information from journal rankings have been the main source of data. The journal platforms were structured on the basis of their purpose, establishing three categories: bibliometric, bibliographic and qualitative platforms. The article presents the results of the analysis of a sample of nine platforms in which the compliance of fifteen indicators is analyzed, which were grouped into three criteria: editorial, bibliometric and divulgation indicators. The main results show that content platforms are the ones that use indicators of all three types. The results also determine that the editorial indicators are the most present in scientific journal platforms, while the divulgative indicators are hardly contemplated in them. The study concludes that the evaluation of journals by bibliometric indicators alone is insufficient to measure the quality of scientific journals, and that editorial and divulgative indicators are necessary.

Merlo

, ,

Se han bloqueado los comentarios.
Política de privacidad
Studii Salmantini. Campus de excelencia internacional