Mostrando entradas con la etiqueta indicadores. Mostrar todas las entradas
Mostrando entradas con la etiqueta indicadores. Mostrar todas las entradas

jueves, mayo 29, 2014

Se publica la 5ª edición - 2014 de los Rankings I-UGR de Universidades Españolas según Campos y Disciplinas Científicas

5ª EDICIÓN DE LOS RANKINGS I-UGR

Se publica la quinta edición de los Rankings I-UGR de las Universidades Españolas según Campos y Disciplinas Científica 5ª ed. 2014:


Se trata de un ranking de universidades públicas y privadas españolas basadas en la investigación publicada en las revistas internacionales de mayor impacto y visibilidad.

El objetivo principal de estos rankings es descubrir las fortalezas y debilidades del sistema universitario español de investigación en diferentes ámbitos del conocimiento. Se ofrecen rankings de universidades para 12 campos y 37 disciplinas científicas de manera que pueda captarse mejor en qué especialidades son más influyentes las universidades.



RESULTADOS GENERALES

Ralentización al crecimiento: En el año 2013 el sistema universitario español ha publicado 42845 trabajos en las mejores revistas científicas, un 3% más que en 2012. El crecimiento se ralentiza ya que el promedio de crecimiento durante la última década se situaba en el 9%. De esta forma se crece a un ritmo inferior.

Decadencia madrileña: De los 12 campos 8 están liderados por las universidades catalanas que copan también los primeros puestos de forma sistemática en la disciplinas en contraposición a las universidades madrileñas que pierden posiciones y ya no lideran ningún campo científico, tan solo dos disciplinas periféricas.

Los ejes periféricos: Solo Andalucía y la Comunidad Valencia hacen algún frente al dominio de las universidades catalanas. Andalucía lidera dos campos científicos y 6 disciplinas. El eje valenciano no destaca en ningún campo y pero si consigue tres primeros puestos en las disciplinas, si bien es cierto se constata la caída de ediciones anteriores.

RESULTADOS POR UNIVERSIDADES

Cataluña

La Universitat de Barcelona lidera 6 campos y 12 disciplinas principalmente las relacionadas con los ámbitos de las ‘Ciencias Biológicas’ y la ‘Medicina y Farmacia’ aunque también consigue liderar ‘Otras Ciencias Sociales’ y ‘Psicología y Educación’. La Politécnica de Catalunya ocupa el primer puesto en el campo de las ‘Ingenierías’. Asimismo se sitúa en primer lugar en disciplinas como ‘Ingeniería Industrial’,  ‘Automática y Robótica’ y ‘Telecomunicaciones’.

Pompeu Fabra mantiene su primer puesto en el campo de ‘Economía Empresa y Negocios’ y destacan sus primeras posiciones en disciplinas como ‘Genética’, ‘Salud Pública’, ‘Economía’, ‘Sociología y ’Multidisciplinar’.  La Autónoma de Barcelona consigue posicionarse en 5 campos como la segunda universidad y en las disciplinas copa la primera posición en: ‘Ecología y Medioambientales’, ‘Veterinaria y Ganadería’ y ‘Geografía y Urbanismo’.

Comunidad de Madrid

Es reseñable en el eje madrileño que la Complutense pierde posiciones en relación a la edición anterior y ya no destaca de forma relevante en ninguno de los campos, solo en las disciplinas, en ‘Odontología’, aparece en primera posición.  La Autónoma de Madrid lidera el campo de ‘Física’. Finalmente subrayamos como la Rey Juan Carlos consigue el primer puesto en la disciplina de ‘Rehabilitación y Fisioterapia’.

Andalucía             
               
En Andalucía Granada obtiene el primer puesto en el campo ‘Tecnologías de la Información y Comunicación’ y en el caso de las disciplinas lidera las siguientes: ‘Estadística’, ‘Actividad Física y del Deporte’, ‘Informática’, ‘Documentación’ y ‘Educación’. Destaca asimismo el primer puesto alcanzado por Córdoba en el campo de ‘Ciencias Agrarias’ y en la disciplina de ‘Agricultura’.

Comunidad Valenciana

En esta edición ninguna de las universidades consigue liderar ningún campo. A nivel de disciplinas la Politécnica de Valencia consigue el primer puesto en ‘Ingeniería Industrial’ y en ‘Arquitectura’ y la Universitat de Valencia en ‘Tecnología de los Alimentos’

Otras Universidades
               
Hay que mencionar el primer puesto alcanzado por Santiago de Compostela en el campo de ‘Matemáticas’. Por disciplinas logran la primera posición: País Vasco en ‘Ingeniería Química’,  Vigo en ‘Ingeniería Civil’, Navarra en ‘Empresa’ y finalmente la  Universidad IE en ‘Comunicación’.


Los rankings pueden consultarse en el portal: http://www.rankinguniversidades.es

Rankings I-UGR está elaborado por los grupos de investigación EC3-EC3metrics spin off y SCI2S

Síguenos en twiiter: https://twitter.com/rankingsiugr

Contacto: Daniel Torres-Salinas | e-mail: torressalinas@gmail.com | Tlf: 958 255 791


viernes, julio 05, 2013

¿Van de la mano los indicadores bibliométricos y la revisión por pares en la evaluación de proyectos?


DESCARGAR Reviewers’ Ratings and Bibliometric Indicators: Hand in Hand When Assessing Over Research Proposals?


Acabamos de publicar en PLOS ONE un trabajo en el que analizamos hasta qué punto coinciden los indicadores bibliométricos con la revisión por pares en la evaluación de proyectos de investigación. A partir de los solicitantes de proyectos en la convocatoria del Plan Nacional de Investigación en el año 2007, se determina para cada una de las áreas el grado en que ambas cuestiones van parejas. Para ello hemos contado con las puntuaciones otorgadas por la ANEP a dichos proyectos así como con el listado de proyectos concedidos por el Ministerio, entonces de Ciencia (la ANEP sólo evalúa, el Ministerio concede los proyectos).

Explicación del proceso de evaluación de proyectos en el Plan Nacional 2007

Los resultados señalan en primer lugar que los proyectos se conceden a los solicitantes que han mostrado mejor rendimiento previo. En términos bibliométricos los solicitantes que reciben proyectos presentan datos de productividad e impacto que suelen duplicar los de los solicitantes denegados. Pese a algunas discrepancias, sólo explicables bajo criterios no científicos (prioridades políticas, áreas estratégicas, re-equilibrios territoriales o de género) el sistema cumple razonablemente bien su proposito. Interesante es también señalar que, entre los cinco parámetros evaluados, el principal factor que asegura la concesión de un proyecto de investigación es el cv del investigador principal.

A partir de estos datos y de diversos análisis estadísticos, proponemos el uso de indicadores bibliométricos como complemento al peer review, para evaluar el cv de los solicitantes, ya que, de facto, es lo que están haciendo los evaluadores. También analizamos, área por área, qué indicador bibliométrico (o combinación de ellos) influye más en la concesión del proyecto (producción vs impacto)

Este estudio es uno de los pocos, hasta el momento, que analizan el proceso de evaluación y concesión de proyectos en España. Con ello pretendemos contribuir al debate sobre la política científica en nuestro país.

RESUMEN

Background

The peer review system has been traditionally challenged due to its many limitations especially for allocating funding. Bibliometric indicators may well present themselves as a complement.

Objective

We analyze the relationship between peers’ ratings and bibliometric indicators for Spanish researchers in the 2007 National R&D Plan for 23 research fields.

Methods and Materials

We analyze peers’ ratings for 2333 applications. We also gathered principal investigators’ research output and impact and studied the differences between accepted and rejected applications. We used the Web of Science database and focused on the 2002-2006 period. First, we analyzed the distribution of granted and rejected proposals considering a given set of bibliometric indicators to test if there are significant differences. Then, we applied a multiple logistic regression analysis to determine if bibliometric indicators can explain by themselves the concession of grant proposals.

Results


63.4% of the applications were funded. Bibliometric indicators for accepted proposals showed a better previous performance than for those rejected; however the correlation between peer review and bibliometric indicators is very heterogeneous among most areas. The logistic regression analysis showed that the main bibliometric indicators that explain the granting of research proposals in most cases are the output (number of published articles) and the number of papers published in journals that belong to the first quartile ranking of the Journal Citations Report.

Discussion

Bibliometric indicators predict the concession of grant proposals at least as well as peer ratings. Social Sciences and Education are the only areas where no relation was found, although this may be due to the limitations of the Web of Science’s coverage. These findings encourage the use of bibliometric indicators as a complement to peer review in most of the analyzed areas.

------------------

Cabezas-Clavijo Á., Robinson-García N., Escabias M., Jiménez-Contreras E. (2013) Reviewers’ Ratings and Bibliometric Indicators: Hand in Hand When Assessing Over Research Proposals? PLoS ONE 8(6): e68258. doi:10.1371/journal.pone.0068258

martes, junio 25, 2013

Book Citation Index y Altmetrics, nuestras contribuciones al nuevo Anuario ThinkEPI

Acaba de publicarse la última edición del anuario ThinkEPI (séptima edición ya), la publicación que con carácter anual se encarga de recoger las tendencias más destacadas en Información y Documentación. En esta ocasión el anuario 2013 recoge las notas difundidas a través de Iwetel en 2012, así como algunos informes de situación inéditos. El #giec3 participa con dos aportaciones sobre temas centrales en el grupo en los últimos tiempos: Book Citation Index y Altmetrics, o lo que es lo mismo, nuevas fuentes de información y nuevos indicadores para enriquecer los análisis de actividad científica. Como es costumbre, ya podéis descargar gratuitamente ambos trabajos.


Torres-Salinas, D. & Delgado-López-Cózar, E. (2013). Cobertura de las editoriales científicas del Book citation index en ciencias sociales y humanidades: ¿la historia se repite? Anuario ThinkEPI, 7, 110–113. [DESCARGAR]

Resumen: En 2010 Thomson lanzó un nuevo índice de citas dedicado a los libros: el Book Citation Index. Esta nueva base de datos ha abierto nuevas posibilidades para el análisis bibliométrico de campos como las humanidades y las ciencias sociales. Sin embargo debido a su juventud aún sabemos poco sobre su cobertura y especialmente de los editores científicos que se han tenido en cuenta en su elaboración. Se analiza la cobertura por países, idiomas, concentración editorial y una comparación con el producto español Scholarly publishers indicators (SPI), del CCHS/CSIC. Se concluye que tiene una orientación marcadamente anglosajona, gran concentración editorial y, para agravar la situación, ausencia de editores reputados.

Torres-Salinas, D. & Cabezas-Clavijo, Á. (2013). Altmetrics: no todo lo que se puede contar, cuenta. Anuario ThinkEPI, 7, 114–117. [DESCARGAR]
 
Resumen: En 2012 se multiplicaron las propuestas sobre nuevos indicadores asociados a aplicaciones de la web social, denominados altmetrics (o métricas alternativas) y se presentan como una alternativa a la evaluación de la actividad científica. Sin embargo, pese a las múltiples propuestas, dicho campo aún está en fase embrionaria. Se presentan algunas posibles limitaciones de los nuevos indicadores: 1) gran número de fuentes de información e indicadores que hacen difícil establecer su clasificación y relevancia; 2) muchos no tienen demasiada validez estadística por los pobres resultados que generan; 3) es difícil determinar cuál es el significado de las nuevas medidas ya que no sabemos si se mide exactamente impacto social o científico; y 4) carácter evanescente y efímero.



viernes, noviembre 30, 2012

Altmetrics: no todo lo que se puede contar, cuenta




Altmetrics: no todo lo que se puede contar, cuenta
22 noviembre, 2012 Por Daniel Torres-Salinas y Álvaro Cabezas-Clavijo 
en Notas ThinkEPI 2013


La evaluación de la ciencia desde una perspectiva cuantitativa se basa en indicadores bibliométricos. El número de citas o el Impact Factor son las medidas habituales para medir la repercusión de un trabajo o investigador desde hace décadas. Sin embargo, en los últimos años el mundo académico ha comenzado a abrazar las herramientas 2.0. La firme consolidación de muchas plataformas y la incorporación de los pioneros en su uso al mundo académico han hecho que por fin se acepten las ventajas que redes especializadas como Mendeley, o genéricas como Twitter tienen en la gestión del ciclo de publicación y difusión científica.


Para la informetría, lo más relevante de las plataformas 2.0 son los indicadores que generan. El número de lectores que almacenan un paper en sus gestores de referencias o el número de visitas de una presentación online bien pueden ser aproximaciones al interés que suscita un trabajo científico. De esta forma, los indicadores derivados de la participación de los usuarios en las herramientas 2.0 con fines académicos se han etiquetado como Altmetrics, un campo que supone uno de los desarrollos más significativos en la disciplina en los últimos años. 


martes, noviembre 27, 2012

La evaluación de la investigación universitaria: el asesoramiento desde la biblioteca

Recientemente en la Universidad de Granada hemos impartido para el personal de la biblioteca universitaria el curso "La Evaluación de la Investigación Universitaria: Indicadores, Criterios y Herramientas. El asesoramiento desde la biblioteca". 

Es un curso dirigido a al personal bibliotecario para que adquieran las competencias básicas para poder ayudar al profesorado en los diferentes procesos de evaluación. Los profesores fuimos Álvaro Cabezas-Clavijo y Daniel Torres-Salinas y éste fue el temario y la presentación que impartimos (incluye lecturas complementarias y prácticas): 

MÓDULO 0. INTRODUCCIÓN BÁSICA A LA BIBLIOMETRÍA
- Bibliotecas universitarias e investigación
- Los indicadores bibliométricos
- La evaluación del profesorado universitario

MÓDULO 1. CRITERIOS DE LAS AGENCIAS DE EVALUACIÓN

Criterios de evaluación de la ANECA
- Descripción general de la ANECA
- Filosofía general de evaluación
- Criterios específicos por área
Criterios de evaluación de CNEAI
- Descripción general de la CNEAI
- Filosofía general de la evaluación de la CNEAI
- Criterios específicos por área

MÓDULO 2. HERRAMIENTAS DE EVALUACIÓN
Factores de Impacto revistas de científicas
- Internacionales: JCR y  SJR
- Nacionales: In-RECS, IN-RECJ e IN-RECH
Otros productos de evaluación de revistas
- Internacionales: ERIH y Latindex, Ulrich´s
- Nacionales: Dice,  CIRC, MIAR, CARHUS y RESH
Índices de Citas
- Tradicionales: Web of Science y  Scopus
- On-line: Google Scholar y Microsoft Academic
Otras productos de evaluación
- Otras herramientas de búsqueda de indicios (libros)
- Software útil (Publish or Perish)


martes, septiembre 04, 2012

Hacia las unidades de bibliometría en las universidades: el paper

'...estamos preparados para la acción sr Rector'

Empezamos el curso presentando uno de los últimos artículos que hemos publicado sobre un tema que ya hemos comentado por aquí en alguna ocasión: las unidades de bibliometría. El artículo ha aparecido publicado en la Revista Española de Documentación Científica bajo el título: Hacia las unidades de bibliometría en las universidades: modelo y funciones. Éste es el resumen del mismo:
En los últimos años la bibliometría evaluativa se han consolidado firmemente como herramienta en la gestión de la investigación y toma de decisiones en el ámbito de la política científica. Una de las instituciones donde más está creciendo este uso es en las universidades españolas que cada vez se encuentran en un entorno más competitivo y tienen una mayor necesidad de conocer el rendimiento de sus investigadores. Teniendo en cuenta este contexto en el presente trabajo se expone una propuesta para la creación de unidades de bibliometría en las universidades españolas. El objetivo específico es, por tanto, ilustrar el modelo y funciones de dichas unidades que han de basarse en tres pilares fundamentales: control de las fuentes de la información, realización de informes y asesoramiento y formación. Además de la propuesta teórica se presentan diferentes ejemplos llevados a cabo en las Universidades de Navarra y Granada. El texto concluye subrayando la oportunidad laboral que supondría en el ámbito de la documentación este tipo de unidades.

Referencia:

lunes, abril 09, 2012

Scholar Metrics: el impacto de las revistas según Google, ¿un divertimento o un producto científico aceptable?


EC3 ofrece una primera valoración de urgencia del nuevo producto de Google, Scholar Metrics. En los próximos días publicaremos más análisis sobre diversos aspectos de esta nueva herramienta bibliométrica.

--------------
UPDATE: Download the English version of our paper!


-------------
Cabezas-Clavijo, Álvaro; Delgado-López-Cózar, Emilio (2012). “Scholar Metrics: el impacto de las revistas según Google, ¿un divertimento o un producto científico aceptable?”. EC3 Working Papers, 1, 9 de abril. Disponible en http://hdl.handle.net/10760/16830 
 
INTRODUCCIÓN

Google sorprendía el pasado 1 de abril con el lanzamiento de Google Scholar Metrics, un nuevo producto que ofrece un índice de impacto de las revistas científicas, medido a partir de recuentos de citas. La fecha no pasó inadvertida para la comunidad investigadora en las redes sociales que se preguntaba si era un producto real o una broma (el 1 de abril es el April Fools' Day, equivalente al Día de los Inocentes español). Sin embargo, para solaz de bibliómetras e intranquilidad de algunas multinacionales de la edición científica, el producto de Google no era una broma, sino un paso natural de Google dentro de la expansión de la familia Scholar.

Este movimiento no por esperado deja de ser relevante. Tras algún tiempo calibrándose la utilidad de Google Scholar como herramienta para la evaluación científica (Torres-Salinas, Ruiz-Pérez y Delgado-López-Cózar, 2009), Google se adentra ahora en el mismísimo santo y seña de la bibliometría: los índices de impacto de las revistas. El lanzamiento hace escasos meses de Google Scholar Citations (Cabezas-Clavijo y Torres-Salinas, 2012), herramienta de medición del impacto de los investigadores, suponía un aviso de los planes de Google en el mundo de la información y evaluación científica. La puesta en marcha ahora de la clasificación de revistas en función de su índice h entra en competencia directa con los diferentes productos e índices de revistas existentes en el mercado, y muy particularmente con los Journal Citation Reports (JCR), el estándar para la medición del impacto de las revistas.

En esta nota urgente repasamos las características más significativas de Google Scholar Metrics, señalando sus fortalezas y debilidades  (siempre teniendo en cuenta que los productos de Google van incorporando progresivamente nuevas funcionalidades), y se discuten las posibilidades de adopción para la evaluación de revistas.

DESCRIPCIÓN

Scholar Metrics ofrece en su primera versión una clasificación de las primeras cien revistas del mundo por idioma de publicación. La ordenación de estas listas se basa en el índice h de las revistas, calculado a partir de los artículos publicados en los últimos cinco años (2007-2011). Esto es, una revista con un índice h de 12 (por ejemplo, El Profesional de la Información) significa que ha publicado 12 trabajos con al menos 12 citas cada uno de ellos. Como dato adicional se ofrece asimismo la mediana del número de citas obtenida por los artículos que contribuyen al índice h. Lógicamente, el valor de la mediana nunca puede ser inferior al valor del índice h de la revista. Scholar Metrics usa este indicador (h5-median) para ordenar las revistas con el mismo valor de h-index, algo necesario dado que, al tomar valores discretos, este indicador tiene escaso poder discriminatorio. Asimismo se pueden consultar los artículos que contribuyen al índice h de cada revista.

Figura 1: Página de inicio de Google Scholar Metrics con las publicaciones con mayor índice h.

La consulta de Scholar Metrics se puede realizar de dos formas distintas:
  • Accediendo a los listados por idiomas (diez en la actualidad: inglés, chino, portugués, alemán, español, francés, coreano, japonés, holandés e italiano). Se muestra por cada idioma un ranking de las 100 revistas con mayor índice h.
  • Haciendo uso del buscador para buscar por palabras incluidas en los títulos de las revistas. En este caso, solo ofrece 20 resultados.  
Figura 2: Las 20 publicaciones con mayor índice h con el término "Library" en el título.

A este respecto hay que señalar que las revistas incluidas en este producto no son todas las indizadas en Google Scholar, sino que se ha hecho una selección, en base a dos criterios: solo se incluyen revistas que hayan publicado al menos 100 artículos en el periodo 2007-2011 y que hayan recibido alguna cita (esto es, se excluyen las revistas con índice h=0).

Conviene advertir que los índices de las revistas son los alcanzados por las mismas a fecha 1 de abril de 2012. No se trata, por tanto, de un sistema de información dinámico pues no se actualiza a medida que las revistas van recibiendo más citas sino que queda fijo con los datos a dicha fecha. Aunque no se anuncia, es de esperar que periódicamente Google actualice dichos listados.

Figura 3: Listado de algunos de los artículos que contribuyen al índice h de la revista El Profesional de la Información.

LIMITACIONES 

Una revisión de las prestaciones de Google Metrics junto a una primera observación de los listados de revistas ofrecidos ya apunta alguna de las principales limitaciones del producto.
  • Cobertura. Resulta francamente sorprendente la ambigua por no decir confusa definición de cuáles son los documentos objeto de medición de Google Metrics. Aunque a lo largo de la escueta nota metodológica que acompaña al producto las referencias explicitas a las revistas científicas son constantes (“…If you can't find the journal you're looking for…”, “If you're wondering why your Journal…”), se declara que se incluyen artículos de revistas procedentes de las webs que cumplen los criterios de inclusión de Google así como “actas de congresos” y preprints de “algunas fuentes seleccionadas manualmente”. Hay que esperar a ver los listados ofrecidos o realizar algunas consultas bibliográficas para encontrarse con la gran sorpresa: la indiscriminada mezcla de fuentes documentales tan distintas como las revistas, repositorios (RePEc, Arxiv y Social Science Research Network), bases de datos (Cochrane database of systematic reviews), actas de congreso (IEEE Conference on Computer Vision and Pattern Recognition, CVPR; Proceedings of the ESSCIRC; Proceedings of SPIE; AIP Conference Proceedings) y working papers (Nber Working Paper Series). ¿Es que acaso los responsables de Google Metrics desconocen las diferente naturaleza de estos productos que impide su comparación bibliométrica?  Así no es de extrañar que de las diez publicaciones con mayor índice h en inglés, tres sean repositorios (RePEc, Arxiv y Social Science Research Network), probablemente algunas de esas “fuentes seleccionadas manualmente”. La pregunta es evidente: ¿por qué se seleccionan estos y no otros? Meritorios repositorios como Dialnet o E-LIS, aunque tengan distintos propósitos y coberturas, podrían aparecer perfectamente en los listados. En fin, esta decisión es sorprendente y desde luego, no está justificada, máxime cuando la inclusión se ha limitado a una serie de fuentes de información y no al conjunto de actas de congresos, bases de datos o repositorios de materiales de investigación.
  • Control de fuentes: A las ya clásicas erratas detectadas por Peter Jacsó (2008) en Google Scholar, que encontró a tan prolíficos autores como Password,  Building, Introduction o View cabría añadir en Google Metrics la no tan productiva revista pero de tan simpar rareza como “Age (years)” incluida en el listado de revistas en español en el puesto 99.
  • Falta de normalización. Confeccionar un índice de impacto de revistas exige un laborioso a la par que enojoso trabajo de normalización de los títulos de revista. Esto es el abc en bibliometría. Es por lo que resulta impropio que Google, reconociendo el problema pues afirman que han encontrado hasta 959 formas de nombrar a la revista PNAS (Proceedings of the National Academy of Sciences) cometa errores tan infantiles como el de la Revista Española de Cardiologia que aparece con dos entradas distintas (una con ñ con un h de 24 y otra sin ñ con un h de 19). Más inadmisible resulta que Google haya prestado tan poco cuidado a la presentación formal del producto cuando ni siquiera se ha molestado en mostrar uniformemente los títulos de las revistas: unos aparecen –los más- con su denominación completa, otros con la abreviada (Nutr Hosp, Rev Argent Cardiol, Rev. CEFAC, Rev. bras. Enferm…); algunos títulos figuran en mayúscula (REVISTA DE SALUD PÚBLICA, BOLETÍN GEOLÓGICO Y MINERO, REVISTA BRASILEIRA DE OTORRINOLARINGOLOGIA…) frente a la mayoría que se presentan en redonda. En fin, pequeños detalles que no hubiera costado mucho subsanar dado que en los listados solo se visualizan 1200 revistas.
  • Consulta de resultados. Pero la principal crítica no se dirige a estos aspectos, sino que versa sobre la manera en que Google ha dispuesto la consulta de los datos. La posibilidad de consulta únicamente por idiomas es desde luego inédita en bibliometría, y tiene poco valor práctico. Lo lógico sería disponer los datos para su consulta por áreas o disciplinas científicas, dado que los indicadores bibliométricos como el índice h son enormemente dependientes de los patrones de producción y citación de cada área científica y no son comparables entre disciplinas. De esta manera la única forma de consultar las revistas con impacto en un área determinada es buscarlas una a una, y sin la certeza de si están o no incluidas, ya que no se ofrece en ninguna parte un directorio con las fuentes de información recogidas por Scholar Metrics.
UNAS REFLEXIONES FINALES

Señaladas estas limitaciones, hay que valorar positivamente este paso adelante de Google, que va a facilitar la consulta del impacto de las revistas por parte de muchos investigadores que no tienen acceso a las tradicionales bases de datos de citas, lo que puede estimular la competencia entre los diferentes productos. Asimismo la popularidad del índice h para evaluar investigadores, y su facilidad para el cálculo y comparación pueden hacer arraigar esta medida, también para la evaluación de revistas, muy especialmente en Humanidades, área que cuenta con pocos indicadores bibliométricos de impacto de las revistas.

Desde el punto de vista de la evaluación científica, ya es incuestionable que Google Scholar se adentra en este nicho de mercado y que trabaja en productos que son competencia directa de Thomson Reuters y de Elsevier. De la medida en que Scholar Metrics solvente algunas de las limitaciones referidas y se integre con los perfiles personales de Google Scholar Citations y con los resultados de la búsqueda clásica en Google Scholar dependerá muy probablemente su éxito entre los científicos y su utilidad para la comunidad evaluadora.  

De momento hay que ser muy críticos: es decepcionante ver como Google,  un imperio económico fastuoso que maneja unos recursos impresionantes, presenta un producto de tan cortos vuelos y de tan mala ejecución desde el punto de vista bibliométrico. Google debe ser consciente de que hacer productos bibliométricos serios exige algún esfuerzo y algunos medios más que poner en danza un algoritmo y un robot que produzcan automáticamente resultados. Da la impresión que para Google, la evaluación científica con herramientas bibliométricas es un campo para “jugar” y no para retar científicamente a la competencia y mejorar la cuenta de resultados.

Por último, conviene no olvidar que este producto llega en un momento de creciente debate entre la comunidad investigadora en dos frentes, diferentes pero relacionados. Por un lado, está aún candente el debate acerca de las leyes de acceso a la información científica como la Research Works Act estadounidense (Ley de Trabajos de Investigación), apoyada en principio por multinacionales como Elsevier y que retiró su apoyo a dicha ley tras el boicot a sus revistas auspiciado por un grupo de científicos, y que ha conseguido reverdecer el movimiento open access. Por otro lado, dentro de la comunidad evaluadora también existe una tendencia encaminada a la búsqueda de nuevos indicadores de impacto y visibilidad de la producción científica, dentro de las iniciativas conocidas como alt-metrics o métricas alternativas. Probablemente también en la medida en que Google sepa despertarse las simpatías de ambos movimientos aumentará su posición de fuerza en la comunidad académica. Pero sin duda lo que depertará las simpatías de los gestores de las políticas científicas es la gratuidad de los productos de la compañía de Silicon Valley en comparación con los costes de las bases de datos de Thomson Reuters y de Elsevier.

-------
Éstas son unas primeras valoraciones de urgencia de Google Scholar Metrics. En próximos días ofreceremos un análisis más detallado del producto y de las consecuencias que se derivan para la evaluación investigadora.

REFERENCIAS


Cabezas-Clavijo, Á. & Torres-Salinas, D. (2012). “Google Scholar Citations y la emergencia de nuevos actores en la evaluación de la investigación”. Anuario ThinkEPI, 6. http://ec3noticias.blogspot.com.es/2011/12/thinkepi-google-scholar-citations-y-la.html

Jacso, P. (2008). “The pros and cons of computing the h-index using Google Scholar”. Online Information Review  32(3), 437-452. http://www.jacso.info/PDFs/jacso-GS-for-h-index-unabridged.pdf

Torres-Salinas, D., Ruiz-Pérez, R. & Delgado-López-Cózar, E. (2009). "Google Scholar como herramienta para la evaluación científica". El profesional de la Información, 18(5), 501-510. http://ec3.ugr.es/publicaciones/d700h04j123154rr.pdf 
 


martes, diciembre 20, 2011

Thinkepi: Google Scholar Citations y la emergencia de nuevos actores en la evaluación de la investigación


Nota Thinkepi 
Publicada en IWETEL el 20 Diciembre de 2011


Google Scholar Citations y la emergencia de nuevos actores en la evaluación de la investigación
Álvaro Cabezas Clavijo y Daniel Torres-Salinas

El lanzamiento hace escasos meses de Google Scholar Citations [1], la herramienta para medir el impacto de los investigadores en las publicaciones indizadas por el popular buscador, nos da pie a revisar ésta y otras aplicaciones de índole bibliométrica encaminadas a medir la visibilidad de académicos e investigadores en la web. Este impacto no sólo se limita a los medios tradicionales (citas recibidas desde otros trabajos científicos) sino que abarca a las nuevas vías de comunicación científica y a sus indicadores asociados, como el número de descargas de un  trabajo, las personas que lo almacenan en su gestor de referencias o las veces que una presentación es visionada online. Asimismo se discute brevemente en qué medida puede afectar la emergencia de estas nuevas herramientas a las bases de datos tradicionales para la evaluación de la ciencia, Thomson Reuters-Web of Science [2], y Scopus-Elsevier [3].

La joven estrella: Google Scholar Citations.

Google Scholar Citations fue oficialmente lanzado en pruebas en julio de 2011, generando de inmediato un importante eco en la web. Su propuesta es muy sencilla, recopila la producción científica de un investigador y la muestra agregada en una página personal, con información del número de citas de cada ítem. El investigador, una vez dado de alta, puede editar los registros de Google Scholar, corrigiendo (normalizando) la información del buscador, unir registros duplicados, e incluso añadir de forma manual otros trabajos que hayan escapado a las garras de Google. Además presenta tres indicadores bibliométricos; el número total de citas de los trabajos, el índice h del investigador, y el índice i10, esto es el número de trabajos con más de diez citas, tanto para toda la carrera académica como para el periodo más reciente. En este apartado hay que mencionar que Google ha prescindido de la métrica más sencilla: el número total de trabajos de un investigador; así como de otras medidas como el promedio de citas por trabajo, o indicadores relativos al impacto de las revistas. Pero quizá lo más interesante es que la información sobre las citas recibidas y la producción se actualizan de forma automática a medida que va siendo indexada por Google, sin necesidad de concurso por parte del académico, que encuentra siempre su información al día. Las posibilidades que abre este producto son enormes, tanto en la medición del impacto personal como de cara a la visibilidad del investigador en la web.


Figura 1: Página personal en Google Scholar Citations

En cuanto a lo primero, y pese a que no es aconsejable el uso de Google Scholar como herramienta para la evaluación científica [4] cada vez es más usado especialmente en áreas de Ciencias Sociales y Humanidades como medio para recuperar las citas de un trabajo, datos tenidos muy en cuenta tanto en los procesos de solicitud de sexenios de investigación como en las acreditaciones a los cuerpos docentes universitarios. Respecto a la visibilidad académica, el investigador se vincula a las materias en las que es especialista, de manera que se va generando un directorio temático de expertos, ordenados en función del número total de citas de sus trabajos. Además de esta función para localizar expertos en un área determinada, los perfiles de los investigadores dados de alta aparecen integrados en los resultados de las búsquedas por autores, por lo que se puede acceder de forma rápida a toda la producción científica de un investigador. Sin embargo, algunos autores como la creadora del software Publish or Perish [5] Anne-Wil Harzing expresan sus temores acerca de la honestidad de los autores, y si estos no serán capaces de falsear sus datos en busca de un ascenso académico o como manera de aumentar su visibilidad en la web [6].

Desde noviembre de 2011 el servicio está abierto a todos los investigadores, y en los primeros días de libre acceso al producto comienzan a verse ya un buen número de profesores y profesionales de la Documentación, muchos de ellos españoles [7]. Sin embargo cabe preguntarse si llegará a ser significativo el número de los que se creen su perfil, requisito indispensable para aparecer en estos directorios. Otra duda acerca del producto es la manera de ordenar a los investigadores en el directorio por materias. Actualmente esta ordenación se hace en función  del número total de citas, una clasificación demasiado tosca ya que favorece a los investigadores de disciplinas grandes, así como a los de mayor recorrido y con mayor número de trabajos publicados. De facto, Google Scholar Citations está estableciendo rankings de investigadores por materias en función de un único criterio (fácilmente manipulable, además), lo cual es un arma de doble filo. Como señalaba Harzing cualquiera puede falsear sus datos para aparecer en posiciones prominentes, sin embargo parece poco probable ya que sería rápidamente detectado por el resto de usuarios, cayendo en el descrédito científico. Otra duda que nos asalta es si los investigadores con escaso impacto académico crearán su perfil, ya que podrían quedar en evidencia respecto a otros compañeros de disciplina o de departamento, con currículos mucho más lucidos. Al final, se corre el riesgo de crear un directorio de científicos altamente citados, que no sea representativo de la investigación que se da en un campo. Pese a la juventud del producto, ya surgen los primeros análisis en algunos blogs, como el que realiza Brian Kelly de las más destacadas universidades británicas [8], o el del bibliotecario holandés Wouter Gerritsma, que presagia que en cinco años Google habrá cambiado completamente el mercado de las bases de datos científicas [9].


Figura 2: Directorio de investigadores registrados en la materia "Information Science"

El actor secundario: Microsoft Academic Search.

Este producto de Google viene precedido por los movimientos que otros de los gigantes de la web, Microsoft ha venido realizando en los últimos meses con su buscador Microsoft Academic Search [10]. Este producto, heredero de Windows Live Academic y de Live Search Academic, surgió en su actual denominación en 2009, sólo para el campo de la Informática,  pero cubre desde septiembre de 2011 todos los ámbitos del conocimiento. También permite la creación de perfiles personales a partir de la información recogida por el buscador, proporcionando hasta el momento más indicadores y funcionalidades de las que ofrece Google. Asimismo admite la edición y modificación de registros, subir pdfs con el texto completo de los trabajos, insertar el listado de publicaciones en otra página web, o incluso ver el contexto en el que un trabajo ha sido citado, un viejo sueño de la bibliometría evaluativa. Además el producto de Microsoft no se ciñe a la escala personal sino que permite seguir la pista a la producción científica de una institución e incluso efectuar comparaciones entre ellas, tomando los parámetros habituales de producción y citas como términos de la ecuación. Otra de sus fortalezas es la posibilidad de explorar la red de colaboraciones de un investigador, así como las relaciones a través de las citas. Además, se pueden encontrar los perfiles de cualquier investigador, no sólo de los registrados, ya que esto no es imprescindible.

Sin embargo, en comparación con Google Scholar Citations, el proceso de actualización del cv es más pesado, tarda unos días ya que debe ser revisado por el equipo del producto, y además la cobertura parece bastante menor que la de Google, si bien no disponemos de un listado de las fuentes que cubre ninguno de los dos productos. En este pequeño estudio de la producción de siete investigadores británicos [11] se observa la gran diferencia entre los resultados que ofrece Academic Search y los que arroja Google Scholar Citations [11]. Además se aprecian importantes problemas de normalización, una de las críticas principales que también cabe hacer a Google.


Figura 3: Página Personal en MS Academic Search

En cuanto a aplicaciones que permiten la confección de currículos vitae personales, también es necesario reseñar ResercherID [12], producto impulsado por Thomson Reuters que trabaja únicamente sobre la información recogida en la Web of Science. Al contrario que Google Scholar Citations o MS Academic Search, la actualización de la producción no es automática, es decir cada vez que un nuevo artículo nuestro sea recogido en Web of Science, deberemos actualizar manualmente nuestro perfil en ResearcherID. Herramientas como la red social científica ResearchGate [13] o el gestor de referencias Mendeley [14] también proporcionan espacio para que el investigador incluya sus publicaciones en una página personal.

Los actores alternativos: las iniciativas alt-metrics.

Aprovechando las diferentes aplicaciones para investigadores surgidas en los últimos años en el entorno de la ciencia 2.0 [15] son varias las iniciativas dirigidas a medir el impacto de los materiales publicados on-line, de forma más amplia que con el recuento de citas. Dentro de estas iniciativas conocidas genéricamente como alt-metrics o métricas alternativas [16] han aparecido aplicaciones como ScienceCard [17], un metaproducto que hace uso de apis externas para ofrecer para cada investigador además de su producción indizada en MS Academic Search, o el número de citas según Scopus, las veces que un trabajo ha sido marcado como favorito en citeulike [18], o las personas que lo han alacenado en el gestor de referencias bibliográficas Mendeley. La idea que subyace es que hay múltiples maneras de medir la influencia de los investigadores en  la web y que el número de citas es sólo una de ellas. Otra iniciativa reciente es Total Impact [19] donde, en la misma línea, podemos descubrir métricas de las presentaciones colgadas en Slideshare [20], las veces que se ha compartido un artículo científico en Facebook [21], o el número de grupos en Mendeley donde se ha recopilado un determinado trabajo. Estas iniciativas siguen el camino trazado por las estadísticas a nivel de artículo [22]  implementadas por la editorial Public Library of Science (PLoS) que lleva tiempo ofreciendo, además de las citas que un artículo atrae, datos sobre el número de descargas de un trabajo, el número de comentarios que genera o el número de blogs que lo enlazan [23].


Figura 4: Estadísticas de impacto de investigador en Total Impact

Los actores consolidados: ISI Web of Science y Scopus.

En este sentido hay que mencionar que los  actores tradicionales en el campo de la evaluación de la ciencia no se han quedado de brazos cruzados. Thomson Reuters, además de incrementar en los últimos años considerablemente su cobertura de revistas científicas de alcance regional, acaba de lanzar el Book Citation Index [24], su índice de citas con información de libros, dirigido principalmente a las Humanidades y las Ciencias Sociales, áreas donde estos vehículos de difusión juegan un papel importante. Por su parte, Scopus ha incorporado las métricas SNIP y SJR [25] a su base de datos para ayudar a los bibliómetras. Además ha sacado al mercado aplicaciones (apps) para dispositivos móviles [26] y ofrece asimismo conexiones con su base de datos mediante apis [27], que permite mostrar por ejemplo en repositorios institucionales el número de citas cosechadas por los trabajos recogidos en la fuente de datos de Elsevier.

Consideración final

Desde el plano de la política universitaria y de evaluación de la investigación, la pregunta que cabe realizarse es si alguno de los productos mencionados tanto de Microsoft y de Google principalmente pero también de las iniciativas alt-metrics pueden ser serios competidores en un futuro próximo para las dos grandes bases de datos que proporcionan información bibliométrica, de importante coste económico, especialmente en una época marcada por los recortes presupuestarios. Los productos tradicionales son más solventes y estables que los nuevos, ofreciendo un amplio abanico de posibilidades y de métricas asociadas, no sólo a los trabajos sino también a las revistas en que éstos se publican. Además su uso está extendido y existen unas métricas validadas por los profesionales de la bibliometría así como por parte de las agencias con responsabilidad en materia investigadora. Sin embargo es legítimo el debate acerca de si dichas bases de datos son imprescindibles en los procesos de evaluación investigadora. En nuestra opinión, en la actualidad estas bases de datos (ISI Web of Science o Scopus, no son necesarias las dos) son imprescindibles para la evaluación, sin embargo la nueva generación de Sistemas de Información Científica (CRIS) [28] junto a buscadores científicos de acceso gratuito como Google Scholar, y las métricas basadas en el uso de la información pueden aportar nuevas soluciones a la evaluación de la ciencia, haciendo a medio plazo quizá menos necesarios los costosos índices de citas. Haciendo prospectiva-ficción cabría pensar cómo cambiaría el mercado de la información y evaluación científica si Google decidiera lanzar su propio “índice de impacto” a partir de la información que indiza, lo cual no parece descabellado ya que su popular sistema de ordenación de búsqueda PageRank se basa en un principio que ya aplican otros índices bibliométricos. En cualquier caso lo que es indudable es que los nuevos productos y herramientas a disposición de investigadores y evaluadores facilitan tanto la difusión como la recuperación de información científica y abren nuevas posibilidades para el intercambio de la información científica y su evaluación.

Notas

[2] Thomson Reuters-Web of Science http://www.accesowok.fecyt.es/
[3] Scopus-Elsevier http://www.scopus.com/
[4] Torres-Salinas, D., Ruiz-Pérez, R., y Delgado-López-Cózar, E. (2009). Google Scholar como herramienta para la evaluación científica. El profesional de la Información, 18(5), 501-510. http://ec3.ugr.es/publicaciones/d700h04j123154rr.pdf
[5] Publish or Perish. http://www.harzing.com/pop.htm
[6] Scholar Citations—Google Moves into the Domain of Web of Science and Scopus. http://newsbreaks.infotoday.com/NewsBreaks/Scholar-CitationsGoogle-Moves-into-the-Domain-of-Web-of-Science--Scopus-76917.asp
[7] Directorio de investigadores listados bajo la materia “Information Science” en Google Scholar Citations http://scholar.google.com/citations?view_op=search_authors&hl=en&mauthors=label:information_science
[9] How Google Scholar Citations passes the competition left and right. http://wowter.net/2011/11/21/how-google-scholar-citations-passes-the-competition-left-and-right/
[10] Microsoft Academic Search. http://academic.research.microsoft.com/
[12] ResercherID. http://www.researcherid.com/
[13] ResearchGate. http://www.researchgate.net
 [14] Mendeley. http://www.mendeley.com/
 [15] Cabezas-Clavijo, Á., Torres-Salinas, D., y Delgado-López-Cózar, E. (2009). Ciencia 2.0: catálogo de herramientas e implicaciones para la actividad investigadora. El Profesional de la Informacion, 18(1), 72-79. http://www.elprofesionaldelainformacion.com/contenidos/2009/enero/09.pdf
[16] Alt-metrics. http://altmetrics.org/
[17] ScienceCard. http://sciencecard.org/
[18] Citeulike. http://www.citeulike.org/
[19] Total Impact. http://total-impact.org/
[20] Slideshare. http://www.slideshare.net/
[21] Facebook. http://www.facebook.com/
[22] Article-level Metrics - Public Library of Science. http://article-level-metrics.plos.org/
[23] Cabezas-Clavijo, Á., y Torres-Salinas, D. (2010). Indicadores de uso y participación en las revistas científicas 2.0: el caso de PLoS One. El profesional de la información, 19(4), 431-434. http://ec3.ugr.es/publicaciones/2010-Cabezas_Torres_Indicadores_de_uso_participacion_revistas_cientificas_2.0_el_caso_plos_one.pdf
[25] Journal metrics: SNIP, SJR. http://info.scopus.com/journalmetrics/
[28] Torres-Salinas, D. y Cabezas-Clavijo, Á (2012). Herramientas para la evaluación de la ciencia en universidades y centros I+D: descripción y usos. Anuario Thinkepi, 6. http://ec3noticias.blogspot.com/2011/12/herramientas-para-la-evaluacion-de-la.html