*Book Citation Index**: una nueva historia (adaptada) sobre Big
Science y Little
Science*

Por *Elea Giménez-Toledo* y *Daniel Torres-Salinas*, miembros del Grupo
ThinkEPI

http://thinkepi.net



De Solla Price empleó, allá por 1963, los términos *Big Science* y *Little
Science* para describir la evolución de la actividad científica en el
conjunto de la sociedad, los cambios que se habían producido en las escalas
de la ciencia y, fundamentalmente, el crecimiento exponencial de
investigadores y de publicaciones. Releyendo su obra, hemos creído que esos
términos estaban plenamente vigentes, no estrictamente en el sentido que él
les daba sino en una interpretación particular y personal que nos permitimos
hacer sobre lo que ocurre hoy, en 2010. Quizá sea algo atrevida pero creemos
no estar demasiado lejos de la realidad.



Desde que la *Web** of Science* (WoS) y los *Journal Citation Reports* (JCR)
se empezaron a emplear extensivamente en muchos países del mundo como
herramienta fundamental para la evaluación de la producción científica de
investigadores, instituciones o países, han sido numerosos y constantes los
estudios bibliométricos que han demostrado los sesgos y limitaciones de esta
fuente para evaluar a determinados países y, sobre todo, a determinadas
disciplinas.



Gran parte de los congresos sobre estudios de la ciencia, bibliometría o
edición científica están consagrados o ampliamente dedicados a analizar
datos provenientes de WoS o a mostrar sus limitaciones. Lo mismo ocurre con
las publicaciones especializadas en el área. Hasta tal punto es así que se
puede afirmar, sin temor a errar, que los grupos de investigación de todo el
mundo que han ido demostrando minuciosamente todas y cada una de las
limitaciones de la WoS han ido construyendo un corpus teórico e incluso
metodológico como respuesta a las deficiencias de los sistemas de evaluación
basados únicamente en esta fuente. De esta forma se han puesto de manifiesto
públicamente los caminos a seguir para lograr una evaluación científica más
ajustada a las características de las disciplinas humanísticas y sociales.
Esto es particularmente evidente en el caso de países cuyas revistas están
poco representadas en WoS y entre los grupos de investigación de todo el
mundo que trabajamos específicamente en la evaluación de las Ciencias
Humanas y Sociales.



Así, por ejemplo, se fueron analizando datos de citación e impacto y hábitos
de publicación y citación entre investigadores de las Ciencias Humanas y
Sociales llegando a la conclusión de que las ventanas de citación de dos
años empleadas por JCR eran insuficientes y poco significativas. Al mismo
tiempo, propusieron su ampliación para que pudieran ser aplicables y útiles
a algunas disciplinas. Desde Thomson Reuters dieron respuesta a esa
conclusión y a esta propuesta, mejorando su producto (JCR) mediante la
incorporación de ventanas de citación más amplias y ofreciendo así una
respuesta más completa, precisa y adecuada a científicos sociales y
humanistas [1], eso sí, a partir no solo de su propia investigación sino
también de los resultados de investigación de pequeños y medianos grupos de
investigación de todo el mundo que no han tenido ni tendrán la repercusión
científica y social que tiene la empresa Thomson Reuters, productora de WoS
y JCR.



Otro claro ejemplo ha sido la reivindicación de los humanistas de que las
monografías fueran protagonistas de los sistemas de la evaluación de la
actividad científica, avalada por decenas de trabajos bibliométricos que
muestran el alto porcentaje de citas a monografías y la relevancia del libro
como medio de comunicación científica en estas disciplinas. Todos los grupos
de investigación que han trabajado en este tema – independientes *a
priori*de los grupos de poder- desde los australianos hasta los
españoles, pasando
por los holandeses, italianos, etc. han propuesto y han aplicado
procedimientos de evaluación de monografías y/o editoriales de monografías
para cubrir ese hueco y permitir, así, tener elementos de valoración del
principal vehículo de comunicación en las Humanidades: el libro. Esos
intentos siempre han quedado circunscritos a proyectos de investigación con
fecha de finalización o a experimentos puntuales. Las razones por las que
estas líneas de investigación no han continuado han sido diversas pero no
han tenido que ver con la falta de consistencia, validez o utilidad de los
resultados.



Durante la Feria del Libro de Frankfurt de 2010 se anunció *Book Citation
Index<http://newsbreaks.infotoday.com/NewsBreaks/Thomson-Reuters-Announces-Book-Citation-IndexScheduled-for-Release-in-Q--70969.asp>
,* el nuevo proyecto de análisis de citas aplicado a libros que Thomson
Reuters presentará a lo largo de 2011. No cabe ninguna duda de que Thomson
Reuters ofertará a la comunidad científica internacional un estupendo
producto de información. *Book Citation Index*, inspirado en los Citation
Index tradicionales de revistas, incorporará de partida a las mejores
editoriales científicas del mundo e invitará a otras a que participen.
(Dicho sea de paso: las editoriales seguramente abran más fácilmente las
puertas a Thomson Reuters que a cualquier otro grupo de investigación con
pretensiones estrictamente científicas).



Previsiblemente, los países de todo el mundo ampliarán sus enormes
inversiones para tener acceso a estos índices de citas y seguiremos siendo
dependientes de los productos de información generados por Thomson Reuters,
que se irá haciendo cada vez más grande y poderosa. Nadie hablará de la base
científica de ese proyecto: la investigación invisible o *cuasi* invisible
realizada por grupos de investigación de todo el mundo que durante años han
estado poniendo en bandeja a una empresa el desarrollo de un producto que
solo ella puede llevar a cabo. Podrían mencionarse dos o tres proyectos
españoles que con una inversión mínima están dando respuestas sólidas a las
necesidades de los evaluadores de la actividad científica, pero volveríamos
a hablar de* Big Science, Little Science* o de David contra Goliat.



Es innegable la labor que han desarrollado los Citation Index, la
extraordinaria idea de crearlo y la investigación que la propia empresa ha
llevado a cabo durante estos años. Pero también es innegable el esfuerzo que
se ha hecho en algunos países para cubrir aquellos aspectos no cubiertos por
WoS y para proporcionar indicadores y pautas más cercanas y útiles a las
Humanidades y a las Ciencias Sociales, además de introducir pluralidad en
los sistemas de evaluación de la actividad científica. Y, rememorando dos
ideas del artículo de prensa de  Miguel Delibes Castro sobre la analogía
entre burbuja científica y burbuja financiera (
http://www.madrimasd.org/blogs/universo/2010/08/28/136537) es peligroso
depender de un único sistema y además “A menudo confundimos en ciencia el
éxito y el brillo con el mérito real”. Ségalat dixit. Sirva este pequeño
texto para reflexionar sobre ciencia y mercado.


[1] Mientras tanto, por cierto, en España ya se calculaban índices de
impacto con ventanas de citación de tres a cinco años tanto para Humanidades
como para Ciencias Sociales
(RESH<../Users/USUARIO/AppData/Local/Configuraci%C3%B3n%20local/Archivos%20temporales%20de%20Internet/Content.IE5/N30T4LE9/resh.cindoc.csic.es>e
In
Recs <http://ec3.ugr.es/in-recs/>)

------------------------------

*Elea Giménez-Toledo*

G.I. Evaluación de publicaciones científicas
http://www.cchs.csic.es/epuc
Centro de Ciencias Humanas y Sociales (CCHS)
Consejo Superior de Investigaciones Científicas (CSIC)


 *Daniel Torres-Salinas*

CIMA. Universidad de Navarra
Evaluación de la Ciencia y la Comunicación Científica

*--
*

Grupo ThinkEPI (Think Tank sobre Estrategia y Prospectiva de la Información)
*
*

**

http://thinkepi.net



----------------------------------------------------
Normas para el correcto uso del correo electrónico:
                http://www.rediris.es/mail/estilo.html
----------------------------------------------------

Responder a