Aunque comparto el llamado a la investigación en Bibliometría realizado por Elea me gustaría puntualizar que la disciplina ha sufrido y viene padeciendo aún de demasiadas malas prácticas de investigación que deben ser denunciadas y perseguidas antes de incrementar nuestro esfuerzo en el área.

La investigación cuantitativa requiere de un adecuado diseño, que va mucho mas allá de la elección de la base de datos a interrogar, la estrategia a utilizar y el software que se aplicará. Es triste comprobar que es práctica habitual seleccionar las herramientas antes del problema a solucionar, fijando objetivos y hasta resultados a priori, incluso antes de obtener los registros. Con mucha frecuencia ello da lugar a resultados obvios o baladíes que no aportan nada o que contienen errores de bulto.

El afán por publicar da lugar a que se publiquen estudios con bases inadecuadas, con tamaños muestrales ridículos, o a partir de estrategias que o bien generan muestras sobredimensionadas o dejan sin analizar poblaciones enormes. Silencios y ruidos documentales que inutilizan muchas de las tesis doctorales leídas en documentación en los últimos años.

Poca innovación en una disciplina donde los estudios repiten errores de bulto una y otra vez simplemente cambiando la ventana temporal (donde antes era 1996-2000, léase ahora 2001-2005). La utilización de la misma base de datos (ISI-Thomson), cuyos sesgos evidentes son ignorados, queda ahora en entredicho con la aparición de competidores (Scopus) cuyos resultados no ya solo puntuales sino globales dibujan un escenario completamente diferente.

La persistente negación a utilizar técnicas de fraccionamiento en el estudio de la autoría, y la ignorancia respecto al crecimiento en el tamaño de las bases lleva a conclusiones falsas o ilusorias (crecimiento de la producción) que tienen una indudable repercusión para la política científica de un país.

El análisis de citas es prácticamente ignorado y se sustituyen los datos reales de citas por el valor del factor de impacto de la revista (citas esperadas en vez de reales), lo que aunque facilita la tarea desdibuja totalmente la realidad.

La irrupción del índice h demuestra las posibilidades de la disciplina, pero su uso generalizado fuera de las áreas de excelencia, da lugar a clasificaciones ridículas o inservibles.

La evaluación de revistas sigue lastrada por el peso de indicadores formales o basados en opinión de expertos, que bien por problemas de diseño o por la utilización de paneles con escasos miembros o poco representativos no terminan de responder a las necesidades reales.

La ignorancia del medio Web, ya el canal más importante de comunicación científica, demuestra cuan lejos está la disciplina de cumplir sus verdaderos objetivos en la descripción y evaluación de la actividad investigadora.

Isidro F. Aguillo
Cybermetrics Lab
CINDOC-CSIC
www.webometrics.info
www.cindoc.csic.es/cybermetrics
internetlab.cindoc.csic.es