Apoyan métricas evaluación del desempeño de científicos — ciencias
Usted está aquí: Inicio / Sociales y Humanas / Apoyan métricas evaluación del desempeño de científicos

Apoyan métricas evaluación del desempeño de científicos

Forum Noticias. Evaluar y ser evaluados es una constante de la vida cotidiana, sin embargo, cuando esta práctica se traslada a la ciencia es importante tener un sistema efectivo de parámetros para que el resultado final contribuya al mejoramiento y avance científico.

En el taller “Rethinking Scientific Evaluation”, que se llevó a cabo ayer en la Casa de la Universidad de California en México, expertos nacionales e internacionales en los temas de ciencia y tecnología pusieron a discusión algunas de las controversias que han surgido en los últimos años sobre la evaluación en el ámbito de la ciencia.

Al respecto, Arturo Borja, director de cooperación internacional del Consejo Nacional de Tecnología (CONACyT) explicó que “en Latinoamérica la evaluación es un serio problema. Es sabido que en las comunidades científicas en estos países todos se conocen entre sí, y es difícil hablar de una evaluación neutral y objetiva. Para superar ese problema, el CONACyT, junto con otras agencias nacionales, está trabajando actualmente en la creación de un banco iberoamericano de evaluadores”.

Por su parte, el director general del CONACyT, Enrique Cabrero, afirmó que uno de los objetivos principales del taller es tener una base para discutir hacia dónde se quiere llevar la evaluación de la investigación. “¿Qué tan seguido deberíamos usar la evaluación entre pares? Debemos de considerar su subjetividad y la cantidad de tiempo y dinero que se le invierte”.

Las métricas: poderosa herramienta

Buscando alcanzar la objetividad en la evaluación, algunos científicos han encontrado respuestas en las métricas y los algoritmos. Con el auge de la tecnología informática, resultaría sencillo dejarle toda la evaluación del rendimiento de los investigadores a una computadora, después de todo, y como afirmó el profesor de políticas de investigación y director de investigación e innovación en la Universidad de Shefield, Reino Unido, James Wilsdon, “estamos tan saturados que cuando nos ofrecen atajos para medir la calidad o el impacto, los usamos motivados por el deseo de dar por concluido el día y nuestra lista de pendientes”.

Curiosamente, los sistemas de análisis y algoritmos, que se han aplicado en ámbitos tan aparentemente contradictorios como la estadística en los deportes, aún no se han aplicado en la academia, pero hay quienes se preguntan si será esta la respuesta para implementar un sistema de evaluación equitativo, parejo y práctico.

Sin embargo, los mismos científicos son conscientes de que no es lo mismo aplicar una métrica a ciencias cuantitativas que a las cualitativas, además, no es novedad que las métricas de medición son falibles y arrojarán resultados diferentes dependiendo de los criterios iniciales de medición.

Las computadoras son un gran apoyo, pero aún no llegan a igualar el detalle y la especificidad que surge de una evaluación entre pares, en donde sí se toman en cuenta todos esos tonos grises entre el blanco y el negro de un buen y mal desempeño.

“Aún no es posible cuantificar y usar indicadores para aproximarnos a la riqueza que nos da un estudio de caso narrativo”, dijo Wilsdon, quien además advirtió que es importante que cualquier institución que se apoye de las métricas las use de manera responsable.

Es necesario contextualizar el uso de esto en cada institución, particularmente cuando los resultados afectan las decisiones que se toman en los departamentos de recursos humanos, encargados de contratar y otorgar becas de desempeño dependiendo de los resultados de la evaluación.

“Debe de haber un grado de humildad en la forma cómo se usan. Debe de haber transparencia en la forma como se recopilan los datos y los tipos de indicadores que se eligen”, concluyó Wilsdon.

Las actividades del taller “Rethinking Scientific Evaluation”, concluirán hoy.

 

Myriam Vidal/FCCyT

comentarios de blog provistos por Disqus