25 may 2010

¿Os rankings miden a calidade docente?

© Josep Anton Ferré Vidal - Director de AQU Catalunya. (EDITORIAL. El Butlleti. AQU Catalunya, Mayo de 2010, Barcelona) © 2010 AQU Catalunya

Ás veces, en clase, uso unha varita máxica. Ben, como podedes supor, non a utilizo exactamente para facer o que fai Harry Potter, senón que a uso para realizar experimentos virtuais que me axuden a explicar as cousas, por exemplo o principio de Arquímedes. Pero deixaremos para outro día o achado e explicareivos que me pasou hoxe volvendo de Madrid co AVE, ao utilizala para mellorar a posición das nosas universidades dentro dos rankings mundiais.

Realicei catro experimentos. Primeiro usei a varita máxica para lograr que durante un curso académico non houbese ningún alumno suspendido, ou sexa, que todos os créditos matriculados fosen superados. Sorprendentemente, iso non fixo subir posicións a ningunha universidade catalá en ningún ranking! Despois probeino facendo que ningún dos estudantes matriculados abandone o título que empezara. Os efectos foron os mesmos: seguimos sen subir nos rankings! O terceiro intento serviume para probar os efectos de provocar que unha cohorte enteira de estudantes alcance o título sen ter que repetir nin unha soa materia... e tampouco tivo ningún efecto nos rankings. Quizais fun demasiado esixente. Quizais bastaría con conxurar as forzas da natureza para que nos axudasen a que os estudantes puidesen acabar o título como máximo engadindo un ano máis, e tampouco se notou!

Estou preocupado. Este catro indicadores que manipulei coa varita máxica (taxa de rendemento, taxa de abandono, taxa de eficiencia e taxa de gradación) son os do Decreto 1393/2007, interpretados e explicados con máis detalle no documento elaborado polas axencias da REACU (AQU Catalunya, ANECA, ACSUG, AGAE, ACSUCYL, etc.) que hoxe entregamos aos representantes do Ministerio de Educación, das comunidades autónomas e das universidades, durante a reunión de constitución da Comisión Técnica para o Seguimento e Acreditación dos Títulos Universitarios Oficiais. Se estas son as mínimas metas comúns que nos marcamos para realizar o seguimento dos títulos, como é posible que, aínda que alcancemos en cada unha delas os mellores valores, iso non nos fai subir nos rankings?

Equivocámonos? A min paréceme que non. E non soamente iso. Para facelo ben, de agora en diante deberiamos medir non só os outputs do proceso educativo, senón tamén os inputs. Por exemplo, as horas de clase que programamos para cada materia, as que son maxistrais e as que son prácticas, e o número de estudantes por grupo en cada actividade. E os profesores que as realizan. Son asociados, bolseiros, lectores que aínda batallan por consolidar o seu tenure track ou permanentes? E os laboratorios e as bibliotecas, como os temos? Ah!, e os horarios, son compactos ou dispersos? Que métodos de avaliación se utilizan? E o Moodle... Cargan os profesores suficientes materiais no Moodle?.

Se non monitorizamos tamén esas cousas, no caso de que as taxas de abandono, gradación, etc. non sexan as que esperabamos, non saberemos se xa efectuamos todo o esforzo que pode facerse, ou aínda sería necesario que destinásemos a iso máis recursos que, quizais, empregabamos noutras actuacións. De feito, medirmos algúns outputs do proceso, propórmonos mantelos por cima dun valor limiar e sermos quen de actuar sobre algúns inputs para realizar accións de control é o obxectivo do sistema de garantía interna de calidade de cada ensinanza, que agora imos desenvolvendo co programa AUDIT.

Así pois, en que quedamos?, como temos isto dos rankings? Volvino a repasar. A maior parte dos rankings miden fundamentalmente un determinado tipo de investigación. Mágoa, pobres alumnos, que non son demasiado importantes para os rankings. Está claro que parece que non son os únicos esquecidos. Tampouco hai ningún ranking que mida case nada da terceira misión, da capacidade das universidades de transformar a docencia en valor social e económico para a súa contorna máis inmediata. Desde logo que tanto a primeira misión como a terceira son máis difíciles de medir e, de feito, non lles damos moita importancia no currículo dos profesores.

Contar número total de alumnos, artigos en revistas indexadas e premios Nobel é máis fácil. Se xuntásemos a todas as universidades catalás, teriamos máis alumnos, máis artigos... e aínda ningún premio Nobel. Pero subiriamos no ranking de Xangai. Quizais isto nos faría máis felices, mais enganaríamonos se crésemos que, por ser maiores, somos mellores. Os rankings non son nin bos nin malos. Son como algúns refrescos, que engordan pero non alimentan, e, se tes que beber moito, máis vale que leas a súa composición. Tamén deben lerse con atención os criterios e indicadores que forman os rankings antes de facer moito caso deles. E en caso de dúbida, auga... e algo de viño, que non fai nunca demasiado dano!
(Versión en galego: NovaLuce)
------------
Nota de NovaLuce: A UDC ten todolos os seus centros cos SGIC certificados polo programa AUDIT, sendo unha das poucas de España, e a única con sistemas independentes en cada centro, que os ten (ver entrada nesta web Espazo Europeo e docencia).