En los medios

Clarín
29/06/22

Rankings universitarios: ¿son creíbles?

El profesor de las Especializaciones y Maestrías en Educación analizó los instrumentos utilizados para elaborar los rankings universitarios.

Por Marcelo Rabossi


Ilustración: Daniel Roldán


La medida de las hachas y picos construidos por el hombre durante el paleolítico con el fin de cazar y alimentarse, surgía por imitación luego de observar otras en manos de un, digamos, vecino exitoso en su cacería.

De igual manera, ante la falta de parámetros rigurosos, las distancias se expresaban casi de manera poética cuando se indicaba un espacio en el cual cazar o encontrar agua. “A paso de hombre, desde que sale hasta que se pone el sol” era una forma de referenciar el trecho a transitar.

Según Heródoto, el historiador griego nacido en el año 484 a.C., se debió esperar hasta aproximadamente el 2500 a.C. para contar con un mecanismo de medición medianamente riguroso. Las necesidades que imponía el estudio de la astronomía en Babilonia lo impulsaron.

Sin embargo, será recién en 1670 y por iniciativa del matemático francés Gabriel Mouton, que comenzará la discusión sobre los principios del actual sistema métrico decimal.

A partir de allí, se empieza a definir una escala unificada para conocer cuánto medimos y pesamos, cuál la distancia hasta la escuela, o si hace frío o calor, por ejemplo. Tanto han simplificado nuestras rutinas los sistemas de pesas y medidas, que comenzamos a imaginar que a través de distintos tipos de escalas podríamos medir todo.

Por ejemplo, ante la dificultad para evaluar ciertas propiedades o atributos inmateriales que solo toman forma a partir de nuestro análisis racional, en los campos de la sociología y psicología surgen los denominados “constructos”.

Así, casi mágicamente, comenzamos a medir el nivel de felicidad o malestar de una persona, o su nivel de inteligencia o ansiedad. En definitiva, no existiría casi nada en este mundo que no podamos medir, sea el peso de una bebé, la profundidad de los mares, la calidad de un restaurante o nuestro malestar con los políticos.

Ahora bien, que se pueda medir prácticamente todo no significa que todo esté bien medido. Un metro “flojo” tenderá a sobreestimar nuestra estatura. Una encuesta realizada a la salida de un recital de “Los Palmeras” nos dirá que la cumbia es la música más escuchada. En ambos casos nos enfrentamos a un error o sesgo de medición. Y es esto lo que ocurre con algunos instrumentos utilizados para medir el funcionamiento de las universidades.

¿Son entonces los rankings una medida objetiva para conocer el verdadero estado de una institución, o simplemente se trata de una suerte de herramienta de marketing para las ganadoras?

Hace poco se publicó un ranking que indicaba que la UBA es la mejor universidad de Iberoamérica. A su vez, nos decía que de las primeras cinco, cuatro eran privadas y dentro de las nueve ganadoras, solo había tres públicas. Gran noticia para el muchas veces denostado sector privado y una no tan buena para los defensores a ultranza de la calidad de las públicas, entre los que me encuentro, pero no a ultranza.

Si bien es cierto que Argentina cuenta con uno de los sistemas privados más sólidos de la región, parte de las universidades nacionales merecía correr una mejor suerte. ¿Qué ocurrió entonces?

En estadística existen dos principios que debe cumplir toda buena herramienta de medición. Que sea válida, es decir que mida lo que dice medir, y que sea confiable, que lo que mida lo haga con precisión. ¿Cumplen estos requisitos los rankings universitarios?

No todos los rankings, pero sí los más populares han encontrado una manera muy práctica y simple de evaluar la calidad de una universidad. Así, aparecen en escena las encuestas de percepción. La mitad del resultado final de algunos de ellos, aquel que ubica a una universidad por encima o por debajo de otra, se realiza a través de este mecanismo, situación que puede llevarnos a resultados poco o nada confiables.

Si bien en el mejor de los casos las preguntas se distribuyen entre académicos y empleadores, personas a quienes consideraríamos idóneas para hacerlo, a la hora de contestar nadie puede declararse exento de los denominados sesgos cognitivos. Por ejemplo, no sería extraño que ocurriese un efecto “arrastre”.

Esto significa elegir a la que ex-ante suponemos ganadora, sin tomar en cuenta indicadores válidos que hacen a su rendimiento. Los resultados arrojados por ellos podrían haber cambiado en el tiempo, transformándola en una peor o mejor que otra, cuestión que el encuestado podría haber pasado por alto. Otro sesgo cognitivo presente es el denominado “percepción selectiva”. En este caso, el encuestado tiende a simplificar su mirada sobre el objeto a evaluar, desatendiendo parte importante del fenómeno observado. Así parcializa su análisis, lo que no deja de ser un problema cuando se evalúa a una entidad compleja como la universidad.

Recordemos que en ellas se transmite y crea conocimiento, el que muchas veces resulta invisible a los ojos del público, y que además dialogan con los ciudadanos. Así abren sus bibliotecas, invitan a los vecinos a participar de sus conferencias, o ponen a disposición cursos cortos o una muestra de arte para que se la recorra.

Estas funciones que cumplen y actividades que ofrecen y que hacen al crecimiento del capital humano y cultural de una nación, difícilmente puedan ser capturadas en detalle por una simple encuesta. Así, nadie debería sentirse definitivamente ganador del certamen, no si al evaluar una institución educativa, se reemplaza la rigurosidad que impone la ciencia moderna de la medición por la creencia que nos remonta a tiempos en los cuales el hombre medía distancias y objetos sobre la base de su propia intuición.