La mal-mesure de l’enseignement supérieur:
Par rapport au programme AHELO que propose l’OCDE, l’on peut se demander si la même critique ne pourrait être faite aux tentatives de mesurer la valeur et la qualité de l’enseignement supérieur et d’y établir un ordre. Dans quelle mesure ce type d’évaluation (et les classements du même acabit proposés par la Times Higher Education University) souffre-t-il des mêmes vices de base en tant qu’évaluation « scientifique » de l’intelligence? Ces évaluations commettent-elles la même erreur de vouloir traduire des concepts abstraits et complexes en une cote unique? Ces évaluations auraient-elles pour effet de reproduire et justifier des hiérarchies sociales et économiques existantes?
Initialement lancée lors de la conférence des ministres de l’Education de l’OCDE à Athènes en 2006, l’AEHLO a d’abord été présentée comme un ‘PISA pour l’enseignement supérieur’, un outil censé « fournir aux gouvernements membres un instrument puissant permettant de juger de l’efficacité et de la compétitivité de leurs institutions, de leurs systèmes et de leurs politiques d’enseignement supérieur au niveau international ».
Malgré l’accueil tiède que la plupart des membres et intervenant(e)s ont réservé à la proposition, l’OCDE a persisté et a lancé une étude de plusieurs millions d’euros afin de vérifier la faisabilité scientifique d’un tel outil. Les sceptiques ont fait remarquer que l’AHELO soulevait d’importantes questions méthodologiques. Etant donné la diversité de systèmes d’enseignement supérieur, de missions institutionnelles et de populations estudiantines tant au sein des pays qu’entre eux, arriverait-on à s’entendre sur une série de résultats normalisés, sans parler de mesurer ces résultats de sorte à fournir des comparaisons internationales fiables?
Dans cette optique, l’étude de faisabilité de l’OCDE a été axée sur trois outils ou volets différents: un volet générique basé sur le Collegiate Learning Assessment (CLA), un test standardisé utilisé pour les évaluations aux Etats-Unis afin de mesurer les compétences générales de tous les étudiant(e)s, quelle que soit leur discipline, à la fin du baccalauréat (pensée critique, résolution de problèmes et communication écrite, par exemple), un volet axé sur la discipline, qui a évalué les connaissances et les compétences des étudiant(e)s en ingénierie et en économie, et un volet contextuel visant à collecter des informations sur l’environnement institutionnel et le parcours antérieur des étudiant(e)s.
Les résultats de l’étude de faisabilité de l’AHELO ont été présentés au début de cette année. S’il semble possible d’évaluer les compétences propres à une discipline, la fiabilité des compétences génériques évaluées serait moins certaine d’un point de vue scientifique. Le groupe consultatif technique sur l’AHELO a même estimé que les questions choisies et basées sur le CLA étaient « trop américaines » dans un contexte international. En écho à Gould qui critique la mal-mesure de l’intelligence humaine, l’AHELO semble privilégier et renforcer des valeurs et des systèmes de savoirs typiquement euro-américains.
Au-delà des erreurs méthodologiques, l’on peut sérieusement s’interroger sur l’impact politique que pourrait avoir l’utilisation potentiellement impropre, voire abusive des résultats de l’AHELO. Même si l’OCDE a insisté sur le fait que l’AHELO n’était pas censée être un classement, on voit difficilement comment elle ne le serait pas, d’autant plus qu’elle a explicitement été présentée aux gouvernements comme un outil de classification des performances de leurs institutions par rapport à celles d’autres pays. Dès lors qu’une cote de performance est attribuée à une institution ou à un programme, qu’elle repose sur des études, comme les classements universitaires mondiaux actuels ou les résultats fournis par l’AHELO, les gouvernements et la presse utiliseront invariablement ces résultats dans un tableau comparatif simpliste qui sera détourné. Quelle qu’ait été l’intention de départ, le risque existe que ces résultats soient utilisés non pas pour améliorer et renforcer les institutions et les enseignant(e)s, mais plutôt pour accroître le contrôle extérieur.
En réalité, les statistiques ne peuvent refléter que partiellement ce qui fait la qualité d’une université ou d’une école supérieure. La qualité de l’enseignement et de libre enquête que l’on observe dans une institution ne se prête pas aisément ni avec précision à l’analyse, la quantification, le classement et la comparaison. L’enseignement supérieur de qualité ne constitue pas un produit ni un résultat singulier correspondant à une définition simple ou à une cote. Il correspond à toute une palette d’activités et de processus. Des évaluations telles que l’AHELO nécessitent de réduire ces aspects complexes d’une université ou d’une école supérieure à un nombre, aussi absurde que soit l’exercice.