Une opinion de Jean Winand, premier vice-recteur et professeur d'égyptologie, Université de Liège (1).


Chaque année, les rankings des universités fleurissent, suscitant le même émoi que la parution des grands guides gastronomiques. Qui sera dans le "top 50" ? Avons-nous progressé ? Où en sont les universités voisines (amies, néanmoins concurrentes) ? Ces interrogations agitent les responsables des établissements d’enseignement supérieur.


En fait, ces classements tiendraient davantage des grandes bourses mondiales que sont le Dow Jones ou le CAC 40 que du Michelin ou du Gault-Millau. En effet – car c’est bien le modèle dominant –, les universités sont évaluées en fonction de leurs produits (les formations et les résultats de la recherche), de la qualité de leur personnel et de leur capacité à attirer les financements, ce qui se traduit par la qualité (intellectuelle et financière) et la quantité de la clientèle (comprenez les étudiants) qui franchiront les portes de l’établissement.

Dans ce grand marché de l’éducation, les rankings viennent périodiquement dessiner une cartographie de l’éducation à usages multiples, à l’adresse des étudiants, des chercheurs, des responsables d’université et des décideurs politiques.

Signalons d’emblée qu’ils ne sont pas les seuls repères, puisque se multiplient aujourd’hui les labels et accréditations de toutes sortes, souvent spécialisés par domaines, qui certifient la qualité de l’enseignement dans certaines filières. Celles qui s’occupent des grandes écoles de commerce, comme AACSB ou EQUIS , sont les plus connues.

Quatre sources phares

Les jugements portés sur les rankings en Europe, notamment dans les pays latins, sont souvent sévères. Il faut dire que, globalement, les universités françaises , belges, italiennes ou espagnoles, n’y brillent guère.

Trois classements jouissent d’une audience mondiale :

Tous mesurent la qualité de la recherche (parfois de l’enseignement) en se fondant essentiellement sur des indices bibliométriques, des données quantitatives fournies par les universités, sur des enquêtes de notoriété et sur la présence de personnalités dont l’excellence a été reconnue par l’obtention de prix prestigieux (Nobel, médaille Fields).

Si quelques critères sont spécifiques à certains classements, la différence se fait surtout sur leur pondération :

Comparatif des critères de classement.


Partout, on voit que la notoriété est un élément important, pesant lourdement sur le résultat final (respectivement 50 %, 33 % et 40 %). La recherche ensuite est un facteur déterminant par rapport à l’enseignement. Enfin l’internationalisation est directement prise en compte par le QS-WUR, à hauteur de 30 %.

La recherche est essentiellement évaluée par des indicateurs bibliométriques ( Web of Science ou Scopus ). Première réflexion, tous les domaines ne sont pas couverts. Les sciences humaines sont moins représentées ; de manière générale, les publications en anglais se taillent la part du lion. C’est particulièrement vrai dans le domaine des sciences et techniques et des sciences du vivant.

Seconde réflexion, les revues font elles-mêmes l’objet d’un ranking, au sommet duquel trônent Nature et Science , dont le classement, largement influencé par les grands éditeurs commerciaux (Elsevier, Springer, Wiley, etc.), est lui-même critiqué (par exemple, Scopus est directement contrôlé par Elsevier, par ailleurs partenaire du classement QS-WUR !).

Les rankings classent les universités en bloc, ce qui n’a pas beaucoup de sens. Aussi a-t-on vu apparaître des classements par domaines, ce qui affine un peu l’analyse, sans répondre toutefois aux critiques que l’on peut faire sur l’usage des indicateurs bibliométriques ).

À ces trois rankings très médiatisés est venu s’ajouter un quatrième, dont on parle moins, U-Multirank , soutenu par l’Union européenne. Ce classement se positionne ouvertement comme une alternative aux rankings traditionnels auxquels est reproché – fort justement – de ne se préoccuper que des universités de recherche à vocation internationale.

U-Multirank n’entend pas produire un palmarès des meilleures universités. Il cherche plutôt à situer chaque établissement en fonction de cinq grands critères : enseignement et apprentissage, recherche, transfert de connaissances, orientation internationale, et engagement régional.

Risques de dérives

En dehors de l’émotion passagère lors de leur publication, à quoi peuvent bien servir les rankings ? On distinguera ici, à tout le moins, quatre catégories de "consommateurs" : les étudiants, les chercheurs, les responsables d’université et les décideurs politiques.

Si les étudiants de premier cycle choisissent le plus souvent leur université en fonction d’un critère de proximité géographique, la perspective change en master et en doctorat. De fait, la notoriété d’un établissement, l’accréditation de certaines formations apparaissent comme une garantie d’un diplôme de qualité, qui sera reconnu et valorisé sur le marché de l’emploi.

Les chercheurs en début de carrière sont guidés dans leurs choix par des considérations fort semblables. Faire partie d’une équipe renommée est un atout pour la construction du CV personnel, une promesse aussi d’un accès plus facile à des publications bien "rankées". Pour un enseignant-chercheur, contribuer au ranking de son institution signifie en fait améliorer son propre ranking. Ceci l’amènera donc à porter son attention sur ce qui sert à marquer des points, ce qui peut déboucher sur des stratégies de publication.

En dehors du choix de la revue (importance du facteur d’impact), des dérives plus inquiétantes se font jour. Ainsi, pour accroître le nombre de citations, il est plus intéressant de publier des "guidelines" dans un domaine général ou un article sur un thème à la mode que de s’intéresser à des sujets pointus et originaux qui ne touchent qu’un nombre restreint de spécialistes. La pression des rankings pourrait ainsi en venir à conditionner le choix des thèmes de recherche.

L’intérêt de l’enseignant-chercheur à soigner son ranking est parfois motivé par le souci de rejoindre à terme un établissement prestigieux. Une sorte de mercato scientifique se met ainsi progressivement en place où des chercheurs de valeur essaient de rejoindre des établissements de renom, et où des universités moyennes essaient d’améliorer leur classement en recrutant des chercheurs renommés.

Les responsables d’universités, présidents et recteurs, peuvent faire un usage interne et externe des rankings. En dépit des critiques – justifiées – qu’on peut leur adresser, les rankings sont tout de même l’indicateur de quelque chose. On peut donc les utiliser comme des thermomètres. Cela posé, de même qu’on peut être gravement malade avec une température normale à 36,7°, de même une température élevée n’indique pas forcément (même rarement) la nature précise du mal.

Le classement invite donc à se poser des questions, sans qu’on sache toujours très bien lesquelles. Il y aura d’autant plus intérêt à le faire qu’il est possible d’analyser la tendance sur plusieurs années : classement stable, en hausse ou en baisse.

En externe, les rankings entrent dans la stratégie des universités pour nouer des partenariats, attirer des étudiants et des financements. Il sera donc stratégique de s’allier avec des universités mieux classées pour bénéficier d’un effet d’entraînement, ou à tout le moins avec des établissements situés dans la même zone de classement. L’analyse de la composition des réseaux d’universités qui viennent récemment de recevoir le label d’université européenne est révélateur des stratégies mises en place par les institutions.

Panel de stratégies

Si les universités font régulièrement la moue devant les résultats des rankings – surtout si elles ne sont pas dans le haut du classement –, la plupart sont tout de même bien forcées de s’en préoccuper. Pour ce faire, il faut d’abord comprendre les paramètres du calcul et évaluer la maîtrise que l’on peut en avoir. Le tableau ci-dessous vise à donner une idée de la marge de manœuvre possible :

Enjeux et difficultés des classements.

Les universités ne maîtrisent pas de la même manière tous les paramètres qui entrent en compte dans les classements. Par exemple, les institutions ont la main sur le recrutement des enseignants-chercheurs, beaucoup moins sur l’encadrement (ratio staff/étudiants) dans la mesure où les contraintes financières limitent fortement les ambitions, et elles n’ont que très peu de prise sur les enquêtes de notoriété.

Une institution peut donner une orientation forte en matière de publication, mais ce sont en définitive les chercheurs qui s’aligneront ou non sur cette politique. Dans ce dernier cas, on pourrait assister à des conflits potentiels. Prenons par exemple l’"Open Access", qui vise, entre autres choses, à contrer la suprématie (financièrement ingérable) des grands groupes de l’édition scientifique.

La valorisation des publications en Open Access par une institution pourrait aller à l’encontre des préoccupations des individus, soucieux de la construction de leur carrière personnelle, ce qui passe toujours par la publication dans des revues à haut facteur d’impact, lesquelles sont contrôlées par les grands éditeurs ( Rentier 2019 ).

On peut escompter que certaines mesures auront un effet assez rapide sur les classements, tandis que d’autres, plus structurelles, ne peuvent produire des résultats qu’à moyen, voire à long terme. C’est typiquement le cas des recrutements des nouveaux chercheurs. En revanche, les enquêtes de notoriété peuvent être influencées par une communication ciblée de la part des universités et par un lobbying plus agressif.

Enfin, un mot pour terminer sur l’influence des rankings sur les décideurs politiques. Dans la mesure où les classements cumulés de toutes les universités d’un pays peuvent donner une idée générale du niveau national de la recherche et de l’enseignement, les gouvernements gardent un œil sur les rankings, même s’il est difficile de se prononcer sur leur influence sur les politiques nationales.

En conclusion, en dépit de leur faible valeur scientifique, il est illusoire d’imaginer que les rankings vont (rapidement) disparaître du paysage académique. Les intérêts financiers à promouvoir certains modèles d’université, certaines formes de recherche sont trop importants pour être facilement contrecarrés.

Promouvoir d’autres types de classement, d’autres formes d’évaluation pourrait utilement contrebalancer le pouvoir excessif des rankings mondiaux. Mais il y faudrait mettre beaucoup de moyens et de compétence si l’on veut rendre justice à tous les types d’activités – pas uniquement la recherche – qui font une université.

Est-on vraiment prêt à fournir cet effort pour dégager un modèle original d’université, celui d’une université au carrefour de la science, de la culture et de la société ? C’est là un défi majeur posé à la classe politique européenne si elle veut être à la hauteur des attentes de la société (voir Winand 2018 ). The Conversation

(1) : Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’ article original .