— Par Hugues Bersini —
DISSENSUS. Cessons de penser que les algorithmes prennent des décisions ; ils ne font qu’exécuter les choix de ceux qui les ont écrits, rappelle le chercheur Hugues Bersini.
Parcoursup est-il un modèle de la méritocratie républicaine ou, au contraire, un instrument de discrimination sociale, et l’un des modèles du genre en France ? Hugues Bersini (*) propose à « l’Obs » une lecture de la conception politique et économique utilitariste inscrite au cœur même de la formule algorithmique de Parcoursup. Docteur en génie nucléaire et professeur en programmation et en intelligence artificielle à l’Université libre de Bruxelles, il est l’un des inspirateurs du projet France IA (Intelligence Artificielle) et a été consultant d’Axelle Lemaire, secrétaire d’Etat chargée du Numérique et de l’Innovation sous la présidence de François Hollande.
La répartition des étudiants entre les universités et les filières est un problème complexe puisqu’elle s’effectue sur base d’un conflit massif entre l’offre et la demande : on dénombre plus de 880.000 candidats pour un total (à raison de 10 vœux possibles par candidat) de quelques 7.000.000 de vœux de formation [810.000 ont in fine validé leurs voeux, NDLR]. La résolution d’un tel conflit n’est plus sérieusement envisageable humainement. Dès lors qu’un algorithme travaille à cette mise en relation n’est pas à remettre en question. La vraie question est celle de l’objectif assigné à l’algorithme et des choix qu’il doit exécuter.
Des cartes récemment publiées montrent un résultat consternant depuis la mise en place de l’algorithme de Parcoursup : la diminution de la mobilité des étudiants issus des périphéries crève les yeux. Des responsables politiques et des citoyens, légitimement heurtés par ce constat, s’en saisissent aujourd’hui pour accuser l’algorithme de Parcoursup d’être un « algorithme discriminant ». En cela, ils rejoignent, sans toujours en avoir conscience, ceux qui souhaitent engager en Europe une réflexion pour attribuer une personnalité juridique aux algorithmes.
Or, une telle portée juridique attribuée aux algorithmes n’aurait qu’un effet confortable : déresponsabiliser ceux qui décident et écrivent les algorithmes. La tentation développée par l’homme à vouloir responsabiliser les algorithmes est une erreur de jugement qui cache, en réalité, le lieu où une action corrective peut se jouer. Cessons de penser que les algorithmes prennent des décisions ; ils ne font qu’exécuter les choix de ceux qui les ont écrits. Et, dans le cas de Parcoursup, ceux qui ont écrit l’algorithme ont transcrit dans sa formule des choix lisibles qui découlent directement d’une décision politique et idéologique inscrite dans la loi ORE (sur l’orientation et la réussite des étudiants) voulue par le président Macron et son gouvernement.
Quelle est cette décision ? Opter pour une répartition méritocratique que l’algorithme de Parcoursup exécute froidement. L’effet est amplifié par la mise en place d’algorithmes locaux sélectifs dans les universités, dérivés du logiciel d’aide à la décision de Parcoursup ou externes, dont on ne connaît pas tous les critères puisque ceux-là, contrairement à l’algorithme de Parcoursup, ne sont pas publics, mais dont on sait qu’ils jouent souvent en pondérant les dossiers en fonction de la réputation des lycées. Sous la pression protectionniste de certaines facultés, principalement parisiennes, conjuguée à celle des facultés de banlieues craignant un exode des meilleurs étudiants de leur secteur, les rectorats ont, en outre, diminué par endroits le nombre d’étudiants hors secteur acceptés et fixé des pourcentages extrêmement variables, souvent faibles, de places réservées aux boursiers.
Une approche utilitariste
Cette décision politique et idéologique se lit dans la formule algorithmique même de Parcoursup. Cet algorithme, dont l’objectif est de mettre en relation deux objets, d’un côté des établissements, de l’autre des étudiants, est en effet inspiré par le célèbre algorithme de Gale et Shapley, repris par Alvin Roth, prix Nobel d’économie en 2012. Il relève au fond d’un vieux problème économique que l’on appelle l’appariement stable.
Dans sa version originelle, qui date de 1962, l’algorithme de Gale et Shapley vise ainsi à obtenir des mariages stables. Les hommes classent les femmes selon leurs préférences, tandis que les femmes classent de leur côté les hommes. L’objectif de l’algorithme est d’obtenir le meilleur appariement en fonction des préférences subjectives de chacun. Cependant, si tous les hommes préfèrent la même femme et réciproquement, les plus convoités se retrouveront ensemble. C’est exactement ce qui se passe dans sa version économique plus récente : les préférences tendant à devenir des valeurs objectives, l’algorithme vise à effectuer l’appariement entre le plus offrant et l’objet le plus convoité. Il cesse alors d’être égalitariste pour devenir utilitariste.
C’est ce critère économique utilitariste, opposé au critère égalitariste, que l’on retrouve à la source de Parcoursup. En caricaturant un peu, les universités et les filières sont classées selon le prestige perçu, classement auquel les étudiants sont évidemment sensibles, dans le même temps que les étudiants sont classés selon leur dossier scolaire, la réputation de leur lycée, leur localisation géographique. Parcoursup crée alors automatiquement un appariement entre ce qu’il perçoit être les meilleures universités et les meilleurs étudiants. Il n’est donc nullement exagéré de dire que l’algorithme de Parcoursup fonctionne pour tout donner au plus méritant, ce qui, dans le même temps, renforce les inégalités sociales et scolaires initiales. En ce sens, il reflète bien la France ultra-méritocratique et utilitariste du président Macron.
L’économiste indien, Amartya Kumar Sen, récipiendaire du prix Nobel en 1998 a parfaitement démontré que, dans une société utilitariste, les riches reçoivent infiniment plus que les pauvres parce qu’ils ont investi. Les riches s’enrichissent donc. Les pauvres aussi s’enrichissent. Cependant, le fait que les riches s’enrichissent infiniment plus que les pauvres n’est pas pris en compte par la fonction utilitariste qui vérifie seulement que personne ne soit totalement défavorisé….
Lire la Suite & Plus => L’Obs