Le juge sans visage : quand l’algorithme décide

Il y a une différence entre entendre « non » de quelqu’un qui vous a regardé et le lire sur un écran qui ne sait pas que vous existez. Dans le premier cas, quelqu’un a pesé votre situation. Dans le second, quelque chose a calculé votre score. Le résultat peut être le même. L’expérience ne l’est pas.

Prêt immobilier, visa, candidature, assurance. « Votre profil ne correspond pas aux critères requis. » Quels critères ? Définis par qui ? Appliqués comment ? On ne sait pas. On ne saura pas. Et c’est devenu banal. C’est précisément cette banalité qui devrait nous alerter.

Ce que suppose la justice

Je ne suis pas juriste, mais la justice, pour moi, c’est d’abord une relation. Elle repose sur trois choses qu’on peut identifier.

Un juge identifiable : quelqu’un qui assume la décision. Une personne responsable. Un raisonnement exposable : des motifs qu’on peut comprendre, discuter, contester. Une possibilité de recours : un appel, un regard différent sur la même situation.

L’algorithme supprime les trois. Le décideur est un programme. Le raisonnement est une boîte noire. Et la contestation se heurte à un mur : comment faire appel d’une décision dont on ne connaît ni les critères ni la logique ?

C’est particulièrement troublant dans les domaines où ces décisions changent des vies. Un refus de prêt, c’est un projet qui s’écroule. Un refus de visa, c’est une famille séparée. Un refus d’assurance, c’est l’accès aux soins remis en question.

Être réduit à une ligne

Ce qui frappe, ce n’est pas la décision elle-même. C’est l’absence totale de rencontre. Personne ne vous a regardé. Personne ne vous a écouté. Votre histoire, vos circonstances, ce qui fait que votre situation n’est pas tout à fait comme les autres – rien de tout cela n’existe pour le système. Vous êtes un ensemble de variables. Un score. Une ligne dans une base de données.

Il y a quelque chose de profondément troublant dans le fait d’être jugé par quelque chose qui ne sait pas que vous existez. Pas par indifférence – par conception. Le système n’a pas été construit pour vous connaître. Il a été construit pour vous classer.

Et quand le classement tombe mal, il n’y a personne à qui parler. Pas de regard à croiser. Pas d’interlocuteur. Juste un résultat, affiché à l’écran, définitif.

Le malentendu de l’objectivité

On nous dit que c’est plus juste. Qu’un algorithme ne connaît ni la fatigue, ni les préjugés, ni la mauvaise humeur du lundi matin. C’est vrai. Mais on confond deux choses : l’absence de subjectivité et la présence de justice.

Un algorithme ne vous juge pas mal. Il ne vous juge pas du tout. Il calcule. Et entre juger et calculer, il y a un gouffre. Juger, c’est peser. C’est tenir compte de ce qui ne rentre pas dans les cases. C’est accepter que deux situations identiques sur le papier puissent mériter des réponses différentes.

Le calcul ne fait pas ça. Le calcul applique. Et il applique avec une régularité parfaite, y compris quand la situation demandait une exception.

Ce que nous perdons

Je ne dis pas que les humains jugent toujours bien. Les préjugés existent. La corruption existe. L’erreur existe.

Mais le jugement humain porte en lui quelque chose que le calcul ne contient pas : la conscience de juger. Un juge sait qu’il tranche dans la vie de quelqu’un. Il peut douter, revenir, nuancer. Il peut reconnaître qu’il s’est trompé. Un algorithme ne doute pas. Il ne revient pas. Il applique, point.

Une société où personne ne peut regarder le juge dans les yeux n’est pas plus efficace. Elle n’est pas plus juste. Elle est juste moins humaine. Et il y a des domaines, il y a des décisions, où l’humanité n’est pas un luxe. C’est une condition.

Transparence

Cet article reflète mon analyse personnelle, fondée sur mon expérience professionnelle. Les outils et méthodes mentionnés sont ceux que j'utilise au quotidien. Aucun lien commercial.