Qui décide ?
Il y a une question qu’on ne pose presque jamais quand on parle d’intelligence artificielle. On parle de ce qu’elle peut faire, de ce qu’elle va remplacer, de ce qu’elle coûte. Mais on oublie de demander : qui décide ?
Pas qui décide de l’acheter ou de l’installer. Qui décide de ce qu’elle fait. Qui décide quand elle se trompe. Qui décide de la corriger, de la couper, de la relancer autrement. Cette question-là, personne ne veut vraiment y répondre, parce que la réponse est inconfortable.
La tentation du pilote automatique
L’IA offre une promesse séduisante : ne plus avoir à choisir. Ou du moins, choisir moins souvent. On lui confie le tri, l’analyse, la recommandation, parfois même l’exécution. Et progressivement, sans qu’on s’en rende compte, le centre de gravité se déplace. Ce n’est plus l’humain qui décide et la machine qui exécute. C’est la machine qui propose et l’humain qui valide. La nuance est immense.
Valider n’est pas décider. Valider, c’est dire oui à quelque chose qu’on n’a pas pensé soi-même. C’est accepter une direction sans l’avoir choisie. Et quand on fait ça dix fois, cinquante fois, cent fois par jour, on finit par perdre le réflexe de penser par soi-même. Non pas parce qu’on en est incapable, mais parce qu’on n’en a plus l’habitude.
Décider, c’est un acte
Il y a quelque chose de fondamentalement humain dans l’acte de décider. Ce n’est pas un calcul. Ce n’est pas une optimisation. C’est un engagement. Quand je prends une décision, je mets en jeu mon jugement, mon expérience, mes valeurs, ma compréhension du contexte. Je peux me tromper. Et c’est précisément cette possibilité de me tromper qui donne de la valeur à ma décision.
Une IA ne décide pas. Elle calcule la réponse la plus probable. Elle optimise selon des critères qu’on lui a donnés, ou parfois selon des critères qu’elle a déduits toute seule, ce qui est encore plus inquiétant. Mais elle n’engage rien. Elle ne porte aucune responsabilité. Et elle ne comprend pas ce que signifie le mot conséquence.
Le vrai travail commence après l’automatisation
Les systèmes les plus robustes que j’ai vus ne sont pas ceux qui automatisent le plus. Ce sont ceux où quelqu’un sait exactement où placer la frontière entre ce que la machine fait et ce que l’humain décide. Cette frontière n’est pas technique. Elle est philosophique.
On peut automatiser la collecte. On peut automatiser le tri. On peut même automatiser la rédaction d’un premier jet. Mais le moment où l’on dit « c’est ça qu’on publie », « c’est ce client qu’on contacte », « c’est cette stratégie qu’on suit », ce moment-là doit rester humain. Pas par nostalgie, pas par méfiance envers la technologie. Par lucidité sur ce que signifie diriger.
Celui qui pense reste aux commandes
L’intelligence artificielle est un amplificateur extraordinaire. Mais un amplificateur ne choisit pas ce qu’il amplifie. C’est l’humain qui décide du signal. Et si l’humain abdique ce rôle, il ne reste que du bruit amplifié.
Je ne crois pas que l’IA remplacera ceux qui pensent. Je crois qu’elle rendra plus visible la différence entre ceux qui pensent et ceux qui ont cessé de le faire.
Transparence
Cet article reflète mon analyse personnelle, fondée sur mon expérience professionnelle. Les outils et méthodes mentionnés sont ceux que j'utilise au quotidien. Aucun lien commercial.