L’humain au cœur des décisions judiciaires
Dans un système judiciaire déjà à la peine sur le plan des ressources, les retards s’accumulent et les moyens manquent cruellement. Certains voient dans l’intelligence artificielle une solution rapide pour alléger la charge, mais cela ne remplace pas l’expertise humaine ni le discernement nécessaire pour trancher des affaires sensibles.
Des acteurs du numérique rêvent d’automatiser certaines étapes pour gagner du temps et réduire les coûts. Cette perspective séduit, mais elle soulève des questions éthiques et démocratiques: qui vérifie les résultats, sur quels critères se basent les algorithmes, et qui porte la responsabilité en cas d’erreur?
Manuela Cadelli, juge à Namur, affirme dans son ouvrage Justice et IA: une enquête critique que l’automatisation partielle n’est pas une solution neutre. Elle appelle à un examen rigoureux des usages et à investir davantage dans les moyens humains et matériels indispensables à la justice.
IA et droit: limites, risques et garde-fous publics
Selon Cadelli, le recours à l’IA ne peut pas remplacer le raisonnement judiciaire qui se nourrit de valeurs, de contexte et d’un équilibre entre droits et devoirs. La justice reste une pratique humaine qui nécessite discernement, empathie et responsabilité.
Les systèmes d’IA peuvent répandre des biais présents dans leurs données d’entraînement, et leur fonctionnement reste souvent opaque. Si un algorithme déduit une décision, qui est responsable et comment la transparence est-elle assurée lorsque le processus est «boîte noire»? Le risque d’erreurs coûte cher aux justiciables et à la confiance publique.
Pour encadrer le sujet, Cadelli et d’autres spécialistes plaident pour garder les décisions humaines en premier lieu tout en dégageant des tâches répétitives l’assistance de l’IA. Cela passe par un financement public renforcé, des contrôles externes des algorithmes et des règles claires garantissant l’accès à la justice et la reddition de comptes.
