IA et justice : la Cour de cassation prépare l'avenir

IA et justice : la Cour de cassation prépare l'avenir

En bref : La Cour de cassation en France a publié un rapport sur l'usage de l'intelligence artificielle (IA) pour améliorer l'efficacité judiciaire, tout en respectant une approche éthique et pragmatique. Le rapport propose une utilisation de l'IA pour l'analyse de données, l'aide à la rédaction et la recherche jurisprudentielle, mais souligne que la décision finale doit toujours appartenir au juge, pas à l'algorithme.

Le 28 avril dernier, le groupe de travail dédié à l'IA de la Cour de cassation, gardienne de l’interprétation du droit en France, a remis officiellement son rapport "Cour de cassation et intelligence artificielle : préparer la Cour de demain". Il y explore les usages actuels et potentiels de l'IA afin d’améliorer l’efficacité du travail judiciaire, préconisant une approche méthodologique, éthique et pragmatique. 
 
La Cour de cassation bénéficie à cet égard d’un atout stratégique : son équipe interne de data science, rare dans le paysage judiciaire européen, qui lui permet de développer en propre les outils nécessaires, de réduire les coûts et d’en garantir la transparence. Cette autonomie technique se révèle d’autant plus précieuse dans un contexte marqué par la tension croissante entre performance technologique et indépendance institutionnelle.

Chargée par le législateur d’assurer la mise en Open Data des décisions de justice, elle a notamment développé en 2019 un logiciel de pseudonymisation des décisions judiciaires et l'année suivante, un système d’orientation des pourvois basé sur l’IA.

S'appuyant sur cette expertise, son premier président Christophe Soulard et le procureur général Rémy Heitz ont constitué un groupe de travail dédié à l'IA, présidé par Sandrine Zientara, présidente de chambre et directrice du Service de documentation, des études et du rapport (SDER), une entité clé de la Cour de cassation.

Une approche rigoureuse, centrée sur les besoins réels de l’institution

Le groupe, mandaté en mai 2024, a adopté une méthodologie transversale, associant magistrats, greffiers, chercheurs et experts en IA. L’enquête menée auprès des personnels de la Cour, enrichie par des auditions externes (ENM, CEPEJ, legaltechs, hautes juridictions nationales et européennes), a permis d’identifier un large éventail de cas d’usage.
Loin de céder à l’engouement pour les IA génératives, le rapport explore aussi les apports de technologies plus éprouvées : systèmes experts, apprentissage supervisé ou hybrides.

Des cas d’usage pragmatiques, hiérarchisés selon leur valeur et leurs risques

Les cas recensés sont classés selon cinq grandes catégories, allant de la structuration et l’enrichissement documentaire à l’aide à la rédaction, en passant par l’analyse des écritures des parties et la recherche jurisprudentielle. Ces usages sont pensés pour renforcer la capacité d’analyse des magistrats, améliorer la qualité des traitements, et optimiser l’organisation interne, sans pour autant s’immiscer dans la prise de décision juridictionnelle. Certains, comme l’enrichissement automatique des mémoires ou la détection de précédents, présentent un bon ratio efficacité/coût sans soulever de difficultés éthiques majeures. D’autres, notamment ceux liés à la rédaction assistée, apparaissent plus sensibles. L'intention de ne pas introduire d'outils d’aide à la décision reflète une ligne rouge institutionnelle claire : la décision appartient au juge, pas à l’algorithme.
Des outils permettant de cartographier les litiges, de détecter des connexions entre dossiers ou d’analyser des masses jurisprudentielles pourraient renforcer la cohérence du droit, mieux identifier les contentieux émergents et faciliter le dialogue des juges.

Des critères stricts pour encadrer l'usage de l'IA

L’analyse multicritère menée pour chaque cas d'usage (éthique, juridique, fonctionnelle, technique et économique), permet de sortir d’une logique d’expérimentation opportuniste pour ancrer les usages de l’IA dans un cadre raisonné et reproductible. Ce modèle d’évaluation pourrait d’ailleurs inspirer d’autres juridictions, en France ou à l’étranger, soucieuses de conjuguer innovation et sécurité juridique. Le rapport insiste notamment sur la transparence et l'explicabilité des systèmes d'IA, leur frugalité, le respect du RGPD et de l'AI Act, la maîtrise de l’hébergement des données, ou encore la souveraineté technologique. Ces exigences viennent rappeler que l’intégration de l’IA ne peut s’abstraire d’un pilotage rigoureux, fondé sur les valeurs fondamentales du droit.

Une gouvernance responsable et un suivi continu

Le rapport recommande la mise en place d’un comité de supervision interne chargé du suivi opérationnel et éthique des usages de l’IA, d'un guide de bonnes pratiques ainsi que l’adoption d’une charte éthique spécifique à la Cour. Il insiste également sur l’importance d’une gouvernance indépendante et d’un processus d’acculturation graduelle des magistrats et agents judiciaires à ces technologies émergentes.

Pour mieux comprendre (assisté par l'IA)

Qu'est-ce que l'AI Act et comment influence-t-il l'utilisation de l'IA par la Cour de cassation ?

L'AI Act est une proposition de réglementation de l'Union européenne visant à établir des règles harmonisées pour l'IA. Il influence l'utilisation de l'IA à la Cour de cassation en imposant des normes strictes de transparence et de sécurité pour les systèmes d'IA utilisés dans le domaine judiciaire.

Comment l'histoire de la pseudonymisation dans le domaine judiciaire a-t-elle évolué jusqu'à son adoption par la Cour de cassation en 2019 ?

La pseudonymisation des décisions judiciaires est née en réponse aux exigences croissantes de protection des données personnelles, avec des lois comme le RGPD de l'UE influençant les pratiques. La Cour de cassation a adopté cette technologie en 2019 pour renforcer la confidentialité tout en permettant l'accès aux décisions de justice.

OSZAR »