TLDR : La Cour de Cassation française explore les usages de l'intelligence artificielle (IA) pour améliorer l’efficacité du travail judiciaire à travers une approche méthodologique, éthique et pragmatique. Le rapport préconise des usages spécifiques de l'IA pour renforcer l'analyse des magistrats et l'organisation interne, tout en respectant une ligne rouge claire : la décision finale appartient toujours au juge, pas à l'algorithme.
Sommario
Il 28 aprile scorso, il gruppo di lavoro dedicato all'IA della Corte di cassazione, custode dell'interpretazione del diritto in Francia, ha presentato ufficialmente il suo rapporto "Corte di cassazione e intelligenza artificiale: preparare la Corte del domani". Esplora gli usi attuali e potenziali dell'IA per migliorare l'efficienza del lavoro giudiziario, raccomandando un approccio metodologico, etico e pragmatico.
La Corte di cassazione beneficia a questo riguardo di un vantaggio strategico: il suo team interno di data science, raro nel panorama giudiziario europeo, che le consente di sviluppare gli strumenti necessari internamente, ridurre i costi e garantirne la trasparenza. Questa autonomia tecnica si rivela tanto più preziosa in un contesto segnato dalla crescente tensione tra performance tecnologica e indipendenza istituzionale.
Incaricata dal legislatore di garantire l'Open Data delle decisioni giudiziarie, ha sviluppato nel 2019 un software di pseudonimizzazione delle decisioni giudiziarie e l'anno successivo, un sistema di orientamento dei ricorsi basato sull'IA.
Sfruttando questa competenza, il suo primo presidente Christophe Soulard e il procuratore generale Rémy Heitz hanno costituito un gruppo di lavoro dedicato all'IA, presieduto da Sandrine Zientara, presidente di sezione e direttrice del Servizio di documentazione, studi e rapporti (SDER), un'entità chiave della Corte di cassazione.
Un approccio rigoroso, centrato sui reali bisogni dell'istituzione
Il gruppo, incaricato a maggio 2024, ha adottato una metodologia trasversale, associando magistrati, cancellieri, ricercatori ed esperti in IA. L'indagine condotta presso il personale della Corte, arricchita da audizioni esterne (ENM, CEPEJ, legaltech, alte giurisdizioni nazionali ed europee), ha permesso di identificare un'ampia gamma di casi d'uso.
Lungi dal cedere all'entusiasmo per le IA generative, il rapporto esplora anche i contributi di tecnologie più collaudate: sistemi esperti, apprendimento supervisionato o ibridi.
Casi d'uso pragmatici, gerarchizzati secondo il loro valore e rischi
I casi censiti sono classificati in cinque grandi categorie, che vanno dalla strutturazione e arricchimento documentale all'assistenza alla redazione, passando per l'analisi degli scritti delle parti e la ricerca giurisprudenziale. Questi usi sono pensati per rafforzare la capacità di analisi dei magistrati, migliorare la qualità dei trattamenti e ottimizzare l'organizzazione interna, senza però interferire con la presa di decisione giurisdizionale. Alcuni, come l'arricchimento automatico delle memorie o il rilevamento di precedenti, presentano un buon rapporto efficacia/costo senza sollevare difficoltà etiche maggiori. Altri, in particolare quelli legati alla redazione assistita, appaiono più sensibili. L'intenzione di non introdurre strumenti di aiuto alla decisione riflette una linea rossa istituzionale chiara: la decisione appartiene al giudice, non all'algoritmo.
Strumenti che permettono di mappare le controversie, rilevare connessioni tra fascicoli o analizzare masse giurisprudenziali potrebbero rafforzare la coerenza del diritto, meglio identificare le controversie emergenti e facilitare il dialogo tra i giudici.
Criteri severi per inquadrare l'uso dell'IA
L'analisi multicriterio condotta per ciascun caso d'uso (etico, giuridico, funzionale, tecnico ed economico), permette di uscire da una logica di sperimentazione opportunistica per ancorare gli usi dell'IA in un quadro ragionato e riproducibile. Questo modello di valutazione potrebbe inoltre ispirare altre giurisdizioni, in Francia o all'estero, desiderose di coniugare innovazione e sicurezza giuridica. Il rapporto insiste in particolare sulla trasparenza e spiegabilità dei sistemi IA, la loro frugalità, il rispetto del RGPD e dell'AI Act, la gestione dell'hosting dei dati, o ancora la sovranità tecnologica. Queste esigenze ricordano che l'integrazione dell'IA non può prescindere da una guida rigorosa, fondata sui valori fondamentali del diritto.
Una governance responsabile e un monitoraggio continuo
Il rapporto raccomanda l'istituzione di un comitato di supervisione interna incaricato del monitoraggio operativo ed etico degli usi dell'IA, di una guida di buone pratiche, nonché l'adozione di una carta etica specifica per la Corte. Sottolinea inoltre l'importanza di una governance indipendente e di un processo di acculturazione graduale dei magistrati e degli agenti giudiziari a queste tecnologie emergenti.
Per capire meglio
Cos'è l'AI Act e come influenza l'uso dell'IA da parte della Cour de cassation?
L'AI Act è una proposta di regolamentazione dell'UE che mira a stabilire regole armonizzate per l'IA. Influenza l'uso dell'IA alla Cour de cassation imponendo standard rigorosi di trasparenza e sicurezza per i sistemi di IA utilizzati nel campo giudiziario.
Come si è evoluta la storia della pseudonimizzazione nel campo giudiziario fino alla sua adozione da parte della Cour de cassation nel 2019?
La pseudonimizzazione delle decisioni giudiziarie è nata in risposta alle crescenti esigenze di protezione dei dati personali, con leggi come il GDPR dell'UE che hanno influenzato le pratiche. La Cour de cassation ha adottato questa tecnologia nel 2019 per migliorare la riservatezza pur consentendo l'accesso alle decisioni giudiziarie.