W skrócie : Sąd Kasacyjny we Francji bada zastosowania AI, aby poprawić efektywność pracy sądowej poprzez podejście metodyczne, etyczne i pragmatyczne. Raport zaleca specyficzne zastosowania AI, aby wzmocnić analizę sędziów i organizację wewnętrzną, jednocześnie przestrzegając jasnej linii: ostateczna decyzja należy zawsze do sędziego, a nie do algorytmu.
Podsumowanie
28 kwietnia, grupa robocza ds. AI Sądu Kasacyjnego we Francji, która jest strażnikiem interpretacji prawa we Francji, oficjalnie przedstawiła swój raport "Sąd Kasacyjny i sztuczna inteligencja: przygotowanie sądu jutra". W raporcie eksplorowane są obecne i potencjalne zastosowania AI w celu poprawy efektywności pracy sądu, zalecając podejście metodyczne, etyczne i pragmatyczne.
Sąd Kasacyjny ma w tym zakresie strategiczny atut: wewnętrzny zespół ds. data science, rzadkość w europejskim krajobrazie sądowym, który umożliwia mu samodzielne opracowywanie niezbędnych narzędzi, obniżanie kosztów i zapewnianie przejrzystości. Ta techniczna autonomia jest tym bardziej cenna w kontekście rosnącego napięcia między wydajnością technologiczną a niezależnością instytucjonalną.
Nałożony przez ustawodawcę obowiązek zapewnienia danych otwartych z decyzji sądowych, sąd w 2019 roku opracował oprogramowanie do pseudonimizacji decyzji sądowych, a rok później system orientacji wniosków oparty na AI.
W oparciu o tę ekspertyzę, pierwszy prezes Christophe Soulard i prokurator generalny Rémy Heitz utworzyli grupę roboczą ds. AI, której przewodniczy Sandrine Zientara, prezes izby i dyrektor Służby Dokumentacji, Studiów i Raportu (SDER), kluczowej jednostki Sądu Kasacyjnego.
Rygorystyczne podejście, skupione na realnych potrzebach instytucji
Grupa, której mandat przyznano w maju 2024 roku, przyjęła metodologię przekrojową, łączącą sędziów, urzędników sądowych, badaczy i ekspertów ds. AI. Przeprowadzone badanie wśród personelu sądu, wzbogacone o zewnętrzne przesłuchania (ENM, CEPEJ, legaltechs, najwyższe sądy krajowe i europejskie), pozwoliło zidentyfikować szeroki zakres przypadków użycia.
Raport, daleki od poddania się fascynacji generatywną AI, bada również wkład bardziej sprawdzonych technologii: systemów ekspertowych, nauki nadzorowanej czy hybrydowych.
Pragmatyczne przypadki użycia, sklasyfikowane według ich wartości i ryzyka
Zidentyfikowane przypadki są sklasyfikowane według pięciu głównych kategorii, od strukturyzacji i wzbogacania dokumentacji po pomoc w redagowaniu, analizę pism stron i badania jurysdykcyjne. Te zastosowania mają na celu wzmocnienie zdolności analitycznej sędziów, poprawę jakości przetwarzania oraz optymalizację organizacji wewnętrznej, bez ingerowania w proces podejmowania decyzji sądowych. Niektóre z nich, takie jak automatyczne wzbogacanie memorandów lub wykrywanie precedensów, oferują dobry stosunek efektywności do kosztów bez wywoływania poważnych problemów etycznych. Inne, w szczególności te związane z wspomaganym redagowaniem, są bardziej wrażliwe. Intencja, by nie wprowadzać narzędzi wspomagających podejmowanie decyzji, odzwierciedla jasną linię czerwoną instytucji: decyzja należy do sędziego, nie do algorytmu.
Narzędzia do mapowania sporów, wykrywania połączeń między sprawami lub analizy masy orzecznictwa mogą wzmocnić spójność prawa, lepiej identyfikować pojawiające się spory i ułatwiać dialog między sędziami.
Surowe kryteria regulujące wykorzystanie AI
Analiza wielokryterialna przeprowadzona dla każdego przypadku użycia (etyczna, prawna, funkcjonalna, techniczna i ekonomiczna) pozwala na wyjście z logiki oportunistycznego eksperymentowania w celu zakorzenienia zastosowań AI w ramach rozważnym i powtarzalnym. Ten model oceny mógłby zainspirować inne sądy, we Francji lub za granicą, które chcą łączyć innowacje i bezpieczeństwo prawne. Raport kładzie nacisk na przejrzystość i wyjaśnialność systemów AI, ich oszczędność, przestrzeganie RODO i AI Act, kontrolę nad hostingiem danych oraz suwerenność technologiczną. Te wymagania przypominają, że integracja AI nie może być oderwana od rygorystycznego zarządzania opartego na fundamentalnych wartościach prawa.
Odpowiedzialne zarządzanie i ciągłe monitorowanie
Raport zaleca ustanowienie wewnętrznego komitetu nadzorczego odpowiedzialnego za operacyjne i etyczne monitorowanie zastosowań AI, przewodnika dobrych praktyk oraz przyjęcie specjalnej karty etycznej dla sądu. Podkreśla również znaczenie niezależnego zarządzania i stopniowego procesu akulturacji sędziów i pracowników sądowych do tych nowo pojawiających się technologii.
Bardziej zrozumiałe
Czym jest AI Act i jak wpływa na wykorzystanie AI przez Cour de cassation?
AI Act to propozycja regulacji UE mająca na celu ustanowienie zharmonizowanych zasad dla AI. Wpływa na Cour de cassation poprzez nakładanie surowych norm dotyczących przejrzystości i bezpieczeństwa systemów AI w obszarze sądownictwa.
Jak ewoluowała historia pseudonimizacji w dziedzinie sądownictwa do momentu jej przyjęcia przez Cour de cassation w 2019 roku?
Pseudonimizacja decyzji sądowych pojawiła się w odpowiedzi na rosnące wymagania dotyczące ochrony danych osobowych, a przepisy takie jak RODO UE wpłynęły na praktyki. Cour de cassation przyjęła tę technologię w 2019 roku, aby zwiększyć poufność przy jednoczesnym umożliwieniu dostępu do decyzji sądowych.