TLDR : 法国最高法院正在探索人工智能的应用以提高司法工作的效率,报告建议在不干预司法决策的前提下,利用人工智能增强法官分析和内部组织。
目录
在4月28日,法国最高法院负责解释法律的人工智能工作组正式提交了其报告《最高法院与人工智能:为未来的法院做准备》。报告探讨了当前及潜在的人工智能应用,以提高司法工作的效率,建议采取方法论、伦理和务实的方式。
在这一方面,最高法院具有战略优势:在欧洲司法界罕见的内部数据科学团队,使其能够自主开发必要工具,降低成本并确保透明度。在科技性能与机构独立性之间日益紧张的情况下,这种技术自主性尤为珍贵。
作为立法者要求确保司法判决开放数据化的一部分,最高法院在2019年开发了一个司法判决的去标识化软件,次年又基于人工智能开发了上诉指导系统。
基于这种专业知识,首席大法官Christophe Soulard和总检察官Rémy Heitz成立了一个专门的人工智能工作组,由最高法院重要部门——文献、研究与报告服务(SDER)的主席和总监Sandrine Zientara主持。
以机构实际需求为中心的严格方法
该工作组于2024年5月受命,采用跨学科方法,结合法官、书记员、研究人员和人工智能专家。通过对法院工作人员的调查和与外部人士的面谈(如ENM、CEPEJ、法律科技公司、国家和欧洲高级法院),识别出广泛的应用案例。
报告不仅限于生成式人工智能的热潮,还探讨了更成熟技术的贡献:专家系统、监督学习或混合系统。
根据价值和风险进行排序的务实应用案例
归纳的案例分为五大类,从文件结构化和丰富到撰写辅助,再到当事人书面材料分析和判例研究。这些应用旨在增强法官的分析能力,提高处理质量,并优化内部组织,而不干预司法决策。某些应用,如自动丰富记忆和先例检测,具有良好的效率/成本比且没有重大伦理问题。其他如撰写辅助则更为敏感。不引入决策辅助工具的意图反映了一条明确的机构红线:决策属于法官,而非算法。
可以绘制争议地图、检测案件间联系或分析大规模判例的工具可以加强法律一致性,更好地识别新兴争议并促进法官对话。
严格标准以规范人工智能的使用
对每个使用案例进行的多标准分析(伦理、法律、功能、技术和经济)使人工智能的使用从机会主义实验逻辑中脱离,进入合理和可复制的框架。这种评估模式可能会启发其他法国或外国司法机构,结合创新与法律安全。报告特别强调系统的透明性和可解释性、资源节约、遵守GDPR和AI法案、数据托管的掌控以及技术主权。这些要求提醒大家,人工智能的整合不能脱离基于法律基本价值的严格管理。
负责任的治理和持续的监测
报告建议设立内部监督委员会,负责人工智能应用的操作和伦理监测,制定良好实践指南,以及采用法院特定的伦理宪章。报告还强调独立治理和逐步让法官及司法人员适应这些新兴技术的重要性。
Pour mieux comprendre
什么是《AI法案》,它如何影响法国最高法院对AI的使用?
《AI法案》是欧盟提出的一个关于AI的统一规则的法规草案。它通过对司法领域使用的AI系统施加严格的透明度和安全标准,影响法国最高法院对AI的使用。
司法领域的去识别化历史是如何发展到2019年被法国最高法院采用的?
司法判决的去识别化是为了应对日益增加的个人数据保护需求而产生的,欧盟的《GDPR》等法律对其实践产生了影响。法国最高法院于2019年采用了这一技术,以在增强机密性的同时允许访问司法判决。