« Préparer la Cour de cassation de demain », nouveau rapport de la Cour de cassation sur l’utilisation de l’IA :
Le 29 mai 2024, le procureur général et le premier président de la Cour de cassation ont donné Ordre de mission au service de documentation, des études et du rapport de « Préparer la Cour de cassation de demain » face à l’émergence croissante de l’intelligence artificielle, la Haute juridiction française se questionne sur les potentiels bouleversements que cela pourrait causer en son sein.
Presqu’un an après, la Cour de cassation a rendu public en avril 2025 son rapport intitulé « Préparer la Cour de cassation de demain – Cour de cassation et intelligence artificielle. »
Ce rapport se décompose en trois parties principales : la première consacrée à la « présentation de l’IA à la Cour de cassation », la deuxième sur « la présentation des critères d’examens » et enfin la dernière, plus longue, sur « la présentation et l’évaluation de cas d’usages transversaux. »
Pourquoi la Cour de cassation aurait-t-elle besoin de l’intelligence artificielle ?
La Cour de cassation explore les usages de l’IA pour répondre à trois défis majeurs : la masse croissante de données, la complexité des contentieux et la nécessité de diffuser la jurisprudence. Le rapport identifie des usages utiles (recherche, rédaction, analyse) tout en excluant l’aide à la décision. Il propose des critères d’évaluation rigoureux (éthique, juridique, technique) et insiste sur la nécessité de gouvernance, d’hébergement souverain et de contrôle humain. L’objectif est clair : gagner en efficacité sans sacrifier les principes fondamentaux de la justice.
« Cet horizon immédiat achève de projeter la Cour de cassation, comme l’ensemble des acteurs judiciaires, dans la sphère des données de masse auxquelles il apparait objectivement impossible de faire face humainement ».
L’open data des décisions de justice a entraîné la publication de plus d’un million de décisions, avec près d’un million supplémentaire attendu chaque année dès fin 2025. Comme avec toutes les solutions apportées par l’intelligence artificielles, on peut alors imaginer que cela permettra à un conseiller de se concentrer sur des taches « à plus forte valeur ajoutée » que de chercher indéfiniment des précédents.
La Haute juridiction envisage non seulement un gain d’efficacité mais aussi un gain de qualité. « Ce gain de qualité est particulièrement évident, par exemple, s’il s’agit de repérer, dans une grande masse de données, des questions nouvelles et/ou sérielles ou de détecter des divergences de jurisprudence. De telles recherches, qui ne sont pas réalisables raisonnablement sans l’assistance de l’IA, permettraient notamment aux juridictions de rationaliser et de mieux coordonner le traitement des contentieux émergents et d’enrichir le débat juridique et le dialogue des juges. »
En ce sens, L’IA pourrait dégager des tendances jurisprudentielles ou des divergences difficilement identifiables à l’œil humain, offrir une aide dans la rédaction de documents, identifier des questions de droit nouvelles ou cartographier des contentieux émergents, en soutien à des initiatives comme l’Observatoire des litiges judiciaires.
Enfin, le rapport évoque l’implantation de l’IA comme une nécessité financière « à l’heure où l’institution est confrontée à une crise de moyens sans précédent ».
Quels sont les risques à un usage de l’IA par la Cour de cassation ?
Si la perspective d’un gain d’efficacité et de qualité est souhaité, il ne va pas sans dire que cela ne se fera pas sans « la réalisation de prérequis sur les plans de la technique, de l’éthique et de la gouvernance. ».
En effet, toute implantation de système d’intelligence artificielle va de pair avec l’implantation d’une gouvernance et de principes éthiques. Si le respect du RGPD et du RIA est abordé en tant que principe essentiel, le groupe de travail considère cela insuffisant et retient : « que la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires de la CEPEJ, adoptée en décembre 2018, demeure un document de référence ayant conservé toute son actualité malgré les évolutions techniques majeures intervenues depuis. »
Ils en gardent alors les cinq principes dégagés : respect des droits fondamentaux, non-discrimination, qualité et sécurité des algorithmes, transparence et explicabilité ainsi que de maîtrise humaine des décisions, le dernier indispensable pour préserver la plénitude de l’office du juge.
Garder l’humain au contrôle (Human in control) représente l’enjeu principal du recours aux algorithmes, d’autant plus dans un secteur tel que la justice, fondement de l’état de droit. Il existe une crainte d’un affaiblissement du rôle du juge si l’IA intervient dans le raisonnement ou la décision. Sur ce point, le rapport insiste sur la nécessité d’une intervention humaine constante dans le processus décisionnel : « La maitrise humaine de la décision est aussi apparue au groupe de travail comme un principe essentiel pour préserver intact l’office du juge. Sa mise en œuvre impose notamment de toujours conserver une intervention humaine dans les différentes étapes du processus décisionnel, depuis l’analyse du dossier jusqu’à la rédaction de la décision, le recours à l’IA n’intervenant que pour apporter une aide ponctuelle et toujours à la demande et sous contrôle du juge »
D’autres problématiques peuvent aussi émerger à la suite de l’implantation de l’intelligence artificielle :
- Manque de transparence et explicabilité des algorithmes : Certains systèmes, en particulier ceux basés sur des modèles génératifs (LLM), sont des boîtes noires difficiles à auditer. Cela met en danger la lisibilité des décisions et la confiance du public.
- Biais algorithmiques et discriminations : Les biais présents dans les jeux de données ou les modèles peuvent induire des inégalités de traitement ou des résultats injustes. Il existe un danger d’ancrer ou reproduire des injustices passées à grande échelle.
- Risque d’appauvrissement du raisonnement juridique Les modèles d’IA, même performants, reproduisent le passé (jurisprudence existante), mais ne créent pas d’interprétation originale du droit ou de mise en balance des valeurs.
- Risques techniques et de souveraineté : Si l’IA est hébergée ou entraînée sur des serveurs externes non maîtrisés cela pourrait engendrer un risque de perte de contrôle des données, une dépendance à des acteurs privés étrangers et des failles potentielles de cybersécurité.
- Manque de formation ou de culture IA chez les utilisateurs : Sans formation adaptée, les magistrats et greffiers risquent d’utiliser les outils de manière inadéquate ou de mal interpréter les résultats produits par l’IA.
Comment les projets sont-ils encadrés ?
Le groupe de travail, composé de juristes et de scientifiques est donc chargé d’identifier des cas d’usages et de les évaluer selon certains critères déterminés « de nature à favoriser la comparaison de leurs intérêts et limites. »
Ces critères d’évaluation sont de deux ordres ; tout d’abord des critères primaires qui sont :
- Des critères éthiques concernant la conciliation du système d’IA (SIA) avec les droits fondamentaux et les questions de développement durable, notamment la frugalité des algorithmes (proportionnalité de la puissance de calcul et de l’énergie dépensée)
- Des critères juridiques concernant les contraintes du cadre juridique à respecter (RIA, RGPD…)
- Des critères fonctionnels qui mesurent l’intérêt du SIA pour les métiers de la Cour et de l’institution judiciaire en général, en évaluant précisément les gains de qualité ou d’efficacité attendus
Ensuite, les critères secondaires qui sont techniques évaluant la faisabilité globale du projet, sous deux angles : la disponibilité des données nécessaires à l’entraînement des algorithmes et économiques évaluant le cout global du projet.
Quels sont les résultats ?
Le groupe de travail de la Cour de cassation a mené un recensement exhaustif des cas d’usage potentiels de l’intelligence artificielle, en s’appuyant sur l’état de l’art.
Ces cas d’usage, qui dépassent parfois le cadre strict de la Cour et pourraient intéresser l’ensemble des juridictions, ont été regroupés en grandes familles : la structuration et l’enrichissement des documents, l’exploitation des écritures des parties, l’aide à la recherche et à l’exploitation des bases de données documentaires, et l’aide à la rédaction.
Chacun de ces cas d’usage a fait l’objet d’une évaluation détaillée selon la méthodologie multicritère élaborée par le groupe.
Le rapport prend le temps de préciser « qu’aucun besoin d’aide à la décision n’a été identifié au sein de la Cour de cassation »
Les travaux ont conduit à identifier des cas d’usage prioritaires, classés selon leur complexité et leurs enjeux :
Des cas d’usage simples offrant des gains fonctionnels importants : Il s’agit de projets qui ne posent pas de difficulté juridique ou éthique majeure et ne nécessitent pas d’investissements lourds. Par exemple la structuration et l’enrichissement des documents.
Des cas d’usage complexes mais justifiés par les résultats attendus : Certains projets sont plus complexes sur les plans juridique, éthique ou technique, demandent un investissement plus conséquent, mais les résultats attendus semblent bien établis. Par exemple l’exploitation des écritures des parties.
Des cas d’usage très prometteurs mais présentant des problématiques majeures : Il s’agit de projets qui, bien que potentiellement très bénéfiques, soulèvent des enjeux éthiques, juridiques et techniques importants. Par exemple l’aide à la rédaction reposant essentiellement sur l’analyse des affaires précédentes
En synthèse, le rapport trace une voie « ni technophile, ni technophobe » : l’IA est incontournable pour absorber la masse décisionnelle et améliorer la qualité de la justice, mais son adoption repose sur une architecture juridique (RIA, RGPD), éthique (Charte CEPEJ, maîtrise humaine), technique (frugalité, souveraineté) et organisationnelle (gouvernance, formation) soigneusement articulée. Cette démarche graduée doit permettre à la Cour d’être un acteur moteur et responsable de l’IA judiciaire, tout en préservant l’essence même de l’office du juge.
Maître Jonathan Elkaim – Avocat
Alessandro Tummillo – Juriste
Laisser un commentaire