Enterrement de 2nde classe pour Datajust ! (info confidentielle d’ActeursPublics)

Embryon de « justice prédictive », le décret DATAJUST n° 2020-356 du 27 mars 2020 avait donné lieu à moult débats (I). Il a ensuite été validé par le Conseil d’Etat par une importante décision (II). Et patatras : voici qu’il vient, selon Acteurs publics, d’être abandonné pour cause de complexité et de difficulté à traiter les informations de première instance (III).

 

I. Rappels sur ce décret

 

Ce décret autorisait le ministre de la justice à mettre en œuvre, pour une durée de deux ans, un traitement automatisé de données à caractère personnel, dénommé « DataJust », ayant pour finalité le développement d’un algorithme destiné à permettre :

  • l’évaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative,
  • l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels,
  • l’information des parties
  • et l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges, ainsi que l’information ou la documentation des juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels.

Bien sûr, le décret définit les finalités du traitement, la nature et la durée de conservation des données enregistrées ainsi que les catégories de personnes y ayant accès. Il précise enfin les modalités d’exercice des droits des personnes concernées.

C’est un peu la réponse de l’Etat à la montée en puissance des algorithmes et à la justice quasi-prédictive qui, chez nous et plus encore de l’autre côté de l’Atlantique, fait que chacun peut et pourra plus encore à l’avenir estimer ses indemnisations possibles en fonction des moyennes propres à chaque cas et, plus encore, sujet très très sensible, selon chaque cour, chaque juridiction, voire chaque juge.

NB : pour un cas un peu extrême, voir : Un procureur remplacé par une intelligence artificielle… 😳🤯😱 

Ce référentiel va-t-il tout simplement remplacer juges et avocats ? Il y aura-t-il encore du cas par cas en réalité ? Inversement, est-ce évitable ? Ne vaut-il mieux pas que l’Etat contrôle, pour la limiter, cette évolution qui sinon sera assurée par des structures privées qui, pire encore, revendront leurs données aux assureurs ?

Voici une première réaction en 2020 de la Présidente du Conseil National des Barreaux :

Capture d’écran 2020-03-31 à 17.35.11.png

Le blog, très intéressant, de l’ancien notaire et ancien avocat Pierre Redoutey concluait de son côté, de manière un brin radicale, mais avec clarté :

« En résumé, un algorithme remplacera magistrats et juges dans les affaires de responsabilité civile.»
(et administrative serait-on tenté de souligner)

Le Ministère en restait quant à lui à son discours depuis 2018 : cette base n’a toujours eu et n’aura pour but que de fournir un référentiel indicatif :

Capture d’écran 2020-03-31 à 17.39.39.png

Important : voir aussi Anonymisation des décisions de Justice, Justice prédictive par algorithme, commercialisation de ces données… Où va le projet de décret ? 

 

II. Position du CE (décision du 30 décembre 2021)

 

En 2020, nous écrivions :

« Reste que si DataJust venait à être censuré, d’autres bases de données n’iraient-elles pas faire la même chose avec moins de garanties ? Sauf à ce que la France (seule dans le monde ?) n’essaie de freiner le mouvement ? Cela dit, les risques de règlement des litiges sans avocat et sans analyse au cas par cas sont grands. Le sujet est donc vaste et ne peut être simplifié à l’extrême, au delà des intérêts des uns et des autres. C’est passionnant et un peu inquiétant. »

Or, fin décembre 2021, justement, le Conseil d’Etat a validé ce décret Datajust.

Citons de larges parties de cette décision portant sur la légalité interne de ce décret, car se trouvent là sans doute les bases de ce qui sera ensuite développé pour les futurs textes en Justice prédictive (la mise en gras est de nous bien sûr) :

« Sur la légalité interne du décret attaqué :

10. […]  l’ingérence dans l’exercice du droit de toute personne au respect de sa vie privée que constituent la collecte, la conservation et le traitement, par une autorité publique, de données à caractère personnel, ne peut être légalement autorisée que si elle répond à des finalités légitimes et que le choix, la collecte et le traitement des données sont effectués de manière adéquate et proportionnée au regard de ces finalités.

En ce qui concerne les finalités du traitement :

« […] 12. En deuxième lieu, les requérants contestent les finalités de ce traitement aux motifs que l’algorithme qu’il a pour objet de développer serait tout à la fois contraire aux principes de l’individualisation et de la réparation intégrale des préjudices, inutile à raison de l’existence d’autres outils ayant la même finalité, et biaisé faute pour le traitement de prendre en compte les indemnités amiables ainsi que l’évolution du droit. Toutefois, il ressort des pièces du dossier que le traitement autorisé par le décret attaqué a pour objet la mise au point d’un algorithme destiné à l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels ayant vocation à être utilisé pour évaluer ces préjudices dans le cadre du règlement tant amiable que juridictionnel des litiges. Il tend ainsi à assurer un accès plus facile à la jurisprudence sur l’indemnisation des préjudices corporels afin de garantir l’accessibilité et la prévisibilité du droit. Au surplus et à ce stade, ce traitement, dont la durée est réduite à deux ans, est limité à la phase de développement d’un outil d’intelligence artificielle, n’a qu’un caractère expérimental et n’a pas vocation, à ce stade, à être mis à la disposition des magistrats ou des parties. Il s’ensuit que le moyen tiré de ce que les finalités poursuivies par le traitement ne seraient pas légitimes doit être écarté.

13. En dernier lieu, en vertu du b) du 1 de l’article 5 du RGPD, ’[…]

14. […] , les fins prévues par le décret attaqué sont liées aux finalités poursuivies par la collecte initiale dès lors que sont en cause, dans les deux cas, le règlement des litiges. Le décret prévoit en outre que les données relatives aux parties sont pseudonymisées. Le traitement prévu qui ne fait pas l’objet d’un déploiement n’est enfin pas susceptible d’avoir d’incidence sur l’indemnisation personnelle de ces dernières. Il s’ensuit que le nouveau traitement n’est en tout état de cause pas incompatible avec les finalités initiales au sens des dispositions rappelées au point précédent.

En ce qui concerne les données collectées et d’application des principes de minimisation et d’exactitude des données et des données de santé, ou encore de la pseudonymisation, voir notre article d’alors :

Source : Conseil d’État, 30 décembre 2021, n° 440376 (N° 440376 Société Gerbi Avocat Victimes et préjudices et autres N° 440976 M. Yannick M… et autres N° 442327 Mme Ghislaine J… et autres N° 442361 La Quadrature du Net N° 442935 Association APF France handicap et autres )

Voir ici les conclusions de M. Arnaud Skzryerbak, rapporteur public :

 

III. Datajust vient, selon Acteurs publics, d’être abandonné !

 

Or, voici que l’on apprend que cette base Datajust viendrait, selon Acteurs publics, d’être abandonnée pour cause :

  • de complexité (heu.. ça ce n’est pas nouveau et tous les projets en ce domaine notamment en Amérique du Nord s’améliorent plus lentement que prévu… rien de neuf ni d’imprédictible)
  • et de difficulté à traiter les informations de première instance.
    Là au moment où les jugements et ordonnances de 1e instance donnent lieu à open data… l’argument peut surprendre car rien de tout ceci n’est nouveau, ou plutôt les seules nouveautés de ces deux dernières années sont dans le sens du déblocage de telles bases !

 

SOURCE :

https://www.acteurspublics.fr/articles/exclusif-le-ministere-de-la-justice-renonce-a-son-algorithme-datajust

 

Sur ledit open data des décisions de Justice, voir :

 

 

 

matrix-724496_1280

Crédits photographiques de l’image principale : Melmak