<< Retour aux articles
Image

Gouvernance des données et algorithmes publics : quelle stratégie pour l’État ?

Tech&droit - Intelligence artificielle
07/05/2019
Peu à peu, les données publiques se libèrent. Mais pour certaines d’entre elles, se pose la question non seulement de l’organisation de leur mise à disposition, mais également de leur exploitation par l’État lui-même. L’État stratège doit-il développer ses propres algorithmes ? Pour quels usages ? Quelques pistes de réflexions.
Un colloque sur « Intelligence artificielle et justice » organisé, en avril dernier, par l’Université Paris V, sous la présidence de Pierre Berlioz, professeur à l'Université Paris Descartes, a été l’occasion de creuser plusieurs problématiques autour de la justice et des algorithmes (Quels usages, aujourd’hui et demain ?, Faut-il réguler ? Comment ? Quelles règles pour une régulation intelligente ?). Focus sur deux d’entre elles : quelle gouvernance pour les données mises à disposition ? L’État doit-il développer ses propres algorithmes ?
 
Open data des décisions de justice : la recherche complexe d’un équilibre
Historique et calendrier.– Si les trois premières étapes de l’open data des décisions de justice sont bien connues (octobre 2016 : articles 20 et 21 de la loi n° 2016-1321 du 7 octobre 2016, dite Loi Lemaire, novembre 2017 : rapport Cadiet et, enfin, mars 2019, article 33 de la loi
n° 2019-222 du 23 mars 2019 de programmation 2018-2022 pour la justice, dite LPJ), la quatrième à savoir, le décret d’application de cet article 33 de la LPJ, l’est un peu moins, côté contenu comme calendrier.
 
Concrètement, où en est-on ? « À l’horizon du quinquennat, nous développerons les grands systèmes, en matière civile (PORTALIS) et en matière pénale (PPN) ; ce sont ces systèmes centraux qui produiront des décisions de justice nativement numériques et permettront d’un point de vue technique une exploitation massive, précise Stéphane Hardouin, secrétaire général adjoint au ministère de la Justice. « Mais cela se fera par étape de sorte que la libération des données se fera progressivement en fonction de l’état des développements (CPH : fin 2019-2020, puis contentieux familial, puis contentieux général (avec toutes les précautions d’usage que la gestion de projet requiert). Il doit être précisé que les décisions des tribunaux de commerce, gérés par Infogreffe, pourront faire l’objet d’une mise à disposition anticipée, compte tenu de l’autonomie informatique du système qui est déjà centralisé ». Restera en parallèle à numériser tout le stock de décisions antérieures.
 
Les arbitrages en cours.– En pratique, plusieurs points doivent encore être tranchés. Comme l’a rappelé Pierre Berlioz, « les décisions autour de la gouvernance des données sont particulièrement difficiles à prendre, parce que les enjeux sont structurants et qu’elles engagent pour de nombreuses années ».

L’occultation des éléments de nature à porter atteinte à la sécurité ou au respect de la vie privée des parties de leur entourage, tout d’abord. L’article 33 de la loi de programmation pour la justice (L. n° 2019-222, 23 mars 2019, JO 24 mars), prévoit, en effet, que « Les éléments permettant d'identifier les personnes physiques mentionnées dans la décision, lorsqu'elles sont parties ou tiers, sont occultés si leur divulgation est de nature à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage. Un décret en Conseil d'État fixe, pour les décisions de premier ressort, d'appel ou de cassation, les conditions d'application du présent article ».
 
Équilibre délicat trouvé au terme de longs débats parlementaires, cet article est loin de régler toutes les questions. Concrètement, certaines informations vont pouvoir être occultées, sans plus de difficultés, mais souligne Stéphane Hardouin, « en réalité, tant que la décision n’existe pas, c’est assez difficile de savoir quels sont les éléments de nature à porter atteinte à la sécurité ou au respect de la vie privée des parties de leur entourage ». Ce qui signifie qu’il faut envisager un programme qui définisse ce que l’on doit occulter ou pas et, ensuite, attendre que la décision soit produite pour analyser les éléments de nature à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage.
 
Mais qui va faire ce travail ? Pour le secrétaire général adjoint, « les systèmes centraux, tels que Portalis ou PPN, seront nécessairement hébergés au ministère de la justice qui restera le responsable des traitements de production. Quelle sera le rôle opérationnel de la Cour de cassation dans le processus d’anonymisation, à quel niveau technique se situera-t-elle ? Dans la définition des paramétrages au départ ? Et qui interviendra ensuite, une fois la décision formalisée, et selon quelles modalités ? Les juridictions du fond ? Directement dans le système du ministère de la Justice ou dans le cadre d’un traitement autonome qui serait une duplication de la base confiée à la Cour de cassation » ? Stéphane Hardouin précise « que la problématique se pose très différemment pour l’ordre administratif dans la mesure où le Conseil d’État dispose déjà d’une autonomie informatique et d’une base centrale regroupant toutes les décisions ».
 
Mêmes incertitudes côté responsabilité. S’agira-t-il d’une responsabilité purement juridique (comme autorité de contrôle) ou d’une responsabilité opérationnelle ? Autrement dit, est-ce que toute la gestion de la mise en conformité des décisions de justice avant leur diffusion au public sera confiée à la Cour de cassation ? Et surtout qui prendra, in fine, la décision d’occulter telle donnée ou non ? « Ce point sensible est encore à l’arbitrage », a précisé Stéphane Hardouin.
 
Autre point à trancher, qui aura accès aux flux intègres, c’est-à-dire aux décisions brutes, telles qu’elles apparaissent avant leur mise en conformité ? L’État, d’abord : « L’administration est parfaitement fondée, pour le secrétaire général adjoint, à accéder aux bases intègres, non pas tellement en raison d’une question de propriété des données, mais parce qu’il s’agît d’une finalité légitime au regard de ses missions, en particulier pour l’évaluation des politiques publiques, ou procéder à l’étude d’impact d’une réforme ». Mais quid des éditeurs ? Et des avocats ? « Entre l’acte, la production de la décision brute et la mise à disposition d’une décision anonymisée, pourrait-on imaginer un espace de coopération entre la puissance publique et le monde de la recherche sur le modèle de ce qui existe en matière de données de santé ? C’est en tout cas un débat qui ne manquera pas de s’ouvrir », pour Stéphane Hardouin.
 
Et côté diffusion des décisions au public : quel sera le portail qui organisera la mise à disposition ? Est-ce que ce sera Legifrance ? Le portail de la Cour de cassation ou du Conseil d’État ?
 
Le développement d’algorithmes d’État, une question de souveraineté
L’État est, en France, le premier producteur de données et, progressivement, avec l’open data, d’immenses quantités de données de qualité vont être mises à disposition du public. « Mais, pour Thomas Andrieu, directeur des affaires civiles et sceau, il faut que l’État apprenne à les exploiter pour lui ».

Le ministère de l'Économie, des Finances, de l'Action et des Comptes publics, comme le ministère de la Justice, développent actuellement leurs propres algorithmes, illustrant la volonté de l’État de mobiliser ces données.

L'intelligence artificielle au service des entreprises : l'exemple de Signaux Faibles.– Signaux faibles, tout d’abord, qui est une start-up d’État, fruit d’une coopération entre la Direction générale des entreprises (DGE), la Banque de France, la Délégation générale à l'emploi et à la formation professionnelle (DGEFP), l’Agence centrale des organismes de sécurité social (ACOSS), la Direction interministérielle du numérique et du système d'information et de communication de l'État (DINSIC) et une équipe dédiée. En pratique, Signaux faibles a développé une intelligence artificielle qui analyse des données relatives aux entreprises pour détecter, le plus en amont possible, des signes précoces de fragilité des entreprises et prévenir leur défaillance (v. Stéphanie Schaer, pilote et initiatrice de la start-up d’État « Signaux Faibles » : « L’algorithme de Signaux Faibles peut réellement contribuer à la préservation d’emplois et à la pérennité d’entreprises », Actualités du droit, 10 avr. 2019).

Cet algorithme exploite donc plusieurs masses de données : « Les administrations publiques et organismes en charge d’une mission de service public détiennent ensemble des données d’une grande richesse sur la situation économique, financière et sociale des entreprises. Signaux Faibles croise ces données et les traite statistiquement avec un algorithme adapté (dit d’apprentissage automatique ou « machine learning ») qui analyse les trajectoires des entreprises qui ont été défaillantes (redressement ou liquidation judiciaire) ou ont fait face à des dettes sociales de plus de 3 mois consécutifs dans le passé » (Schaer St., précité).

L'intelligence artificielle au service du droit et de la justice.– Autre illustration, cette fois côté ministère de la Justice. Pour le directeur des affaires civiles et du sceau, « il faut que l’État ait ses outils d’intelligence artificielle » pour pouvoir analyser, notamment, la portée d’un projet de loi. Un exemple avec la réforme de la responsabilité civile sur laquelle le ministère de la Justice planche depuis de nombreux mois. Étudiant l’impact de l’un des avant-projets, des assureurs ont avancé qu’une telle rédaction conduirait à augmenter de 40 % la prime d’assurance pour tous les conducteurs automobiles. Mais concrètement, « quel outil a le ministère de la Justice pour vérifier cette information qui est essentielle » ?, s’interroge Thomas Andrieu.
 
Dans ce cadre, la direction des affaires civiles a donc lancé le premier projet d’intelligence artificielle du ministère de la Justice, avec une approche concrète : créer et exploiter une base de données sur l’indemnisation du préjudice corporel (nommé projet Datajust). Avec deux objectifs : faire émerger un référentiel indicatif d’indemnisation et, à terme, non seulement évaluer les lois et les politiques publiques mais aussi modéliser des évolutions législatives.
 
Un projet essentiel pour ce directeur d’administration centrale, parce que « dans 10 ans, la législation sera écrite par des algorithmes privés qui utiliseront les données publiques infiniment plus intelligemment que n’importe quel acteur public si l’État ne réagit pas en créant sa propre capacité d’expertise ». Autrement dit, l’enjeu ici, c’est la capacité pour la puissance publique de conserver sa souveraineté dans sa capacité d’analyse
 
D’autres algorithmes pourraient également être développés par la puissance publique, cette fois au profit des juges et des citoyens. Pour Pierre Berlioz, pourrait alors se poser la question de la confiance accordée aux différentes analyses issues d’un traitement algorithmique : « la prévalence va-t-elle être donnée aux outils développés par la puissance publique pour son compte ou est-ce que finalement la performance des analyses de tel ou tel outil, développé par l’État ou un acteur privé, va pouvoir être discutée dans le cadre d’un débat contradictoire » ? « Mon souci n’est pas de contraindre les juges ou les parties, souligne Thomas Andrieu, mais de m’assurer au contraire qu’il existe sur la place publique, et y compris dans le débat judiciaire contradictoire, des outils de qualité et que l’on puisse auditer, utilisables par tous et gratuits sans doute ». Toutes les analyses, celles du secteur public, comme celles du secteur privé, pourraient donc être versées aux débats et confrontées. Une mise à disposition d’outils d’analyse de la jurisprudence, en open source, qui permettrait, également, de contrebalancer l’asymétrie d’information et de moyens entre les parties devant le juge.
 
« La puissance publique ne peut pas être absente de la production de ce type d’outil, pour Thomas Andrieu. Elle doit concevoir un outil efficace et transparent, à la fois pour le législateur et pour les magistrats. C’est un enjeu démocratique ».
 
Source : Actualités du droit