<< Retour aux articles
Image  Fotolia -  leremy

Intelligence artificielle : la Cnil appelle à une plus grande vigilance

Tech&droit - Intelligence artificielle
18/12/2017
A-t-on déjà perdu la guerre face au développement de l’intelligence artificielle ? Sommes-nous conscients d’être gouvernés par des algorithmes ? Doit-on mettre des limites éthiques à leur essor ? Et si oui, comment ? Telles sont les grandes interrogations au cœur du rapport que la Cnil vient de rendre public le 15 décembre dernier, terme d’une mission que lui avait confiée la loi pour une République numérique, en octobre 2016.
Pour Isabelle Falque-Pierrotin, présidente de la Cnil, nous connaissons actuellement un « malaise face à cet objet nouveau que sont les algorithmes, un peu boîte noire, un peu obscur, un peu manipulateur ». Des débats qui ont, par ailleurs, révélé un certain nombre de craintes, qui, selon la présidente de cette autorité, mettent en exergue la « nécessité de garantir que l'intelligence artificielle augmente l'homme plutôt qu'elle ne le supplante ». D’où la nécessité de tenter de définir ce concept, de bien en appréhender les applications pratiques actuelles et futures afin, ensuite, de proposer un cadre éthique qui accompagnera le développement de ces algorithmes, afin qu'ils demeurent toujours au service de l'homme.
 
Tout en gardant à l’esprit deux points :
  • en matière d’intelligence artificielle, le marketing est beaucoup plus en avance que la technologie elle-même ;
  • « une part non négligeable du discours public sur les algorithmes et l’IA – souvent la plus irénique et parfois la plus catastrophiste – est déterminée par des intérêts commerciaux » (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 62).
 
Intelligence artificielle et algorithmes : des termes difficiles à définir, aux applications concrètes omniprésentes
Propositions de définitions. - Le rapport relève que l’intelligence artificielle (IA) est un terme ambigu, qui n’a pas la même signification en français et en anglais (langue dans laquelle il a été créé). Pour Cédric Villani, député LREM de l'Essonne, chargé par le gouvernement d'une mission sur l'intelligence artificielle (sur ce sujet, v. Actualités du droit, 20 nov. 2017, Intelligence artificielle : les grands axes du rapport final de la mission Villani révélés), présent à la conférence de presse de présentation de cette synthèse, il n’existe pas une définition de l’intelligence artificielle. L’acception de cette technologie doit varier et être adaptée à chaque contexte. Néanmoins, de manière générale, on pourrait la définir ainsi : « l’intelligence artificielle, c’est un ensemble de techniques très variées, avec des convergences, des stratégies différentes, qui permettent d’obtenir un très haut niveau d’efficacité dans certaines tâches que l’on aurait cru réservées à l’humain ».
 
Le rapport reprend pour sa part la définition proposée par Marvin Minsky, mathématicien américain pionnier de l’IA, qui l’envisage comme « la science qui consiste à faire faire aux machines ce que l’homme ferait moyennant une certaine intelligence » (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 16).
 
Quant aux algorithmes, pour Isabelle Falque-Pierrotin, ce sont des « objets techniques très complexes, éminemment changeants et extrêmement évolutifs, qui font intervenir toute une série d’acteurs qui, au jour d’aujourd’hui sont très cloisonnés, et qui suscitent peut-être de façon excessive une confiance de la part des utilisateurs ». Le rapport les définit comme « la description d’une suite finie et non ambigüe d’étapes (ou d’instructions) permettant d’obtenir un résultat à partir d’éléments fournis en entrée » (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 15). Il distingue les algorithmes déterministes (algorithmes classiques, dont les critères de fonctionnement sont définis par ceux qui les mettent en œuvre) de ceux probabilistes (algorithmes apprenants ou machine learning, bien plus puissants que les algorithmes classiques, dont les résultats sont mouvants et dépendent de la base d’apprentissage qui leur a été fournie, qui évolue elle-même au fur et à mesure de leur utilisation). Progressivement, un basculement s’opère : pour Jean-Philippe Desbiolles, vice-président Cognitive Solutions chez IBM France, on passe ainsi « d’un monde de programmation à un monde d’apprentissage » (Desbiolles J.-Ph., Événement de lancement du débat public, Cnil, 23 janv. 2017), la machine écrivant toute seule les instructions qu’elle exécute et fixant sans intervention humaine les paramètres qui la guident. Seule la finalité du modèle algorithmique reste définie par l’homme.
 
Mais au-delà de ces distinguos technologiques, les problématiques sociales, éthiques voire politiques sont communes.
 
Quels usages pour les algorithmes. - Le rapport liste les principales applications des algorithmes (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 20), celles qui sont au cœur des débats et qui consistent à :
  • produire des connaissances ;
  • apparier une demande et une offre (« matching »), répartir des ressources (passagers et chauffeurs de taxis, parents et places en crèche, étudiants et places à l’université, etc.) ;
  • recommander un produit, une offre de façon personnalisée ;
  • aider la prise de décision ;
  • prédire, anticiper (par exemple, des phénomènes naturels, des infractions, la survenue d’une maladie).
La Cnil note, en outre, que « la visibilité accrue des algorithmes et des questions qu’ils posent aujourd’hui est indissociable des masses de données inédites à disposition dans tous les secteurs qu’il faut trier pour pouvoir en tirer tout le potentiel » (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 20).
 
Concrètement, la Cnil revient sur certains secteurs dans lesquels des algorithmes sont déjà à l’œuvre et/ou promettent des développements qui ne sont pas sans conséquences :
  • la santé ;
  • l’éducation ;
  • la vie de la cité et la politique ;
  • la culture et les médias ;
  • la justice ;
  • la banque et la finance ;
  • la sécurité et la défense ;
  • l’assurance ;
  • l’emploi, les ressources humaines et le recrutement.
Sur la justice, par exemple, le rapport revient sur certains logiciels algorithmiques, dits de justice prédictive, qui proposent une aide stratégique à la décision. Concrètement, ce type d’outil optimise l’identification de solutions statistiquement les plus probables pour tel ou tel type de contentieux ou le montant prévisible d’une indemnisation.
 
Quelle pourrait être la portée de leur développement ? Les auteurs de cette synthèse estiment que « si ces outils se généralisent au sein des différentes professions du droit, ils contribueraient au dessein plus général d’une "smartjustice", à savoir une justice animée par des impératifs de meilleure rentabilité avec le minimum de moyens, grâce aux technologies :
  • « L’avocat pourrait bénéficier d’un gain significatif de temps (…) » ;
  • « tandis que le justiciable pourrait éviter certains coûts, en faisant le choix de s’entendre à l’amiable plutôt que de saisir le juge dans des cas où les chances du succès d’un procès sont réduites ».
Des algorithmes qui pourraient amener également :
  • « une « diminution du nombre de saisines et un certain désengorgement des juridictions, éventualité plus qu’attrayante dans le contexte actuel (…) » ;
  • « et être une ressource utile au juge : s’inspirer des recommandations de la "machine", fondées sur les jurisprudences précédentes, lui permettrait d’éclairer ses décisions » ;
  • tout en favorisant « une "justice prévisionnelle" (qui) réduirait l’horizon d’incertitude et participerait à l’évaluation interne des juridictions et magistrats ».
Mais pour la Cnil, le développement de la justice prédictive pose aussi certaines questions. Un exemple. L’algorithme révèle des disparités entre les juridictions dans le traitement des contentieux, dont le juge n’a pas lui-même conscience. Certes, cette révélation pourrait avoir pour conséquence bénéfique d’harmoniser l’application de la loi sur l’ensemble du territoire national. « Pourtant, est-on absolument certain que, dans certaines limites, des formes de disparités régionales ne traduisent pas en fait un usage raisonné de la prudence du juge et l’adaptation intelligente et fine de celui-ci à des réalités sociales pouvant varier d’un lieu à l’autre » ? Tout un débat.
 
Une méthode collaborative pour une meilleure inclusion
Une méthode qui se veut innovante. - Pour Isabelle Falque-Pierrotin, « Le numérique n’est pas un secteur, que l’on pourrait confier aux soins d’un comité d’éthique restreint à quelques membres, aussi compétents soient-ils. Il fallait innover ». Et pour la présidente de la Cnil, « il n’était pas pensable pour nous que la Cnil en tant que telle et stricto sensu définisse l’éthique des algorithmes et de l’IA ».
 
Inciter à une réflexion nationale, à l’aide d’une méthode collaborative. Tel a été le leitmotiv de ces mois de rencontres avec les Français. C’est la raison pour laquelle, plutôt que d’opter en faveur d’une réflexion élitiste, la Cnil a préféré des débats inclusifs. Pendant dix mois, la Commission s’est ainsi déplacée un peu partout en France pour animer des événements autour de cette technologie, ce qui lui a permis de recueillir les espoirs, les craintes et les préoccupations éthiques des citoyens, néophytes comme experts.
 
L’important pour la présidente de la Cnil, c’était donc « d’associer davantage le citoyen à l’élaboration de la réflexion publique sur un univers complexe qui modèle de plus en plus son existence », afin de favoriser une prise de conscience par l’ensemble des Français des conséquences du développement de l’intelligence artificielle. 
 
L’inclusion numérique. - Alors qu’un sondage IFOP a révélé que 52 % des Français ne savent pas vraiment ce qu’est un algorithme (Sondage mené par l’IFOP pour la CNIL en janvier 2017), pour Mounir Mahjoubi, secrétaire d’État au Numérique, également présent lors de la présentation de ce rapport, « la grande question, c'est maintenant de savoir comment on arrive à faire prendre conscience à tous les Français des enjeux des algorithmes », sujet qui n’est pas au centre de leurs préoccupations. Ce qui passera, pour Isabelle Falque-Pierrotin, par « une éducation numérique, qui n’est pas une éducation au codage mais une éducation civique de l'honnête homme numérique », sans pour autant, précise le secrétaire d’État au Numérique, qu’il soit « nécessaire de devenir ingénieur ». Ce qu’il faut encourager, pour Mounir Mahjoubi, c’est « une compréhension du fonctionnement des algorithmes ».
 
Ce que prévoit déjà le droit positif
La loi n° 78-17 du 6 janvier 1978 (JO 7 janv.), dite loi Informatique et Libertés, contient un certain nombre de dispositions que l’on peut, de façon schématique, rattacher à trois principes, eux-mêmes abrités sous un principe général contenu dans l’article 1er : « l’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ».
 
Ces trois principes se trouvent relayés dans le règlement européen sur la protection des données personnelles (RGPD), qui va entrer en vigueur en mai 2018 (Règl. PE et Cons UE n° 2016/679, 27 avr. 2016, JOUE 4 mai, n° L 119/1 ; un projet de loi pour la protection des données personnelles a été déposé à l’Assemblée nationale, le 13 décembre dernier, afin de mettre en conformité le droit positif français avec ces nouvelles exigences européennes, v. Premiers regards sur le projet de loi relatif à la protection des données personnelles, Actualités du droit, 14 déc. 2017) :
  • la loi encadre l’utilisation des données personnelles nécessaires au fonctionnement des algorithmes, au-delà même du traitement algorithmique à proprement parler. Autrement dit, elle encadre les conditions de collecte et de conservation des données, ainsi que l’exercice de leurs droits par les personnes (droit à l’information, droit d’opposition, droit d’accès, droit de rectification) afin de protéger leur vie privée et leurs libertés ;
  • la loi Informatique et Libertés interdit qu’une machine puisse prendre seule (sans intervention humaine) des décisions emportant des conséquences cruciales pour les personnes (décision judiciaire, décision d’octroi de crédit, par exemple) ;
  • la loi prévoit le droit pour les personnes d’obtenir, auprès de celui qui en responsable, des informations sur la logique de fonctionnement de l’algorithme.
 
Mais deux limites importantes nuancent ce cadre protecteur :
  • ces dispositions ne concernent que les algorithmes traitant de données personnelles ; or bien des algorithmes fonctionnent avec d’autres types de données (algorithme boursier, algorithmes utilisés à des fins de marketing électoral, etc.) ;
  • ces droits ne sont pas toujours respectés : l’omniprésence des objets connectés qui captent de nombreuses données et la forte asymétrie entre ceux qui contrôlent les algorithmes/données et les personnes qui émettent ces données, rendent parfois illusoire la mise en œuvre du droit positif.
Quels sont les enjeux ?
La dilution de la responsabilité. - C’est l’un des risques soulevés par le rapport : « Les algorithmes et l’intelligence artificielle conduisent à une forme de dilution de figures d’autorité traditionnelles, de décideurs, de responsables, voire de l’autorité même de la règle de droit » (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 29). Qui est responsable en cas d’erreur ou de biais, par exemple, de la machine ? Déléguer une décision à une machine conduit-il à s’exempter de l’obligation de rendre des comptes ?
 
Ce qu’il faut bien comprendre, c’est que « la logique algorithmique a tendance à déporter la prise de décision vers les étapes techniques de conception d’un système (paramétrage, développement, codage), lequel ne fait ensuite que déployer automatiquement et sans faille les choix opérés initialement » (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 29). Comment dès lors identifier un responsable ?
 
Le rapport cite une piste de solution à travers l’exemple d’un des algorithmes les plus médiatiques : Admission post-bac (APB) (sur ce point, voir notre article du 16/11/17 : Comment améliorer le fonctionnement et l’acceptabilité des algorithmes au service de l’action publique ?). Les développeurs, par souci de transparence et de traçabilité, avaient documenté l’origine de chacune des modifications effectuées dans le paramétrage de l’algorithme, en l’occurrence… des requêtes de l’Administration. Mais il s’agissait dans cette hypothèse d’un algorithme déterministe.
 
La complexité franchit un cap avec le machine learning. D’autant que, comme le relève Rand Hindi, entrepreneur & data scientist, cofondateur de Snips, « les IA font moins d’erreurs que les humains mais elles font des erreurs là où des humains n’en auraient pas fait. C’est ce qui est arrivé avec l’accident de la voiture autonome de Tesla, qui ne serait jamais arrivé avec un humain ». Le plus souvent, les concepteurs eux-mêmes de ce type d’algorithme ne parviennent pas à expliquer et encore moins à reproduire l’enchaînement des étapes ayant amené au résultat.
 
Le rapport ne donne pas de solutions pour ce type de logiciel, mais propose des principes d’ingénierie. Il met tout d’abord dans le débat public une question : faut-il conditionner l’utilisation de l’intelligence artificielle à la capacité d’attribuer clairement une responsabilité ? Le rapport incite ensuite à garder un doute méthodique lors de la conception et du suivi des algorithmes. Il écarte une solution toute faite, celle de la publication des codes sources : « une transparence assimilée à la publication pure et simple d’un code source laisserait l’immense majorité du public, non spécialisé, dans l’incompréhension de la logique à l’œuvre » (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 51). Autrement dit, « Ce qui est essentiel, ce n’est pas que le code soit transparent, c’est que l’on comprenne ce qui rentre et ce qui sort de l’algorithme ainsi que son objectif » (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 51). Cédric Villani, souligne ainsi « à quel point il est important de donner des bonnes pratiques pour le code (ce qui peut passer par des commentaires de ce code), et à quel point l’explication est nécessaire ».
 
Plus que la transparence, ce sont donc les principes d’intelligibilité et d’explicabilité des algorithmes qui devraient, by design, guider leur conception.
 
Limitation des mégafichiers et développement de l’intelligence artificielle : quel arbitrage ?
Performance accrue des algorithmes rime avec collecte croissante de données à caractère personnel. Le rapport cite ainsi le cas de la médecine et de la sécurité, dans lesquels des intérêts forts convergent vers la constitution de base de données toujours plus importantes. Toute la question est alors de trouver un juste équilibre entre protection des libertés et progrès médicaux/sécurité des personnes (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 39).
 
Installer sur la scène mondiale la spécificité de l’IA à la française. - Pour Mounir Mahjoubi, la question c’est aussi de savoir « comment on arrive à faire émerger, avec le temps, une vision à la française de l’intelligence artificielle et du numérique, qui pourrait devenir une vision à l’européenne (…) parce que l’on a su, en France, trouver cet équilibre entre performance et humanité ». Pour le secrétaire d’État, tous les pays n'ont pas la même vision de cette pondération entre performance et éthique et notre pays doit mettre en avant son modèle de gouvernance.
 
Point de vue partagé par Isabelle Falque-Pierrotin : « loin d'être une contrainte, l'éthique est un atout français dans la compétition mondiale ». La France doit avoir une vision robuste de l'éthique en matière d'intelligence artificielle pour que sa voix porte sur la scène européenne et internationale.
 
Une éthique qui pourrait s’appuyer sur deux principes fondateurs
Pour la Cnil, deux principes doivent constituer les pivots de toute réflexion en matière d’éthique :
  • le principe de loyauté : avec deux approches distinctes, selon qu’il s’agit d’un algorithme déterministe (« des préoccupations d’ordre commercial, concurrentiel, (ne doivent pas conduire au) développement de pratiques résolument déloyales destinées à obtenir un avantage en manipulant l’algorithme ») ou probabiliste (« un algorithme loyal ne devrait pas avoir pour effet de susciter, de reproduire ou de renforcer quelque discrimination que ce soit, fût-ce à l’insu de ses concepteurs ») (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 48) ;
  • le principe de vigilance : ce principe vise à appeler les individus à avoir une sorte de doute systématique quant à l’utilisation de ces technologies très efficaces, mais qui peuvent produire des résultats faux ou discriminants. Ce « principe d’obligation de vigilance viserait aussi à contrebalancer le phénomène de confiance excessive et de déresponsabilisation dont on a vu qu’il était favorisé par le caractère de boîte noire des algorithmes et de l’IA » (Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 48).
Et concrètement, comment fait-on ?
Est-il possible de formaliser une éthique, pour ensuite de la programmer ? N’est-ce pas illusoire ?
La Cnil ne répond pas véritablement à cette interrogation. Pour autant, elle souligne l’importance de s’assurer que ces choix éthiques ne soient pas émis, selon l’expression d’Antoine Garapon, secrétaire général de l'Institut des hautes études sur la Justice, par « une petite caste de scribes » (Garapon A., Événement de lancement du débat, 23 janv. 2017 ; Cnil, Comment permettre à l’homme de garder la main ?, 15 déc. 2017, p. 41).
 
Au-delà de cette interrogation existentielle, la Cnil formule également des recommendations qui se veulent opérationnelles. Au nombre de six, elles s’adressent à toute la chaîne algorithmique, des experts de l’intelligence artificielle, à ses utilisateurs, en passant à l’État.
 
1) Former à l’éthique tous les maillons de la « chaîne algorithmique » : concepteurs, professionnels, citoyens
  • Formation des citoyens
  • Formation des concepteurs
  • Formation des professionnels utilisateurs d’algorithmes
  • Sensibilisation des acteurs publics à la nécessité d’un usage équilibré et « symétrique » des algorithmes
2) Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs
3) Travailler le design des systèmes algorithmiques au service de la liberté humaine
4) Constituer une plateforme nationale d’audit des algorithmes
5) Encourager la recherche de solutions techniques pour faire de la France le leader de l’IA éthique
  • Favoriser l’explication sur le fonctionnement et la logique des algorithmes
  • Développer des infrastructures de recherche respectueuses des données personnelles
  • Lancer une grande cause nationale participative pour dynamiser la recherche en IA
6) Renforcer la fonction éthique au sein des entreprises
 
Quelle portée pour ce rapport ?
Pour Cédric Villani, « les bonnes règles seront des moteurs de confiance, indispensables pour l’appropriation par les citoyens de ces outils (…), pour que la société dans son ensemble profite de ces technologies ». 

Finalement, quelles suites pourraient avoir ce nouveau rapport sur l’intelligence artificielle ? Pour Isabelle Falque-Pierrotin, « déjà en soi, le fait d’avoir organisé ce débat public et de mettre les algorithmes à l’agenda du grand public, permet de faire en sorte que la pédagogie sur ce sujet progresse ». Ensuite, l’autre objectif est « d’apporter aux autorités publiques un certain nombre de propositions qui pourraient aider à façonner une approche française et européenne sur ce sujet ».
 
Le rapport se veut donc à la fois pédagogique (précis et concis) et suffisamment expert pour faire avancer les réflexions.
 
Prochaine étape, désormais, la fin janvier 2018, avec la remise du rapport de la Mission Villani
Source : Actualités du droit