<< Retour aux articles
Image  Claude de Ganay, député, rapporteur de l’OPECST sur l’intelligence artificielle

Claude de Ganay, député, rapporteur de l’OPECST : « Il faut anticiper les problèmes posés par l’intelligence artificielle et accompagner ces technologies d’une réflexion éthique »

Tech&droit - Intelligence artificielle
11/07/2017
Le 29 mars dernier, l'OPECST rendait public son rapport sur l'intelligence artificielle. Un rapport plus que complet qui dégage de nombeuses pistes de réflexion et met l'accent sur l'éthique. Pour Claude de Ganay, il est ainsi important que des standards industriels internationaux en intelligence artificielle et en robotique soient dégagés. Ce qui permettra aux chercheurs et développeurs de veiller, dès le stade de la conception d'une intelligence articicielle, au respect de ces règles éthiques, autrement dit, de faire de « l’éthique by design ». 
Actualités du droit : De nombreux rapports ont déjà été rendus publics, ces deux dernières années, sur l’intelligence artificielle : pourquoi, dans ce cadre, l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) a-t-il souhaité se saisir également de ce sujet ?
Claude de Ganay, député, rapporteur :  Je précise tout d’abord que le mode de fonctionnement de l’OPECST ne lui permet pas de s’autosaisir. Ainsi, notre travail avec Dominique Gillot, sénatrice, fait suite à une saisine de la commission des affaires économiques du Sénat, en date du 29 février 2016. Le sujet apparaissait comme particulièrement sensible et stratégique et, surtout, même si de nombreux rapports parlementaires ont été publiés dans le domaine du numérique, notamment par l’OPECST, aucun travail parlementaire n’avait jamais été conduit sur l’intelligence artificielle (IA) en tant que telle.
Dans ce contexte, nous avons constaté en juin 2016 – à travers une étude de faisabilité - que nos investigations étaient pertinentes puisqu’aucune étude analogue n’était disponible. De nombreux rapports ont été rendus publics dans les mois qui ont suivi, émanant du Parlement européen, de la Maison Blanche ou de la Chambre des Communes mais, au moment du lancement de notre travail, ce n’était pas le cas.
Au total, et avec du recul, notre rapport s’est bien inséré dans une séquence d’intérêt marqué pour l’intelligence artificielle dans le débat public et est devenu une contribution utile à la réflexion collective sur le sujet, en se prononçant « pour une intelligence artificielle maîtrisée, utile et démystifiée ».
  
ADD : Vous évoquez à plusieurs reprises dans votre rapport la difficile acceptabilité de l’intelligence artificielle en France. Pourriez-vous nous en dire quelques mots ?
Cl.G. : Il est évident que l’essor des technologies d’intelligence artificielle reste encore soumis à une contrainte d’acceptabilité sociale assez forte sous l’effet de représentations parfois alarmistes. Nous dressons dans notre rapport un bilan de différentes études d’opinion et j’en citerai une pour illustrer cette idée : selon une enquête de l’IFOP conduite en 2016, 65 % des Français interrogés se disent inquiets du développement de l’intelligence artificielle alors que seulement 36 % des Britanniques et 22 % des Américains expriment la même crainte. Je relève également que nous sommes le seul pays au monde - à ma connaissance - où existe une association contre l’intelligence artificielle, ce qui n’est sans doute pas sans lien avec l’accent mis sur les risques spécifiques de l’IA forte (intelligence artificielle égale ou supérieure à celle de l’homme et dotée d’une conscience d’elle-même) dans la culture populaire, en particulier dans la littérature et le cinéma de science-fiction. Cela doit nous interpeler.
Je tiens cependant à nuancer cette question d’acceptabilité sociale : on observe en effet des logiques d’appréciation contrastées dans la mesure où le sondage de l’IFOP qui exprime les craintes majoritaires évoquées ci-dessus à l’égard de l’intelligence artificielle révèle, dans le même temps, un enthousiasme également majoritaire, puisque plus des deux tiers des sondés (67 %) voient aussi l’intérêt de ces technologies pour améliorer le bien-être individuel et collectif.
C’est parce qu’il y a une contrainte d’acceptabilité sociale de l’intelligence artificielle que cette dernière doit être démystifiée, comme le recommande notre rapport, et que ses technologies comme ses usages doivent s’accompagner de la prise en compte de règles éthiques.
 
ADD : Quelle place occupe la France en matière d’intelligence artificielle sur la scène internationale ?
Cl.G. : Nous avons constaté que notre pays dispose à l’évidence d’importants atouts à faire valoir dans le domaine de l’intelligence artificielle. Les États-Unis, la Chine ou le Royaume-Uni sont les pays les plus avancés mais nous nous en sortons plutôt bien. La reconnaissance internationale des travaux des chercheurs français et du bon niveau de formation de nos étudiants est avérée. J’ai pu l’apprécier lors de nos déplacements : il nous a même été demandé à San Francisco de former en France plus d’étudiants pour alimenter en ressources humaines la Silicon Valley.
Cela pose le problème de la fuite de nos cerveaux les plus brillants. Pour les garder sur le territoire national, il faudrait être en mesure de leur offrir des perspectives de carrière. Outre les grandes entreprises, à l’instar de Facebook qui a installé un de ses laboratoires d’intelligence artificielle à Paris, les start-up innovantes sont des recruteurs de premier plan. On a dénombré en France un total de 240 start-up spécialisées en intelligence artificielle ; c’est un capital à faire fructifier. La stratégie pour l’intelligence artificielle annoncée en mars 2017 par le précédent Gouvernement - appelée « France IA » - doit permettre de consolider nos atouts. J’espère qu’elle se traduira dans une politique publique ambitieuse et efficace, permettant de développer la communauté française de l’intelligence artificielle. Il faudra aussi réfléchir à offrir à nos entrepreneurs « start-uppers » d’autres opportunités que de se faire racheter par des groupes étrangers.
 
ADD : Et la recherche, privée comme publique ?
Cl.G. : Nos investigations ont convergé vers le diagnostic d’une place prépondérante de la recherche privée par rapport à la recherche publique au niveau mondial, y compris sur le plan de la recherche fondamentale. Certes, cela est moins vrai en France que dans les autres pays les plus avancés en la matière mais cela doit nous interroger, surtout que cette recherche privée en intelligence artificielle est largement dominée par les entreprises américaines et pourrait, potentiellement, être dominée demain par les entreprises chinoises.
En France, nous bénéficions de structures de recherche publique très performantes dans le domaine de l’intelligence artificielle, dans nos universités, au CNRS, dans nos grandes écoles (Polytechnique, ENS, Mines-Télécom, etc.) mais aussi plus spécifiquement dans deux organismes : le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) et l’Institut national de recherche en informatique et en automatique (INRIA).
Je vois deux leviers non coûteux sur lesquels il faudrait agir pour améliorer nos performances de recherche en intelligence artificielle : d’une part, développer l’interdisciplinarité, car en matière d’intelligence artificielle la réflexion mobilise des connaissances provenant de nombreuses disciplines, bien au-delà de l’informatique et, d’autre part, ouvrir ce secteur à la diversité et encourager les femmes à investir ce secteur.
 
ADD : Pourquoi préconisez-vous de maîtriser l’intelligence artificielle ?
Cl.G. : C’est d’abord une condition pour lever la contrainte d’acceptabilité sociale dont nous parlions tout à l’heure. Mais surtout, c’est se prémunir contre les abus et les dérives dans l’usage de ces technologies qui sont d’ores et déjà puissantes et le seront de plus en plus. Elles sont mises en œuvre dans des secteurs très variés et font déjà partie de notre quotidien avec des applications présentes ou futures considérables, que l’on pense par exemple à l’éducation, à l’environnement, à l’énergie, aux transports, à l’aéronautique, à l’agriculture, au commerce, à la finance, à la défense, à la sécurité, à la sécurité numérique, à la communication, aux loisirs, à la santé, à la dépendance ou encore au handicap.
Maîtriser ces technologies d’intelligence artificielle implique de les mettre au service de l’homme et des valeurs humanistes en favorisant des algorithmes et des robots les plus sûrs, les plus transparents et les plus justes possibles. Nous proposons ainsi de former à l’éthique de l’intelligence artificielle et de la robotique dans les cursus spécialisés de l’enseignement supérieur et de confier à un institut national de l’éthique de l’intelligence artificielle et de la robotique un rôle d’animation du débat public sur les principes éthiques qui doivent encadrer ces technologies. Nous sommes ouverts sur la forme que pourrait prendre cet institut : une commission nationale, un groupement d'intérêt public ou un lieu de coordination plus souple etc. L’essentiel est de permettre à toutes les parties prenantes de pouvoir dialoguer et réfléchir ensemble.
Cependant, nous pensons qu’il faut se garder d’une contrainte juridique trop forte sur la recherche en intelligence artificielle, car elle a besoin d’une certaine liberté. Pour nous, la législation en la matière gagnerait à être davantage européenne, voire internationale, que nationale.
 
ADD : Quelles sont les impacts actuels et prévisibles de cette technologie sur l’économie ?
Cl.G. : L’un des impacts sur l’économie, c’est la transformation du marché du travail sous l’effet de l’intelligence artificielle et de la robotique. Nous avons relevé des pronostics très contrastés, souvent trop axés sur le seul aspect des destructions brutes d’emplois, alors qu’il y aura très probablement d’importantes créations d’emplois. Il y aura aussi d’importantes évolutions en contenu des emplois et des tâches et, au-delà de la stricte robotisation, il existera de plus en plus de coopération hommes-machines dans le monde du travail. Pour nous, il est indispensable et urgent d’adapter le système éducatif à ces nouveaux métiers et de développer une offre ambitieuse de formation professionnelle adéquate, pour répondre aux exigences de requalification et d’amélioration des compétences.
L’autre impact, moins commenté mais pourtant considérable, c’est celui de la place dominante et monopolistique occupée par quelques entreprises dans un contexte d’économie globalisée de « plateformes ». On parle des « GAFA » mais il serait plus juste de parler des « GAFAMITIS », avec Google, Apple, Facebook, Amazon, Microsoft, IBM, Twitter, Intel et Salesforce, ces entreprises américaines représentant la pointe de la recherche et des applications de l’IA. En Chine, les « BATX », avec Baidu, Alibaba, Tencent et Xiaomi, expriment aussi ces mouvements de concentration monopolistiques qui sont en cours. Nous devons réfléchir et anticiper cette économie globalisée de « plateformes », dont nous ne vivons que les prémisses et qui est de nature à rebattre les cartes du pouvoir à l’échelle mondiale.
 
ADD : Le rapport prend-il position sur l’opportunité de doter ou non les robots d’une personnalité juridique ? Pour quelles raisons ?
Cl.G. : Je suis avec beaucoup d’intérêt les réflexions d’Alain Bensoussan en la matière mais j’ai sur le sujet de la reconnaissance de la personnalité juridique des robots un avis très réservé. À court terme, le sujet de la personnalité juridique des robots n’est pas une question qui mérite d’être posée et, à plus long terme, je ne suis pas convaincu de l’intérêt de reconnaître une personnalité juridique aux robots. Si le but est de déresponsabiliser les industriels de la robotique, les propriétaires et les utilisateurs de robots, mon opposition est catégorique.
Par ailleurs, d’un point de vue technique, je me demande à qui il conviendrait d’accorder la personnalité juridique, au robot dans son ensemble ou à son système d’intelligence artificielle ? Dans la mesure où le système d’intelligence artificielle peut migrer d’un corps robotique à un autre, voire gérer simultanément plusieurs robots connectés, la partie physique du robot ne serait qu’un contenant, destiné à recevoir pour un temps donné un système informatique. Il serait alors opportun d’opérer une discrimination entre la partie physique et la partie informatique du robot en vue de les soumettre à des régimes juridiques différents, notamment en matière de responsabilité. Il faudrait alors pouvoir, tel l’historien Ernst Kantorowicz distinguant les deux corps du roi, discerner les deux corps du robot, ce qui n’a rien d’évident.
 
ADD : Quelle réponse le droit pourra-t-il donner lorsque l’autonomie des robots progressera ?
Cl.G. : Le droit nous offre déjà quatre régimes de responsabilité qui pourraient trouver à s’appliquer aux accidents causés par des robots, avec plus ou moins d’aménagements pertinents le cas échéant : le régime de responsabilité du fait des produits défectueux, sans doute le plus adapté, celui de la responsabilité du fait des animaux, celui de la responsabilité du fait d’autrui, ou, encore, celui de la responsabilité du fait des choses, mais qui ne s’applique que de façon résiduelle par rapport au régime de responsabilité du fait des produits défectueux. J’ajoute que dans l’état actuel du droit, en cas de commercialisation de robots entre professionnels, ces derniers disposent d’une certaine liberté contractuelle qui leur permet de combler les incertitudes législatives et jurisprudentielles, en se plaçant sous un régime de responsabilité civile contractuelle.
Selon nous, il n’existe pas de vide juridique béant qu’il faudrait combler en urgence. Les rapports parus sur le sujet, notamment dans le monde anglo-saxon, vont d’ailleurs dans le même sens que nous. De même, pour Rodolphe Gélin et Olivier Guilhem, respectivement directeur scientifique et directeur juridique chez Softbank Robotics (ex-Aldebaran), le droit en vigueur offre déjà beaucoup de réponses aux éventuelles questions posées par le développement de la robotique.
Nous consacrons aussi quelques pages à la propriété intellectuelle : quel est le statut de ce qui est créé par un robot ou par des technologies d’intelligence artificielle ? Ces œuvres sont-elles la propriété de son acheteur, de son fabricant, de l’éditeur du logiciel ? Notre réflexion a été stimulée mais nous n’avons pas voulu apporter de réponses définitives. Aujourd’hui, les créations effectuées par le recours à un robot sont éligibles à la protection de la propriété intellectuelle, au profit du propriétaire ou de l’utilisateur de la machine ou du système, et les difficultés réelles sont quasi-inexistantes. Il est urgent d’attendre.
 
ADD : Faut-il une loi ou plusieurs lois spécifiques pour encadrer l’indemnisation des victimes de robots, de voitures autonomes, etc. ?
Cl.G. : Pour ce qui concerne les voitures autonomes, le besoin d’essais à grande échelle et en situation réelle appelle à court terme une clarification du cadre juridique. Ainsi, la loi n° 2015‑992 du 17 août 2015 (JO 18 août) relative à la transition énergétique pour la croissance verte contient des dispositions prévoyant un cadre expérimental afin de promouvoir l’expérimentation et le déploiement de véhicules propres, incluant les voitures sans chauffeur. Cette loi a ainsi habilité le Gouvernement à agir par ordonnance concernant l’autorisation d’expérimentation de véhicules à délégation partielle ou totale de conduite sur la voie publique et l’ordonnance n° 2016-1057 du 3 août 2016 relative à l’expérimentation de véhicules à délégation de conduite sur les voies publiques autorise ainsi l’expérimentation de véhicules intelligents sur la voie publique. À court et moyen termes, il nous faudra des lois spécifiques sur les conditions de circulation de voitures autonomes et sur les régimes de responsabilité afférents. Il s’agit à la fois d’enjeux économiques et de sécurité.
Et, au-delà du cas des voitures autonomes, il faudra encadrer l’indemnisation des victimes de robots car les cas d’accidents risquent en effet de se poser à raison de la diffusion croissante de systèmes autonomes, notamment de robots. Pour le moment, le droit existant, avec la responsabilité du fait des produits défectueux en particulier, est suffisant mais assez rapidement, avec des robots de nouvelle génération dotés de capacité d’adaptation et d’apprentissage et dont le comportement présente un certain degré d’imprévisibilité, le régime de la responsabilité du fait des produits défectueux sera de moins en moins approprié. Le cadre juridique pourra alors s’inspirer d’autres régimes de responsabilité traditionnels, la responsabilité du fait des choses, la responsabilité du fait des animaux ou, encore, la responsabilité du fait d’autrui, comme celle des parents si l’on choisit de faire un parallèle entre les robots et les enfants. Une autre piste consisterait à mettre en place une responsabilité en cascade : dans la mesure où plusieurs acteurs sont en présence (le producteur de la partie physique du robot, le concepteur de l’intelligence artificielle, l’utilisateur et s’il est distinct de ce dernier, le propriétaire du robot), il est possible d’imaginer une "chaîne de responsabilités", de sorte que chacun puisse supporter une part de responsabilité selon les circonstances dans lesquelles est survenu le dommage.
 
ADD : L’intelligence artificielle est une grande consommatrice de données. Formulez-vous des recommandations pour protéger ces données et la vie privée de leurs utilisateurs ?
Cl.G. : Le développement de la robotique "intelligente" et des technologies d’intelligence artificielle soulève des questions en matière de protection des données personnelles. Au quotidien, nos smartphones avec des logiciels tels que « Siri » ou « Cortana », nos ordinateurs et autres objets connectés à internet, nous font d’ores et déjà cohabiter avec des algorithmes puissants, qui connaissent beaucoup de chacun de nous, mais sans que nous ne connaissions l’usage qui peut être fait de ces millions d’informations à caractère personnel. Les agents conversationnels étant appelés à jouer un rôle croissant dans nos sociétés, ce sujet doit faire l’objet d’une prise en charge satisfaisante.
Outre la loi n° 78‑17 du 6 janvier 1978 (JO 7 janv.) relative à l’informatique, aux fichiers et aux libertés, un effort d’adaptation du cadre juridique de la protection des données à caractère personnel aux nouvelles réalités du monde numérique a été mené récemment à la fois au niveau communautaire et au niveau national. Le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, vise ainsi à doter les États membres d’une législation uniforme et actualisée en matière de protection des données à caractère personnel. Il s’agit à la fois de renforcer les droits des personnes, notamment par la création d’un droit à la portabilité des données et par le renforcement de l’expression du consentement, d’accroître la transparence et la responsabilisation des acteurs traitant des données sous le contrôle du régulateur - la commission nationale de l’informatique et des libertés (CNIL) en France - et de renforcer la coopération entre les autorités de protection de données, qui pourront notamment adopter des décisions communes et des sanctions renforcées dans les cas de traitements de données transnationaux. Au niveau national, la loi n° 2016‑1321 du 7 octobre 2016 (JO 8 oct.) pour une République numérique anticipe ce règlement européen applicable en 2018 et crée de nouveaux droits informatique et libertés afin de permettre aux personnes de mieux maîtriser leurs données personnelles. Elle élargit également les pouvoirs de sanctions de la CNIL et lui confie de nouvelles missions, telles que la réflexion sur les problèmes éthiques posés par l’évolution des technologies numériques.
 
ADD : Difficile de parler d’intelligence artificielle sans aborder la question des algorithmes. Quelles problématiques soulèvent-ils ?
Cl.G. : Les algorithmes d’apprentissage automatique, en particulier de deep learning, posent tout d’abord un vrai problème d’opacité, qui reste entièrement à résoudre. Nous ne disposons pas d’explication théorique satisfaisante des raisons pour lesquelles ces algorithmes donnent, dans un certain nombre de domaines, d’excellents résultats. On parle à ce sujet de phénomènes de « boîtes noires ». Un premier défi à relever est donc celui de l’objectif d’explicabilité des algorithmes de deep learning. L’Institut national de recherche en informatique et en automatique (INRIA) s’est ainsi vu confier le rôle d’opérateur de la plateforme scientifique d’évaluation de la responsabilité et de la transparence des algorithmes. Ce projet intitulé « TransAlgo » a ainsi été lancé en 2017 et placé sous la direction de Nozha Boujemaa. Une telle démarche va dans le bon sens mais gagnerait à voir sa force de frappe démultipliée par une dynamique de mobilisation de plusieurs équipes de recherche autour de nouveaux projets scientifiques.
Par ailleurs, les biais représentent un autre problème posé par les algorithmes d’apprentissage profond, ou pour être plus rigoureux, par les données nécessaires aux algorithmes. La question concerne en effet plus les données que les algorithmes eux-mêmes : certes les impacts se font ressentir après le traitement des données, mais les biais sont introduits en amont dès le stade des jeux de données. Ces algorithmes reproduisent les biais des données qu’ils traitent, en particulier toutes les discriminations connues dans nos sociétés tant qu’elles ne sont pas corrigées. Les données pouvant inclure toute sorte de biais, c’est un point sur lequel il faut être vigilant.
Enfin, le phénomène des « bulles de filtres » fait figure de troisième difficulté : les algorithmes d’intelligence artificielle sélectionnent le contenu d’informations mis à disposition de chacun de nous et créent par là des bulles cognitives qui se multiplient et transforment le rapport de l’individu au monde. L’information ciblée tout comme la publicité personnalisée ou, encore, la logique de construction des « fils d’actualité » des réseaux sociaux, à l’instar de celui de Facebook, sont autant d’exemples de réalités déjà manifestes d’usage des systèmes d’intelligence artificielle, qui sont de nature à changer notre rapport au monde, aux autres et à la connaissance en orientant, voire en manipulant, notre perception de la réalité. Ce sujet mérite une vigilance accrue des pouvoirs publics. Pour nous, l’enfermement, qu’il soit politique, idéologique ou cognitif, doit être combattu.
 
ADD : Vous évoquez également dans ce rapport la question de la singularité et réservez quelques lignes au transhumanisme. Pourriez-vous revenir sur ces points ?
Cl.G. : La rupture dite de la « singularité technologique » appelée aussi singularité, est le nom que des écrivains et des chercheurs en intelligence artificielle ont donné au passage de l’IA faible à l’IA forte, c’est-à-dire à une super‑intelligence dépassant l’ensemble des capacités humaines. Par exemple dans un prophétisme dystopique qui s’appuie sur la loi de Moore (conjecture sur le doublement du nombre de transistors tous les deux ans à coût constant), Raymond Kurzweil prédit que les machines rivalisant avec l’intelligence humaine arriveront d’ici à 2029 et qu’elles la dépasseront en 2045, année de la singularité selon lui. J’observe que la notion de singularité joue beaucoup sur nos peurs : son imminence à court ou moyen terme relève de visions catastrophistes sans fondement et la réalité de cette menace, même à long terme, n’est pas certaine. Nier la possibilité d’une IA forte n’a pas davantage de sens, toutefois se prononcer sur son imminence ou sur le calendrier précis de son avènement semble peu raisonnable, car c’est indémontrable scientifiquement.
S’agissant du transhumanisme, je relève qu’il s’agit d’un mouvement philosophique prédisant et travaillant à une amélioration de la nature de l’homme grâce aux sciences et aux évolutions technologiques. Il est pluridisciplinaire dans la mesure où il agrège, pour parvenir à ses fins, l’ensemble des sciences et des connaissances. Selon cette doctrine, l’homme « augmenté » pourrait, demain, non seulement ne plus souffrir ni être malade mais devenir virtuellement immortel. Ce projet transhumaniste de mort de la mort et de fin de la souffrance s’apparente selon moi à une négation de la nature humaine. La manière qu’ont certains transhumanistes de croire à leur projet comme on croit à une religion me gêne. J’observe que le principal prophète du transhumanisme est Raymond Kurzweil, déjà cité s’agissant de la singularité. En bref, pour moi, l’intelligence artificielle n’est pas un acte de foi et ne doit pas le devenir.
Qu’il s’agisse de la singularité ou du transhumanisme, je me méfie des écrans de fumée qui empêchent de se poser les vraies questions pertinentes. Il faut savoir anticiper les problèmes potentiels posés par l’intelligence artificielle, car à court terme ces problèmes risquent d’être ignorés et pris à tort pour de la science-fiction. La cohabitation homme-machines peut être heureuse à condition que des règles éthiques soient débattues et mises en œuvre. La complémentarité homme-machine demeure une perspective réaliste et la possibilité d’intelligence augmentée ouvre la voie à d’importants progrès dans de nombreux secteurs.
 
ADD : La clef de voûte de votre rapport c’est l’éthique : pour quelles raisons ?
Cl.G. : Nous avons estimé que l’angle d’entrée le plus fécond en matière d’intelligence artificielle était de mettre l’accent sur les enjeux éthiques car ils permettent d’aborder de manière transversale la plupart des problématiques en relation avec ce champ de recherche, à savoir les enjeux philosophiques, politiques, juridiques et éducatifs de l’intelligence artificielle, ainsi que les modalités de la recherche publique et privée, la place respective de chacune et leurs relations.
Il s’agissait aussi pour nous de résister à la tentation de définir un cadre juridique trop contraignant, qui aurait eu pour inconvénient de figer des règles en codifiant juridiquement des préceptes moraux et, partant, de gêner et de ralentir l’innovation. Il convient donc d’anticiper les problèmes posés par l’intelligence artificielle et d’accompagner ces technologies et leurs usages d’une réflexion éthique mais sans construire d’obstacles insurmontables pour les chercheurs. Fixer des mesures contraignantes dans un cadre étroitement national découragerait la recherche française en intelligence artificielle et porterait atteinte à notre compétitivité, nous prônons donc plutôt une approche plus pragmatique, visant à soutenir une forme de régulation à l’échelle européenne, voire internationale.
Nous sommes convaincus que les progrès en intelligence artificielle sont d’abord et avant tout bénéfiques mais qu’ils comportent aussi des risques. L’éthique peut nous aider à trouver l’équilibre entre les progrès bénéfiques et les risques. Ces derniers peuvent et doivent être identifiés, anticipés et maîtrisés. Nous avons besoin d’éthique pour maîtriser ces risques et pour en tirer les plus grands bénéfices, au service de l’homme et des valeurs humanistes.
 
 
ADD : Quelles sont vos préconisations pour rendre éthique ces technologies ?
Cl.G. : Il faut tout d’abord favoriser des algorithmes et des robots qui soient à la fois sûrs, transparents et justes. Les objectifs de sécurité et de robustesse conduisent à poursuivre la réflexion sur la sécurité numérique, les risques de hacking et sur l’existence de mécanismes d’arrêt d’urgence. Il faut également rechercher la transparence des algorithmes et lutter contre les phénomènes de boîtes noires, de biais et de discriminations, dont je parlais précédemment. La transparence des algorithmes de deep learning est impossible scientifiquement à ce stade et reste donc à construire. Il doit s’agir d’un axe prioritaire pour la recherche. La question de la faisabilité de ces préconisations exigeantes se pose. Certes l’état de nos connaissances scientifiques montre qu’il n’est pas sûr qu’elles puissent être satisfaites, mais ce sont des objectifs que nous devons nous fixer, quoi qu’il en soit.
Par ailleurs, il faut prévoir une charte de l’intelligence artificielle et de la robotique, qui nécessitera du temps et une concertation internationale. Une telle charte proclamerait ces objectifs et viserait à codifier les bonnes pratiques. Elle devrait être internationale, dans toute la mesure du possible, ou, à défaut, européenne. Elle ne se prononcerait pas en faveur de la création d’une personnalité morale des robots, mais proposerait des règles relatives aux interactions homme-machine et poserait des limites en matière d’imitation du vivant, pour les robots androïdes comme pour les agents conversationnels. Le citoyen devrait par exemple toujours savoir s’il est en présence d’une machine ou d’un humain.
Enfin, la diffusion des connaissances sur l’éthique de l’intelligence artificielle et de la robotique vers le grand public devrait être, à terme, utilement recherchée.
  
ADD : L’éthique by design est-elle possible avec cette technologie ? En pratique, sera-t-il possible de restreindre la progression de la recherche pour la cantonner dans des dimensions éthiques et à des développements utiles pour les citoyens?
Cl.G. : Cantonner la recherche est une idée qui me pose problème, je ne juge pas pertinent d’interdire a priori telle ou telle type de recherche mais je suis convaincu qu’il faut sensibiliser les chercheurs et les industriels aux aspects éthiques et encourager les démarches éthiques. Nous proposons ainsi dans le rapport d’orienter les investissements dans la recherche en intelligence artificielle vers l’utilité sociale des découvertes.
Pour répondre à votre première question qui est plus spécifique, j’estime qu’il faut, pour les technologies d’intelligence artificielle comme pour les robots, rechercher, dès le stade de leur conception, le respect de règles éthiques. Voilà ce que l’on appelle « l’éthique by design ». Notre rapport se prononce en faveur d’une telle démarche. Je me félicite que l’initiative globale de l’association mondiale des ingénieurs électriciens et électroniciens (Institute of Electrical and Electronics Engineers ou IEEE) pour « les considérations éthiques dans l’intelligence artificielle et les systèmes autonomes » ait pour principal objectif de proposer un cadre éthique de référence pour le développement des systèmes d’intelligence artificielle et des systèmes autonomes et, en particulier, qu’un chercheur français, Raja Chatila, directeur de l’Institut des systèmes intelligents et de robotique (ISIR), ait été chargé d’animer cette réflexion internationale.
Je note ainsi que la version provisoire du document mis en débat par IEEE s’intitule « Conception conforme à l’éthique : une vision pour fixer comme priorité le bien-être humain avec l’intelligence artificielle et les systèmes autonomes ». J’ai eu la chance et le plaisir de contribuer à cette réflexion lors d’une journée d’échanges à haut niveau à Bruxelles le 11 avril 2017, un mois après l’adoption de notre rapport. J’indique qu’un document consolidé sera rendu public à l’automne 2017 et je suis convaincu qu’il sera très utile, non seulement pour poursuivre la réflexion éthique mais aussi pour proposer des standards industriels internationaux en intelligence artificielle et en robotique.
 
ADD : Vous semblez penser que votre rapport est le début d’une longue série…
Cl.G. : Notre rapport est effectivement la première contribution des parlementaires français à la réflexion nationale, européenne et internationale qui s’est engagée et il sera suivi de nombreux autres documents. Depuis l’adoption de notre rapport au mois de mars dernier, l’actualité de l’intelligence artificielle est restée riche et objet de beaucoup de commentaires.
Au sein de l’OPECST, Dominique Gillot et moi-même avons appelé à la poursuite de travaux sur les enjeux de l’intelligence artificielle en 2017 et 2018. Ce suivi pourra prendre la forme d’une veille générale, d’une incitation à la reprise de nos propositions par le nouveau Gouvernement, ainsi que d’un approfondissement de notre travail, le cas échéant en ciblant les investigations plus particulièrement sur certaines dimensions ou sur certains secteurs.
Le suivi par l’OPECST d’un sujet aussi important et évolutif apparaît indispensable et nos propositions devront être remises en débat au fur et à mesure des nouvelles découvertes scientifiques, de leurs transferts et de leurs usages. Le point d’équilibre que nous avons cherché à atteindre dans notre rapport doit pouvoir évoluer, en fonction des évolutions du contexte résultant du jeu de ces variables.
 
Propos recueillis par Gaëlle MARRAUD des GROTTES

Liens utiles :
 
Source : Actualités du droit