<< Retour aux articles
Image  Catelijne Muller, membre du CESE (Groupe des travailleurs) et rapporteure de l'avis du CESE sur l'intelligence artificielle

« Le CESE n’est pas favorable à la création d’une personnalité électronique pour les robots »

Tech&droit - Intelligence artificielle
16/06/2017
Quatre mois après le rapport du Parlement européen, le comité économique et social européen vient de livrer son analyse, quelque peu divergente, sur l’intelligence artificielle. Un rapport qui plaide en faveur d’une approche dite « human-in-command » de cette technologie.
Actualités du droit : Le comité économique et social européen vient de rendre un avis sur l’intelligence artificielle. Cet avis est-il issu de la propre initiative du CESE ou s’agit-il d’une consultation ?
Catelijne Muller : Il s’agit d’un avis d’initiative du Comité. Ce genre d’avis sert à poser les jalons d’une réflexion sur des questions qui, selon le Comité, requièrent l’attention des décideurs politiques, mais aussi des partenaires sociaux et d’autres parties prenantes, tant au niveau européen qu’au niveau local.
 
AdD : En France, en Europe et dans le monde les rapports sur l’intelligence artificielle se sont multipliés ces deux dernières années. Ne faudrait-il pas coordonner et centraliser les débats ?
C. M. : D’un côté, il est encourageant de constater que le sujet bénéficie d’une large attention partout dans le monde, mais de l’autre, vous avez tout à fait raison. L’incidence de l’IA se fait sentir par-delà les frontières et il est donc nécessaire d’établir des stratégies et des politiques supranationales.
Cependant, quelqu’un doit prendre la direction des opérations. C’est la raison pour laquelle la première recommandation du rapport est que l’UE joue un rôle moteur sur la scène mondiale dans ce domaine. L’UE peut faciliter et orienter un débat centralisé, éclairé et équilibré en matière d’IA, en y associant toutes les parties prenantes : décideurs politiques, industrie, partenaires sociaux, consommateurs, ONG, établissements d’enseignement et de soins et experts et universitaires de diverses disciplines (IA, sécurité, éthique, économie, droit, mais aussi psychologie et philosophie).
 
AdD : Quels bénéfices le développement de l’IA va-t-il apporter à la société ?
C. M. : L’IA peut être porteuse de bénéfices dans de nombreux domaines : il suffit de penser aux applications destinées à obtenir une agriculture plus durable, une plus grande sécurité sur les routes, un système financier plus stable, des avancées médicales, davantage de sécurité sur le lieu de travail. Mais ces avantages ne pourront être durablement atteints que si les défis et les risques qui vont de pair avec une technologie de rupture telle que l’IA sont bien pris en compte. 
 
AdD : Quels sont précisément les domaines qui soulèvent les enjeux de société les plus importants ?
C. M. : Nous avons recensé des enjeux de société dans les domaines suivants : éthique, sécurité, vie privée, transparence et capacité de rendre compte, travail, éducation et compétences, (in)égalité et inclusion, législation et réglementation, gouvernance et démocratie. 
 
AdD : Le rapport préconise que les jeux de données spécialisées soient ouverts afin de permettre la mise à l’essai de l’IA dans la sphère publique. Après les algorithmes en open source, il faudrait un open data des données spécifiques ?
C. M. : Le développement de l’un des secteurs les plus performants de l’IA, l’apprentissage automatique, s’appuie (en tout cas pour le moment), sur de grands volumes de données, à partir desquelles les systèmes "apprennent".
L’on croit généralement que les données sont objectives par définition, mais il s’agit là d’une erreur. Les données peuvent être erronées, incomplètes et, paradoxalement, désordonnées. Elles sont facilement manipulables et (ce qui semble souvent être le cas), elles peuvent être tendancieuses. Si nous voulons une IA fiable, responsable et éthique, nous devons lui fournir des données de haute qualité à partir desquelles elle pourra apprendre.
 
AdD : Dans votre rapport, vous soulignez à plusieurs reprises que c’est moins la réflexion autour d’une super-intelligence qui importe que le débat sur l’incidence des applications actuelles de l’IA. Pouvez-vous nous expliquer ce point ?
C. M. : Le CESE ne considère pas que la discussion sur la super-intelligence est moins importante, il fait juste observer qu’elle tend actuellement à reléguer au second plan le débat sur l’impact des applications d’IA qui sont déjà parmi nous.
Le rapport plaide en fait pour un contrôle critique et global des avancées en matière d’IA, afin de pouvoir appréhender de manière adéquate et opportune les évolutions décisives et de rupture, au rang desquelles figurent les avancées notables ou significatives dans le développement de compétences d’IA, qui pourraient constituer des éléments précurseurs d’une IA générale (dont la super-intelligence ne serait pas loin, selon les experts).
 
AdD : Le rapport préconise la mise en place de normes européennes pour la vérification et la validation des systèmes d’intelligence artificielle. Pouvez-vous revenir sur ce point ?
C. M. : Comme tout produit, l’IA peut (et doit) être validée et contrôlée, sur la base de normes en matière de sécurité, mais aussi de transparence, d’intelligibilité, de respect de la vie privée et d’éthique.
Le CESE plaide pour l’élaboration de ces normes, mais également pour une certification ou un label européen en matière d’IA attestant la qualité élevée du système. On pourrait par exemple penser à un label « IA européenne ». Cela pourrait améliorer la confiance dans l’intelligence artificielle, mais aussi donner à l’UE un avantage concurrentiel important.  
 
AdD : Quelles préconisations formule le rapport en matière de sécurité, de contrôlabilité et de fiabilité des intelligences artificielles ? Le CESE est-il favorable au « bouton rouge » ou reset button ?
C. M. : Le CESE plaide en faveur d’une approche dite « human-in-command » de l’IA, dont les conditions seraient un développement responsable, sûr et utile de l’IA dans le cadre duquel les machines resteraient les machines, sous le contrôle des humains.
C’est à nous de voir si, comment et quand nous voulons utiliser l’IA dans notre société. Nous devons toujours garder cela à l’esprit. Nous n’avons pas à nous laisser subjuguer par la technologie. Si une chose est réalisable, cela ne veut pas nécessairement dire qu’elle doit être réalisée.
L’IA est susceptible d’apporter des solutions aux plus grands défis auxquels nous sommes confrontés, mais seulement si nous savons la gérer comme il convient.
 
AdD : Le CESE est-il favorable à une taxation des robots et des bots ?
C. M. : Dans un précédent avis, le CESE a évoqué la possibilité d’un dividende numérique, tandis que certaines exportations appellent une propriété commune de l’IA par les travailleurs et les employeurs. Le CESE reconnaît la tendance de l’évolution technologique à favoriser le capital, en ce sens que l’innovation bénéficie en premier lieu à ceux qui en sont propriétaires et est donc susceptible d’accroître les inégalités. Cependant, un juste équilibre devrait être trouvé entre un développement de l’IA qui profite à l’homme et les éventuels effets négatifs de ces solutions. 
 
AdD : Le CESE est-il favorable à la création d’une personnalité électronique pour les robots les plus autonomes ?
C. M. : Non, le CESE n’est pas favorable à la création d’une personnalité électronique pour les robots : cela entraîne un risque moral inacceptable. Le droit de la responsabilité civile possède plusieurs fonctions, dont une fonction préventive de correction des comportements, laquelle serait sapée par toute forme de personnalité morale des robots ou de l’IA, entre autres.
  
Propos recueillis par Gaëlle Marraud des Grottes
Source : Actualités du droit