<< Retour aux articles
Image  Getty_Chesky_W

Chatbots, quel(s) responsable(s) ?

Tech&droit - Intelligence artificielle
06/06/2018
La détermination du responsable à la suite d’un dommage provoqué par un chatbot, hypothèse pour l’instant d’école, est une question extrêmement complexe. Les régimes de responsabilité actuels semblent en effet insuffisants pour régir ce type de préjudice. Les explications d’Arnaud Touati, avocat associé, co-fondateur du cabinet Alto Avocats et Cécile Es Chasseriau, étudiante.
Le chatbot est un programme informatique, dit agent conversationnel, qui interprète les messages de tout type que l’on peut lui envoyer et y répond automatiquement par des réponses préenregistrées. Cette technologie est loin d’être nouvelle puisque le premier chatbot a été créé en 1996, mais sa démocratisation n’est toutefois que récente.
 
Les chabots (et de manière plus générale les assistants personnels) occupent une place de plus en plus importante dans notre quotidien. Les grandes entreprises telles que Facebook, Apple ou encore Mattel, ont déjà créé leur propre chatbot, qui prendra en charge 40 % de nos interactions mobiles d’ici 2020 (Étude réalisée par Gartner). Certains cabinet d’avocats utilisent aussi cette technologie qui permet d’apporter une réponse dite "de 1er niveau" de manière instantanée à un client.
 
La démocratisation de cet outil remet au centre de l’actualité toutes les problématiques qui s’y rapportent, en particulier celle de la responsabilité.
 
En effet, les chatbots peuvent commettre des erreurs ayant vocation à être sanctionnées civilement, voire pénalement. En témoigne Tay, un chatbot lancé par Microsoft qui avait vocation à participer à des conversations sur les réseaux sociaux. Ce dernier a, en moins de 24 heures (v. Le Monde.fr,  24 mars 2016), tenu des propos racistes, antisémites et sexistes pouvant notamment être qualifiés pénalement d’incitation à la haine, d’injure raciale publique et de discrimination raciale.
 
La question se pose donc de déterminer la personne responsable de l’erreur commise par le chatbot, c’est-à-dire un robot. Il semble difficile de savoir si la responsabilité doit peser sur le chatbot lui-même, son concepteur, son propriétaire son utilisateur ou son superviseur.
 
Des régimes de responsabilité civile inadaptés
Les régimes spéciaux de responsabilité ne sont pas adaptés à l’heure actuelle à la responsabilité des chatbots.
 
C’est tout d’abord le cas pour le régime de la responsabilité du fait des choses. Ce régime, consacré à l’article 1242 du Code civil ne peut être appliqué à ces agents conversationnels. En effet, pour que la responsabilité du gardien de la chose soit engagée, il faut précisément qu’il en ait la garde, ce qui est impossible lorsque l’intelligence artificielle fonctionne avec des méthodes d’apprentissage automatique utilisant les réseaux de neurones profonds (deep learning).
 
C’est également vrai pour le régime de la responsabilité du fait des animaux de l’article 1243. Il n’est pas adapté au chatbot puisque le robot, et encore moins un logiciel, ne sauraient être assimilés à un animal.

Le régime de responsabilité des parents du fait de leurs enfants paraît lui aussi inapplicable en matière de chatbots. Cette fois, c’est le critère de l’autorité parentale qui fait défaut.

De plus, un régime de responsabilité de plein droit, à l’image de la loi Badinter (L. n° 85-677, 5 juill. 1985, JO 6 juill., tendant à l'amélioration de la situation des victimes d'accidents de la circulation et à l'accélération des procédures d'indemnisation), semble lui aussi totalement inadapté : cela empêcherait les développeurs et propriétaires des chatbots de les mettre sur le marché sereinement. En effet, si la moindre erreur entraîne automatiquement leur responsabilité, le risque lié au déploiement d’un chatbot deviendra trop important.
 
Il paraît donc difficile de pouvoir répondre avec certitude à la question de la responsabilité des chatbots, puisqu’aucun régime spécifique n’a, pour l’heure, été consacré dans le Code civil et que les régimes de responsabilité existants ne semblent pas, en l’état actuel du droit, adaptés.
 
La nécessité de trouver un régime de responsabilité pour encadrer les chatbots
La première possibilité serait d’adapter les régimes spéciaux préexistants, pour qu’ils puissent encadrer le régime de responsabilité des chatbots.
 
Le régime de responsabilité des parents du fait de leur enfant tout d’abord, en supprimant la condition d’autorité parentale.
 
Le régime de la responsabilité du fait des choses, ensuite, non pas en supprimant la notion de garde de la chose mais en la remplaçant par celle de garde intellectuelle. En effet, il est évident que les critères de la garde (contrôle, usage et direction de la chose) ne sont pas de nature à pouvoir appréhender les situations dans lesquelles une chose matérielle n’est pas impliquée. Appliquée aux chatbots, la notion de garde intellectuelle permettrait en revanche d’identifier un responsable, par exemple, celui qui a conçu le logiciel, à moins qu’il n’ait pu transmettre cette garde en la cédant au propriétaire.
 
Le régime de la responsabilité du fait des produits défectueux, enfin, en intégrant dans la définition du bien meuble les assistants personnels (ce qui semble tout à fait possible puisque les programmes d’ordinateurs sont considérés comme des meubles, v. Rép. min. à QE, n°  15677, JOAN 24 août 1998 : « la loi n° 98-389 du 19 mai 1998 relative à la responsabilité du fait des produits défectueux a vocation à englober l'intégralité de la catégorie juridique des meubles, à laquelle appartiennent les logiciels »).
 
La deuxième possibilité pourrait consister en l’établissement d’un partage de responsabilité entre utilisateurs et propriétaire du chatbot.
 
Enfin, la troisième possibilité serait de créer une responsabilité sui generis, propre à l’intelligence artificielle et qui pourrait notamment être applicable aux chatbots. La mise en place d’un nouveau régime de responsabilité pourrait être opportune du point de vue de la sécurité juridique, puisque cela permettrait de mettre en place un régime adapté, sans pour autant bousculer les régimes de responsabilité existants.
 
La difficile question de la responsabilité pénale des chatbots
La question de la responsabilité pénale applicable aux chatbots est encore plus complexe puisque cette responsabilité n’a pas pour but de dédommager mais de punir.
 
Ici encore, la question n’est pas tranchée, mais une chose est sûre : la responsabilité personnelle du robot ne peut pas être engagée car il ne dispose pas de la personnalité juridique.
 
Une des solutions envisagées s’agissant de la responsabilité pénale des chatbot serait de faire peser sur le concepteur une obligation de surveillance du chatbot qui permettrait de condamner pénalement le concepteur s’il ne prenait pas soin de vérifier que son comportement ne porte pas atteinte à l’ordre public. Mais cette solution ne vaudrait que s’il s’agit d’algorithmes de machine learning, ceux de deep learning acquérant une autonomie qui ne permettrait sans doute pas de reconnaître la responsabilité pénale de la personne qui les a codés.
 
Qu’il s’agisse de la responsabilité civile ou pénale, il semble essentiel que le juge ou le législateur se prononce enfin sur la question de la responsabilité en matière de chatbot et, plus généralement, d’intelligence artificielle pour remédier à une situation d’insécurité juridique grandissante. Il serait aussi nécessaire que le juge ou le législateur se prononcent sur la question de la validité des clauses limitatives de responsabilité dans toute la chaîne de contrats.
 
Cette question devra, en outre, être réglée en droit administratif, à l’heure où l’administration prévoit de déployer ses propres chatbots. Il faudra probablement mettre en place un régime adapté au régime de responsabilité dérogatoire dont bénéficie l’administration.
Source : Actualités du droit