<< Retour aux articles
Image  Fotolia

Intelligence artificielle : la première charte éthique métier dévoilée par le Lab RH

Social - Fonction rh et grh
Tech&droit - Intelligence artificielle
01/02/2018
La CFE-CGC et le Lab RH viennent de rendre public un projet de charte éthique et numérique RH. Son objectif : proposer un guide de bonnes pratiques, RGPD compatible, pour faire émerger et accompagner les directions des ressources humaines dans une réflexion éthique sur l’utilisation du numérique et de l’intelligence artificielle.
2017, l’année des constats, et 2018, l’année du premier déploiement de chartes éthiques ?

Si les rapports sur l’intelligence artificielle se sont multipliés ces derniers mois (v. le dernier en date, Intelligence artificielle : la Cnil appelle à une plus grande vigilance, Actualités du droit, 18 déc. 2017), dressant souvent des constats convergents sur les craintes et la nécessité de réguler le développement de cette technologie, la Charte éthique et numérique RH est la première à être élaborée pour encadrer concrètement son utilisation pour un type de métier : les ressources humaines.
 
Application des principes essentiels du RGPD aux ressources humaines
Ce qui n’est pour l’heure qu’un projet de charte amené à évoluer au gré des retours des acteurs de ce secteur, attire l’attention sur huit grands principes du règlement européen :
  • La transparence : l’employeur a l’obligation d’informer les salariés des motifs de traitement de ses données personnelles ;
  • Le recueil du consentement : l’employeur doit recueillir le consentement des salariés dont les données sont traitées ;
  • La limitation des finalités : l’employeur a l’obligation de traiter les données uniquement dans le cadre d’une finalité précise et déterminée ;
  • La minimisation des données : l’employeur s’engage à ce que seules les données qui sont nécessaires au regard de la finalité du traitement soient collectées et utilisées ;
  • L’exactitude des données : l’employeur a l’obligation de s’assurer de l’exactitude des données et doit permettre aux salariés de corriger les inexactitudes ;
  • La limitation de conservation : l’employeur a l’obligation de conserver les données uniquement sur une période en adéquation avec la finalité retenue ;
  • La confidentialité et la sécurité : l’employeur doit s’assurer de la bonne protection des données, au regard de traitement inapproprié, de perte ou vol, et pouvoir démontrer la mise en place de mesures de sécurité appropriées ;
  • La responsabilité : l’employeur doit être en mesure de démontrer le bon respect des principes ci-dessus.
 
Les enjeux spécifiques en matière de ressources humaines
Les logiciels RH permettent de faire remonter sans cesse plus de données. Cela vaut pour le recrutement, la paye, la gestion des carrières, la formation ou encore les entretiens annuels. François Hommeril, président de la CFE-CGC, et Jérémy Lamry, co-fondateur du Lab-RH, ont ainsi cité plusieurs exemples de pratiques, préoccupantes sans être illégales, du moins jusqu’au 25 mai prochain, date d’entrée en vigueur du RGPD.
 
Jérémy Lamry cite ainsi le cas de la sélection de candidats à un poste via un traitement algorithmique : « Si en tant que recruteur, je sais que j’ai eu cent candidats, mais que la machine n’en montre que les trois premiers : qui décide ? Est-ce encore le recruteur ? Si l’on veut laisser la main au recruteur, alors il faut afficher les 100 résultats ». Le problème n’est pas le scoring ou le ranking pour ce dernier, « le problème, c’est la compréhension de la manière dont cela a été scoré : a-t-on accès aux critères de choix de la machine, à toutes les informations issues du traitement pour pouvoir expliquer le résultat ? Est-on capable de reprendre la main dessus » ?
 
La gestion des carrières fournit un autre exemple de matching prédictif qui peut être préjudiciable, pour François Hommeril, qui cite l’exemple suivant : si par le passé les employés qui occupaient un poste A allaient vers le poste B, alors un traitement algorithmique va proposer au salarié qui occupe un poste A une mobilité vers un poste B. La modélisation prédictive peut ainsi enfermer des individus dans des schémas.
 
Les propositions de la charte éthique
L’éthique ne s’arrête pas au RGPD. L’objectif de cette charte, c’est précisément de compléter ce cadre posé par le RGPD avec un instrument de soft law, guide méthodologique d’aide à la mise en conformité.
 
Pour le co-fondateur du Lab-RH, « cette éthique-là est faite pour respecter la liberté individuelle et le potentiel des individus ».
 
Le pilier de cette charte, c’est le cycle de vie de la donnée. À chacune de ces étapes, la charte identifie les points à valider :
  • acquisition des données, manuelle ou automatique : « il est impératif que les données recueillies concernant un individu soient recueillies en amont de l’usage fait de ces données sur la base du volontariat et de façon éclairée (…) permettant une liberté de choix, avec possibilité de réversibilité » ; en veillant à ce que le refus de divulguer ces données ne soit pas vecteur de discrimination ;
  • traitement algorithmique : la charte reprend le grand sujet actuel de la transparence des algorithmes, en le traitant à travers les principes de loyauté, de neutralité, de simplicité et d’explicabilité (« les responsables des ressources humaines ne doivent pas appuyer leurs décisions sur le résultat d’ algorithmes dont ils ne peuvent expliquer en détail la logique, les critères et les pondérations. Plus un algorithme est complexe, moins il sera évident de comprendre la logique des résultats qu’il proposera, et moins la décision qui en résultera relèvera d’une logique construite et responsable »), et enfin, de maîtrise (« tout algorithme visant à remplacer un processus doit être co-construit, et au minimum validé par les responsables des ressources humaines qui en auront analysé les impacts dans le cadre d’une étude spécifique »), principes applicables à toute la chaîne des sous-traitants ;
  • restitution : les données brutes, comme celles transformées, doivent être restituées sur demande du collaborateur ;
  • structuration et stockage : « Le responsable du traitement doit s’assurer de la sécurité et de la confidentialité des données conservées, y compris lorsqu’il a confié le traitement à un sous-traitant , ou lorsqu’il a mis en relation au moins un de ses salariés avec un tiers-fournisseur ».
 
Avec un focus particulier sur la nécessité de sensibiliser les collaborateurs pour instiller une réelle culture de la donnée dans chaque entreprise.
 
Une méthode collaborative, soutenue par la Cnil
Ce projet de charte éthique va dans le bon sens pour le digital champion de la France auprès de la Commission européenne, Gilles Babinet : « il faut saluer l’initiative du Lab-RH et de la CFE-CGC, parce qu’il est naïf de penser que de grands textes, en particulier le RDPG, vont réussir à traiter l’ensemble des problématiques nouvelles qui apparaissent » avec le développement notamment de l’intelligence artificielle.
 
Un projet élaboré en mode collaboratif : « on travaille avec la Cnil qui s’engage avec nous à revoir et diffuser le document final que l’on remettra début juin », souligne Jérémy Lamri.
 
Une large consultation va maintenant être ouverte à tous les acteurs (RH et autres partenaires syndicaux, notamment) de la mi-février à la mi-avril, sous la forme de trois/quatre ateliers de travail.
 
Elle devrait aboutir à un guide de bonnes pratiques destiné à accompagner les entreprises dans une démarche vertueuse, celle du choix d’instruments de gestion des ressources humaines qui soient ethic by design.
 
Ce choix de la soft law pourrait être accompagné de la mise en place d’un label. C’est en tout cas une hypothèse étudiée par le Lab RH qui aurait alors recours à une société dont le métier est précisément de d’auditer les algorithmes RH : « on va travailler avec cette société pour avancer sur un label algorithmique RH », précise le co-fondateur du Lab-RH.
 
Une première charte éthique destinée, également, à encourager d’autres secteurs à produire leur propre régulation éthique…
Source : Actualités du droit