Continuer sans accepter

Bonjour et bienvenue sur le site d’AEF info
Vos préférences en matière de cookies

En plus des cookies strictement nécessaires au fonctionnement du site, le groupe AEF info et ses partenaires utilisent des cookies ou des technologies similaires nécessitant votre consentement.

Avant de continuer votre navigation sur ce site, nous vous proposons de choisir les fonctionnalités dont vous souhaitez bénéficier ou non :

  • Mesurer et améliorer la performance du site
  • Adapter la publicité du site à vos centres d'intérêt
  • Partager sur les réseaux sociaux
En savoir plus sur notre politique de protection des données personnelles

Vous pourrez retirer votre consentement à tout moment dans votre espace « Gérer mes cookies ».
Revenir en haut de la page
Home| Social / RH| Ressources humaines| Dépêche n°579389

Algorithmes : une charte "éthique et numérique RH" conçue par le Lab RH et la CFE-CGC pour éviter les discriminations

L'explosion des capacités de traitement et de croisement des données, associée à la digitalisation croissante à l'œuvre au travail comme dans la vie personnelle, ouvre des perspectives nouvelles en gestion des ressources humaines, mais pose également de nombreuses questions éthiques. Qu'il s'agisse de recrutement ou de gestion des carrières, l'automatisation de certains process RH implique de se pencher sur la manière dont sont conçus les algorithmes. Présentée mercredi 31 janvier 2018, la charte "éthique et numérique RH" conçue par l’association des start-up spécialisées dans les ressources humaines, le Lab RH, et la CFE-CGC, a vocation à "poser un cadre de bonnes pratiques" et de principes à respecter dans la conception et l'utilisation de solutions numériques. La charte proscrit notamment certains usages tels que le "matching prédictif" appliqué à des individus.

   Merci de découvrir AEF info !

Cette dépêche est en accès libre.

Retrouvez tous nos contenus sur la même thématique.

Tester AEF info pendant 1 mois
Test gratuit et sans engagement
  • Thématiques
  • Coordonnées
  • Création du compte

Thématiques

Vous demandez à tester la ou les thématiques suivantes*

sur5 thématiques maximum

1 choix minimum obligatoire
  • Social / RH
  • 👁 voir plus
    ✖ voir moins

Fréquence de réception des emails*

Un choix minimum et plusieurs sélections possibles. Vous pourrez modifier ce paramétrage une fois votre compte créé

Un choix minimum obligatoire

* Champs obligatoires

Coordonnées

Renseignez vos coordonnées*

Veuillez remplir tous les champs
Votre numéro de téléphone n'est pas valide

* Champs obligatoires

Création de compte

Tous les champs sont obligatoires
Votre adresse e-mail n'est pas valide
Seulement les adresses e-mails professionnelles sont acceptées

Cette adresse vous servira de login pour vous connecter à votre compte AEF info

Votre mot de passe doit contenir 8 caractères minimum dont au moins 1 chiffre
Ces mots de passe ne correspondent pas. Veuillez réessayer

Votre mot de passe doit contenir 8 caractères minimum dont 1 chiffre

En validant votre inscription, vous confirmez avoir lu et vous acceptez nos Conditions d’utilisation, la Licence utilisateur et notre Politique de confidentialité

* Champs obligatoires

Valider

Merci !

Nous vous remercions pour cette demande de test.

Votre demande a été enregistrée avec l’adresse mail :

Nous allons rapidement revenir vers vous pour vous prévenir de l’activation de votre nouvel accès.

L’équipe AEF info


Une erreur est survenue !

Une erreur est survenue lors de l'envoi du formulaire. Toutes nos excuses. Si le problème persiste, vous pouvez nous contacter par téléphone ou par email :
 service.clients@aefinfo.fr  01 83 97 46 50 Se connecter

Présent dans la vie professionnelle, le numérique offre de nouvelles perspectives à la gestion des ressources humaines. Qu’il s’agisse de trier de manière automatisée les candidatures en fonction d’objectifs précis, de croiser des données pour "prédire" des comportements, de générer des recommandations sur la base de données de carrière de collègues ou de mettre au point un chatbot comme interlocuteur des salariés dans une entreprise, les propositions d’applications se réclamant des algorithmes ou de l’intelligence artificielle sont aujourd’hui nombreuses.

Pour encadrer ces pratiques tout en permettant leur développement, l’association des start-up spécialisées dans les ressources humaines, le Lab RH, officialise une charte "éthique et numérique RH", mercredi 31 janvier 2018. Rédigée en collaboration avec la CFE-CGC, cette charte "a pour objet de poser un cadre de 'bonnes pratiques' pour l’utilisation de solutions numériques", "afin que les droits, libertés et sensibilités de chacun(e) soient respectés". Selon les rédacteurs du texte, "certaines pratiques, en dehors de toute considération réglementaire, suscitent des interrogations quant à l’éthique qu’elles embarquent" et "un flou considérable demeure actuellement sur les sujets d’utilisation des données".

La charte a vocation à être enrichie et "validée par la Cnil", précise Jérémy Lamri, président du Lab RH. Pour s'assurer de sa mise en pratique, l'association va mettre sur pied une "commission éthique" qui planchera dans le détails sur les différentes applications possibles dans des champs RH tels que la formation ou la mobilité interne.

maîtriser des machines "qui ne comprennent pas les RH"

Même si "les traitements algorithmiques semblent encore aujourd’hui limités", "le frémissement est tangible : le nombre de start-up ayant pour objet les RH est passé de 200 à 600 en l’espace de deux ans", constatait la Cnil dans un rapport sur les algorithmes à l’ère de l’intelligence artificielle, rendu public en décembre dernier (lire sur AEF).

"Il y a des start-up qui se créent sans se poser la question éthique", souligne Jérémy Lamri, par ailleurs fondateur de Monkey tie, une entreprise spécialisée dans la gestion des talents. "Le problème, c’est qu’on achète des logiciels à des gens qui font des machines […] et qui ne comprennent pas les RH", ajoute-t-il. Selon lui, la loi informatique et libertés comme le règlement européen sur la protection des données personnelles, qui devra être appliqué en France à partir du 25 mai 2018, ne suffisent pas à garantir une utilisation éthique de ces outils car ces législations n’exigent aucune "obligation de résultat".

Identifier les critères discriminants

L’effet discriminatoire à la loupe

La discrimination constitue l’un des principaux risques potentiels associés aux algorithmes et à l’intelligence artificielle : un rapport centré sur les conséquences sur l’égalité hommes-femmes doit prochainement être rendu à la secrétaire d’État Marlène Schiappa (lire sur AEF).

Exemple : s’il est illégal de sélectionner des candidatures en fonction du sexe, de l’âge ou de la couleur de peau, retenir un critère de recrutement - celui-ci légal - tel que celui de l’école reste discutable car cela ne garantit pas d’avoir "les meilleurs candidats". "L’entreprise va être tentée d’avoir un maximum d’informations, dans la logique d’un assureur, qui est rationnelle mais pas éthique", souligne Éric Pérès, vice-président de la Cnil et secrétaire général de FO Cadres. Par exemple, choisir un candidat en fonction de sa probabilité de partir au bout d’une certaine période pose des questions de méthodologie : cela expose à des risques potentiels de discrimination si les algorithmes utilisés opèrent des corrélations associant différents types de données personnelles (rapport entre adresse et absentéisme ou âge par exemple).

"On ne veut pas qu’avec le développement d’outils prédictifs […] on prenne des décisions qui vont affecter l’évolution de la carrière des salariés", souligne la déléguée nationale à l’économie de la CFE-CGC Raphaëlle Bertholon, corédactrice de la charte. La CFE-CGC veut par cet engagement "mettre le sujet des données et de leur utilisation au cœur du dialogue social", d’autant que les organisations syndicales peuvent, depuis la loi du 18 septembre 2016 de modernisation de la justice, exercer une action de groupe en matière de protection de données à caractère personnel. "Il faut former les collaborateurs à la culture de la donnée", souligne-t-elle. Le rappel et le respect du cadre légal, la question de la maîtrise des données par son utilisateur par le biais du consentement à les communiquer et le droit de se les voir restituer constituent les principales préoccupations de la confédération des cadres.

Toute la question est ainsi de définir "à quoi sert le processus", selon Jérémy Lamri. Selon lui, la principale perspective offerte aux RH avec les technologies numériques sur ce sujet est de permettre "une plus grande diversité" dans les entreprises. "L’outil, une fois bien utilisé, n’aura pas de préférence et n’entraînera pas de discrimination", estime-t-il, se déclarant favorable à une démarche de labellisation en la matière.

les outils prédictifs fortement déconseillés dans les ressources humaines

La charte désigne ainsi une série de pratiques "à proscrire strictement" dans le cadre d’un "recueil automatique de données personnelles sans le consentement de l’individu concerné" : sont notamment visés "la récupération automatique de BioData" sur les profils LinkedIn ou les données personnelles trouvées sur un moteur de recherche, l'"analyse automatique du comportement à partir du profil Facebook, d’éléments de navigation ou de toute autre donnée, la récupération massive et automatisée de données (crawling) ou la captation d’informations biométriques".

Le recueil manuel de données "par un tiers sans le consentement de l’individu concerné" est, lui, "à éviter, sauf à s’assurer que le tiers dispose des autorisations nécessaires" et doit "s’effectuer de façon claire, lisible et concise". Ainsi, "le recueil du consentement au travers d’une acceptation de conditions générales d’utilisation volumineuse et illisible est à proscrire".

De même, le matching prédictif, dont le principe est de prévoir des phénomènes futurs sur la base d’événements passés, "ne doit pas être appliqué pour la gestion RH". "Ainsi, dans la mesure où le matching prédictif est basé sur des représentations statistiques, c’est sur le plan des populations qu’il doit être appliqué, afin de définir des tendances et informations de contexte pour un métier ou famille de métiers, un secteur d’activité, un groupe d’individus. Chaque individu doit être sujet à un matching qui ne réduit pas sa compatibilité à une moyenne statistique ou des personnes a priori similaires", peut-on lire dans la charte.

protection des données "sensibles"

La charte rappelle par ailleurs les principes du règlement européen sur la protection des données, qui fait actuellement l’objet d’une transposition législative au niveau français, avec un projet de loi en cours d’examen, en vue d’une entrée en vigueur au 25 mai 2018. Le texte mentionne et définit les devoirs suivants : transparence, recueil du consentement, limitation des finalités, minimisation des données, limitation de la durée de conservation, confidentialité et sécurité, et responsabilité. Un article est également consacré aux bonnes pratiques pour l’acquisition des données, où les auteurs précisent que "le refus, par un individu, de recueillir ses données personnelles, ne peut constituer pour l’individu en question un critère de discrimination".

Document unique d’évaluation des risques


Pour s’assurer de la maîtrise de l’algorithme et "afin de permettre un échange avec les partenaires sociaux", "l’entreprise intégrera cet item dans son document unique d’évaluation des risques professionnels", est-il conseillé dans la charte.

Le traitement algorithmique des données doit, lui, respecter une série de principes qui doivent impliquer aussi les tiers fournisseurs:

  • loyauté : les personnes doivent être informées du traitement et de sa finalité, ainsi que des différents droits dont elles disposent et de leurs modalités d’exercice ;
  • neutralité : le traitement ne doit "en aucun cas permettre d’aboutir à une donnée sensible" ;
  • simplicité et explicabilité : "plus un algorithme est complexe, moins il sera évident de comprendre la logique des résultats qu’il proposera, et moins la décision qui en résultera relèvera d’une logique construite et responsable" ;
  • maîtrise : "tout algorithme visant à remplacer un processus doit être co-construit, et au minimum validé par les responsables des ressources humaines qui en auront analysé les impacts dans le cadre d’une étude spécifique";
  • précaution : "les modèles statistiques issus des données du passé ne présentent objectivement aucune validité pour le futur" ;
  • sous-traitance : "l’entreprise donneuse d’ordre doit s’assurer que le sous-traitant présente les mêmes garanties de protection".

Restitution des données

Enfin, en bout de chaîne, la charte fait des recommandations en matière de restitution des données. Ainsi, "les données brutes doivent pouvoir être restituées à un individu sans possibilité de mener à une action involontaire ou volontaire de discrimination, en lien avec le format de restitution des données", précise la charte.

L’individu doit par ailleurs "être informé des droits dont il dispose lors de la restitution des traitements le concernant, en particulier son droit à ne pas faire l’objet d’une décision si le traitement est un traitement automatisé et produisant des effets juridiques".

à lire aussi
Fermer
Bonjour

Vous souhaitez contacter

Catherine Abou El Khair, journaliste