De janvier à octobre, la CNIL a animé un débat public ouvert et innovant sur les enjeux éthiques des algorithmes et de l’intelligence artificielle et leur nouvelle place dans notre quotidien.

 

AdobeStock 258051576

Le rapport de synthèse remis en décembre 2017 appelle à la responsabilisation de tous dans le développement de l’intelligence artificielle. Cette responsabilisation passe par une meilleure formation des acteurs : concepteurs, professionnels, citoyens. Le rapport appelle aussi à une plus grande transparence sur l’usage des algorithmes et à renforcer la fonction éthique au sein des entreprises.
Plus spécifiquement, l’intelligence artificielle a fait irruption dans le domaine du recrutement. Ces techniques qui  offrent aux recruteurs des opportunités infinies dans le ciblage, la sélection des candidats et tout au long du processus de recrutement ne sont pas exempte de biais et risques de dérives.

  1. Usage des algorithmes dans le processus de recrutement
  2. Risques de ces pratiques
  3. Différence entre contexte français et américain

L’usage des algorithmes dans le processus de recrutement

Le groupe de travail de l’AFMD (association française des managers de la diversité) définit l’intelligence artificielle comme « une technique visant à permettre à des machines de mimer le fonctionnement de l’intelligence humaine, tout particulièrement sa logique dans une prise de décision ». L’algorithme traduit la règle d’intelligence artificielle

Le groupe de travail AFMD identifie 2 types d’algorithmes utilisés dans d’intelligence artificielle : l’Algorithme reproduisant un raisonnement analytique et le machine learning

Le Machine learning est un apprentissage automatique basé sur des principes statistiques. Il comprend des sous-ensembles comme le réseau de neurones et le Deep learning

Le machine learning dépend de 3 types d’apprentissage

  • Apprentissage supervisé
  • Apprentissage non supervisé
  • Apprentissage par renforcement
    • Ces apprentissages permettent de reproduire plusieurs fonctions humaines

Des algorithmes peuvent être utilisés à différents stades du recrutement. L’étude menée par l’Equal Employement Opportunity Commission propose un tour d’horizon des pratiques constatées en Amérique du Nord

  • Au stade de la recherche de candidature

Les outils d’intelligence artificielle permettent grâce à des algorithmes de détecter dans les CVthèqes des candidats actifs ou non actifs dont le profil correspond aux annonces des recruteurs. Une offre d’emploi peut leur être envoyée automatiquement.

L’activité du candidat passif sur internet peut générer une offre d’emploi. Ainsi un candidat qui a postulé à une offre d’emploi similaire peut se voir proposer de postuler pour une autre entreprise, quand bien même il n’a pas manifesté d’intérêt particulier pour l’employeur.

  • Au stade de la qualification

Les algorithmes sont en mesure d’apprécier et noter la candidature en fonction de divers critères

  • Des critères définis par l’employeur (exigences de diplômes et d’expérience par exemple)
  • Des critères de prédiction définis à travers le profil type du bon candidat
  • Le logiciel proposera une short list de candidats notés à partir des exigences de l’employeur mais aussi d’une quantité d’informations acquises par le machine learning

Les logiciels sont également en mesure

  • de proposer des tests : langues, test psychologiques
  • d’engager un chat avec un candidat pour évaluer son niveau de réponse et son adéquation réelle avec l’offre
  • Au stade de la sélection les logiciels peuvent évaluer les candidats
    • Sur la qualité de leur prestation orale et leur motivation
    • Mais aussi sur des données visuelles ou sensitives telles que l’intonation, la voix, le regard
      • Toutes les données visuelles du candidat sont évaluées et notées par une intelligence artificielle
      • Cette évaluation sur l’apparence pose un problème juridique et éthique
    • Au stade final de la sélection l’intelligence artificielle peut :
      • Classer les candidats
      • Vérifier les diplômes et les qualifications
      • Proposer une fourchette de salaire que le candidat est susceptible d’accepter

Au titre des avantages, ces techniques permettent de sélectionner rapidement parmi des centaines de candidatures les bons profils et notamment d’éliminer les candidats qui n’ont pas les pré-requis pour postuler.

Par ailleurs les éditeurs de logiciel de recrutement font valoir que l’automatisation de la sélection évite les biais interpersonnels, dans la mesure où l’algorithme n’est pas conditionné par des stéréotypes, des préjugés, comme l’être humain. Les algorithmes permettraient donc d’offrir un recrutement plus objectif basé uniquement sur les compétences et l’expérience du candidat.

Risques de ces pratiques

Les chercheurs s’alarment sur ces nouvelles possibilités de recrutement basées sur les algorithmes

  • Les risques de discrimination peuvent être accrus par le machine learning
    • Les algorithmes s’entraînent sur la base de recrutements ou d’évaluations réussis
    • Il existe un risque de reproduire des erreurs de recrutement ou de ne recruter que parmi une population homogène, ce qui constitue une discrimination indirecte
    • La technique de l’entretien vidéo accroit le risque de discrimination
      • La discrimination sur l’apparence physique est rendue possible par l’analyse qui est faite des traits et des expressions
      • les personnes handicapées ou souffrant de maladies chroniques impactant leur expression risquent d’être encore plus défavorisées
    • La protection des données personnelles n’est plus garantie
      • Lors du sourcing, les moteurs de recherche peuvent aspirer toute information relative à un candidat passif, sans qu’il ait donné son autorisation à cette utilisation
      • Au stade de la qualification, les candidats ne sont pas nécessairement informés de l’usage qui est fait de leur image et de leur entretien-vidéo et ne donnent pas nécessairement un consentement éclairé
    • Aucune limite ne semble posée à l’utilisation du CV vidéo quant à son usage, son évaluation et sa conservation
    • Enfin la pratique du ranking /scoring effectuée par la machine peut influer abusivement les recruteurs et constituer une perte de chance pour de bons candidats

Les groupes d’experts français et américains proposent de faire auditer les logiciels de recrutement par des experts indépendants pour évaluer leur pertinence et les garanties qu’elles apportent quant au respect de la vie privée et de l’égalité de traitement.

Dans son article Entretien vidéo et Intelligence artificielle Jean-François Amadieu propose de combler les lacunes de la législation actuelle en prenant rapidement les mesures suivantes :

  • Interdiction du recrutement sur l’apparence physique par l’intermédiaire des algorithmes
  • Validation des techniques de recrutement par algorithme par le défenseur des droits
  • Recueil du consentement éclairé des candidats qui envoient des CV vidéo

La différence entre le contexte français et nord américain

La France est protégée par des textes qui tiennent lieu de garde-fou contre l’utilisation abusive des données informatiques d’une part et les risques de discrimination d’autre part :

Le RGPD interdit sur l’ensemble du territoire européen le traitement et la collecte illégale de données. Le RGPD s’impose à tout responsable de traitement, éditeur ou hébergeur de données dès lors qu’il produit des effets sur le territoire européen ou vis-à-vis de citoyens européens. Des sanctions peuvent être prononcées, même à l’égard d’entreprises américaines.

Le RGPD dont les dispositions ont été reprises par la loi Protection des données du 20 juin 2018 garantit les droits fondamentaux des personnes fichées :

  • Droit d’accès à leurs données
  • Droit de faire rectifier leurs données
  • Droit de s’opposer au traitement de leurs données
  • Le droit à l’oubli permet de demander à un moteur de recherche de supprimer les résultats ou recherches associées à son nom
  • Sont interdits, par l’article 9 du RGPD, le traitement de données relatives à l’origine raciale ou ethnique, les opinions politiques, religieuses ou philosophiques, le traitement de données génétiques ou biométriques, les données concernant la santé, la vie sexuelle ou l’orientation sexuelle
  • Enfin le consentement éclairé doit être donné pour toute utilisation de données personnelles
    • Le consentement doit être libre, spécifique et éclairé
    • Il s’agit d’un acte positif, clair et univoque
    • Par conséquent, un moteur de recherche qui souhaiterait utiliser une photo à des fins de sélection devrait en informer le candidat

Les employeurs sont soumis à une obligation de neutralité et doivent s’interdire toute discrimination, en application de l’article L1132-1 du Code du travail, dans le recrutement et dans le déroulement de carrière d’un salarié. Le défenseur des droits est garant du respect de l’égalité de traitement.

En France, la charge de la preuve de la discrimination appartient à l’employeur ou l’administration mise en cause. Cela signifie qu’une personne, victime d’une discrimination n’a pas à démontrer la discrimination mais qu’il appartient au défendeur de prouver l’absence de discrimination.

Enfin, le  récent référentiel de la CNIL relatif au traitement des données à des fins de gestion du personnel constitue un manuel de conduite pour tout employeur public ou privé. On notera, entre autres,  qu’une étude d’impact est désormais requise pour tout traitement RH faisant appel à des algorithmes.

Aux Etats-Unis la réglementation apparaît moins protectrice :

Il n’existe pas de loi fédérale limitant le traitement des données personnelles, à l’instar du RGPD. Aucune loi n’interdit le traitement des données d’un internaute sans son accord.

En ce qui concerne la lutte contre les discriminations les employeurs américains sont soumis à une obligation de non-discrimination mais le champ de la discrimination varie :

  • Les discriminations fondées sur la race, la couleur, le sexe et la nationalité sont interdites au niveau fédéral
  • Certaines lois locales sont plus protectrices et interdisent les discriminations fondées sur les orientations sexuelles ou les politiques publiques
  • On peut noter que l’apparence physique n’est pas un critère de discrimination

L’EEOC (Equal Employement opportunity Commission) produit un guide de bonnes pratiques pour les recruteurs, mais ce guide n’a pas été mis à jour depuis l’émergence de nouvelles technologies.

Il faut noter qu’en cas de plainte, la charge de la preuve appartient au demandeur (plaignant) et que celle-ci est souvent difficile à établir.

Enfin la discrimination positive est possible aux Etats Unis et peut constituer un critère de recrutement intégré dans le machine learning. Les données relatives à l’appartenance ethnique, la couleur, la religion peuvent être collectées à cette fin.

L’autorégulation reste la norme : l’EOOC note, que les éditeurs, conscients des biais induits par leurs technologies les font évoluer rapidement. Cependant, la régulation pourrait être renforcée, notamment via un système de certification des logiciels.

Conclusion

La législation française semble globalement plus protectrice du citoyen que les normes américaines. Mais, même renforcé, cet encadrement juridique ne trouvera son efficacité qu’accompagné d’une politique de sensibilisation à destination du grand public et d’une formation renforcée des professionnels du développement informatique et des ressources humaines.

Merci à Muriel Baudot, responsable du Service Prospective RH et gestion des compétences chez Plaine Commune, pour la rédaction de cet article

Sources

  1. Entretiens vidéo et intelligence artificielle Une nécessaire régulation –Jean-François Amadieu novembre 2019
  2. Recruter avec des algorithmes ? Usages, opportunités et risques Christine Bargain | Marie Beaurepaire | Dorothée Prud’homme - Association Française des Managers de la Diversité (AFMD) – mai 2019
  3. Help Wanted, An Examination of Hiring Algorithms, Equity, and Bias Miranda Bogen Aaron Rieke, décembre 2018
  4. Rapport de la CNIL Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle - 15 décembre 2017
  5. CNIL Délibération no 2019-160 du 21 novembre 2019 portant adoption d’un référentiel relatif aux traitements de données à caractère personnel mis en œuvre aux fins de gestion du personnel

Les objectifs de notre association

icon

Partager

Les journées d’étude sont organisées autour d'un thème pertinent avec un animateur, un retour d'expérience et un tour de table, les ateliers permettent aux membres d'échanger sur un sujet d'actualité, et l'espace membres offre la possibilié de communiquer avec les autres membres et de consulter l'ensemble des documents.

icon

Se tourner vers l'avenir

L'université de printemps en résidentiel est composée de 4 ateliers différents sur l'avenir du SIRH, du contrôle de gestion sociale et des CSP RH, le programme est élaboré par le bureau.

icon

S'ouvrir

Les rencontres du digital et de la performance RH sont ouvertes à toute la communauté et rassemblent une soixantaine de personnes autour de quatre ateliers et de deux grands débats

icon

Mesurer et donner les tendances

Les benchmarks sont organisés annuellement et fournissent l'état de l'art du SIRH, du contrôle de gestion sociale et des CSP RH dans une dimension différente chaque année (CaC 40, Digital RH, international, CSP RH, etc..)

icon

Transmettre

Le Mooc est à destination de ceux qui veulent découvrir le SIRH, les ouvrages pour ceux qui veulent approfondir leurs connaissances sur le SIRH et le forum pour ceux qui cherchent une formation en école / université

79

entreprises / écoles membres

168

répondants à l'étude de la fonction SIRH

194

documents dans l'espace membres

81

entreprises au benchmark SIRH