Le Scan : trouver un emploi grâce à l’intelligence artificielle, une bonne idée ?

Trouver des conseils pour s’orienter professionnellement n’aura jamais été aussi facile au nord du pays. Le Vlaamse Dienst voor Arbeidsbemiddeling en Beroepsopleiding (VDAB), l’organe d’aide aux demandeurs d’emploi flamand, étend ses services et propose dorénavant aux chercheurs d’emploi de trouver leurs orientations professionnelles plus rapidement et plus facilement grâce à l’intelligence artificielle (IA) via l’outil Jobbereik. Il suffit d’uploader son CV, l’IA se charge du reste. Sur l’écran s’affiche une multitude de propositions en lien avec les compétences et les intérêts que l’algorithme aura décelés. Après avoir mis des mots sur les différentes orientations professionnelles s’offrant à lui, le chercheur d’emploi ne pourra que mieux naviguer entre les offres.

3 images
La page d’accueil de l’outil Jobbereik propose d’y uploader son CV, l’IA se charge du reste. © RTBF

Un outil complémentaire

La Flandre bénéficie d’un budget plus élevé dans le secteur comparé à Bruxelles et à la Wallonie. Ces méthodes 2.0 n’y sont pas encore aussi développées. Yossra M’Rini est manager opérationnel chez Actiris. Elle rappelle que même si l’outil est d’une aide certaine, les conseils d’un professionnel restent toujours préférables : “Si je prends la population bruxelloise, il y a quand même un pourcentage de chercheurs d’emploi qui sont en fracture numérique et ils n’ont soit pas accès à ces outils-là ou n’ont pas les connaissances nécessaires en informatique. On en a d’autres qui ont accès à cet outil, qui peuvent l’utiliser, mais qui sont peut-être émotionnellement ou psychologiquement dans un état différent. À l’heure d’aujourd’hui, l’intelligence artificielle ne peut pas répondre à ces besoins-là”.

Parmi tous les résultats que nous avons obtenus, peu sont adéquats et certains sont surprenants. Notre CV factice décrivait le profil d’un jeune homme tout droit sorti d’une école de commerce. Jobbereik nous a pourtant proposé, entre autres, de devenir cuisinier, peintre ou journaliste. Selon Yossra M’Rini ces débouchées ne sont pas pertinentes mais sont explicables : “Le chercheur d’emploi exprime clairement dans son CV qu’il souhaite s’orienter vers la gestion et la structuration de projets complexes. Cependant je ne mettrais pas ces débouchés de côté. Je proposerais à la personne un entretien ou un contact pour qu’on puisse en discuter. Il se peut qu’effectivement le CV le présente comme un project manager, mais il se peut que ses envies soient totalement différentes. Il est peut-être dans une dynamique de reconversion professionnelle. Donc c’est un outil intéressant que je pourrais utiliser dans ma pratique de tous les jours pour aider le chercheur d’emploi. En tout cas, ceux qui sont dans cette demande de reconversion professionnelle”.

Des enjeux éthiques contre la discrimination

À l’instar du VDAB, de nombreuses grandes entreprises comme IKEA, Unilever ou Amazon misent sur l’IA pour accélérer le processus d’embauche. Des algorithmes se chargent de sélectionner les CV intéressants et des “chatbots” s’entretiennent avec les candidats lors des phases préliminaires de recrutement. L’entreprise russe Stafory propose par exemple les services de son robot Vera pour faire passer des entretiens d’embauche.

3 images
L’entreprise russe Stafory propose les services de son robot Vera pour faire passer des entretiens d’embauche. © RTBF

Petit hic, un scandale a récemment éclaté chez Amazon. Un outil de recrutement intelligent chargé de trier les CV des candidats potentiels avait tendance à recruter plus d’hommes que de femmes. Un biais qui s’explique par la composition des données que l’intelligence artificielle d’Amazon avait emmagasiné pour nourrir son algorithme. L’IA était chargée d’analyser les critères à retenir dans les CV du personnel engagé sur les dix années précédentes. Seulement, plus d’hommes avaient été recrutés que de femmes durant cette période. Dans la logique de l’IA, l’embauche d’un homme semblait alors préférable à celui d’une femme et le mot “femme” s’est vu systématiquement pénalisé. Le problème a été corrigé depuis par Amazon, mais rien ne garantit que l’algorithme ne se base pas sur d’autres facteurs discriminants.

Un cas qui est loin d’être isolé. Selon Nathalie Smuha, chercheuse à la KUL sur les questions éthiques et juridiques de l’IA, la logique de ce genre de système n’est que le résultat d’un biais préexistant : “Si un système IA fonctionne avec l’apprentissage informatique, il faut lui donner plein d’informations pour le former et constituer une grande base de données. Mais souvent ces données ne sont pas très représentatives. Ce sont généralement des données sur des hommes blancs, beaucoup moins sur des femmes ou des gens avec une couleur plus foncée de peau. Et donc le système IA apprend à reconnaître ces groupes-là et pas d’autres. Un système IA reflète un peu la société. Tant qu’il y a des inégalités, on les retrouvera aussi dans les systèmes IA. Donc il faut éduquer les développeurs des systèmes, mais aussi changer la société”.

Des data journalistes allemands du Bayerischer Rundfunk ont d’ailleurs analysé les biais éventuels que peut poser une IA de recrutement en vidéo conférence. Il en ressort que de légers détails peuvent altérer les résultats. Des détails anodins comme l’exposition de l’image, le port de lunettes, le foulard ou la présence d’une bibliothèque en arrière-plan ont tous une influence significative sur les résultats.

3 images
La présence de livres en arrière-plan influence grandement les résultats d’un entretien d’embauche mené par une IA. © BR24

Prévoir les dérives en amont

Comment le VDAB peut-il garantir que son algorithme soit objectif et équitable ? On nous renvoie vers la société Radix. Ce sont eux qui ont développé les outils qu’emploie le service flamand. L’entreprise est consciente des enjeux que pose l’IA en matière d’équité. Chez Radix, selon Davio Larnout, CEO de l’entreprise, on cible les biais dès le début du projet : “C’est un peu comme avec la sécurité, vous ne pouvez pas construire votre maison et la sécuriser après coup. Vous devez le faire dès le premier jour. C’est la même chose avec les systèmes d’IA. Dès le premier jour vous devez être très conscient des dérives possibles et les implémenter de la bonne manière”.

Prévoir les dérives d’une IA n’est pas toujours chose simple, car cela implique la collaboration d’individus aux professions diverses qui ne se comprennent pas toujours. Des lignes directrices existent au niveau européen pour aider les entreprises souhaitant innover dans la technologie à éviter les dérapages en matière de discrimination et d’éthique. Une adaptation législative est en préparation, mais les recommandations sont encore vagues, car chaque domaine d’application possède ses propres spécificités.

Nathalie Smuha veut aller plus loin et entreprend avec d’autres chercheurs d’adapter ces recommandations au secteur des ressources humaines : “Le problème c’est que ces lignes directrices s’appliquent à tous les domaines. Mais un système IA dans la médecine n’a pas les mêmes soucis éthiques que dans un système de recrutement. Donc on va adapter ces lignes directrices pour déjà aider des organisations à améliorer leurs systèmes IA et les rendre plus éthiques”.

Les outils 2.0 du VDAB simplifient le processus de recherche d’emploi, mais il faut garder à l’esprit que de tels algorithmes ne sont que les fruits des données qu’on leur fournit. L’interprétation des résultats nécessite encore l’aide de professionnels qualifiés et il faudra constamment veiller à ce que cette technologie reste équitable pour tous et toutes.

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK