L’IA de ChatGPT : Discrimination envers les CV indiquant un handicap

L’IA est souvent louée pour son potentiel à révolutionner de nombreux secteurs, y compris le recrutement. Cependant, ce pouvoir n’est pas sans défis. Un sujet préoccupant est la capacité de systèmes d’IA comme ChatGPT à discriminer contre les candidats ayant des handicaps sur leurs CV. Cette problématique se pose dans un contexte où les algorithmes d’IA reflètent et amplifient les biais présents dans les données de formation. Un exemple flagrant est que les CV mentionnant des compétences ou des expériences en lien avec le handicap ont souvent moins de chances de passer les filtres automatisés. Cette discrimination involontaire reflète les préjugés de la société que l’IA perpetue.

Il existe une comparaison frappante avec les préjugés raciaux déjà documentés dans les systèmes d’IA, comme la reconnaissance faciale. Certains utilisateurs sur internet avancent que cette discrimination est inten­tionnelle de la part des entreprises utilisant ces technologies pour éviter les procès. Cette idée pose un problème éthique fondamental: l’usage de la technologie pour masquer des pratiques discriminatoires légalisées. On pourrait également s’interroger sur les biais de genre que ces systèmes pourraient dissimuler, bien que certains utilisateurs rapportent des expériences où le genre n’a pas affecté le scoring des CV.

Cependant, ces biais visibles ne sont que la partie émergée de l’iceberg. Par exemple, demander à une IA d’évaluer un CV avec des noms et des pronoms différents peut aboutir à des résultats égaux mais lorsque l’on introduit des noms culturels ou traduits, la détection de genre par la machine peut patauger. Ce qui soulève une question cruciale: est-ce que l’IA favorise les noms courants par rapport aux noms rares? Les algorithmes actuels manquent souvent la capacité de comprendre pleinement la diversité, conduisant à des discrimi­na­tions subtiles mais omniprésentes.

image

Nous devrions également considérer les implications pratiques de telles discriminations pour les personnes handicapées dans le monde du travail. Par exemple, un développeur Backend totalement aveugle témoigne de ses difficultés à décider quand et comment divulguer son handicap. La perception des recruteurs et les préjugés peuvent fortement influencer leur décision, même lorsque le candidat est parfaitement qualifié pour le poste. La transparence sur ces sujets demeure une lutte continue et compliquée. Selon des utilisateurs, mentionner des compétences en accessibilité Web, par exemple, peut souvent être ignoré totalement dans la revue initiale des CV.

Un autre aspect intéressant est la nature des biais et l’impossibilité apparemment inéluctable de créer une IA “align­ée” si les humains ne produisent pas des données d’entraînement éthiques. Essentiellement, on ne peut pas espérer une IA exemp­te de biais si les données, elles-mêmes, sont biaisées. Chaque modèle s’aligne automatiquement sur les données d’entrée qui lui sont fournies, ce qui pourrait éventuellement reproduire les inégalités systémiques sans faire de distinction propre.

Pourtant, tous les biais ne sont pas facilement mesurables ou corrigeables. Par exemple, ajuster les pondérations pour éviter la discrimination envers les candidats handicapés peut pousser l’IA à favoriser de manière exagérée ces candidats, créant ainsi de nouvelles formes de partialité. Cela montre que le chemin vers une IA vraiment équitable est semé d’embuches. Les outils d’IA doivent non seulement être évolutifs techniquement mais aussi éthiquement. On peut envisager la mise en place de règlements rigoureux et de mécanismes de contrôle pour superviser ces technologies et leurs impacts.

En conclusion, la question des biais dans les IA, notamment en matière de recrutement, est un sujet brûlant qui mérite une attention continue et une régulation stricte. En tant que société, nous devons nous assurer que les outils que nous développons servent vraiment à niveler le terrain de jeu et non à approfondir les disparités existantes. En intégrant des pratiques de développement éthiques et responsables, nous pouvons œuvrer pour un futur où la technologie aide réellement à promouvoir l’inclusion et l’équité.


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *