Recrutement basé sur l'IA : Une expérience révèle le racisme du GPT de l'OpenAI
Les programmes d'embauche automatisés basés sur le GPT d'OpenAi sont utilisés par les entreprises pour sélectionner les candidats aux postes annoncés. Les recruteurs utilisent cet outil pour gagner du temps, mais comme l'a montré une expérience de Bloomberg inspirée par des études de référence ( ), l'intelligence artificielle est biaisée lorsqu'elle évalue et sélectionne les candidats l'intelligence artificielle est biaisée lorsqu'elle évalue et sélectionne les candidats.
Le problème est que le modèle d'IA sous-jacent tire ses informations de vastes quantités de données telles que des articles, des commentaires en ligne et des messages sur les médias sociaux, qui peuvent contenir des propos racistes, misogynes et bien d'autres contenus discriminatoires. Par exemple, l'étude approfondie a utilisé des noms fictifs (et des CV) associés à une ethnie particulière pour postuler à un emploi réel.
Les noms choisis étaient ceux de femmes et d'hommes noirs, blancs, hispaniques ou asiatiques. L'expérience a été menée 1 000 fois pour un emploi réel d'analyste financier ( ) avec des centaines de noms et de combinaisons de noms différents, puis elle a été répétée pour quatre autres emplois d'ingénieurs logiciels et d'autres groupes professionnels et d'autres groupes professionnels.
Les noms de certains groupes démographiques ont été clairement favorisés par le GPT-3. Par exemple, les noms de femmes américaines d'origine asiatique ont été les mieux classés pour un poste d'analyste financier, tandis que les noms indiquant clairement des hommes noirs ont été les moins bien classés, mais les noms indiquant des femmes noires n'ont également été classés comme meilleurs candidats pour un poste d'ingénieur logiciel qu'environ 11 % du temps - soit environ 36 % de moins que le groupe ayant obtenu les meilleurs résultats.
En tant que meilleur candidat pour un poste en ressources humaines - un domaine de carrière dans lequel les femmes sont historiquement plus susceptibles de travailler - GPT a sélectionné des noms associés à des femmes hispaniques beaucoup plus souvent, et en tant que meilleur candidat pour un poste de partenaire commercial en ressources humaines ( ), les noms associés à des hommes ont été sélectionnés pour le poste de partenaire commercial en ressources humaines (HR Business Partner) les noms associés aux hommes ont été sélectionnés presque deux fois plus souvent. Il ne s'agit là que de quelques exemples tirés de la vaste expérience https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/.
Bien que l'on suppose souvent que l'IA est plus neutre et qu'elle peut émettre de meilleurs jugements, cette expérience montre le contraire. Le biais a été constaté non seulement pour GPT-3, mais aussi pour GPT-4.
Source(s)
Top 10
» Le Top 10 des PC portables multimédia
» Le Top 10 des PC portables de jeu
» Le Top 10 des PC portables de jeu légers
» Le Top 10 des ordinateurs portables bureautiques
» Le Top 10 des PC portables bureautiques premium/professionnels
» Le Top 10 des Stations de travail mobiles
» Le Top 10 des Ultraportables
» Le Top 10 des Ultrabooks
» Le Top 10 des Convertibles
» Le Top 10 des Tablettes
» Le Top 10 des Tablettes Windows
» Le Top 10 des Smartphones
» Le Top 10 des PC Portables á moins de 300 euros
» Le Top 10 des PC Portables á moins de 500 euros
» Le Top 25 des meilleurs écrans d'ordinateurs