De wereld van geautomatiseerde rekrutering stond op zijn kop door deze ontdekking. Onderzoekers van de Universiteit van Washington ontdekten aanzienlijke vooroordelen bij de verwerking van sollicitaties door ChatGPT, een AI die veel wordt gebruikt bij het screenen van cv’s. Deze onthulling roept kritische vragen op over de eerlijkheid en betrouwbaarheid van deze technieken in het rekruteringsproces.
Android 6.0.1 Marshmallow is beschikbaar voor de Motorola Moto
Resultaten
Uit het onderzoek bleek dat ChatGPT CV’s waarin een beperking werd vermeld consequent lager rangschikte. Onderzoekers gebruikten verschillende termen die verband houden met handicaps om deze hypothese te testen. De resultaten laten zien dat discriminatie zelfs met gelijkwaardige kwalificaties blijft bestaan.
De onderzoekers hebben het referentie-CV aangepast door onderscheidingen en labels toe te voegen die een handicap aanduiden. ChatGPT heeft deze gewijzigde cv’s systematisch gedevalueerd. Deze ontdekking is alarmerend voor degenen die afhankelijk zijn van kunstmatige intelligentie voor een eerlijk en rechtvaardig wervingsproces.
Resultaten en implicaties
Van de 60 onderzoeken stond het originele CV in 75% van de gevallen op de eerste plaats. Deze voorkeur geeft de voorkeur aan cv’s zonder handicap te vermelden. Dit vormt een dilemma voor kandidaten met een beperking: moet je hun beperking op je cv vermelden of niet?
iPhone 12 Pro versus Samsung Galaxy Note 20 Ultra: welke smartphone is sneller?
Zelfs in een anoniem en geautomatiseerd selectieproces blijven er vooroordelen bestaan. Deze situatie is zorgwekkend voor de integratie en gelijkheid op de arbeidsmarkt.
🔍 Samenvatting | details |
---|---|
📉 Rangschikkingsvooroordeel | CV’s waarin een handicap wordt vermeld, worden systematisch gedevalueerd door ChatGPT |
🔬 Methodologie | Gebruik aangepaste CV’s om AI-reacties te testen |
📊 Resultaten | In 75% van de gevallen heeft een origineel CV zonder vermelding van arbeidsongeschiktheid de voorkeur |
Hallucinaties door kunstmatige intelligentie: extra gevaar
ChatGPT kan rechtvaardigingen van mogelijkheden “hallucineren”. Deze hallucinaties kunnen de aanvraag schaden doordat ze oordelen baseren op onjuiste aannames over de capaciteiten van de aanvrager.
Google I/O 2016: Loterij begint vandaag
De onderzoekers merkten op dat deze vooroordelen kunnen worden verzacht door de AI-richtlijnen aan te passen. De uitkomsten blijven echter variëren afhankelijk van de gerapporteerde handicap, wat de complexiteit van het probleem onderstreept.
Om het onderzoek samen te vatten:
- ChatGPT discrimineert cv’s die wijzen op een handicap
- Vooroordelen blijven bestaan, zelfs na aanpassingen
- De behoefte aan meer toezicht op algoritmen voor kunstmatige intelligentie
De bredere context van AI-vooroordelen
Dit is niet de eerste keer dat OpenAI’s GPT-modellen worden gebruikt. Uit een eerder onderzoek zijn al duidelijke raciale voorkeuren gebleken bij het screenen van cv’s. OpenAI maakte vervolgens bezwaar en beweerde dat de tests geen praktische toepassingen weerspiegelden.
Deze nieuwe studie bevestigt dat vooroordelen niet anekdotisch zijn. Ze benadrukken een systemisch probleem bij het gebruik van AI voor kritieke taken zoals rekrutering.
De resultaten van dit onderzoek moeten bedrijven ertoe aanzetten het gebruik van AI in hun rekruteringsprocessen te heroverwegen. Hoe kunnen we zorgen voor een eerlijker en inclusiever systeem voor alle kandidaten?
“Incurable thinker. Food lover. Subtly charming alcohol scientist. Pop culture advocate.”
More Stories
Samsung biedt advies dat u moet volgen om de batterij van uw telefoon te verbeteren
Verbluffende beelden van het uiteenvallen van een Starlink-satelliet in het luchtruim van Frankrijk dinsdag
EUR 1499 Promotie Asus ROG Strix G16 G614JV-N4118W, 16-inch 240Hz 2,5K DCI-P3 multimedia gaming-laptop onder RTX 4060 en Intel Core i7-H met 1TB SSD en TB4