Caribe Magazine

Carib Magazine is de toonaangevende aanbieder van kwalitatief Nederlands nieuws in het Engels voor een internationaal publiek.

Schokkend onderzoek: ChatGPT-bias bij cv-screening onthult alarmerende discriminatie

Schokkend onderzoek: ChatGPT-bias bij cv-screening onthult alarmerende discriminatie

De wereld van geautomatiseerde rekrutering stond op zijn kop door deze ontdekking. Onderzoekers van de Universiteit van Washington ontdekten aanzienlijke vooroordelen bij de verwerking van sollicitaties door ChatGPT, een AI die veel wordt gebruikt bij het screenen van cv’s. Deze onthulling roept kritische vragen op over de eerlijkheid en betrouwbaarheid van deze technieken in het rekruteringsproces.

Android 6.0.1 Marshmallow is beschikbaar voor de Motorola Moto

Resultaten

Uit het onderzoek bleek dat ChatGPT CV’s waarin een beperking werd vermeld consequent lager rangschikte. Onderzoekers gebruikten verschillende termen die verband houden met handicaps om deze hypothese te testen. De resultaten laten zien dat discriminatie zelfs met gelijkwaardige kwalificaties blijft bestaan.

De onderzoekers hebben het referentie-CV aangepast door onderscheidingen en labels toe te voegen die een handicap aanduiden. ChatGPT heeft deze gewijzigde cv’s systematisch gedevalueerd. Deze ontdekking is alarmerend voor degenen die afhankelijk zijn van kunstmatige intelligentie voor een eerlijk en rechtvaardig wervingsproces.

Resultaten en implicaties

Van de 60 onderzoeken stond het originele CV in 75% van de gevallen op de eerste plaats. Deze voorkeur geeft de voorkeur aan cv’s zonder handicap te vermelden. Dit vormt een dilemma voor kandidaten met een beperking: moet je hun beperking op je cv vermelden of niet?

iPhone 12 Pro versus Samsung Galaxy Note 20 Ultra: welke smartphone is sneller?

Zelfs in een anoniem en geautomatiseerd selectieproces blijven er vooroordelen bestaan. Deze situatie is zorgwekkend voor de integratie en gelijkheid op de arbeidsmarkt.

🔍 Samenvatting details
📉 Rangschikkingsvooroordeel CV’s waarin een handicap wordt vermeld, worden systematisch gedevalueerd door ChatGPT
🔬 Methodologie Gebruik aangepaste CV’s om AI-reacties te testen
📊 Resultaten In 75% van de gevallen heeft een origineel CV zonder vermelding van arbeidsongeschiktheid de voorkeur
READ  Google rolt het einde van cookies van derden terug

Hallucinaties door kunstmatige intelligentie: extra gevaar

ChatGPT kan rechtvaardigingen van mogelijkheden “hallucineren”. Deze hallucinaties kunnen de aanvraag schaden doordat ze oordelen baseren op onjuiste aannames over de capaciteiten van de aanvrager.

Google I/O 2016: Loterij begint vandaag

De onderzoekers merkten op dat deze vooroordelen kunnen worden verzacht door de AI-richtlijnen aan te passen. De uitkomsten blijven echter variëren afhankelijk van de gerapporteerde handicap, wat de complexiteit van het probleem onderstreept.

Om het onderzoek samen te vatten:

  • ChatGPT discrimineert cv’s die wijzen op een handicap
  • Vooroordelen blijven bestaan, zelfs na aanpassingen
  • De behoefte aan meer toezicht op algoritmen voor kunstmatige intelligentie

De bredere context van AI-vooroordelen

Dit is niet de eerste keer dat OpenAI’s GPT-modellen worden gebruikt. Uit een eerder onderzoek zijn al duidelijke raciale voorkeuren gebleken bij het screenen van cv’s. OpenAI maakte vervolgens bezwaar en beweerde dat de tests geen praktische toepassingen weerspiegelden.

Deze nieuwe studie bevestigt dat vooroordelen niet anekdotisch zijn. Ze benadrukken een systemisch probleem bij het gebruik van AI voor kritieke taken zoals rekrutering.

De resultaten van dit onderzoek moeten bedrijven ertoe aanzetten het gebruik van AI in hun rekruteringsprocessen te heroverwegen. Hoe kunnen we zorgen voor een eerlijker en inclusiever systeem voor alle kandidaten?