Hur man tacklar AI-bias i anställningsprocessen

AI-verktyg söker igenom den digitala historien om potentiella anställningar för att avgöra vem som exemplifierar ”den ideala kandidaten”, men de faktorer som leder till det beslutet kan vara partiska.

Människor har gett AI makten att utesluta kandidater baserat på detaljer som deras tidigare användning av sociala medier, deras adress och till och med deras namn.

Samtalet kring AI och inneboende partiskhet som plågar systemet måste finnas. Vi kan inte ignorera de uppenbara genomträngningarna av kandidatfördomar inom områden som etnicitet, ålder, kön, social klass och funktionshinder.

Men i stället för att lägga en värdefull resurs åt sidan, kan innovatörer inom AI-området erkänna sin egen potential för partiskhet och införliva strukturer inom forsknings- och utvecklingsstadiet som skulle hjälpa till att förneka dessa grundläggande fördomar.

Vice ordförande för bedömningsprodukter på Criteria Corp, Dr Matthew Neale har arbetat i skärningspunkten mellan teknik, AI och psykologi i mer än 25 år och är säker på vilken roll psykologer kan spela för att ”säkerställa att AI används på en mässa, rättvist och effektivt sätt i organisationer”.

Bygga partiskhet

AI-teknik har potential att hjälpa till med anställningsprocessen för alla inblandade, från innovatörer och kandidater till rekryterare och arbetsgivare. Men som Neale säger är AI bara användbar när den är utvecklad och distribuerad på rätt sätt, och som den står, ”vissa är och vissa är inte det”.

”Det avgörande är att AI-verktyget är lämpligt för ändamålet”, säger Neale. Utvecklare bör uppmuntras av kärnkunskap om hur verktyget utvecklades, vilka data som verktyget bearbetar och utbildats i, hur dessa data verifierades och eventuella risker som är involverade i användningen av verktyget, såsom partiskt beslutsfattande.

Frågan kommer alltid att vara förmågan till mänskliga fel, antingen avsiktliga eller oavsiktliga. Neale föreslår att man föreställer sig en AI-modell som har tränats för att replikera valen av en mänsklig rekryterare, som redan har en partiskhet mot marginaliserade grupper.

Han förklarar: ”Om rekryteraren är partisk i sitt beslutsfattande, kommer AI:n att lära sig att partiskhet och dessa beslut kommer att replikeras av AI:n när den bestämmer vilka återupptar som ska vidarebefordras och vilka återupptas att avvisa.”

Han citerar verkliga exempel, inklusive ett exempel 2018 där det upptäcktes att ett AI-verktyg som användes av detaljhandelsjätten Amazon gjorde sig av med CV:n från kvinnor eftersom det hade tränats för att replikera anställningsmönster från de senaste tio åren som dramatiskt gynnade män.

Han noterar också en ny Bloomberg-artikel som hävdade att OpenAI:s ChatGPT rankade CV:n från personer med asiatiskt och vitt klingande namn betydligt högre än de som till synes från personer med namn som lät mer stereotypt svarta.

För Neale är detta ett område med tydlig fördom som företag bör notera. ”Partade AI-verktyg kan leda till en brist på mångfald inom en given bransch, vilket i slutändan minskar lönsamhet, kreativitet och produktivitet”, säger Neale. ”När det saknas mångfald på en arbetsplats blir kulturen lidande.”

Identifiera relevans

Förmodligen tillåts AI att analysera data som är irrelevant för den aktuella uppgiften och för Neale, ”det är inte relevant för AI att ha tillgång till namnen på kandidater”. Han noterar också problem med att skanna ”luckor” i CV:n, där en person inte har avslöjat privata och personliga skäl för att ta en längre paus från arbetet.

Han säger, för att mildra dessa problem, ”det är mycket viktigt att säkerställa en mångsidig representation bland teamen som designar och implementerar AI-verktygen” och att vara transparent med kandidater om hur AI distribueras. Dessutom, ”integrera mänsklig tillsyn och ingripande i beslut om kandidater”.

AI är en kraftfull resurs som när den används på rätt sätt kan gynna arbetsvärlden och människorna i den. Speciellt inom områden med tillgänglighet och balans mellan arbete och privatliv. ”AI kan fatta mer konsekventa och tillförlitliga beslut än människor”, säger Neale.

När det gäller hur arbetssökande kan begränsa effekterna av AI-bias i stadierna före intervjun, råder Neale att se till att du endast inkluderar relevant information i din dokumentation, inklusive alla sociala mediekonton som är kopplade till din ansökan. Du bör också kontrollera att ditt CV är lätt att läsa av AI-system och inte innehåller onödig grafik eller roliga och snygga typsnitt.

Juridiskt sett har AI-användning lämnat användare och de som är föremål för dess användning i en prekär position. ”Vissa lagar ger sökande möjlighet att välja bort automatisk behandling,” förklarar Neale, men att välja bort processen kan också påverka dina chanser att säkra jobbet.

”Antidiskrimineringslagar gäller för anställningsbeslut som fattas med hjälp av AI lika mycket som de gäller för urvalsprocesser som inte använder AI. Så när det gäller anställningsdiskriminering finns det befintliga lagar som kan tillämpas för att ta itu med partiskt beslutsfattande inom AI, säger han.

Men AI-teknik utgör fortfarande en risk, till exempel i bristen på transparens kring hur beslut fattas och förmågan hos AI att på ett övertygande sätt imitera en människa. Införandet av lagar, såsom EU:s AI-lag kommer förhoppningsvis ”hjälpa användare av AI-verktyg att fatta mer välgrundade beslut om riskerna och fördelarna med AI-verktygen”.

I slutet av dagen, säger Neale, ”är det mycket mer sannolikt att du blir diskriminerad av en människa än av en AI”. Men ur ett utvecklar- och användarperspektiv finns det alltid ett ”ansvar att övervaka verktyget för att säkerställa att det fungerar som förväntat”.

Ta reda på hur nya tekniska trender förändras i morgon med vår nya podcast, Future Human: The Series. Lyssna nu Spotify Äpple eller var du än får dina poddar.