{h1}
företag + ekonomi

Stora data kan vara ett stort problem för diskrimineringslagstiftning på arbetsplatsen

Anonim

Personalrekrytering och uppehållstillstånd är en löpande utmaning för arbetsgivarna. Förespråkare av stora data på arbetsplatsen hävdar nu att de kan ändra det.

Vi går in i en ny ålder av predictive selection som producerar mycket överraskande resultat. Dessa nya former av beslutsfattande och de resultat de producerar kan dock utmana själva grunden för våra lagar mot diskriminering och integritet.

Så vad är nytt?

Vid något tillfälle måste vi alla ansöka om ett jobb. Vi kompletterar en ansökan, med några positiva utsmycken här och där. Vi skickar sedan in det. Och fingrarna korsas, vi får en intervju.

Vi får då checka ut för att se om vi har en bra passform. Om vi ​​är får vi jobbet. Det är en enkel och tidskänd övning.

Vi har en bra ide för varför vi fick jobbet. Vi gick till "rätt" universitet. Vi har en bra GPA. Vi visade att vi kunde vara ett säkert par händer.

Vi vet också att vår arbetsgivare inte skulle fatta beslut att anställa oss baserat på vår ras, kön eller sexuell preferens. Det är emot lagen.

Så vad händer om vi inte valts på vår GPA? Eller på grund av "rätt" universitet gick vi till? Vad händer om vi inte ens valts ut på grundval av vår arbetsansökan? Vad händer om den avgörande faktorn för vårt urval inte var vår ansökan, men webbläsaren brukade vi ladda upp vår ansökan?

Välkommen till den potentiellt förvirrande nya världen av stora data på arbetsplatsen. Det är en värld som vänder upp och ner på den traditionella processen med personalval, en där algoritmiskt, datastyrda beslut är normen. Det här är en värld som kräver insamling av fler och fler typer av information, inklusive metadata från vår arbetsverksamhet, vårt sociala mediainnehåll och allt annat som kan vara av avgörande betydelse (eller till och med irrelevant för den delen).

Inget av detta är helt nytt. Michael Lewis bok Moneyball visade värdet av Billy Beane s data-driven quest och dess dramatiska effekt på baseball laget han hanterade.

Beans data-driven uppdrag ersätts emellertid av ett prediktivt uppdrag och det ger några ganska ovanliga resultat. Tänk på dessa exempel.

En kandidat som är kreativ men inte alltför nyfiken och är medlem i en men inte mer än fyra sociala nätverk är mer sannolikt att anställa som en kundomsorgsrepresentant av Xerox. Särskilt om de bor nära kontoret och har tillgång till tillförlitlig transport.

Programprogrammerare som aldrig har skrivit öppen källkod rekryteras för öppen källkodsposition, om de har rätt onlineprofil och ett intresse för japanska mangawebbplatser.

Även en viss kombination av ord i en tweet eller en LinkedIn-post kan nu bli en pålitlig indikator för en bra programvarukandidat.

Så vad är problemet?

Dessa nya beslutsprocesser och de resultat de genererar kan potentiellt orsaka betydande problem för våra rättsliga ramar för antidiskriminering och information om integritetsskydd. Båda dessa lagar utformades på 1960- och 1970-talet och kan inte vara väl lämpade för att hantera utmaningarna med stora data på arbetsplatsen.

Låt oss börja med diskriminering lag. Diskrimineringslagar förbjuder diskriminering på grundval av vissa sociala och fysiska egenskaper: ras, kön, sexuell läggning, funktionshinder. Det verkar uppenbart för oss nu att personalen inte ska väljas eller avvisas på dessa attribut. Vi vet instinktivt att det är fel att fatta beslut på den grunden.

Problemet med stora data på arbetsplatsen är att det ofta är omöjligt att ansluta diskriminering till ojämlikheterna som följer av dataanalys. Beslut om val av anställda görs på en rad attribut som helt enkelt är ointressiva: webbläsaren vi använde för att ladda upp vår ansökan; vår lik av japanska mangapartonger; även de ord vi använder i en tweet. Stora datatekniker omarbetar därför själva begreppet diskriminering på arbetsplatsen.

Att skapa en koppling mellan ett skyddat attribut och en stor dataskyldighetsutövning är sannolikt uppenbarligen oöverstiglig. Även om ett förbjudet attribut kan vara en faktor i den prediktiva processen, bevisar förekomsten av en diskriminerande faktor och hur denna faktor beaktades kommer det nästan att vara omöjligt i prediktiva beslutsprocesser. Dessa processer involverar miljontals beslut med hjälp av komplicerade algoritmiska beräkningar, som arbetaren inte får tillgång till eller till och med informeras om.

Stora data ger också betydande utmaningar för informationslagstiftning. Den underliggande logiken för stora data är att samla allt och behålla det för alltid. Sökningen efter det ointuitiva kräver inget mindre. All information kan hela tiden vara relevant.

All information har därför kapacitet att vara personlig information eftersom all information kan användas för att identifiera en individ. Lagstiftningen om integritetsskydd har emellertid aldrig utformats för att överväga att all information ska klassas som personlig information och skyddas.

Stora uppgifter på arbetsplatsen kan väsentligt utmana våra befintliga rättsliga ramar för antidiskriminerings- och informationslagstiftning. Den verkliga faran är den glida höjden av acceptans kryp där vi helt enkelt utan tvekan accepterar sannolikheten för en korrelerad förutsägelse. Vi löper då risken att skapa en ny form av diskriminering, informationsstrukturell diskriminering, där diskriminerings- och diskrimineringsmönster är inbäddade i informationsinfrastrukturer.

Vid den tiden kommer farorna med stora data sannolikt att uppväga fördelarna och negativt påverka oss alla. Vi kunde hitta oss utan frukt utan att leta efter det ointuitiva attributet som kommer att ge oss det jobb vi är ute efter, men som vi aldrig kan kontrollera.

En längre version av denna artikel publicerades i University of New South Wales Law Journal.

Rekommenderas

Vad Brexit skulle innebära för relationerna mellan Indien och Storbritannien

Navigera online-information labyrinten: ska eleverna lita på Wikipedia?

Från att skrika ut för att stanna hemma: en kort historia av brittisk omröstning