Funksjonene for kunstig intelligens utvides eksponentielt, og AI blir nå brukt i bransjer fra reklame til medisinsk forskning. Bruken av AI på mer følsomme områder som ansiktsgjenkjenningsprogramvare, ansettelsesalgoritmer og helsetjenester har ført til debatt om skjevhet og rettferdighet.

Bias er en godt undersøkt fasett av menneskelig psykologi. Forskning avslører regelmessig våre ubevisste preferanser og fordommer, og nå ser vi at AI reflekterer noen av disse skjevhetene i deres algoritmer.

Så hvordan blir kunstig intelligens partisk? Og hvorfor betyr dette noe?

Hvordan blir AI partisk?

For enkelhets skyld refererer vi til i denne artikkelen maskinlæring og dyp læring algoritmer som AI-algoritmer eller systemer.

Forskere og utviklere kan introdusere skjevhet i AI-systemer på to måter.

For det første kan forskernes kognitive forstyrrelser ved et uhell bli innebygd i maskinlæringsalgoritmer. Kognitive skjevheter er ubevisste menneskelige oppfatninger som kan påvirke hvordan folk tar beslutninger. Dette blir et viktig problem når skjevhetene gjelder mennesker eller grupper av mennesker og kan skade disse menneskene.

Disse skjevhetene kan innføres direkte, men ved et uhell, eller forskere kan trene AI på datasett som selv ble påvirket av skjevhet. For eksempel kan en ansiktsgjenkjenning AI trent med et datasett som bare inkluderer lyshudede ansikter. I dette tilfellet vil AI fungere bedre når du arbeider med lyse ansikter enn mørke. Denne formen for AI-skjevhet er kjent som en negativ arv.

For det andre kan skjevheter oppstå når AI blir trent på ufullstendige datasett. For eksempel, hvis en AI er opplært i et datasett som bare inkluderer informatikere, vil det ikke representere hele befolkningen. Dette fører til algoritmer som ikke gir nøyaktige spådommer.

Eksempler på virkelige AI-skjevheter

Det har vært flere nylige, godt rapporterte eksempler på AI-skjevhet illustrerer faren av å la disse skjevhetene krype inn.

US-basert helseprioritering

I 2019 ble en maskinlæringsalgoritme designet for å hjelpe sykehus og forsikringsselskaper med å bestemme hvilke pasienter som ville ha størst nytte av visse helseprogrammer. Basert på en database på rundt 200 millioner mennesker favoriserte algoritmen hvite pasienter fremfor svarte pasienter.

Det ble bestemt at dette var på grunn av en feil antagelse i algoritmen om varierende helsekostnader mellom svarte og hvite mennesker, og skjevheten ble til slutt redusert med 80%.

COMPAS

Correctional Offender Management Profiling for Alternative Sanctions, eller COMPAS, var en AI-algoritme designet for å forutsi om bestemte mennesker ville fornærme. Algoritmen produserte doble falske positive for svarte lovbrytere sammenlignet med hvite lovbrytere. I dette tilfellet var både datasettet og modellen feil, og introduserte tung forspenning.

Amazon

Ansettelsesalgoritmen som Amazon bruker for å bestemme egnetheten til søkere ble funnet i 2015 for å favorisere menn fremfor kvinner sterkt. Dette var fordi datasettet nesten utelukkende inneholdt menn og deres CV, siden de fleste Amazon-ansatte er menn.

Hvordan stoppe AI Bias

AI revolusjonerer allerede måten vi jobber på tvers av hver bransje. Å ha partiske systemer som styrer sensitive beslutningsprosesser er mindre enn ønskelig. I beste fall reduserer det kvaliteten på AI-basert forskning. I verste fall skader det aktivt minoritetsgrupper.

Det er eksempler på at AI-algoritmer allerede er vant til hjelpe menneskelig beslutningstaking ved å redusere virkningen av menneskelige kognitive forstyrrelser. På grunn av hvordan maskinlæringsalgoritmer blir trent, kan de være mer nøyaktige og mindre partiske enn mennesker i samme posisjon, noe som resulterer i mer rettferdig beslutningstaking.

Men som vi har vist, er det motsatte også sant. Risikoen ved å tillate menneskelige skjevheter og forsterkes av AI kan oppveie noen av de mulige fordelene.

På slutten av dagen, AI er bare like god som dataene den er trent med. Å utvikle objektive algoritmer krever omfattende og grundig forhåndsanalyse av datasett, slik at data er fri for implisitte skjevheter. Dette er vanskeligere enn det høres ut fordi så mange av våre skjevheter er bevisstløse og ofte vanskelig å identifisere.

Utfordringer i å forhindre AI-skjevhet

Ved utvikling av AI-systemer må hvert trinn vurderes for potensialet til å legge inn skjevhet i algoritmen. En av de viktigste faktorene for å forhindre skjevhet er å sikre at rettferdighet, snarere enn skjevhet, blir "kokt inn" i algoritmen.

Definere rettferdighet

Rettferdighet er et begrep som er relativt vanskelig å definere. Faktisk er det en debatt som aldri har kommet til enighet. For å gjøre ting enda vanskeligere, når du utvikler AI-systemer, må begrepet rettferdighet defineres matematisk.

For eksempel, når det gjelder Amazon ansettelsesalgoritme, ville rettferdighet se ut som en perfekt 50/50 splittelse av mannlige til kvinnelige arbeidere? Eller en annen andel?

Bestemme funksjonen

Det første trinnet i AI-utvikling er å bestemme nøyaktig hva den skal oppnå. Hvis du bruker COMPAS-eksemplet, vil algoritmen forutsi sannsynligheten for at forbrytere gjentar seg. Deretter må klare datainnganger bestemmes for at algoritmen skal fungere. Dette kan kreve å definere viktige variabler, for eksempel antall tidligere lovbrudd eller typen lovbrudd begått.

Å definere disse variablene riktig er et vanskelig, men viktig skritt for å sikre algoritmens rettferdighet.

Å lage datasettet

Som vi har dekket, er en hovedårsak til AI-skjevhet ufullstendige, ikke-representative eller partiske data. I likhet med AI-ansiktsgjenkjenning, må inngangsdataene kontrolleres grundig for skjevheter, hensiktsmessighet og fullstendighet før maskinlæringsprosessen.

Velge attributter

I algoritmene kan visse attributter vurderes eller ikke. Attributter kan omfatte kjønn, rase eller utdannelse - i utgangspunktet alt som kan være viktig for algoritmens oppgave. Avhengig av hvilke attributter som er valgt, kan algoritmens prediktive nøyaktighet og forspenning påvirkes alvorlig. Problemet er at det er veldig vanskelig å måle hvor partisk en algoritme er.

AI Bias er ikke her for å bli

AI-skjevhet oppstår når algoritmer gir forutinntatte eller unøyaktige spådommer på grunn av forutinnlagte innganger. Det oppstår når forutinntatte eller ufullstendige data reflekteres eller forsterkes under utviklingen og opplæringen av algoritmen.

Den gode nyheten er at med finansiering av AI-forskning som multipliserer, vil vi sannsynligvis se nye metoder for å redusere og til og med eliminere AI-skjevhet.

E-post
5 vanlige myter om kunstig intelligens som ikke er sant

La oss sette rekorden rett på noen vanlige løgner rundt AI.

Les Neste

Relaterte temaer
  • Teknologi forklart
  • Kunstig intelligens
  • Maskinlæring
Om forfatteren
Jake Harfield (6 artikler publisert)

Jake Harfield er frilansskribent med base i Perth, Australia. Når han ikke skriver, er han vanligvis ute i busken og fotograferer lokalt dyreliv. Du kan besøke ham på www.jakeharfield.com

Mer fra Jake Harfield

Abonner på vårt nyhetsbrev

Bli med på nyhetsbrevet vårt for tekniske tips, anmeldelser, gratis e-bøker og eksklusive tilbud!

Ett steg til…!

Bekreft e-postadressen din i e-posten vi nettopp sendte deg.

.