Med moderne AI-språkmodeller som ChatGPT og Microsofts Bing Chat som skaper bølger rundt om i verden, er en rekke mennesker bekymret for at AI skal ta over verden.
Selv om vi ikke kommer til å støte på SkyNet i overskuelig fremtid, blir AI bedre enn mennesker på flere ting. Det er her AI-kontrollproblemet kommer inn.
AI-kontrollproblemet forklart
AI-kontrollproblemet er ideen om at AI til slutt vil bli bedre til å ta beslutninger enn mennesker. I samsvar med denne teorien, hvis mennesker ikke konfigurerer ting riktig på forhånd, vil vi ikke ha en sjanse til å fikse ting senere, noe som betyr at AI vil ha effektiv kontroll.
Nåværende forskning på AI og Machine Learning (ML)-modeller er i det minste år fra å overgå menneskelige evner. Imidlertid er det rimelig å tro at, med tanke på dagens fremgang, vil AI overgå mennesker når det gjelder både intelligens og effektivitet.
Det er ikke dermed sagt at AI- og ML-modeller ikke har sine begrensninger. De er tross alt bundet av fysikkens lover og beregningsmessig kompleksitet, så vel som prosessorkraften til enhetene som støtter disse systemene. Det er imidlertid trygt å anta at disse grensene er langt utenfor menneskelige evner.
Dette betyr at superintelligent AI-systemer kan utgjøre en stor trussel hvis det ikke er riktig utformet med sikkerhetstiltak på plass for å kontrollere potensielt useriøs oppførsel. Slike systemer må bygges fra grunnen av for å respektere menneskelige verdier og for å holde makten i sjakk. Dette er hva kontrollproblemet betyr når det sier at ting må settes opp riktig.
Hvis et AI-system skulle overgå menneskelig intelligens uten de riktige sikkerhetstiltakene, kan resultatet bli katastrofalt. Slike systemer kan ta kontroll over fysiske ressurser ettersom mange oppgaver oppnås bedre eller mer effektivt. Siden AI-systemer er designet for å oppnå maksimal effektivitet, kan det å miste kontrollen føre til alvorlige konsekvenser.
Når gjelder AI-kontrollproblemet?
Hovedproblemet er at jo bedre et AI-system blir, jo vanskeligere er det for en menneskelig veileder å overvåke teknologien for å sikre at manuell kontroll lett kan overtas dersom systemet skulle svikte. I tillegg er den menneskelige tendensen til å stole på et automatisert system høyere når systemet fungerer pålitelig mesteparten av tiden.
Et godt eksempel på dette er Tesla Full-Self Driving (FSD) suite. Mens bilen kan kjøre selv, krever det at et menneske har hendene på rattet, klar til å ta kontroll over bilen dersom systemet skulle feile. Men etter hvert som disse AI-systemene blir mer pålitelige, vil selv det mest årvåkne menneskets oppmerksomhet begynne å variere, og avhengigheten av det autonome systemet vil øke.
Så hva skjer når biler begynner å kjøre i hastigheter mennesker ikke kan holde tritt med? Vi vil ende opp med å overgi kontrollen til bilens autonome systemer, noe som betyr at et AI-system vil ha kontroll over livet ditt, i det minste til du når destinasjonen.
Kan AI-kontrollproblemet løses?
Det er to svar på om AI-kontrollproblemet kan løses eller ikke. For det første, hvis vi tolker spørsmålet bokstavelig, kan ikke kontrollproblemet løses. Det er ingenting vi kan gjøre som direkte retter seg mot den menneskelige tendensen til å stole på et automatisert system når det fungerer pålitelig og mer effektivt mesteparten av tiden.
Skulle imidlertid denne tendensen bli gjort rede for som et trekk ved slike systemer, kan vi finne måter å omgå kontrollproblemet på. For eksempel Algoritmisk beslutningstaking og kontrollproblemet forskningsartikkel foreslår tre forskjellige metoder for å håndtere vanskeligheten:
- Bruken av mindre pålitelige systemer krever at et menneske aktivt engasjerer seg i systemet, da mindre pålitelige systemer ikke utgjør kontrollproblemet.
- Å vente på at et system overgår menneskelig effektivitet og pålitelighet før implementering i den virkelige verden.
- Å implementere kun delvis automatisering ved å bruke oppgavedekomponering. Dette betyr at kun de delene av et system som ikke krever at en menneskelig operatør utfører en viktig oppgave, er automatisert. Det kalles tilnærmingen til dynamisk/komplementær funksjonallokering (DCAF).
DCAF-tilnærmingen setter alltid en menneskelig operatør i spissen for et automatisert system, og sikrer at deres innspill kontrollerer de viktigste delene av systemets beslutningsprosess. Hvis et system er engasjerende nok til at en menneskelig operatør kan følge med konstant, kan kontrollproblemet løses.
Kan vi noen gang virkelig kontrollere AI?
Etter hvert som AI-systemer blir mer avanserte, dyktige og pålitelige, vil vi fortsette å overføre flere oppgaver til dem. Imidlertid kan AI-kontrollproblemet løses med riktige forholdsregler og sikkerhetstiltak.
AI forandrer allerede verden for oss, mest til det bedre. Så lenge teknologien holdes under menneskelig tilsyn, bør det ikke være noe for oss å bekymre oss for.