Eksperter tror AI vil avslutte menneskeheten slik vi kjenner den, så hva gjøres for å stoppe det fra å skje?

Nok en gang har en gruppe ledende AI-forskere og teknologifirmaer advart om at den nåværende raske utviklingen av kunstig intelligens kan innebære en katastrofe for menneskeheten.

Risikoen spenner over atomkonflikter, sykdom, feilinformasjon og løpsk AI som mangler tilsyn, som alle utgjør en umiddelbar trussel mot menneskelig overlevelse.

Men det vil ikke gå tapt at mange av disse advarslene kommer fra de samme personene som leder AI-utvikling og driver kunstig intelligens-verktøy og -programmer hos sine respektive selskaper.

Hvorfor advarer teknologiselskaper og AI-forskere om AI-risiko?

30. mai 2023 ga mer enn 350 AI-forskere, utviklere og ingeniører ut en medunderskrevet uttalelse som advarer mot AIs trussel mot menneskeheten.

Å redusere risikoen for utryddelse fra AI bør være en global prioritet sammen med andre samfunnsmessige risikoer som pandemier og atomkrig.

Underskrivere til

instagram viewer
Safe.ai-uttalelse inkludert Sam Altman fra OpenAI, Demis Hassabis fra Google DeepMind og Dario Amodei fra Anthropic, sammen med Turing Prisvinnerne Geoffrey Hinton og Yoshua Bengio (selv om Yann LeCun, som også vant den samme prisen, unnlot å signere). Listen er nesten hvem som er hvem av AI-utviklingsverdenen – menneskene som leder an med AI – men her er de alle og advarer om at AI kan bety katastrofe for menneskeheten.

Det er en kort uttalelse som tydeliggjør truslene, og spesifikt siterer to nøkkelområder som kan sette verden i fare slik vi kjenner den: atomkrigføring og globale helseproblemer. Mens trusselen om atomkonflikt er en bekymring, er risikoen for en pandemi en mer håndgripelig trussel for de fleste.

Det er imidlertid ikke bare en global pandemi som kan forårsake AI-relaterte helseproblemer. Vergen rapporterer flere andre AI-helseproblemer som kan påvirke mennesker hvis de ikke sjekkes før utbredt bruk. Et eksempel knyttet til bruk av AI-drevne oksymetre som "overvurderte oksygennivået i blodet hos pasienter med mørkere hud, noe som resulterte i underbehandling av deres hypoksi."

Dessuten er det ikke første gang en gruppe teknologiledere har bedt om en pause eller seriøs revurdering av AI-utviklingen. I mars 2023, Elon Musk og andre AI-forskere signerte en lignende oppfordring til handling ber om et moratorium på AI-utvikling inntil mer regulering kan implementeres for å hjelpe prosessen.

Hva er risikoen for AI?

De fleste risikoene knyttet til AI, i det minste i denne sammenhengen, er knyttet til utviklingen av løpsk AI-teknologi som overgår menneskets evner, der den til slutt snur seg mot sin skaper og utsletter livet som vi vet den. Det er en historie dekket utallige ganger i science-fiction-skriving, men virkeligheten er nå nærmere enn vi kanskje tror.

Store språkmodeller (som underbygger verktøy som ChatGPT) øker drastisk i evner. Derimot, verktøy som ChatGPT har mange problemer, slik som iboende skjevhet, personvernhensyn og AI-hallusinasjoner, enn si evnen til å bli jailbroken for å handle utenfor grensene til de programmerte vilkårene og betingelsene.

Ettersom store språkmodeller øker og har flere datapunkter å benytte seg av, sammen med internettilgang og et større forståelse av aktuelle hendelser, frykter AI-forskerne at det en dag, med OpenAI-sjef Sam Altmans ord, kan gå ganske feil."

Hvordan regulerer myndigheter AI-utvikling for å stoppe risiko?

AI-regulering er nøkkelen til å forhindre risiko. I begynnelsen av mai 2023, Sam Altman etterlyste mer AI-regulering, som sier at "regulatorisk inngripen fra myndigheter vil være avgjørende for å redusere risikoen for stadig kraftigere modeller."

Og så Den europeiske union kunngjorde AI-loven, en forskrift designet for å gi et mye sterkere rammeverk for AI-utvikling i hele EU (med mange forskrifter som sprer seg inn i andre jurisdiksjoner). Altman truet i utgangspunktet med å trekke OpenAI ut av EU, men gikk deretter trusselen tilbake og gikk med på at selskapet ville overholde AI-forskriften han tidligere hadde bedt om.

Uansett er det klart at regulering av AI-utvikling og bruk er viktig.

Vil AI gjøre slutt på menneskeheten?

Siden mye av debatten rundt dette emnet er bygget på hypotetiske forhold om kraften til fremtidige versjoner av AI, er det problemer rundt levetiden og kraften som enhver AI-regulering kan ha. Hvordan best regulere en bransje som allerede beveger seg på tusen miles i minuttet og gjennombrudd i utvikling skjer daglig?

Videre er det fortsatt en viss tvil om egenskapene til AI generelt og hvor den vil ende opp. Mens de som frykter det verste peker på at kunstig generell intelligens blir en menneskelig overherre, peker andre på faktum at nåværende versjoner av AI ikke engang kan gjøre grunnleggende matematiske spørsmål og at selvkjørende biler fortsatt er en måte av.

Det er vanskelig å ikke være enig med de som ser mot fremtiden. Mange av folkene som roper høyest om problemene AI kan utgjøre, sitter i førersetet og ser på hvor vi kan være på vei. Hvis det er de som krever AI-regulering for å beskytte oss mot en potensielt fryktelig fremtid, kan det være på tide å lytte.