AI-utviklingen går raskt fremover, men hvem bør veilede AI og dens innvirkning på verden?

Viktige takeaways

  • AI trenger strengere overvåking, ettersom cybersikkerhetssårbarheter og personvernproblemer fortsetter å dukke opp.
  • Myndighetene, teknologiselskapene og sluttbrukerne har alle en rolle å spille i reguleringen av AI, men hver tilnærming har sine begrensninger.
  • Medier, ideelle organisasjoner, tekniske bransjeforeninger, akademiske institusjoner og rettshåndhevelsesbyråer bidrar også til reguleringen av AI.

Allmennheten har ulike syn på AI – noen tror maskiner vil erstatte menneskelige arbeidere helt, mens andre hevder AI er en kjepphest. En ting alle er imidlertid enige om, er at AI trenger strengere overvåking.

Til tross for viktigheten av AI-regulering, har det tatt et baksete til trening. Utviklere er så besatt av å bygge den nest største AI-modellen at de bytter cybersikkerhet for rask fremgang. Spørsmålet er ikke om AI trenger regulering; det er hvilket styrende organ med tilstrekkelig finansiering, menneskelige ressurser og teknologisk kapasitet som vil ta initiativet.

Så hvem skal regulere AI?

Statlige organer

Ulike mennesker, fra forbrukere til teknologiledere, håper regjeringen vil regulere AI. Offentlig finansierte institusjoner har ressurser til å gjøre det. Selv Elon Musk og Sam Altman, to hovedførere i AI-løpet, tror at noen personvernhensyn rundt AI er for farlige for styrende organer å overse.

Regjeringen bør fokusere på å beskytte sine bestanddelers personvern og sivile friheter hvis den overtar AI-regulering. Cyberkriminelle fortsetter å finne måter å utnytte AI-systemer i sine ordninger. Personer som ikke er godt bevandret i AI, kan lett bli lurt av syntetiserte stemmer, dypfalske videoer og bot-opererte nettprofiler.

Et stort problem med myndighetene som regulerer AI er imidlertid at det utilsiktet kan kvele innovasjon. AI er en kompleks teknologi i utvikling. Med mindre tjenestemennene som overvåker distribusjon, utvikling og opplæringsretningslinjer forstår hvordan AI fungerer, kan de gjøre for tidlige, ineffektive vurderinger.

AI-utviklere, teknologiselskaper og laboratorier

Tatt i betraktning de potensielle veisperringene som kan oppstå ved at myndighetene overvåker AI, vil mange heller ha teknologiselskaper i spissen for regulering. De mener utviklere bør være ansvarlige for teknologien de slipper ut. Selvregulering gjør dem i stand til å drive innovasjon og fokusere på å fremme disse systemene effektivt.

Dessuten vil deres dybdeforståelse av AI hjelpe dem med å lage rettferdige, informerte retningslinjer som prioriterer brukersikkerhet uten at det går på bekostning av funksjonalitet. Som med all teknologi, effektiviserer bransjeekspertise overvåking. Å tildele utrente tjenestemenn til å regulere teknologier de knapt forstår kan by på flere problemer enn fordeler.

Ta det amerikanske senatets 2018-høring om Facebooks personvernlovgivning som et eksempel. I denne rapporten av Washington Post, vil du se at mange lovgivere er forvirret med Facebooks grunnleggende funksjoner. Så med mindre det amerikanske senatet oppretter en eneste avdeling av tekniske spesialister, er de sannsynligvis ikke kvalifisert til å regulere et så avansert, stadig skiftende system som AI.

Imidlertid er hovedproblemet med teknologiselskaper som regulerer seg selv at lyssky selskaper kan misbruke makten sin. Uten tredjeparter som griper inn, står de i utgangspunktet fritt til å gjøre hva de vil.

Sluttbrukere

Noen frykter at offentlige og private enheter vil misbruke AI-systemer. De er usikre på å gi en håndfull styrende organer total kontroll over slike kraftige teknologier, spesielt siden AI fortsatt utvikler seg. De kan til slutt kjempe om autoritet i stedet for å jobbe mot effektiv regulering.

For å redusere disse risikoene mener skeptikere at sluttbrukere fortjener frie tøyler til å bruke AI-modeller slik de vil. De sier at offentlige organer bare bør blande seg inn når AI-brukere bryter loven. Det er et ambisiøst mål, men det kan teknisk sett oppnås hvis AI-utviklere med åpen kildekode dominerte markedsandeler.

Når det er sagt, setter dette oppsettet ikke-teknologikyndige personer en ulempe. Brukere er ansvarlige for å sette restriksjonene i systemene sine – dessverre er det ikke alle som har ressurser til å gjøre det.

Det er også kortsiktig å fjerne proprietære modeller fra markedet. Spredningen av åpen kildekode AI-modeller har flere positive og negative effekter; for noen oppveier ulempene fordelene.

Andre enheter som spiller en rolle i reguleringen av AI

Selv om store enheter vil gå i spissen for reguleringen av AI, er det organer som spiller betydelige roller:

Medier spiller en avgjørende rolle i å forme publikums oppfatning av AI. De rapporterer bransjeutviklingen, deler nye verktøy, bevisstgjør den skadelige bruken av AI og intervjuer eksperter om relevante bekymringer.

De fleste fakta sluttbrukerne vet om kunstig intelligens kommer i utgangspunktet fra media. Publisering av falske data, enten med vilje eller ikke, vil forårsake irreversibel skade – du kan ikke undervurdere hvor raskt feilinformasjon sprer seg.

2. Ikke-statlige organisasjoner

Flere ideelle organisasjoner er sentrert rundt å beskytte AI-brukeres personvern og sivile friheter. De utdanner publikum gjennom gratis ressurser, tar til orde for ny politikk, samarbeider med myndighetspersoner og gir uttrykk for oversett bekymringer.

Det eneste problemet med frivillige organisasjoner er at de vanligvis mangler ressurser. Siden de ikke er knyttet til myndighetene, er de avhengige av private oppfordringer og donasjoner for den daglige driften. Dessverre er det bare noen få organisasjoner som får tilstrekkelig finansiering.

3. Tekniske industriforeninger

AI-fokuserte teknologiske industriforeninger kan representere allmennhetens rettigheter og interesser. I likhet med frivillige organisasjoner jobber de med lovgivere, representerer bekymrede enkeltpersoner, tar til orde for rettferdige retningslinjer og bevisstgjør spesifikke saker.

Forskjellen er imidlertid at de ofte har bånd til private selskaper. Medlemmene deres gjør fortsatt oppfordringer, men de vil vanligvis få nok finansiering fra foreldreorganisasjonene så lenge de leverer resultater.

4. Akademiske institusjoner

Selv om AI kommer med flere risikoer, er den iboende nøytral. Alle skjevheter, personvernproblemer, sikkerhetsfeil og potensielle nettkriminalitetsaktiviteter stammer fra mennesker, så AI i seg selv er ikke noe å frykte.

Men svært få forstår allerede hvordan moderne AI-modeller fungerer. Misoppfatninger forvrider folks oppfatning av AI, og opprettholder grunnløs frykt som at AI tar over menneskeheten eller stjeler jobber.

Akademiske institusjoner kan fylle disse utdanningshullene gjennom tilgjengelige ressurser. Det er ikke for mange vitenskapelige arbeider på moderne LLM-er og NLP-systemer ennå. Publikum kan bruke AI mer ansvarlig og bekjempe nettkriminalitet hvis de forstår hvordan det fungerer.

5. Rettshåndhevende byråer

Rettshåndhevende byråer bør forvente å møte flere AI-aktiverte cyberangrep. Med spredningen av generative modeller kan skurker raskt syntetisere stemmer, generere dypt falske bilder, skrape personlig identifiserbar informasjon (PII), og til og med skape helt nye personas.

De fleste byråer er ikke utstyrt for å håndtere disse forbrytelsene. De bør investere i nye systemer og trene sine offiserer på moderne nettkriminalitet; ellers vil de ha problemer med å fange disse kjeltringene.

Fremtiden for AI-regulering

Med tanke på AIs raske natur, er det usannsynlig at et enkelt styrende organ kan kontrollere den. Ja, teknologiledere vil ha mer makt enn forbrukere, men ulike enheter må samarbeide for å håndtere AI-risikoer uten å hindre fremskritt. Det er best å sette kontrolltiltak nå mens kunstig generell intelligens (AGI) fortsatt er et fjernt mål.

Når det er sagt, er AI-regulering like fjern som AGI. I mellomtiden må brukere følge sikkerhetspraksis for å bekjempe AI-drevne trusler. Gode ​​vaner som å begrense menneskene du kobler til på nettet og sikre din digitale PII går allerede langt.