Bare i løpet av de siste årene har AI-kapasiteten utviklet seg drastisk. I dag kan vi bruke kunstig intelligens til å lage kunst, skrive historier, lære om verden og mye mer. Men skjer alt dette litt for tidlig? Utvikler AI seg for raskt, og hvilke tegn er det som tyder på dette?
Hvorfor er folk bekymret for AI?
I slutten av mars 2023 ble et dokument utgitt på nettet av Future of Life Institute med tittelen "Pause Giant AI Experiments: An Open Letter". Dokumentet inneholdt argumenter mot utviklingen av AI forbi sofistikeringen til GPT-4, OpenAIs siste iterasjon av en AI-drevet chatbot.
I brevet ble det skrevet at "AI-systemer med menneskelig konkurransedyktig intelligens kan utgjøre dype farer for samfunnet og menneskeheten," og at "kraftige AI-systemer bør utvikles først når vi er sikre på at effektene deres vil være positive og risikoen vil være overkommelig."
En rekke fremtredende skikkelser i teknologiområdet, inkludert Steve Wozniak og Elon Musk har signert brevet og ønsker å sette AI-utviklingen på pause
. Denne bønn om en stans i utviklingen av AI har satt spørsmålstegn ved hvor farlig AI er i ferd med å bli, og risikoen det utgjør for menneskeliv.Så, hvilke tegn indikerer at AI beveger seg for raskt?
1. Konkurranse med mennesker
Vi har allerede sett teknologi erstatte menneskelige arbeidere i utallige scenarier. Når du går inn på et gatekjøkken kan du nå bestille via en dataskjerm, og når du vil handle dagligvarer kan du gå til kassen med et automatisert system. Dette kan være et raskt og praktisk alternativ, men etter hvert som automatisering blir mer fremtredende i ulike bransjer, synker behovet for menneskelige arbeidere.
Det er her problemet begynner. Selvfølgelig må folk jobbe for å forsørge seg selv, men fremveksten av automatisering gjør dette mye vanskeligere. Dette er spesielt tilfellet for minimumslønnsarbeidere, som de i matservice, produksjon og detaljhandel. Grunnleggende oppgaver, som å sjekke ut bestillinger, hente lass og rengjøre, kan alle gjøres av maskiner. Integreringen av AI betyr at vi snart ikke lenger trenger operatører for denne teknologien.
Det ble rapportert av FormStack at 76 % av virksomhetene bruker automatisering for å standardisere eller automatisere daglige arbeidsflyter. Og med Zapier rapporterer at 94 % av arbeiderne har oppgitt at jobben deres innebærer repeterende og tidkrevende oppgaver, AI-drevet automatisering kan lett bli en majoritetsdel av den globale arbeidsstyrken på tvers av alle næringer.
2. Oppmuntre menneskelig latskap
En av de viktigste fordelene med AI er at den kan forenkle så mange oppgaver. Men denne bekvemmeligheten kan veldig lett vike for latskap. Og i noen tilfeller har den allerede gjort det.
Ta ChatGPT, for eksempel. Du kan bruke ChatGPT til å gjøre en rekke ting som å skrive essays, undersøke emner, lage vitser, oversette tekst og mye mer. Å ha en tjeneste som raskt kan utføre oppgaver for deg er flott, men fører oss også mot selvtilfredshet. Stunting av innsats og kreativitet på denne måten kan sikkert ha en negativ effekt på menneskeheten som helhet, noe som er en nøkkelårsak til at så mange mennesker er bekymret for AI.
Vi er så vant til AI-drevne tjenester i vår moderne tid, vi har naturligvis satt mye tillit til dem. For eksempel bruker Microsofts virtuelle assistent, Cortana, maskinlæring og AI for å utføre brukernes kommandoer. Mange andre virtuelle assistenter, inkludert Apples Siri, bruker også AI for å fungere.
Å stole på denne teknologien kan være trygt, men det er egentlig ingen kunnskap, spesielt gitt at AI fortsatt er i et veldig utviklingsstadium.
3. Spredningen av falsk informasjon
I mainstream-riket har AI fått mye beryktethet gjennom sin evne til å lage kunst, bilder og videoer. Ikke bare kan AI-drevne tjenester brukes til å lage kunst, men de kan også lage en spesielt kontroversiell form for medier kjent som deepfakes. Deepfakes er videoer som viser en persons ansikt lagt over en annen persons kropp.
Dette høres ganske morsomt ut, men kan veldig lett misbrukes.
Det er allerede tusenvis av videoer der ute av kjendiser og politiske skikkelser som ser ut til å si utrolig utuktige og upassende ting via deepfakes. Mens noen deepfakes er veldig enkle å identifisere, er noen så sofistikerte at det er vanskelig å se om de er ekte eller ikke. Når dette skjer, kan folk anta at en offentlig person har sagt noe, som i virkeligheten aldri ble sagt av dem i det hele tatt.
Fra dette vil folk komme med meninger om disse videoene, og dermed bidra til spredning av feilinformasjon på nettet.
Dessuten kan AI-drevne chatbots også gi brukere falsk informasjon. Chatbots som ChatGPT, Boost. AI og Drift kan gi brukerne mye informasjon, men denne informasjonen er ikke alltid nøyaktig. Som diskutert av Vergen, AI chatbots er på ingen måte forpliktet til å gi deg sannferdig informasjon, noe som betyr at falske nyheter veldig lett kan skli gjennom sprekkene og komme til deg.
4. Skapelsen av skadelig programvare
Tidlig i 2023 begynte en nyhetssak å sirkulere om ondsinnede aktører som lager skadelig programvare ved hjelp av ChatGPT. I dette tilfellet fant cyberanalytikerfirmaet Check Point Research at enkeltpersoner diskuterte fordelene ved å bruke ChatGPT for å lage skadelig programvare på et hackingforum. Forfatteren av foruminnlegget delte en infostealer som de hadde skrevet i Python ved hjelp av ChatGPT, og oppmuntret andre ondsinnede aktører til å lage skadelig programvare ved hjelp av chatboten.
Malware-programmer må kodes, noe som kan være tidkrevende, spesielt hvis skaperen ikke bruker en mal fra et eksisterende program.
Ved å bruke ChatGPT kan ikke bare ondsinnede aktører strømlinjeforme prosessen med å lage skadelig programvare, men mindre teknologisk kunnskapsrike individer kan lage skadelig programvare. Ettersom AI-raffinement fortsetter å utvikle seg, kan det være mulig å lage utrolig sofistikert skadelig programvare som kan omgå antivirusdeteksjon, autentisering, brannmurer og andre beskyttelsestiltak.
5. Mangelen på regulering
Et vanlig problem i teknologibransjen er mangelen på regulering for nyere tjenester, som blokkjedebaserte plattformer og AI-produkter. Mangel på regulering kan anses som en god ting av noen, men kan også vike for ulovlig praksis.
Ikke bare kan mangel på regulering føre til en økning i AI-drevet svindel og nettkriminalitet, men måten forskere utvikler AI-teknologier på kan også begynne å krysse noen alvorlige grenser. Det er etiske hensyn som må tas når man arbeider med AI. Kan et system bli for bevisst? Hvilken type effekter vil AI ha på menneskers liv? Bør vi utnytte AI på denne måten? Listen med spørsmål fortsetter og fortsetter.
Uten regulering kan noen selskaper begynne å tråkke moralske grenser, noe som igjen kan være svært dårlige nyheter for den bredere offentligheten.
AI beveger seg i et raskt tempo og utgjør absolutt risiko
Det kan ikke nektes at potensialet til AI er stort, men dette bør utnyttes på riktig måte for å redusere sjansen for at ting kommer ut av kontroll. Vi har allerede sett AI bli brukt på en ondsinnet måte, så man vet ikke hvordan dette problemet kan utvikle seg etter hvert som ting går videre. Tiden vil vise om AI blir en velsignelse eller en forbannelse i vår verden, og måten den håndteres på nå vil helt sikkert spille en rolle i dette resultatet.