Kunstig intelligens kan høres ut som presidenten. Eller det kan høres ut som deg eller meg. Så hvilken cybersikkerhetsrisiko utgjør AI stemmekloningsprogramvare?

Kunstig intelligens (AI) er en potent teknologi som lover å forvandle livene våre. Aldri har det vært så tydelig som i dag, når kraftige verktøy er tilgjengelige for alle med internettforbindelse.

Dette inkluderer AI-stemmegeneratorer, avansert programvare som er i stand til å etterligne menneskelig tale så kompetent at det kan være umulig å skille mellom de to. Hva betyr dette for cybersikkerhet?

Hvordan fungerer AI-stemmegeneratorer?

Talesyntese, prosessen med å produsere menneskelig tale kunstig, har eksistert i flere tiår. Og som all teknologi har den gjennomgått store endringer i løpet av årene.

De som har brukt Windows 2000 og XP husker kanskje Microsoft Sam, operativsystemets standard mannlige tekst-til-tale stemme. Microsoft Sam fikk jobben gjort, men lydene den produserte var robotiske, stive og unaturlige. Verktøyene vi har til rådighet i dag er betydelig mer avanserte, mye takket være dyp læring.

instagram viewer

Dyplæring er en metode for maskinlæring som er basert på kunstige nevrale nettverk. På grunn av disse nevrale nettverkene er moderne AI i stand til å behandle data nesten som nevronene i menneskehjernen tolker informasjon. Det vil si at jo mer menneskelignende AI blir, jo bedre er den til å etterligne menneskelig atferd.

Det er i et nøtteskall hvordan moderne AI-stemmegeneratorer fungerer. Jo flere taledata de blir utsatt for, desto flinkere blir de til å etterligne menneskelig tale. På grunn av relativt nye fremskritt innen denne teknologien, kan den nyeste tekst-til-tale-programvaren i hovedsak replikere lydene den mates.

Hvordan trusselskuespillere bruker AI-stemmegeneratorer

Ikke overraskende blir denne teknologien misbrukt av trusselaktører. Og ikke bare nettkriminelle i ordets typiske betydning, men også av desinformasjonsagenter, svindlere, markedsførere av svarte hatter og troll.

I det øyeblikk ElevenLabs ga ut en betaversjon av sin tekst-til-tale-programvare i januar 2023, begynte høyreekstreme troll på oppslagstavlen 4chan å misbruke den. Ved å bruke den avanserte AI-en reproduserte de stemmene til personer som David Attenborough og Emma Watson, noe som fikk det til å virke som om kjendisene gikk på sjofele, hatefulle tirader.

Som Vice rapportert på den tiden, innrømmet ElevenLabs at folk misbrukte programvaren deres, spesielt stemmekloning. Denne funksjonen lar hvem som helst "klone" en annen persons stemme; alt du trenger å gjøre er å laste opp et ett minutts opptak, og la AI gjøre resten. Antagelig, jo lengre et opptak er, desto bedre utgang.

I mars 2023 fanget en viral TikTok-video oppmerksomheten New York Times. I videoen ble den berømte podcasteren Joe Rogan og Dr. Andrew Huberman, en hyppig gjest på The Joe Rogan Experience, hørt diskutere en "libido-økende" koffeindrikk. Videoen fikk det til å se ut som om både Rogan og Huberman utvetydig støttet produktet. I virkeligheten ble stemmene deres klonet ved hjelp av AI.

Omtrent på samme tid kollapset den Santa Clara, California-baserte Silicon Valley Bank på grunn av risikostyringsfeil og andre problemer, og ble overtatt av delstatsregjeringen. Dette var den største banksvikten i USA siden finanskrisen i 2008, så det sendte sjokkbølger over globale markeder.

Det som bidro til panikken var et falskt lydopptak av USAs president Joe Biden. I opptaket ble Biden tilsynelatende hørt advare om en nært forestående «kollaps» og instruerte administrasjonen hans til å «bruke medias fulle kraft for å roe publikum». Faktasjekkere liker PolitiFact var raske til å avkrefte klippet, men det er sannsynlig at millioner hadde hørt det på det tidspunktet.

Hvis AI-stemmegeneratorer kan brukes til å etterligne kjendiser, kan de også brukes til å etterligne vanlige mennesker, og det er akkurat det nettkriminelle har gjort. I følge ZDNet, faller tusenvis av amerikanere for svindel kjent som vishing eller stemmefisking hvert år. Et eldre ektepar skapte nasjonale overskrifter i 2023 da de fikk en telefon fra "barnebarnet", som hevdet å være i fengsel og ba om penger.

Hvis du noen gang har lastet opp en YouTube-video (eller dukket opp i en), deltatt i en stor gruppesamtale med folk du ikke vet, eller lastet opp stemmen din til internett på en eller annen måte, kan du eller dine kjære teoretisk sett være i fare. Hva ville hindre en svindler fra å laste opp stemmen din til en AI-generator, klone den og kontakte familien din?

AI-stemmegeneratorer forstyrrer cybersikkerhetslandskapet

Det trengs ikke en ekspert på nettsikkerhet for å oppdage hvor farlig AI kan være i feil hender. Og selv om det er sant at det samme kan sies om all teknologi, er AI en unik trussel av flere grunner.

For det første er den relativt ny, noe som betyr at vi egentlig ikke vet hva vi kan forvente av den. Moderne AI-verktøy lar nettkriminelle skalere og automatisere operasjonene sine på en enestående måte, samtidig som de drar fordel av publikums relative uvitenhet når det gjelder denne saken. Generativ AI gjør det også mulig for trusselaktører med liten kunnskap og dyktighet lage ondsinnet kode, bygge svindelsider, spre spam, skrive phishing-e-poster, generere realistiske bilder, og produsere endeløse timer med falskt lyd- og videoinnhold.

Det er avgjørende at dette fungerer begge veier: AI brukes også til å beskytte systemer, og vil sannsynligvis være det i flere tiår fremover. Det ville ikke være urimelig å anta at det som venter oss er et slags AI-våpenkappløp mellom nettkriminelle og cybersikkerhetsindustrien, er at disse verktøyenes defensive og offensive kapasitet er iboende lik.

For den gjennomsnittlige personen krever fremkomsten av utbredt generativ AI en radikal nytenkning av sikkerhetspraksis. Så spennende og nyttig som AI kan være, kan den i det minste viske ut grensen mellom hva som er ekte og hva er det ikke, og i verste fall forverre eksisterende sikkerhetsproblemer og skape nytt rom for trusselaktører å manøvrere i.

Stemmegeneratorer viser det ødeleggende potensialet til AI

Så snart ChatGPT kom på markedet, økte samtalene om regulering av AI. Ethvert forsøk på å begrense denne teknologien vil sannsynligvis kreve internasjonalt samarbeid i en grad vi ikke har sett på flere tiår, noe som gjør det usannsynlig.

Anden er ute av flasken, og det beste vi kan gjøre er å venne oss til det. Det, og håper cybersikkerhetssektoren justerer seg deretter.