Deepfake-teknologi kan være morsomt å leke med, men potensialet for skade er betydelig. Her er hva fremtiden til deepfakes kan bringe.

De tydelige tegnene på et dypt falskt bilde pleide å være lett å oppdage, men generativ AI får oss til å stille spørsmål ved omtrent alt vi ser og hører nå. Med hver nye AI-modell som utgis, avtar signalene på et falskt bilde, og for å legge til forvirring, du kan nå lage dypfalske videoer, stemmekloner av dine kjære og lage falske artikler i ren sekunder.

For å unngå å bli lurt av AI deepfakes, er det verdt å vite hva slags farer de utgjør.

Utviklingen av Deepfakes

En deepfake viser en person som gjør noe som aldri har skjedd i det virkelige liv. Det er helt falskt. Vi ler av deepfakes når de deles på internett som en meme eller spøk, men svært få mennesker synes det er morsomt når de er vant til å villede oss.

Tidligere ble deepfakes opprettet ved å ta et eksisterende bilde og endre det i et bilderedigeringsprogram som Photoshop. Men det som skiller en AI deepfake er at den kan genereres fra bunnen av ved hjelp av dyplæringsalgoritmer.

instagram viewer

De Merriam-Webster ordbok definerer en deepfake som:

Et bilde eller opptak som har blitt overbevisende endret og manipulert for å feilrepresentere noen som gjør eller sier noe som faktisk ikke ble gjort eller sagt.

Men med fremskritt innen AI-teknologi begynner denne definisjonen å se utdatert ut. Med bruk av AI-verktøy inkluderer deepfakes nå bilder, tekst, videoer og stemmekloning. Noen ganger brukes alle fire modusene for AI-generering samtidig.

Fordi det er en automatisert prosess som er utrolig rask og billig å bruke, er det det perfekte verktøyet for churning ut deepfakes med en hastighet vi aldri har sett før – alt uten å måtte vite en eneste ting om hvordan du redigerer bilder, videoer eller lyd.

De store farene ved AI Deepfakes

En vert av AI-videogeneratorer eksisterer allerede, sammen med mange AI stemmegeneratorer. Kast inn en stor språkmodell som GPT-4 og du har en oppskrift på å lage de mest troverdige deepfakes som vi har sett i moderne historie så langt.

Å være klar over de forskjellige typene AI-deepfakes, og hvordan de kan brukes til å lure deg, er en måte å unngå å bli villedet. Her er bare noen seriøse eksempler på hvordan AI deepfake-teknologi utgjør en reell trussel.

1. AI identitetstyveri

Du har kanskje sett dem. Blant de første virkelig virale AI-deepfakes som ble spredt over hele verden, var et bilde av Donald Trump som ble arrestert, og et av pave Frans i en hvit pufferjakke.

Mens man virker som en uskyldig gjeninnstilling av hva en berømt religiøs skikkelse kan ha på seg på en kjølig dag i Roma; det andre bildet, som viser en politisk skikkelse i en alvorlig situasjon med loven, har langt større konsekvenser hvis det tas for å være ekte.

Så langt har folk hovedsakelig rettet seg mot kjendiser, politiske skikkelser og andre kjente personer når de lager AI-deepfakes. Delvis er dette fordi kjente personer har mange bilder av dem på internett som sannsynligvis hjalp med å trene modellen i utgangspunktet.

Når det gjelder en AI-bildegenerator som Midjourney – brukt i både Trumps og pavens dype falske – trenger en bruker ganske enkelt å legge inn tekst som beskriver hva de vil se. Nøkkelord kan brukes til å spesifisere kunststilen, for eksempel et fotografi eller fotorealisme, og resultatene kan finjusteres ved å oppskalere oppløsningen.

Du kan like gjerne lære å bruke Midjourney og test dette ut selv, men av åpenbare moralske og juridiske årsaker bør du unngå å legge ut disse bildene offentlig.

Dessverre vil det å være et gjennomsnittlig, ikke-kjent menneske heller ikke garantere at du er trygg mot AI-deepfakes.

Problemet ligger i en nøkkelfunksjon som tilbys av AI-bildegeneratorer: muligheten til å laste opp ditt eget bilde og manipulere det med AI. Og et verktøy som Utmaling i DALL-E 2 kan utvide et eksisterende bilde utover dets grenser ved å skrive inn en tekstmelding og beskrive hva annet du ønsker å generere.

Hvis noen andre skulle gjøre dette med bildene dine, kan farene være betydelig større enn den dype forfalskningen til paven i en hvit jakke – de kan bruke den hvor som helst og utgi seg for å være deg. Mens de fleste generelt bruker AI med gode intensjoner, er det svært få restriksjoner som hindrer folk i å bruke det til å forårsake skade, spesielt i tilfeller av identitetstyveri.

2. Deepfake Voice Clone-svindel

Ved hjelp av AI har deepfakes krysset en grense de fleste av oss ikke var forberedt på: falske stemmekloner. Med bare en liten mengde original lyd – kanskje fra en TikTok-video du en gang la ut, eller en YouTube-video du vises i – kan en AI-modell replikere din ene-og-bare-stemme.

Det er både uhyggelig og skremmende å forestille seg å motta en telefonsamtale som høres ut som et familiemedlem, en venn eller en kollega. Deepfake stemmekloner er en alvorlig nok bekymring for at Federal Trade Commission (FTC) har gitt en advarsel om det.

Ikke stol på stemmen. Ring personen som skal ha kontaktet deg og bekreft historien. Bruk et telefonnummer du vet er deres. Hvis du ikke kan nå din kjære, prøv å komme i kontakt med dem gjennom et annet familiemedlem eller vennene deres.

Det rapporterte Washington Post et tilfelle av et par i 70-årene som fikk en telefon fra en som hørtes ut akkurat som barnebarnet deres. Han satt i fengsel og trengte raskt penger til kausjon. Uten annen grunn til å tvile på hvem de snakket med, gikk de videre og overlot pengene til svindleren.

Det er ikke bare den eldre generasjonen som er i faresonen heller, Det meldte The Guardian nok et eksempel på en banksjef som godkjente en transaksjon på 35 millioner dollar etter en serie "dypfalske samtaler" fra noen de trodde var en bankdirektør.

3. Masseproduserte falske nyheter

Store språkmodeller, som ChatGPT er veldig, veldig flinke til å produsere tekst som høres ut som et menneske, og vi har foreløpig ikke effektive verktøy for å se forskjellen. I feil hender vil falske nyheter og konspirasjonsteorier være billige å produsere og ta lengre tid å avsløre.

Å spre feilinformasjon er selvfølgelig ikke noe nytt, men en forskningsartikkel publisert på arXiv i januar 2023 forklarer at problemet ligger i hvor enkelt det er å skalere opp produksjonen med AI-verktøy. De omtaler det som «AI-genererte påvirkningskampanjer», som de sier for eksempel kan brukes av politikere til å sette ut sine politiske kampanjer.

Ved å kombinere mer enn én AI-generert kilde skaper du en dypfalsk på høyt nivå. Som et eksempel kan en AI-modell generere en velskrevet og overbevisende nyhetsartikkel for å gå sammen med det falske bildet av Donald Trump som blir arrestert. Dette gir det mer legitimitet enn om bildet ble delt på egen hånd.

Falske nyheter er heller ikke begrenset til bilder og skriving, utviklingen innen AI-videogenerering betyr at vi ser flere dypfalske videoer dukke opp. Her er en av Robert Downey Jr. podet på en video av Elon Musk, postet av YouTube-kanal Deepfakery.

Å lage en deepfake kan være like enkelt som å laste ned en app. Du kan bruke en app som TokkingHeads for å gjøre stillbilder til animerte avatarer, som lar deg laste opp ditt eget bilde og lyd for å få det til å virke som om personen snakker.

For det meste er det underholdende og morsomt, men det er også potensiale for trøbbel. Det viser oss hvor enkelt det er å bruke noens bilde for å få det til å virke som om den personen uttalte ord de aldri sa.

Ikke la deg lure av en AI Deepfake

Deepfakes kan raskt distribueres til svært lave kostnader og med lav ekspertise eller datakraft som kreves. De kan ta form av et generert bilde, en stemmeklon eller en kombinasjon av AI-genererte bilder, lyd og tekst.

Det pleide å være mye vanskeligere og mer arbeidskrevende å produsere en deepfake, men nå, med mange AI-apper der ute, har omtrent alle tilgang til verktøyene som brukes til å lage deepfakes. Ettersom AI deepfake-teknologien blir stadig mer avansert, er det verdt å følge nøye med på farene den utgjør.