Lesere som deg er med på å støtte MUO. Når du foretar et kjøp ved å bruke lenker på nettstedet vårt, kan vi tjene en tilknyttet provisjon. Les mer.

Kunstig intelligens (AI) har potensial til å endre selve naturen til samfunnet vårt. Og hvis AI-verktøyene vi for øyeblikket har til rådighet er noen indikasjon på hva som kommer, har vi mye å se frem til.

Vi har også mye å være på vakt mot. Nemlig bevæpningen av AI av nettkriminelle og andre trusselaktører. Dette er ikke en teoretisk bekymring, og ikke engang AI-bildegeneratorer er immune mot misbruk.

Hva er AI-bildegeneratorer? Hvordan fungerer de?

Hvis du noen gang har brukt en AI-bildegenerator, har du en ganske god ide om hva de handler om. Selv om du aldri har brukt en, har du mest sannsynlig kommet over AI-genererte bilder på sosiale medier og andre steder. Programvaren som er populær i dag fungerer etter et veldig enkelt prinsipp: brukeren skriver inn teksten, og AI genererer et bilde basert på den teksten.

Det som foregår under panseret er mye mer komplekst. AI har blitt mye bedre de siste årene, og det meste

instagram viewer
tekst-til-bilde-generatorer i dag er såkalte diffusjonsmodeller. Dette betyr at de er «trent» over lang tid på et enormt antall tekst og bilder, som er det som gjør kreasjonene deres så imponerende og slående realistiske.

Det som gjør disse AI-verktøyene enda mer imponerende er det faktum at de ikke bare endrer eksisterende bilder eller kombinerer tusenvis av bilder til ett, men også skaper nye, originale bilder fra bunnen av. Jo flere folk bruker disse tekst-til-bilde-generatorene, jo mer informasjon mates de, og jo bedre blir kreasjonene deres.

Noen av de mest kjente AI-bildegeneratorer er Dream by WOMBO, DALL-E, Stabil diffusjon, Midjourney, DeepAI, Fotor og Craiyon. Nye dukker opp til venstre og høyre, og teknologigiganter – inkludert Google – slipper sine egne, så vi kan bare spekulere i hva fremtiden vil bringe.

4 måter trusselskuespillere bevæpner AI-bildegeneratorer

Som stort sett all teknologi, kan AI-bildegeneratorer misbrukes av ondsinnede skuespillere. Faktisk blir de allerede brukt til alle slags ondsinnede formål. Men nøyaktig hvilken type svindel og nettangrep kan en kriminell utføre ved hjelp av AI-bildegeneratorer?

1. Sosialteknikk

En åpenbar ting trusselaktører kan gjøre med AI-bildegeneratorer er engasjere seg i sosial ingeniørkunst; for eksempel opprette falske sosiale medier-profiler. Noen av disse programmene kan lage utrolig realistiske bilder som ser ut akkurat som ekte fotografier av ekte mennesker, og en svindler kan bruke disse falske sosiale medieprofilene til steinfiske.

I motsetning til ekte menneskers bilder, kan ikke AI-genererte bilder oppdages via omvendt bildesøk, og nettkriminelle trenger ikke å jobbe med en begrenset antall bilder for å nå målet – ved hjelp av kunstig intelligens kan de generere så mange de vil, og bygge en overbevisende nettidentitet fra ripe.

Men det er virkelige eksempler på trusselaktører som bruker AI-bildegeneratorer for å lure folk. I april 2022, TechTalks bloggeren Ben Dickinson mottok en e-post fra et advokatfirma som hevdet at han hadde brukt et bilde uten tillatelse. Advokatene sendte en e-post med en DMCA-merknad om brudd på opphavsrett, og fortalte Dickinson at han må koble tilbake til en klient av dem, eller fjerne bildet.

Dickinson googlet advokatfirmaet, og fant den offisielle nettsiden. Det hele virket helt legitimt; nettstedet hadde til og med bilder av 18 advokater, komplett med deres biografier og legitimasjon. Men ingenting av det var ekte. Bildene ble alle generert av AI, og de antatte varslene om brudd på opphavsretten ble sendt ut av noen som ønsker å presse tilbakekoblinger fra intetanende bloggere, som en del av en uetisk, svart hatt SEO (søkemotoroptimalisering) strategi.

2. Veldedighetssvindel

Da ødeleggende jordskjelv rammet Tyrkia og Syria i februar 2023, uttrykte millioner av mennesker rundt om i verden sin solidaritet med ofrene ved å donere klær, mat og penger.

I følge en rapport fra BBC, utnyttet svindlere dette ved å bruke AI til å lage realistiske bilder og be om donasjoner. En svindler viste AI-genererte bilder av ruiner på TikTok Live, og ba seerne om donasjoner. En annen postet et AI-generert bilde av en gresk brannmann som reddet et skadet barn fra ruiner, og ba hans følgere om donasjoner i Bitcoin.

Man kan bare forestille seg hvilken type veldedighetssvindel kriminelle vil drive med hjelp av AI i fremtiden, men det er trygt å anta at de bare vil bli bedre til å misbruke denne programvaren.

3. Deepfakes og desinformasjon

Regjeringer, aktivistgrupper og tenketanker har lenge advart om dette farene ved deepfakes. AI-bildegeneratorer legger til en annen komponent til dette problemet, gitt hvor realistiske kreasjonene deres er. Faktisk, i Storbritannia er det til og med et komedieprogram kalt Deep Fake Neighbour Wars som finner humor i usannsynlige kjendispar. Hva ville stoppe en desinformasjonsagent fra å lage et falskt bilde og promotere det på sosiale medier ved hjelp av roboter?

Dette kan få konsekvenser i det virkelige liv, slik det nesten gjorde i mars 2022, da en falsk video som viser den ukrainske presidenten Volodymyr Zelensky som ber ukrainere om å overgi seg sirkulert på nettet, pr. NPR. Men det er bare ett eksempel, for mulighetene er nesten uendelige, og det er utallige måter en trusselaktør kan skade noens omdømme, fremme en falsk fortelling eller spre falske nyheter med hjelp av AI.

4. Annonsesvindel

TrendMicro forskere oppdaget i 2022 at svindlere brukte AI-generert innhold for å lage villedende annonser og fremme lyssky produkter. De laget bilder som antydet at populære kjendiser bruker bestemte produkter, og kjørte annonsekampanjer basert på disse bildene.

For eksempel, en annonse for en "finansiell rådgivningsmulighet" inneholdt milliardær Elon Musk, grunnlegger og administrerende direktør i Tesla. Musk støttet selvfølgelig aldri det aktuelle produktet, men de AI-genererte opptakene som ble omtalt fikk det til å virke slik, og antagelig lokket intetanende seere til å klikke på annonsene.

AI og cybersikkerhet: et komplekst problem vi må takle

Fremover vil myndighetsregulatorer og nettsikkerhetseksperter sannsynligvis måtte jobbe sammen for å møte den nye trusselen fra AI-drevet nettkriminalitet. Men hvordan kan vi regulere AI og beskytte vanlige mennesker, uten å kvele innovasjon og begrense digitale friheter? Det spørsmålet kommer til å være stort i årene som kommer.

Inntil det er et svar, gjør det du kan for å beskytte deg selv: kontroller nøye all informasjon du ser på nettet, unngå lyssky nettsteder, bruk sikker programvare, hold enhetene dine oppdatert og lær å bruke kunstig intelligens til fordel.