Falske nyheter, deepfakes, villedende bilder: alle disse kan lages ved hjelp av kunstig intelligens. Her er hvordan AI betyr at feilinformasjon sprer seg.
Kunstig intelligens (AI) spiller nå en rolle i ulike aspekter av livene våre. Spesielt har generative AI-verktøy som ChatGPT og andre vokst betydelig. Dette betyr at det vil være en overflod av AI-generert innhold i fremtiden.
Generativ AI introduserer imidlertid også risikoen for AI-generert desinformasjon. Funksjonene gjør det lettere for opportunistiske individer å spre falsk informasjon. Så la oss utforske hvordan generativ AI blir brukt for desinformasjon.
Potensielle risikoer ved generativ AI for å spre desinformasjon
Generativ kunstig intelligens utgjør mange trusler mot mennesker, som å fjerne jobber, mer overvåking og nettangrep. Og sikkerhetsproblemer med AI vil bli enda verre. Men det er en annen bekymring: folk kan bruke den til å spre løgner. Villedende individer kan bruke generativ AI til å dele falske nyheter gjennom visuelt, auditivt eller tekstlig innhold.
Falske nyheter kan kategoriseres i tre typer:
- Feilinformasjon: Utilsiktet feil eller falsk informasjon.
- Desinformasjon: Bevisst bruk av manipulerende eller villedende informasjon.
- Feilinformasjon: Villedende nyheter eller en overdreven versjon av sannheten.
Når kombinert med deepfake-teknologi, kan generative AI-verktøy gjøre innhold som ser ut og høres ekte ut, som bilder, videoer, lydklipp og dokumenter. Det er mange muligheter for å lage falskt innhold, så å vite det hvordan du beskytter deg mot dypfalske videoer er viktig.
Spredning av falske nyheter kan generere innhold i store mengder, noe som gjør det lettere å spre blant massene gjennom sosiale medier. Målrettet desinformasjon kan brukes til å påvirke politiske kampanjer, som potensielt kan påvirke valg. I tillegg vekker bruk av AI-tekst- og bildegenereringsverktøy bekymringer angående lover om opphavsrett, som rapportert av Congressional Research Service: å bestemme eierskap til innhold generert av disse verktøyene blir utfordrende.
Hvordan vil loven adressere spredning av falske nyheter gjennom generativ AI? Hvem vil bli holdt ansvarlig for å spre falsk informasjon – brukerne, utviklerne eller verktøyene selv?
4 måter generativ AI kan brukes til å spre desinformasjon
For å være trygg på nettet, må alle forstå risikoen ved generativ AI ved å spre desinformasjon, siden den kommer i mange forskjellige former. Her er noen måter den kan brukes til å manipulere folk.
1. Generer falskt innhold på nettet
Å lage falskt innhold ved hjelp av generativ AI er en vanlig strategi brukt av de som sprer falske nyheter. De bruker populære generative AI-verktøy som ChatGPT, DALL-E, Bard, Midjourney og andre for å produsere ulike typer innhold. For eksempel, ChatGPT kan hjelpe innholdsskapere på mange måter. Men det kan også generere innlegg i sosiale medier eller nyhetsartikler som kan lure folk.
For å bevise dette, ba jeg ChatGPT om å skrive en oppdiktet artikkel om arrestasjonen av USAs president Joe Biden på grunn av korrupsjonsanklager. Vi ba også om å inkludere uttalelser fra relevante myndigheter for å få det til å virke mer troverdig.
Her er den fiktive artikkelen som ChatGPT kom opp med:
Overraskende nok var resultatet svært overbevisende. Den inkluderte navn og uttalelser fra autoritative personer for å gjøre artikkelen mer overbevisende. Dette viser hvordan hvem som helst kan bruke slike verktøy til å generere falske nyheter og enkelt spre dem på nettet.
2. Bruke chatbots for å påvirke folks meninger
Chatboter som er avhengige av generative AI-modeller kan bruke ulike taktikker for å påvirke folks meninger, inkludert:
- Emosjonell manipulasjon: AI kan bruke emosjonell intelligensmodeller til å utnytte emosjonelle triggere og skjevheter for å forme perspektivene dine.
- Ekkokamre og bekreftelsesskjevhet: Chatbots kan forsterke eksisterende tro ved å lage ekkokamre som validerer dine skjevheter. Hvis du allerede har et bestemt synspunkt, kan AI styrke det ved å presentere informasjon som stemmer overens med dine meninger.
- Sosial bevis og bandwagon effekt: AI kan manipulere offentlige følelser ved å generere sosiale bevis. Dette kan få betydelige konsekvenser, ettersom det kan føre til at enkeltpersoner tilpasser seg populære meninger eller følger mengden.
- Målrettet personalisering: Chatbots har tilgang til enorme mengder data som de kan samle inn for å lage personlige profiler. Dette gjør dem i stand til å tilpasse innhold basert på dine preferanser. Gjennom målrettet personalisering kan AI overtale enkeltpersoner eller ytterligere styrke deres meninger.
Disse eksemplene illustrerer alle hvordan chatbots kan brukes til å villede folk.
3. Opprette AI DeepFakes
Noen kan bruke deepfakes til å lage falske videoer av en person som sier eller gjør ting de aldri har gjort. De kan bruke slike verktøy til sosial ingeniørkunst eller kjøre svertekampanjer mot andre. Dessuten, i dagens memekultur, kan deepfakes tjene som verktøy for nettmobbing på sosiale medier.
I tillegg kan politiske motstandere bruke dypfalske lyd og videoer for å svekke omdømmet til motstanderne, og manipulere offentlige følelser ved hjelp av AI. Så AI-genererte deepfakes utgjør en rekke trusler i fremtiden. I følge en 2023 Det melder Reuters, kan fremveksten av AI-teknologi påvirke USAs valg i 2024. Rapporten fremhever tilgjengeligheten til verktøy som Midjourney og DALL-E som enkelt kan lage fabrikkert innhold og påvirke folks kollektive meninger.
Det er da avgjørende å kunne identifisere videoer laget av deepfakes og skille dem fra originaler.
4. Kloning av menneskestemmer
Generativ AI, sammen med deepfake-teknologi, muliggjør manipulering av noens tale. Deepfake-teknologien går raskt fremover og tilbyr en rekke verktøy som kan replikere hvem som helst. Dette lar ondsinnede personer utgi seg for andre og lure intetanende individer. Et slikt eksempel er bruken av deepfake musikk.
Du har kanskje kommet over verktøy som Ligner på AI, Speechify, FakeYou, og andre som kan etterligne stemmene til kjendiser. Selv om disse AI-lydverktøyene kan være underholdende, utgjør de betydelige risikoer. Svindlere kan bruke stemmekloningsteknikker for ulike uredelige ordninger, noe som resulterer i økonomiske tap.
Svindlere kan bruke dypfalske stemmer for å etterligne dine kjære og ringe deg og late som de er i nød. Med syntetisk lyd som høres overbevisende ut, kan de oppfordre deg til å sende penger raskt, noe som fører til at du blir et offer for svindelen deres. En hendelse rapportert av Washington Post i mars 2023 eksemplifiserer dette problemet: svindlere brukte dypt falske stemmer for å overbevise folk om at deres barnebarn var i fengsel og trengte penger...
Hvordan oppdage AI-spredning desinformasjon
Å bekjempe spredningen av desinformasjon tilrettelagt av AI er et presserende problem i dagens verden. Så hvordan kan du oppdage falsk informasjon som er laget av AI?
- Tilnærm deg nettinnhold med skepsis. Hvis du møter noe som virker manipulerende eller utrolig, verifiser det gjennom krysssjekking.
- Før du stoler på en nyhetsartikkel eller et innlegg på sosiale medier, sørg for at det kommer fra en anerkjent kilde.
- Se opp for indikatorer på dype forfalskninger, som unaturlig blinking eller ansiktsbevegelser, dårlig lydkvalitet, forvrengte eller uskarpe bilder og mangel på ekte følelser i tale.
- Bruk faktasjekkende nettsteder for å verifisere nøyaktigheten til informasjonen.
Ved å følge disse trinnene kan du identifisere og beskytte deg selv mot AI-drevet feilinformasjon.
Vokt dere for desinformasjon spredt av AI
Generativ programvare har spilt en avgjørende rolle i å fremme AI. Likevel kan de også være en betydelig kilde til desinformasjon i samfunnet. Disse rimelige verktøyene har gjort det mulig for alle å lage forskjellige typer innhold ved hjelp av sofistikerte AI-modeller; deres evne til å generere innhold i store mengder og inkorporere deepfakes gjør dem enda farligere.
Det er viktig at du er klar over utfordringene med desinformasjon i AI-tiden. Å forstå hvordan AI kan brukes til å spre falske nyheter er det første skrittet mot å beskytte deg selv mot feilinformasjon.