Enten du bruker ChatGPT eller en annen chatbot, må du være klar over de potensielle truslene som setter personvernet ditt i tvil.

Chatbots har eksistert i årevis, men fremveksten av store språkmodeller, som ChatGPT og Google Bard, har gitt chatbotindustrien et nytt liv.

Millioner av mennesker bruker nå AI chatbots over hele verden, men det er noen viktige personvernrisikoer og bekymringer å huske på hvis du vil prøve ut et av disse verktøyene.

1. Datainnsamling

De fleste bruker ikke chatbots bare for å si hei. Moderne chatbots er designet for å behandle og svare på komplekse spørsmål og forespørsler, med brukere som ofte inkluderer mye informasjon i forespørslene. Selv om du bare stiller et enkelt spørsmål, vil du egentlig ikke at det skal gå utover samtalen din.

I følge OpenAIs støtteseksjon, kan du slette ChatGPT-chatlogger når du vil, og disse loggene vil da bli permanent fjernet fra OpenAIs systemer etter 30 dager. Imidlertid vil selskapet beholde og gjennomgå visse chat-logger hvis de har blitt flagget for skadelig eller upassende innhold.

instagram viewer

En annen populær AI-chatbot, Claude, holder også styr på dine tidligere samtaler. Anthropics støttesenter sier at Claude sporer "dine meldinger og utganger i produktet for å gi deg en konsistent produktopplevelse over tid i samsvar med kontrollene dine." Du kan slette samtalene dine med Claude, så den glemmer hva du har snakket om, men dette betyr ikke at Anthropic umiddelbart vil slette loggene dine fra systemer.

Dette reiser selvfølgelig spørsmålet: blir dataene mine lagret eller ikke? Bruker ChatGPT eller andre chatbots dataene mine?

Men bekymringene stopper ikke her.

Hvordan lærer ChatGPT?

For å gi informasjon trenes store språkmodeller med enorme mengder data. I følge Vitenskapsfokus, ChatGPT-4 alene ble matet med 300 milliarder ord med informasjon i løpet av treningsperioden. Dette er ikke hentet rett fra noen få oppslagsverk. Chatbot-utviklere bruker heller massevis av informasjon fra internett for å trene modellene sine. Dette kan inkludere data fra bøker, filmer, artikler, Wikipedia-innlegg, blogginnlegg, kommentarer og til og med anmeldelsessider.

Husk at, avhengig av en chatbot-utviklers personvernpolicy, kan det hende at noen av de nevnte kildene ikke brukes i opplæring.

Mange har kritisert ChatGPT, og hevdet at det er noe av et mareritt når det gjelder personvern, det ChatGPT kan ikke stoles på. Så hvorfor er dette tilfellet?

Det er her ting blir litt uklart. Hvis du spør ChatGPT-3.5 direkte om den har tilgang til produktanmeldelser eller artikkelkommentarer, vil du få en fast negativ. Som du kan se på skjermbildet nedenfor, sier GPT-3.5 at den ikke ble gitt tilgang til brukerartikkelkommentarer eller produktanmeldelser i opplæringen.

Snarere ble den trent ved å bruke "et mangfoldig utvalg av tekst fra internett, inkludert nettsteder, bøker, artikler og annet offentlig tilgjengelig skriftlig materiale frem til september 2021."

Men er tilfellet det samme for GPT-4?

Da vi spurte GPT-4, ble vi fortalt at "OpenAI brukte ikke spesifikke brukeranmeldelser, personlige data eller artikkelkommentarer" i chatbotens treningsperiode. I tillegg fortalte GPT-4 oss at svarene er generert fra "mønstre i dataene [den] ble trent på, som primært består av bøker, artikler og annen tekst fra internett."

Da vi undersøkte videre, hevdet GPT-4 at visse sosiale medier-innhold faktisk kan være inkludert i treningsdataene, men skaperne vil alltid forbli anonyme. GPT-4 uttalte spesifikt at "Selv om innholdet fra plattformer som Reddit var en del av treningsdataene, [den har ikke] tilgang til spesifikke kommentarer, innlegg eller data som kan kobles tilbake til en person bruker."

En annen bemerkelsesverdig del av GPT-4s svar er som følger "OpenAI har ikke eksplisitt oppført hver datakilde som brukes." Av selvfølgelig ville det være vanskelig for OpenAI å liste opp kilder verdt 300 milliarder ord, men dette gir plass til spekulasjon.

I en Ars Technica-artikkel, ble det uttalt at ChatGPT samler inn "personlig informasjon innhentet uten samtykke." I samme artikkel, kontekstuell integritet ble nevnt, et begrep som refererer til kun å bruke noens informasjon i den konteksten den var opprinnelig brukt. Hvis ChatGPT bryter denne kontekstuelle integriteten, kan folks data være i fare.

Et annet punkt av bekymring her er OpenAIs overholdelse av General Data Protection Regulation (GDPR). Dette er en forskrift håndhevet av EU for å beskytte innbyggernes data. Ulike europeiske land, inkludert Italia og Polen, har startet undersøkelser av ChatGPT på grunn av bekymringer rundt GDPR-overholdelse. I en kort periode ble ChatGPT til og med forbudt i Italia på grunn av bekymringer om personvern.

OpenAI har tidligere truet med å trekke seg ut av EU på grunn av planlagte AI-reguleringer, men dette har siden blitt trukket tilbake.

ChatGPT er kanskje den største AI-chatboten i dag, men personvernproblemer for chatbot starter og slutter ikke hos denne leverandøren. Hvis du bruker en lyssky chatbot med en mangelfull personvernpolicy, kan samtalene dine bli misbrukt, eller svært sensitiv informasjon kan bli brukt i opplæringsdataene.

2. Datatyveri

Som ethvert online verktøy eller plattform, er chatbots sårbare for nettkriminalitet. Selv om en chatbot gjorde alt den kunne for å beskytte brukere og deres data, er det alltid en sjanse for at en erfaren hacker klarer å infiltrere sine interne systemer.

Hvis en gitt chatbot-tjeneste lagret den sensitive informasjonen din, for eksempel betalingsdetaljer for premiumen din abonnement, kontaktdata eller lignende, kan dette bli stjålet og utnyttet dersom et nettangrep skulle skje skje.

Dette gjelder spesielt hvis du bruker en mindre sikker chatbot hvis utviklere ikke har investert i tilstrekkelig sikkerhetsbeskyttelse. Ikke bare kan selskapets interne systemer hackes, men din egen konto har sjansen for å bli kompromittert hvis den ikke har påloggingsvarsler eller et autentiseringslag.

Nå som AI-chatbots er så populære, har nettkriminelle naturlig nok strømmet til å bruke denne industrien for svindel. Falske ChatGPT-nettsteder og plugins har vært et stort problem siden OpenAIs chatbot traff mainstream sent i 2022, med folk som falt for svindel og ga bort personlig informasjon under dekke av legitimitet og tillit.

I mars 2023 rapporterte MUO om en falsk ChatGPT Chrome-utvidelse som stjeler Facebook-pålogginger. Programtillegget kan utnytte en Facebook-bakdør til å hacke høyprofilerte kontoer og stjele brukerinformasjonskapsler. Dette er bare ett eksempel på mange falske ChatGPT-tjenester designet for å lure uvitende ofre.

3. Infeksjon av skadelig programvare

Hvis du bruker en lyssky chatbot uten å være klar over det, kan det hende du finner chatboten som gir deg lenker til ondsinnede nettsteder. Kanskje chatboten har varslet deg om en fristende giveaway, eller gitt en kilde for en av uttalelsene. Hvis operatørene av tjenesten har ulovlige intensjoner, kan hele poenget med plattformen være å spre skadelig programvare og svindel via ondsinnede lenker.

Alternativt kan hackere kompromittere en legitim chatbot-tjeneste og bruke den til å spre skadelig programvare. Hvis denne chatboten tilfeldigvis er veldig mennesker, vil tusenvis eller til og med millioner av brukere bli utsatt for denne skadelige programvaren. Falske ChatGPT-apper har til og med vært på Apple App Store, så det er best å trå forsiktig.

Generelt bør du aldri klikke på noen lenker en chatbot gir før kjører den gjennom et nettsted som sjekker lenker. Dette kan virke irriterende, men det er alltid best å være sikker på at nettstedet du blir ført til ikke har et ondsinnet design.

I tillegg bør du aldri installere noen chatbot-plugins og utvidelser uten å bekrefte deres legitimitet først. Gjør litt research rundt appen for å se om den har blitt godt anmeldt, og kjør også et søk hos apputvikleren for å se om du finner noe lyssky.

Chatbots er ikke ugjennomtrengelige for personvernproblemer

Som de fleste nettverktøy i dag, har chatbots gjentatte ganger blitt kritisert for deres mulige sikkerhets- og personvernfeller. Enten det er en chatbot-leverandør som skjærer hjørner når det gjelder brukersikkerhet, eller den pågående risikoen for nettangrep og svindel, det er avgjørende at du vet hva chatbottjenesten samler på deg, og om den har tilstrekkelig sikkerhet målinger.