Mange av oss bruker ChatGPT useriøst, men det kommer med alvorlige sikkerhets- og personvernproblemer som du trenger å vite om.

I januar 2023, bare to måneder etter lansering, ble ChatGPT (Generative Pre-trained Transformer) den raskest voksende applikasjonen gjennom tidene, og samlet mer enn 100 millioner brukere.

OpenAIs avanserte chatbot kan ha gjenopplivet publikums interesse for kunstig intelligens, men få har seriøst vurdert de potensielle sikkerhetsrisikoene forbundet med dette produktet.

ChatGPT: Sikkerhetstrusler og -problemer

Teknologien som ligger til grunn for ChatGPT og andre chatbots kan være lik, men ChatGPT er i en egen kategori. Dette er gode nyheter hvis du har tenkt å bruke det som en slags personlig assistent, men bekymringsfullt hvis du tenker på at trusselaktører også bruker det.

Nettkriminelle kan bruke ChatGPT til å skrive skadelig programvare, bygge svindelnettsteder, generere phishing-e-poster, lage falske nyheter og så videre. På grunn av dette kan ChatGPT være en større cybersikkerhetsrisiko enn en fordel, som Blødende datamaskin legg det inn i en analyse.

Samtidig er det alvorlige bekymringer for at ChatGPT selv har visse uadresserte sårbarheter. I mars 2023 dukket det for eksempel opp rapporter om at noen brukere kunne se titler på andres samtaler. Som The Verge rapporterte på den tiden, forklarte OpenAI-sjef Sam Altman at "en feil i et åpen kildekodebibliotek" hadde forårsaket problemet.

Dette understreker bare hvor viktig det er begrense hva du deler med ChatGPT, som samler inn en svimlende mengde data som standard. Teknikken Samsung lærte dette på den harde måten, da en gruppe ansatte som hadde brukt chatboten som assistent ved et uhell lekket konfidensiell informasjon til den.

Er ChatGPT en trussel mot personvernet ditt?

Sikkerhet og personvern er ikke det samme, men de er nært beslektet og krysser ofte hverandre. Hvis ChatGPT er en sikkerhetstrussel, så er det også en trussel mot personvernet, og omvendt. Men hva betyr dette i mer praktiske termer? Hvordan er ChatGPTs retningslinjer for sikkerhet og personvern?

Milliarder av ord ble skrapt fra internett for å lage ChatGPTs enorme database. Denne databasen er i en kontinuerlig tilstand av ekspansjon, siden ChatGPT lagrer det brukerne deler. Den USA-baserte ideelle organisasjonen Sunn fornuft ga ChatGPT en personvernvurderingsscore på 61 prosent, og la merke til at chatboten samler inn personlig identifiserbar informasjon (PII) og andre sensitive data. De fleste av disse dataene lagres eller deles med visse tredjeparter.

I alle fall bør du være forsiktig når du bruker ChatGPT, spesielt hvis du bruker den til jobb, eller for å behandle sensitiv informasjon. Som en generell tommelfingerregel bør du ikke dele med boten det du ikke vil at publikum skal vite.

Håndtere sikkerhetsrisikoen knyttet til ChatGPT

Kunstig intelligens vil bli regulert på et tidspunkt, men det er vanskelig å forestille seg en verden der den ikke utgjør en sikkerhetstrussel. Som all teknologi kan – og vil – bli misbrukt.

I fremtiden vil chatbots bli en integrert del av søkemotorer, stemmeassistenter og sosiale nettverk, ifølge Malwarebytes. Og de vil ha en rolle å spille i ulike bransjer, alt fra helsevesen og utdanning, til finans og underholdning.

Dette vil radikalt transformere sikkerheten slik vi kjenner den. Men som Malwarebytes også bemerket, kan ChatGPT og lignende verktøy også brukes av cybersikkerhetseksperter; for eksempel for å se etter feil i programvare, eller "mistenkelige mønstre" i nettverksaktivitet.

Bevisstgjøring er nøkkelen

Hva vil ChatGPT være i stand til om fem eller 10 år fra nå? Vi kan bare spekulere, men det vi vet med sikkerhet er at kunstig intelligens ikke kommer noen vei.

Etter hvert som enda mer avanserte chatbots dukker opp, vil hele bransjer måtte justere seg og lære å bruke dem på en ansvarlig måte. Dette inkluderer cybersikkerhetsindustrien, som allerede er formet av AI. Å øke bevisstheten om sikkerhetsrisikoen knyttet til AI er nøkkelen, og vil bidra til å sikre at disse teknologiene utvikles og brukes på en etisk måte.