FraudGPT er en språkmodell finjustert for å hjelpe kriminelle i uredelige aktiviteter. Lær hva det er å beskytte deg mot potensielle trusler.
Fremveksten av kunstig intelligens (AI) er et tveegget sverd. Som enhver transformativ teknologi tilbyr AI et enormt potensial, men også enorme risikoer. Til tross for det ettertrykkelige presset for å regulere AI, ser det ut til at trusselaktører har kommet i forkant.
Et nytt ChatGPT-stilt verktøy, FraudGPT, vinner frem blant nettkriminelle, og lar dem automatisere og bedre utføre en stor del av svindeloperasjonene sine. Alle kan bli et offer, så det er viktig å holde seg orientert. Her er alt vi vet om FraudGPT så langt.
Hva er FraudGPT?
FraudGPT er et AI-verktøy drevet av en stor språkmodell som er spesielt finjustert for å hjelpe cyberkriminelle med å begå cyberkriminalitet. Det abonnementsbaserte AI-verktøyet lar trusselaktører legge til rette for sine kriminelle aktiviteter som å lage kort, phishing og skadelig programvare.
Selv om detaljer om verktøyet fortsatt er svært begrenset, har forskere fra Netenrich, et sikkerhetsforskningsfirma, avdekket flere annonser på det mørke nettet som annonserer for verktøyet. Ifølge
forskningsrapport fra Netenrich, varierer abonnementsavgiftene mellom $200 per måned til $1700 årlig.For å få et bedre bilde av verktøyet kan du tenke på FraudGPT som ChatGPT, men for svindel. Men nøyaktig hvordan fungerer FraudGPT, og hvordan bruker nettkriminelle det?
Hvordan fungerer FraudGPT?
I kjernen er FraudGPT ikke vesentlig forskjellig fra noe verktøy som drives av en stor språkmodell. Med andre ord er selve verktøyet et interaktivt grensesnitt for kriminelle for å få tilgang til en spesiell type språkmodell som er innstilt for å begå cyberkriminalitet.
Skjønner du det fortsatt ikke? Her er en grov ide om hva vi snakker om. I de første dagene av ChatGPTs lansering kunne AI-chatboten brukes til å gjøre omtrent hva som helst, inkludert å hjelpe cyberkriminelle med å lage skadelig programvare. Dette var mulig fordi ChatGPTs underliggende språkmodell ble trent på et datasett som sannsynligvis inneholdt prøver av et bredt spekter av data, inkludert data som kunne hjelpe en kriminell virksomhet.
Store språkmodeller mates vanligvis med alt fra de gode tingene, som vitenskapsteorier, helseinformasjon og politikk, til de som ikke er så gode, som eksempler på skadevarekode, meldinger fra kort- og nettfiskingskampanjer og andre kriminelle materialer. Når man arbeider med den typen datasett som trengs for å trene språkmodeller som den typen som driver ChatGPT, er det nesten uunngåelig at modellen vil inneholde prøver av uønsket materiale.
Til tross for typisk grundige anstrengelser for å eliminere de uønskede materialene i datasettet, slipper noen gjennom, og de er vanligvis fortsatt nok til å gi modellen muligheten til å generere materialer for å lette nettkriminalitet. Det er derfor med høyre rask prosjektering, kan du få verktøy som ChatGPT, Google Bard og Bing AI for å hjelpe deg med å skrive svindel-e-poster eller skadelig programvare.
Hvis verktøy som ChatGPT kan hjelpe cyberkriminelle med å begå forbrytelser til tross for alle anstrengelser for å gjøre disse AI-chatbotene trygge, tenk nå på kraft et verktøy som FraudGPT kunne bringe, med tanke på at det var spesifikt finjustert på skadelig materiale for å gjøre det egnet for nettkriminalitet. Det er som om den onde tvillingen til ChatGPT tok på seg steroider.
Så for å bruke verktøyet kunne kriminelle bare spørre chatboten slik de ville gjort med ChatGPT. De kan be den om å for eksempel skrive en phishing-e-post for Jane Doe, som jobber i selskapet ABC, eller kanskje be den om å skrive skadevare ved å bruke C++ for å stjele alle PDF-filene fra en Windows 10-datamaskin. Kriminelle ville i utgangspunktet bare finne på ond mekanisering og la chatboten gjøre det tunge arbeidet.
Hvordan kan du beskytte deg selv mot svindelGPT?
Til tross for at det er en ny type verktøy, er trusselen fra FraudGPT ikke fundamentalt annerledes. Du kan si at det introduserer mer automatisering og effektivitet til allerede etablerte metoder for å utføre nettkriminalitet.
Kriminelle som bruker verktøyet ville, i det minste teoretisk sett, kunne skrive mer overbevisende phishing-e-poster, bedre plan svindel, og skaper mer effektiv skadelig programvare, men de vil stort sett fortsatt stole på de etablerte måtene å utføre sine uhyggelige planer. Som et resultat gjelder fortsatt de etablerte måtene å beskytte deg selv på:
- Vær forsiktig med uønskede meldinger som ber om informasjon eller ber deg klikke på lenker. Ikke oppgi informasjon eller klikk på koblinger i disse meldingene med mindre du bekrefter kilden.
- Kontakt selskaper direkte ved å bruke et uavhengig, bekreftet nummer for å sjekke legitimiteten. Ikke bruk kontaktinformasjon oppgitt i mistenkelige meldinger.
- Bruk sterke, unike passord som er vanskelige å knekke og omfavne tofaktorautentisering når tilgjengelig for alle kontoer. Del aldri passord eller koder som er sendt til deg.
- Sjekk kontoutskrifter regelmessig for mistenkelig aktivitet.
- Hold programvare oppdatert og bruk antivirus- eller anti-malware-verktøy.
- Makuler dokumenter som inneholder personlig identifiserende eller finansiell informasjon når det ikke lenger er nødvendig.
For mer om hvordan du beskytter deg selv, les vår guide om hvordan du kan beskytte deg selv i AI-tiden.
Hold deg informert for å beskytte deg selv
Fremveksten av verktøy som FraudGPT minner oss om at til tross for alt det gode AI kan gjøre for oss, representerer det fortsatt et veldig potent verktøy i hendene på trusselaktører.
Mens myndigheter og store AI-firmaer går på et hektisk kappløp for å vedta bedre måter å regulere AI på, er det viktig å være klar over trusselen som AI for øyeblikket utgjør og ta de nødvendige forholdsregler for å beskytte deg selv.