Generativ AI er et tveegget sverd som brukes til krenkelser og forsvar mot nettkriminalitet.
Generativ kunstig intelligens (AI) har vært i søkelyset den siste tiden. AI-drevet chatbot ChatGPT og andre systemer som støttes for naturlig språkbehandling, som VALL-E, har brakt generativ AI til allmennheten og sluppet løs fordelene og de negative effektene.
En av kjernebekymringene med generativ AI er det faktum at den kan brukes til å oppgradere ondsinnede utnyttelser og komme opp med mer sofistikerte nettangrep. Så, hvordan bruker hackere generativ AI i sine angrep, og hva betyr dette for fremtiden til cybersikkerhet?
Hva er generativ AI og hvordan fungerer det?
Som navnet tilsier, er generativ AI en type AI som er i stand til å generere nytt innhold – bilder, tekst, lyd og syntetiske data.
Et kjent eksempel er ChatGPT, en AI-drevet chatbot som du kan ha menneskelignende samtaler med og få noen fantastiske filmanbefalinger – det er hvis du ikke kan tenke deg et mer meningsfullt oppdrag for å sende ChatGPT på.
La oss gi deg en idé eller to – det kunne du få ChatGPT til å skrive alle de vanskelige e-postene for deg, bruke ChatGPT som et oversettelsesverktøy, Til og med gjør ChatGPT til din sunne måltidsplanleggingsassistent. Alt i alt, i løpet av sekunder, kan denne chatboten komme med tilsynelatende nytt, overbevisende innhold og presentere det på en ganske politisk korrekt måte.
En generativ AI kan imidlertid ikke være kreativ på en måte som et menneske kan, ennå. Dette er fordi den bruker uovervåket og semi-overvåket maskinlæringsalgoritmer for å behandle en forferdelig masse data og generere tilpassede utdata.
For eksempel, hvis du ønsker å bestille et Picasso-lignende maleri fra en generativ kunstig intelligens som DALL-E 2, må du skrive beskrivelsen din i et bestemt felt - la oss si "Picassos Guernica men med kattunger" - og hold deg til et par sekunder. I løpet av den tiden vil AI bruke alle spesifikke trekk ved artistens stil den har lært før, legg til kattunger for en god ordens skyld, og kom med noe originalt - vi har det bildet du kan se litt ovenfor.
Hvordan bruker hackere generativ AI i sine angrep?
Onde gutter har alltid vært tiltrukket av gode algoritmer. Så det er ingen overraskelse at de utnytter generativ AI for å styrke angrepene sine. Ved å bruke ML-metoder som forsterkende læring og generative kontradiktoriske nettverk, nettkriminelle kan komme med nye, mer sofistikerte nettangrep som kan bryte gjennom standarden cyberforsvar.
Et eksempel på denne perversjonen er OpenAIs "cutting edge" chatbot, as ChatGPT utnyttes av nettkriminelle til å skrive skadevare. I starten virket ChatGPT bare morsomt og spill, men nå er det avslørt som en av de største sikkerhets- og personverntruslene. Hvis du liker å chatte med ChatGPT, er det smart å passe på ting nettkriminelle kan gjøre med ChatGPT.
Kort sagt, ChatGPT og andre generative AI-verktøy har gjort livet enklere for nettkriminelle og vanskeligere for sikkerhetsteam. Noen av måtene nettrusselsaktører bruker AI i sine angrep inkluderer:
- Bygge bedre, mer sofistikert skadelig programvare: I hendene på hackere kan generativ AI brukes til å generere skadelig programvarestammer som er vanskelig å oppdage og utføre angrep. Kombinert med AI-modeller kan skadelig programvare maskere intensjonen til den oppfyller sin dårlige hensikt.
- Skrive AI-drevne, personlig tilpassede phishing-e-poster: Ved hjelp av generativ AI har phishing-e-poster ikke lenger de tydelige tegnene på svindel – som dårlig stavemåte, dårlig grammatikk og mangel på kontekst. I tillegg, med AI som ChatGPT, kan trusselaktører starte phishing-angrep med enestående hastighet og skala.
- Generer dype falske data: Siden det kan skape overbevisende imitasjoner av menneskelige aktiviteter – som skriving, tale og bilder – generativ AI kan brukes i uredelige aktiviteter som identitetstyveri, økonomisk svindel og desinformasjon.
- Cracking CAPTCHAer og passordgjetting: Brukt av nettsteder og nettverk for å kjemme ut roboter som søker uautorisert tilgang, kan CAPTCHA nå omgås av hackere. Ved å bruke ML kan de også utføre andre repeterende oppgaver som gjetting av passord og brute-force-angrep.
- Saboterer ML i deteksjon av cybertrusler: Hvis et sikkerhetssystem er overveldet med for mange falske positiver, kan en hacker overraske det med et ekte nettangrep.
Hvordan kan vi bekjempe generativ AI-trussel?
Etter hvert som nettangrep blir mer sofistikerte og konsekvensene alvorligere, vil tradisjonelle sikkerhetssystemer bli til ting fra svunnen tid. Med evnen til å lære av tidligere angrep og tilpasse seg, er AI en uvurderlig ressurs både for nettkriminelle og deres motstandere.
Bruken av AI i cybersikkerhet har noen alvorlige fordeler som raskere trusseldeteksjon, trusselidentifikasjon og trusselrespons – så å bekjempe brann med ild virker som det rette svaret. Før cyberkriminelle lærer hvordan de kan håndtere ødeleggende slag mot enkeltpersoner og selskaper over hele landet verden, må cybersikkerhetsprofesjonelle lære sine AI-drevne systemer å skjerme seg fra disse angrep.
Imidlertid er ikke alt opp til AI. Tross alt kan vi også styrke vår egen sikkerhet og personvern med velprøvde metoder som multifaktorautentisering (MFA), biometrisk teknologi, bruk av passordbehandler, ved hjelp av best krypterte samarbeidsverktøy, og en god, gammel sunn fornuft.
Bekjempe AI med AI
Så, vil vi være vitne til AI-cybersikkerhetskriger i nær fremtid? Vel, vi håper ikke det. Men etter hvert som AI fortsetter å utvikle seg og blir tilgjengelig for alle – både cyberkriminelle og cybersikkerhetsprofesjonelle – vil rollen til AI og ML bli større i årene som kommer.