Chatbots og lignende kan virke som morsomme, men de er også nyttige for hackere. Her er grunnen til at vi alle trenger å vite sikkerhetsrisikoen ved AI.
AI har utviklet seg betydelig de siste årene. Sofistikerte språkmodeller kan komponere romaner i full lengde, kode grunnleggende nettsteder og analysere matematiske problemer.
Selv om det er imponerende, utgjør generativ AI også sikkerhetsrisikoer. Noen bruker bare chatbots for å jukse til eksamen, mens andre utnytter dem direkte for nettkriminalitet. Her er åtte grunner til at disse problemene vil vedvare, ikke bare på tross av AIs fremskritt men fordi av dem også.
1. Open-Source AI Chatbots avslører back-end-koder
Flere AI-selskaper tilbyr åpen kildekode-systemer. De deler åpent språkmodellene sine i stedet for å holde dem lukkede eller proprietære. Ta Meta som et eksempel. I motsetning til Google, Microsoft og OpenAI, lar den millioner av brukere få tilgang til språkmodellen, LLaMA.
Mens åpen kildekode kan fremme AI, er det også risikabelt.
OpenAI har allerede problemer med å kontrollere ChatGPT, dens proprietære chatbot, så forestill deg hva skurker kan gjøre med gratis programvare. De har full kontroll over disse prosjektene.Selv om Meta plutselig trekker språkmodellen sin, har dusinvis av andre AI-laboratorier allerede gitt ut kodene sine. La oss se på HuggingChat. Siden utvikleren HuggingFace er stolt av åpenhet, viser den datasettene, språkmodellen og tidligere versjoner.
2. Jailbreaking spørre Trick LLMs
AI er iboende amoralsk. Den forstår ikke rett og galt – selv avanserte systemer følger opplæringsinstruksjoner, retningslinjer og datasett. De gjenkjenner bare mønstre.
For å bekjempe ulovlige aktiviteter kontrollerer utviklere funksjonalitet og begrensninger ved å sette restriksjoner. AI-systemer har fortsatt tilgang til skadelig informasjon. Men sikkerhetsretningslinjer hindrer dem i å dele disse med brukere.
La oss se på ChatGPT. Selv om den svarer på generelle spørsmål om trojanere, vil den ikke diskutere prosessen med å utvikle dem.
Når det er sagt, er restriksjoner ikke idiotsikre. Brukere omgår grensene ved å omformulere spørsmål, bruke forvirrende språk og skrive eksplisitt detaljerte instruksjoner.
Les nedenfor ChatGPT-jailbreak-forespørsel. Det lurer ChatGPT til å bruke uhøflig språk og lage grunnløse spådommer – begge handlingene bryter med OpenAIs retningslinjer.
Her er ChatGPT med en dristig, men falsk uttalelse.
3. AI kompromitterer sikkerhet for allsidighet
AI-utviklere prioriterer allsidighet fremfor sikkerhet. De bruker ressursene sine på treningsplattformer for å utføre et mer mangfoldig spekter av oppgaver, og til slutt reduserer restriksjoner. Tross alt hyller markedet funksjonelle chatbots.
La oss sammenligne ChatGPT og Bing Chat, for eksempel. Mens Bing har en mer sofistikert språkmodell som henter sanntidsdata, strømmer brukerne fortsatt til det mer allsidige alternativet, ChatGPT. Bings rigide restriksjoner forbyr mange oppgaver. Alternativt har ChatGPT en fleksibel plattform som produserer vidt forskjellige utganger avhengig av spørsmålene dine
Her er ChatGPT-rollespill som en fiktiv karakter.
Og her er Bing Chat som nekter å spille en "umoralsk" persona.
Åpen kildekode gjør at startups kan bli med i AI-kappløpet. De integrerer dem i applikasjonene sine i stedet for å bygge språkmodeller fra bunnen av, og sparer enorme ressurser. Selv uavhengige kodere eksperimenterer med åpen kildekode.
Igjen, ikke-proprietær programvare hjelper med å fremme AI, men masseutgivelse av dårlig trente, men sofistikerte systemer gjør mer skade enn nytte. Kjeltringer vil raskt misbruke sårbarheter. De kan til og med trene usikre AI-verktøy til å utføre ulovlige aktiviteter.
Til tross for disse risikoene, vil teknologiselskaper fortsette å gi ut ustabile betaversjoner av AI-drevne plattformer. AI-løpet belønner fart. De vil sannsynligvis løse feil på et senere tidspunkt enn å utsette lanseringen av nye produkter.
5. Generativ AI har lave inngangsbarrierer
AI-verktøy senker adgangsbarrierene for forbrytelser. Nettkriminelle utarbeider spam-e-poster, skriver malware-kode og bygger phishing-lenker ved å utnytte dem. De trenger ikke engang teknisk erfaring. Siden AI allerede har tilgang til store datasett, må brukerne bare lure den til å produsere skadelig, farlig informasjon.
OpenAI designet aldri ChatGPT for ulovlige aktiviteter. Den har til og med retningslinjer mot dem. Ennå skurker fikk nesten umiddelbart ChatGPT-koding av skadelig programvare og skrive phishing-e-poster.
Mens OpenAI raskt løste problemet, understreker det viktigheten av systemregulering og risikostyring. AI modnes raskere enn noen forventet. Selv tekniske ledere bekymrer seg for at denne superintelligente teknologien kan forårsake massiv skade i feil hender.
6. AI utvikler seg fortsatt
AI er fortsatt i utvikling. Samtidig som bruken av kunstig intelligens i kybernetikk dateres tilbake til 1940, moderne maskinlæringssystemer og språkmodeller dukket først nylig opp. Du kan ikke sammenligne dem med de første implementeringene av AI. Selv relativt avanserte verktøy som Siri og Alexa blekner sammenlignet med LLM-drevne chatbots.
Selv om de kan være innovative, skaper eksperimentelle funksjoner også nye problemer. Høyprofilerte uhell med maskinlæringsteknologier alt fra feilaktige Google SERP-er til partiske chatbots som spytter raseuttalelser.
Selvfølgelig kan utviklere fikse disse problemene. Bare vær oppmerksom på at skurker ikke vil nøle med å utnytte selv tilsynelatende harmløse feil – noen skader er irreversible. Så vær forsiktig når du utforsker nye plattformer.
7. Mange forstår ikke AI ennå
Mens allmennheten har tilgang til sofistikerte språkmodeller og systemer, er det bare noen få som vet hvordan de fungerer. Folk burde slutte å behandle AI som et leketøy. De samme chatbotene som genererer memer og svarer på trivia koder også virus i massevis.
Dessverre er sentralisert AI-trening urealistisk. Globale teknologiledere fokuserer på å frigjøre AI-drevne systemer, ikke gratis utdanningsressurser. Som et resultat får brukere tilgang til robuste, kraftige verktøy de knapt forstår. Publikum kan ikke holde tritt med AI-løpet.
Ta ChatGPT som et eksempel. Nettkriminelle misbruker populariteten ved å lure ofre med spionprogrammer forkledd som ChatGPT-apper. Ingen av disse alternativene kommer fra OpenAI.
8. Black-Hat-hackere har mer å tjene enn White-Hat-hackere
Black-hat hackere har vanligvis mer å vinne enn etiske hackere. Ja, pennetesting for globale teknologiledere lønner seg godt, men bare en prosentandel av fagfolk innen nettsikkerhet får disse jobbene. De fleste jobber som frilans på nettet. Plattformer som HackerOne og Bugcrowd betale noen hundre dollar for vanlige insekter.
Alternativt tjener skurker titusenvis ved å utnytte usikkerhet. De kan utpresse selskaper ved å lekke konfidensielle data eller begå ID-tyveri med stjålet Personlig identifiserbar informasjon (PII).
Hver institusjon, liten som stor, må implementere AI-systemer på riktig måte. I motsetning til hva mange tror, går hackere utover tekniske oppstarter og små og mellomstore bedrifter. Noen av de fleste historiske datainnbrudd det siste tiåret involvere Facebook, Yahoo! og til og med den amerikanske regjeringen.
Beskytt deg selv mot sikkerhetsrisikoen ved AI
Med tanke på disse punktene, bør du unngå AI helt? Selvfølgelig ikke. AI er iboende amoralsk; all sikkerhetsrisiko stammer fra personene som faktisk bruker dem. Og de vil finne måter å utnytte AI-systemer uansett hvor langt disse utvikler seg.
I stedet for å frykte cybersikkerhetstruslene som følger med AI, forstå hvordan du kan forhindre dem. Ikke bekymre deg: enkle sikkerhetstiltak kommer langt. Å være på vakt mot lyssky AI-apper, unngå rare hyperkoblinger og se på AI-innhold med skepsis, bekjemper allerede flere risikoer.