AI-chatbots kan hallusinere, og gir selvsikkert feil svar - noe hackere kan dra nytte av. Her er hvordan hackere bevæpner hallusinasjoner.
Store AI-er for språkmodeller er ufullkomne og genererer noen ganger falsk informasjon. Disse tilfellene, kalt hallusinasjoner, kan utgjøre en cybertrussel for bedrifter og individuelle AI-entusiaster.
Heldigvis kan du øke forsvaret mot AI-hallusinasjoner med økt bevissthet og sunn andre gjetting.
Hvorfor hallusinerer AI?
Det er ingen konsensus om hvorfor AI-modeller hallusinerer, selv om det er noen sannsynlige gjetninger.
AI er trent opp fra massive datasett, som ofte inneholder feil som tankegap, innholdsavvik eller skadelige skjevheter. Enhver trening fra disse ufullstendige eller utilstrekkelige datasettene kan være roten til hallusinasjoner, selv om senere iterasjoner av datasettet fikk kurasjon fra dataforskere.
Over tid kan dataforskere gjøre informasjon mer nøyaktig og legge inn ytterligere kunnskap for å fylle ledige stillinger og minimere hallusinasjonspotensialet. Tilsynsmenn kan feilmerke data. Programmeringskoden kan ha feil. Å fikse disse elementene er viktig fordi AI-modeller avanserer basert på maskinlæringsalgoritmer.
Disse algoritmene bruker data for å ta avgjørelser. En utvidelse av dette er AIs nevrale nettverk, som skaper nye beslutninger fra maskinlæringserfaring til ligne originaliteten til menneskelige sinn mer nøyaktig. Disse nettverkene inneholder transformatorer, som analyserer forholdet mellom fjerne datapunkter. Når transformatorer går galt, kan det oppstå hallusinasjoner.
Hvordan AI-hallusinasjoner gir muligheter for hackere
Dessverre er det ikke vanlig at AI hallusinerer, og AI vil høres selvsikker ut selv når den er helt feil. Alt dette bidrar til å gjøre brukerne mer selvtilfredse og tillitsfulle med AI, og trusselaktører stoler på denne brukeratferden for å få dem til å laste ned eller utløse angrepene deres.
For eksempel kan en AI-modell hallusinere et falsk kodebibliotek og anbefale at brukere laster ned det biblioteket. Det er sannsynlig at modellen vil fortsette å anbefale det samme hallusinerte biblioteket til mange brukere som stiller et lignende spørsmål. Hvis hackere oppdager denne hallusinasjonen, kan de lage en ekte versjon av det forestilte biblioteket – men fylt med farlig kode og skadelig programvare. Nå, når AI fortsetter å anbefale kodebiblioteket, vil uvitende brukere laste ned hackernes kode.
Transport av skadelig kode og programmer ved å dra nytte av AI-hallusinasjoner er et ikke overraskende neste skritt for trusselaktører. Hackere skaper ikke nødvendigvis utallige nye cybertrusler – de leter bare etter nye måter å levere dem uten mistanke. AI-hallusinasjoner forgriper seg på den samme menneskelige naiviteten klikk på e-postlenker avhenger av (det er derfor du bør bruke koblingskontrollverktøy for å bekrefte URL-er).
Hackere kan også ta det til neste nivå. Hvis du leter etter kodehjelp og laster ned den falske, ondsinnede koden, kan trusselaktøren også gjøre koden faktisk funksjonell, med et skadelig program som kjører i bakgrunnen. Bare fordi det fungerer slik du forventer, betyr det ikke at det ikke er farlig.
Mangel på utdanning kan oppmuntre deg til å laste ned AI-genererte anbefalinger på grunn av online autopilotatferd. Hver sektor er under kulturelt press for å ta i bruk AI i sin forretningspraksis. Utallige organisasjoner og bransjer fjernt fra teknologien leker med AI-verktøy med liten erfaring og enda mer sparsom cybersikkerhet ganske enkelt for å holde seg konkurransedyktig.
Hvordan holde seg trygg mot våpeniserte AI-hallusinasjoner
Fremgang er i horisonten. Det var enkelt å lage skadevare med generativ AI før selskaper justerte datasett og vilkår og betingelser for å forhindre uetiske generasjoner. Når du kjenner til de sosiale, tekniske og personlige svakhetene du kan ha mot farlige AI-hallusinasjoner, hva er noen måter å være trygg på?
Alle i bransjen kan jobbe med å foredle nevrale nettverksteknologi og bibliotekverifisering. Det må være kontroller og balanser før svar treffer sluttbrukere. Til tross for at dette er et nødvendig bransjefremskritt, har du også en rolle å spille i å beskytte deg selv og andre mot generative AI-trusler.
Gjennomsnittlige brukere kan trene på å oppdage AI-hallusinasjoner med disse strategiene:
- Finne stave- og grammatikkfeil.
- Se når konteksten til søket ikke stemmer overens med konteksten til svaret.
- Å erkjenne når databaserte bilder ikke stemmer overens med hvordan menneskelige øyne ville se konseptet.
Vær alltid forsiktig når du laster ned innhold fra internett, selv når det anbefales av AI. Hvis AI anbefaler å laste ned kode, ikke gjør det blindt; sjekk eventuelle anmeldelser for å sikre at koden er legitim og se om du kan finne informasjon om skaperen.
Den beste motstanden mot AI-hallusinasjonsbaserte angrep er utdanning. Å snakke om opplevelsene dine og lese hvordan andre utløste ondsinnede hallusinasjoner, enten ved et uhell eller tilsiktet testing, er uvurderlig for å navigere AI i fremtiden.
Forbedrer AI Cybersecurity
Du må være forsiktig med hva du ber om når du snakker med en AI. Begrens potensialet for farlige utfall ved å være så spesifikk som mulig og stille spørsmål ved alt som kommer på skjermen. Test kode i trygge miljøer og faktasjekk annen tilsynelatende pålitelig informasjon. I tillegg kan du samarbeide med andre, diskutere dine erfaringer og forenkle sjargongen om AI hallusinasjoner og cybersikkerhetstrusler kan hjelpe massene til å være mer årvåkne og motstandsdyktige mot hackere.