Generativ AI er flott, men den presenterer alltid informasjonen sin med absolutt autoritet. Noe som er flott med mindre det hallusinerer sannheten.

Hallusinasjoner med kunstig intelligens (AI) høres forvirrende ut. Du tenker sikkert: "Er ikke hallusinasjon et menneskelig fenomen?" Vel, ja, det pleide å være et utelukkende menneske fenomen inntil AI begynte å vise menneskelige egenskaper som ansiktsgjenkjenning, selvlæring og tale Anerkjennelse.

Dessverre fikk AI noen negative egenskaper, inkludert hallusinasjoner. Så, er AI-hallusinasjon lik den type hallusinasjoner mennesker opplever?

Hva er AI-hallusinasjon?

Hallusinasjoner med kunstig intelligens oppstår når en AI-modell genererer utganger som er forskjellige fra det som forventes. Merk at noen AI-modeller er opplært til å generere utdata som ikke er relatert til noen virkelige input (data).

For eksempel, topp AI-tekst-til-kunst-generatorer, slik som DALL-E 2, kan kreativt generere nye bilder vi kan merke som "hallusinasjoner" siden de ikke er basert på virkelige data.

instagram viewer

AI-hallusinasjon i store språkbehandlingsmodeller

La oss vurdere hvordan AI-hallusinasjon vil se ut i en stor språkbehandlingsmodell som ChatGPT. En ChatGPT-hallusinasjon vil resultere i at boten gir deg et feil faktum med noen påstander, slik at du naturlig vil ta slike fakta som sannhet.

Enkelt sagt er det oppdiktede uttalelser fra den kunstig intelligente chatboten. Her er et eksempel:

Ved ytterligere spørsmål dukket ChatGPT opp med dette:

AI-hallusinasjon i datasyn

La oss vurdere et annet felt av AI som kan oppleve AI-hallusinasjoner: Datamaskin syn. Quizen nedenfor viser en 4x4-montasje med to enheter som ligner så mye. Bildene er en blanding av BBQ potetgull og blader.

Utfordringen er å velge potetgull uten å treffe noen blader i montasjen. Dette bildet kan se vanskelig ut for en datamaskin, og det kan kanskje ikke være i stand til å skille mellom BBQ-potetgull og blader.

Her er en annen montasje med en blanding av puddel- og svinetrådsbollebilder. En datamaskin vil mest sannsynlig ikke være i stand til å skille mellom dem, og derfor blande bildene.

Hvorfor oppstår AI-hallusinasjon?

AI-hallusinasjoner kan oppstå på grunn av motstridende eksempler – inndata som lurer en AI-applikasjon til å feilklassifisere dem. For eksempel, når utviklere trener AI-applikasjoner, bruker de data (bilde, tekst eller andre); hvis dataene endres eller forvrenges, tolker applikasjonen inndataene annerledes, noe som gir feil utgang.

Derimot kan et menneske fortsatt gjenkjenne og identifisere dataene nøyaktig til tross for forvrengningene. Vi kan merke dette som sunn fornuft – en menneskelig egenskap AI ennå ikke har. Se hvordan AI blir lurt med motstridende eksempler i denne videoen:

Angående store språkbaserte modeller som f.eks ChatGPT og dets alternativer, kan hallusinasjoner oppstå fra unøyaktig dekoding fra transformatoren (maskinlæringsmodell).

I AI er en transformator en dyp læringsmodell som bruker selvoppmerksomhet (semantiske forhold mellom ord i en setning) for å produsere tekst som ligner på det et menneske ville skrive ved å bruke en koder-dekoder (input-output) sekvens.

Så transformatorer, en semi-overvåket maskinlæringsmodell, kan generere en ny tekstmengde (utdata) fra det store korpuset av tekstdata som brukes i opplæringen (input). Den gjør det ved å forutsi neste ord i en serie basert på de foregående ordene.

Når det gjelder hallusinasjoner, hvis en språkmodell ble trent på utilstrekkelige og unøyaktige data og ressurser, forventes det at utdataene ville være oppdiktede og unøyaktige. Språkmodellen kan generere en historie eller narrativ uten logiske inkonsekvenser eller uklare sammenhenger.

I eksemplet nedenfor ble ChatGPT bedt om å gi et ord som ligner på "opprør" og starter med en "b." Her er svaret:

Ved videre sondering fortsatte den å gi feil svar, med høy grad av selvtillit.

Så hvorfor er ikke ChatGPT i stand til å gi et nøyaktig svar på disse spørsmålene?

Det kan være at språkmodellen ikke er utrustet til å håndtere ganske komplekse spørsmål som disse eller den kan ikke tolke ledeteksten nøyaktig, ignorerer ledeteksten om å gi et lignende ord med et spesifikt alfabet.

Hvordan oppdager du AI-hallusinasjon?

Det er tydelig nå at AI-applikasjoner har potensial til å hallusinere – generere svar på annen måte fra det forventede resultatet (fakta eller sannhet) uten noen ondsinnet hensikt. Og å oppdage og gjenkjenne AI-hallusinasjoner er opp til brukerne av slike applikasjoner.

Her er noen måter å oppdage AI-hallusinasjoner mens du bruker vanlige AI-applikasjoner:

1. Store språkbehandlingsmodeller

Selv om det er sjeldent, bør det heve et øyenbryn og få deg til å mistenke en hallusinasjon hvis du legger merke til en grammatisk feil i innholdet produsert av en stor prosesseringsmodell, for eksempel ChatGPT. På samme måte, når tekstgenerert innhold ikke høres logisk ut, korrelerer med konteksten gitt eller samsvarer med inndataene, bør du mistenke en hallusinasjon.

Å bruke menneskelig dømmekraft eller sunn fornuft kan bidra til å oppdage hallusinasjoner, ettersom mennesker lett kan identifisere når en tekst ikke gir mening eller følger virkeligheten.

2. Datamaskin syn

Som en gren av kunstig intelligens, maskinlæring og informatikk, setter datasyn datamaskiner i stand til å gjenkjenne og behandle bilder som menneskelige øyne. Ved hjelp av konvolusjonelle nevrale nettverk, stoler de på den utrolige mengden visuelle data som brukes i treningen deres.

Et avvik fra mønstrene til de visuelle dataene som brukes i trening vil resultere i hallusinasjoner. For eksempel, hvis en datamaskin ikke ble trent med bilder av en tennisball, kan den identifisere den som en grønn oransje. Eller hvis en datamaskin gjenkjenner en hest ved siden av en menneskestatue som en hest ved siden av et ekte menneske, så har det skjedd en AI-hallusinasjon.

Så for å oppdage en datasynshallusinasjon, sammenlign resultatet som genereres med det et [normalt] menneske forventes å se.

3. Selvkjørende biler

Bildekreditt: Ford

Takket være AI infiltrerer selvkjørende biler bilmarkedet gradvis. Pionerer som Tesla Autopilot og Fords BlueCruise har vært forkjempere for selvkjørende biler. Du kan sjekke ut hvordan og hva Tesla Autopilot ser for å få litt forståelse for hvordan AI driver selvkjørende biler.

Hvis du eier en av slike biler, vil du gjerne vite om AI-bilen din hallusinerer. Et tegn vil være hvis kjøretøyet ditt ser ut til å avvike fra sine normale atferdsmønstre under kjøring. For eksempel, hvis kjøretøyet bremser eller svinger plutselig uten noen åpenbar grunn, kan AI-kjøretøyet ditt hallusinere.

AI-systemer kan også hallusinerer

Mennesker og AI-modeller opplever hallusinasjoner forskjellig. Når det kommer til AI, refererer hallusinasjoner til feilaktige utdata som er milevis fra virkeligheten eller som ikke gir mening innenfor konteksten av den gitte ledeteksten. For eksempel kan en AI-chatbot gi et grammatisk eller logisk feil svar eller feilidentifisere et objekt på grunn av støy eller andre strukturelle faktorer.

AI-hallusinasjoner er ikke et resultat av et bevisst eller underbevisst sinn, slik du ville observert hos mennesker. Snarere skyldes det utilstrekkelighet eller utilstrekkelighet av dataene som brukes i trening og programmering av AI-systemet.