Diskusjoner rundt AI-følelse er ikke noe nytt, men nyheter om Googles AI LaMDA har fyrt opp flammene. Etter at en ingeniør hevdet at roboten var bevisst, til og med hadde en sjel, har noen kjente spørsmål dukket opp igjen.
Kan AI som LaMDA faktisk være sansende eller selvbevisst, og i så fall, hvordan kan du vite det? Gjør det noe?
Hva er LaMDA?
LaMDA, forkortelse for Language Model for Dialogue Applications, dukket først opp i 2021 på Googles utviklerkonferanse. Det avanserte AI-systemet skal bidra til å bygge andre, mindre chatbots. Da Google først introduserte det, kunngjorde det planer om å integrere det i alt, og hjelpe tjenester som Google Assistant og Search til å føles mer menneskelige, eller i det minste naturlig.
Da Google-ingeniøren Blake Lemoine snakket med LaMDA for å se om den brukte hatytringer, fikk han et annet inntrykk. Lemoine hevdet at LaMDA var sansende, og hvis han ikke visste at det var en robot, ville han tro at det var et åtte år gammelt barn.
Etter samtalene med LaMDA prøvde Lemoine å bevise at den var bevisst og forsvare det han mente var dens juridiske rettigheter. Som svar ga Google Lemoine i betalt administrativ permisjon for brudd på konfidensialitetsavtaler.
Er LaMDA faktisk sentient?
Så, er LaMDA faktisk sansende? De fleste eksperter som har veid inn i saken er skeptiske. LaMDA er en svært avansert AI-chatplattform som analyserer billioner av ord fra internett, så den er dyktig til å høres ut som en ekte person.
Dette er ikke første gang en av Googles AI-er har lurt folk til å tro at den er menneskelig. I 2018 demonstrerte Google sin Duplex AI ved å ringe en restaurant for å reservere bord. Ikke på noe tidspunkt virket det som om den ansatte i den andre enden tvilte på at de snakket med en person.
Sentience er vanskelig å definere, selv om de fleste tviler på at AI har nådd det punktet ennå. Imidlertid er det viktige spørsmålet kanskje ikke om LaMDA faktisk er sansende, men hvilken forskjell det gjør hvis det kan lure folk til å tro at det er det.
Mulige juridiske implikasjoner av LaMDA
LaMDA-situasjonen reiser mange juridiske og etiske spørsmål. For det første kan noen spørre seg om Google hadde rett til å gi Lemoine permisjon for å snakke om det.
I henhold til paragraf 740 i New Yorks arbeidslov beskytter varslere ansatte mot slike konsekvenser hvis de mener at deres arbeidsgivers praksis bryter loven eller utgjør en betydelig risiko for offentligheten sikkerhet. LaMDAs antatte følelse oppfyller ikke helt det juridiske kravet, men burde det?
Å gi AI-rettigheter er et vanskelig tema. Mens AI kan skape ting og virke menneskelig, kan du komme inn i noen kompliserte situasjoner hvis disse maskinene har juridisk beskyttelse. Juridiske rettigheter opererer rundt belønninger og straff som ikke påvirker AI, noe som kompliserer rettferdighet.
Hvis en selvkjørende bil treffer en fotgjenger, er AI-en skyldig hvis loven behandler den som et menneske? Og i så fall gir det strengt tatt ikke offeret rettferdighet siden du teknisk sett ikke kan straffe AI på samme måte som et menneske.
Et annet spørsmål som dukker opp med LaMDA og lignende AI chatbots er deres sikkerhet. Hvis disse robotene virker overbevisende ekte, kan folk stole mer på dem og være villige til å gi dem mer sensitiv informasjon. Det åpner døren for en rekke bekymringer om personvern og sikkerhet hvis denne teknologien faller i feil hender.
AI introduserer kompliserte etiske spørsmål
AIer som LaMDA blir stadig mer sofistikerte og naturtro. Etter hvert som denne trenden vokser, bør selskaper og lovgivere revurdere hvordan de behandler AI og hvordan disse beslutningene kan påvirke rettferdighet og sikkerhet.
Slik det står, er det kanskje ikke Googles LaMDA AI, men det er godt nok til å lure folk til å tro at det er det, noe som burde vekke noen alarmer.