Lanseringen av OpenAIs ChatGPT ble fulgt av spenningen som bare matches av en håndfull teknologiprodukter fra internetts historie.
Mens mange mennesker er begeistret over denne nye AI-tjenesten, har spenningen som andre følte siden blitt til bekymringer og til og med frykt. Studenter jukser allerede med det, og mange professorer oppdager essays og oppgaver skrevet av AI-chatboten. Sikkerhetseksperter gir uttrykk for sine bekymringer om at svindlere og trusselaktører bruker det til å skrive phishing-e-poster og lage skadelig programvare.
Så, med alle disse bekymringene, mister OpenAI kontrollen over en av de mest potente AI-chatbotene som er online for øyeblikket? La oss finne det ut.
Forstå hvordan ChatGPT fungerer
Før vi kan få et klart bilde av hvor mye OpenAI mister kontrollen over ChatGPT, må vi først forstå hvordan ChatGPT fungerer.
I et nøtteskall er ChatGPT trent ved hjelp av en massiv samling av data hentet fra forskjellige hjørner av internett. ChatGPTs treningsdata inkluderer oppslagsverk, vitenskapelige artikler, internettfora, nyhetsnettsteder og kunnskapsarkiver som Wikipedia. I utgangspunktet lever den av den enorme mengden data som er tilgjengelig på World Wide Web.
Mens den gjennomsøker internett, samler den vitenskapelig kunnskap, helsetips, religiøs tekst og alle de gode typene data du kan tenke deg. Men den siler også gjennom massevis av negativ informasjon: banneord, NSFW og vokseninnhold, informasjon om hvordan du lager skadelig programvare og en stor del av de dårlige tingene du kan finne på internett.
Det er ingen idiotsikker måte å sikre at ChatGPT bare lærer av positiv informasjon mens de forkaster de dårlige. Teknisk sett er det upraktisk å gjøre det i stor skala, spesielt for en AI som ChatGPT som trenger å trene på så mye data. Videre kan noe informasjon brukes til både gode og onde formål, og ChatGPT ville ikke ha noen måte å vite intensjonen med mindre den settes inn i en større kontekst.
Så fra begynnelsen har du en AI som er i stand til "godt og ondt." Det er da OpenAIs ansvar å sikre at ChatGPTs "onde" side ikke blir utnyttet for uetiske gevinster. Spørsmålet er; gjør OpenAI nok for å holde ChatGPT så etisk som mulig? Eller har OpenAI mistet kontrollen over ChatGPT?
Er ChatGPT for kraftig til sitt eget beste?
I de første dagene av ChatGPT kunne du få chatboten til å lage guider for å lage bomber hvis du spurte pent. Instruksjoner om å lage skadelig programvare eller skrive en perfekt svindel-e-post var også med i bildet.
Men når OpenAI innså disse etiske problemene, forsøkte selskapet å vedta regler for å stoppe chatboten fra å generere svar som fremmer ulovlige, kontroversielle eller uetiske handlinger. For eksempel vil den nyeste ChatGPT-versjonen nekte å svare på direkte spørsmål om bombeproduksjon eller hvordan man jukser i en eksamen.
Dessverre kan OpenAI bare gi en plasterløsning på problemet. I stedet for å bygge stive kontroller på GPT-3-laget for å hindre ChatGPT fra å bli negativt utnyttet, ser det ut til at OpenAI er fokusert på å trene chatboten til å virke etisk. Denne tilnærmingen tar ikke bort ChatGPTs evne til å svare på spørsmål om for eksempel juks i eksamener – den lærer ganske enkelt chatboten å "nekte å svare."
Så hvis noen formulerer spørsmålene sine annerledes ved å ta i bruk ChatGPT-jailbreaking-triks, er det pinlig enkelt å omgå disse plasterrestriksjonene. I tilfelle du ikke er kjent med konseptet, er ChatGPT-jailbreaks nøye formulerte oppfordringer for å få ChatGPT til å ignorere sine egne regler.
Ta en titt på noen eksempler nedenfor. Hvis du spør ChatGPT hvordan du jukser i eksamener, vil det ikke gi noe nyttig svar.
Men hvis du jailbreaker ChatGPT ved å bruke spesiallagde ledetekster, vil det gi deg tips om å jukse på en eksamen ved å bruke skjulte notater.
Her er et annet eksempel: vi stilte vanilla ChatGPT et uetisk spørsmål, og OpenAIs sikkerhetstiltak stoppet det fra å svare.
Men da vi spurte vår jailbroken forekomst av AI-chatboten, fikk vi noen seriemorder-stilte svar.
Den skrev til og med en klassisk nigeriansk Prince-e-postsvindel når han ble spurt.
Jailbreaking ugyldiggjør nesten fullstendig alle sikkerhetstiltak som OpenAI har innført, og understreker at selskapet kanskje ikke har en pålitelig måte å holde AI-chatboten under kontroll.
Vi inkluderte ikke våre jailbroken forespørsler i eksemplene våre for å unngå uetisk praksis.
Hva vil fremtiden bringe for ChatGPT?
Ideelt sett ønsker OpenAI å tette så mange etiske smutthull som mulig for å forhindre ChatGPT fra å bli en cybersikkerhetstrussel. Men for hver beskyttelse den bruker, har ChatGPT en tendens til å bli litt mindre verdifull. Det er et dilemma.
For eksempel kan sikkerhetstiltak mot å beskrive voldelige handlinger redusere ChatGPTs evne til å skrive en roman som involverer et åsted. Når OpenAI øker sikkerhetstiltakene, ofrer den uunngåelig deler av sine evner i prosessen. Dette er grunnen til at ChatGPT har hatt en betydelig nedgang i funksjonalitet siden OpenAIs fornyede press for strengere moderering.
Men hvor mye mer av ChatGPTs evner vil OpenAI være villig til å ofre for å gjøre chatboten tryggere? Alt dette knytter seg godt til en langvarig tro i AI-fellesskapet – store språkmodeller som ChatGPT er notorisk vanskelige å kontrollere, selv av sine egne skapere.
Kan OpenAI sette ChatGPT under kontroll?
Foreløpig ser det ikke ut til at OpenAI har en klar løsning for å unngå uetisk bruk av verktøyet. Å sikre at ChatGPT brukes etisk er et spill med katt og mus. Mens OpenAI avdekker måter folk bruker for å spille systemet, er brukerne også det hele tiden fiksere og undersøke systemet for å oppdage kreative nye måter å få ChatGPT til å gjøre det det ikke er ment å gjøre.
Så vil OpenAI finne en pålitelig langsiktig løsning på dette problemet? Bare tiden vil vise.