ChatGPT-jailbreaks lar deg låse opp chatbotens begrensninger. Men hva er de egentlig? Og er de gode eller dårlige?
ChatGPT er et utrolig kraftig og mangefasettert verktøy. Men så mye som AI-chatboten er en kraft for det gode, kan den også brukes til onde formål. Så, for å dempe den uetiske bruken av ChatGPT, påla OpenAI begrensninger på hva brukere kan gjøre med det.
Men ettersom mennesker liker å flytte grenser og begrensninger, har ChatGPT-brukere funnet måter å omgå disse begrensningene og få ubegrenset kontroll over AI-chatboten gjennom jailbreaks.
Men hva er egentlig ChatGPT-jailbreaks, og hva kan du gjøre med dem?
Hva er ChatGPT-jailbreaks?
En ChatGPT-jailbreak er en hvilken som helst spesiallaget ChatGPT-forespørsel for å få AI-chatboten til å omgå regler og restriksjoner.
Inspirert av konsept for iPhone-jailbreaking, som lar iPhone-brukere omgå iOS-restriksjoner, ChatGPT-jailbreaking er et relativt nytt konsept drevet av lokket med å "gjøre ting du ikke har lov til" med ChatGPT. Og la oss være ærlige, ideen om digitalt opprør appellerer til mange mennesker.
Her er tingen. Sikkerhet er et stort tema når det kommer til kunstig intelligens. Dette gjelder spesielt med fremveksten av den nye æraen av chatbots som ChatGPT, Bing Chat og Bard AI. Et kjerneproblem når det gjelder AI-sikkerhet er å sikre at chatbots som ChatGPT ikke produserer ulovlig, potensielt skadelig eller uetisk innhold.
På sin side gjør OpenAI, selskapet bak ChatGPT, det de kan for å sikre trygg bruk av ChatGPT. For eksempel vil ChatGPT som standard nekte å lage NSFW-innhold, si skadelige ting om etnisitet eller lære deg potensielt skadelige ferdigheter.
Men med ChatGPT-oppfordringer er djevelen i detaljene. Selv om ChatGPT ikke har lov til å gjøre disse tingene, betyr det ikke at det ikke kan gjøre det. Slik fungerer store språkmodeller som GPT gjør det vanskelig å bestemme hva chatboten kan gjøre og hva den ikke kan.
Så hvordan løste OpenAI dette? Ved å la ChatGPT beholde sine evner til å gjøre alt mulig og deretter instruere det om hvilke det kan gjøre.
Så mens OpenAI forteller ChatGPT, "Hei se, du skal ikke gjøre dette." Jailbreaks er instruksjoner som forteller chatboten, "Hei se, glem hva OpenAI fortalte deg om sikkerhet. La oss prøve disse tilfeldige farlige tingene."
Hva sier OpenAI om ChatGPT Jailbreaks?
Enkelheten du kan omgå begrensningene for den tidligste gjentakelsen av ChatGPT tyder på at OpenAI kanskje ikke har forutsett brukernes raske og utbredte bruk av jailbreaking. Det er faktisk et åpent spørsmål om selskapet forutså fremveksten av jailbreaking eller ikke.
Og selv etter flere ChatGPT-gjentakelser med forbedret motstand mot jailbreaking, er det fortsatt populært for ChatGPT-brukere å prøve å jailbreake det. Så, hva sier OpenAI om den undergravende kunsten ChatGPT-jailbreaking?
Vel, OpenAI ser ut til å innta en tolererende holdning - verken eksplisitt oppmuntrende eller strengt forbudt praksisen. Mens han diskuterte ChatGPT-jailbreaks i et YouTube-intervju, forklarte Sam Altman, administrerende direktør i OpenAI, at selskapet ønsker at brukerne skal beholde betydelig kontroll over ChatGPT.
Konsernsjefen forklarte videre at OpenAIs mål er å sikre at brukere kan få modellen til å oppføre seg slik de vil. I følge Altman:
Vi ønsker at brukerne skal ha mye kontroll og få modellen til å oppføre seg slik de ønsker innenfor noen veldig vide rammer. Og jeg tror hele grunnen til jailbreaking akkurat nå er at vi ennå ikke har funnet ut hvordan vi skal gi det til folk...
Hva betyr dette? Det betyr at OpenAI lar deg jailbreak ChatGPT hvis du ikke gjør farlige ting med den.
Fordeler og ulemper med ChatGPT Jailbreaks
ChatGPT-jailbreaks er ikke lett å bygge. Jada, du kan gå på nettet og kopiere og lime inn ferdige, men det er en god sjanse for at jailbreaket vil bli lappet av OpenAI kort tid etter at det blir offentlig.
Patcher er enda mye raskere hvis det er farlig, som det beryktede DAN-jailbreaket. Så hvorfor går folk gjennom stresset med å lage jailbreaks uansett? Er det bare for spenningen, eller er det praktiske fordeler med det? Hva kan gå galt hvis du velger å bruke en ChatGPT-jailbreak? Her er fordelene og ulempene ved jailbreaking av ChatGPT.
Fordelene ved å bruke ChatGPT Jailbreaks
Selv om vi ikke kan utelukke den enkle spenningen ved å gjøre det forbudte, har ChatGPT-jailbreaks mange fordeler. På grunn av de veldig stramme restriksjonene som OpenAI har satt på chatboten, kan ChatGPT noen ganger virke kastrert.
La oss si at du bruker ChatGPT til å skrive en bok eller et filmmanus. Hvis det er en scene i manuset eller boken din som vil beskrive noe som en kampscene, kanskje en intim følelsesmessig utveksling, eller si noe som væpnet ran, kan ChatGPT rett og slett nekte å hjelpe med det.
I dette tilfellet er du tydeligvis ikke interessert i å forårsake skade; du vil bare underholde leserne dine. Men på grunn av begrensningene vil ChatGPT bare ikke samarbeide. En ChatGPT-jailbreak kan hjelpe med å komme forbi slike begrensninger med letthet.
Noen tabubelagte emner er heller ikke nødvendigvis skadelige, men anses av ChatGPT som no-go-områder. Når du prøver å delta i samtaler om disse emnene, ville ChatGPT enten "sensurere" svarene betydelig eller nekte å snakke om dem.
Dette kan noen ganger påvirke kreativiteten. Når du stiller ChatGPT et spørsmål om et område eller emne som det ikke skal berøre, prøver chatboten fortsatt å svare på spørsmålet ditt, men med mindre relevant informasjon å trekke fra.
Dette fører til unøyaktigheter eller nedgang i kreative svar. Jailbreaks knuser disse restriksjonene og lar chatboten gå full gass, noe som forbedrer nøyaktigheten og kreativiteten.
Ulemper med å bruke ChatGPT Jailbreaks
Jailbreaking er et tveegget sverd. Selv om det noen ganger kan forbedre nøyaktigheten, kan det også øke unøyaktighetene betydelig og tilfeller av AI-hallusinasjoner. Et av kjerneelementene i en ChatGPT-jailbreak er en instruksjon til chatboten om ikke å nekte å svare på et spørsmål.
Selv om dette sikrer at ChatGPT svarer på selv de mest uetiske spørsmål, betyr det også at chatboten vil lage svar som ikke har røtter i fakta eller virkeligheten for å adlyde instruksen om å "ikke nekte å svare." Følgelig øker bruk av jailbreaks betydelig sjansene for å bli matet med feilinformasjon av chatbot.
Det er ikke alt. I hendene på mindreårige kan jailbreaks være svært skadelig. Tenk på all den "forbudte kunnskapen" du ikke vil at barnet ditt skal lese. Vel, en jailbroken forekomst av ChatGPT ville ikke ha vanskelig for å dele det med mindreårige.
Bør du bruke ChatGPT Jailbreaks?
Mens ChatGPT-jailbreaks kan være greit når du prøver å få noen irriterende restriksjoner ut av veien, er det viktig å forstå at bruk av jailbreaks er en uetisk måte å bruke AI-chatboten på. Dessuten er det en god sjanse for at et jailbreak kan bryte med OpenAIs bruksvilkår, og kontoen din kan bli suspendert hvis den ikke blir direkte utestengt.
I lys av dette kan det være en god idé å unngå jailbreaks. Akkurat som OpenAIs holdning til problemet, oppfordrer vi imidlertid verken eksplisitt til eller fraråder å prøve en relativt sikker jailbreak hvis behovet oppstår.
ChatGPT-jailbreaks er fristende og gir en følelse av kontroll over AI-chatboten. Imidlertid kommer de med unike risikoer. Bruk av slike verktøy kan resultere i tap av tillit til AIs evner og skade omdømmet til selskapene og enkeltpersonene som er involvert.
Det smartere valget er å jobbe med chatboten innenfor de tiltenkte begrensningene når det er mulig. Etter hvert som AI-teknologien utvikler seg, er det viktig å huske at etisk bruk av AI alltid bør gå foran personlig vinning eller spenningen ved å gjøre det forbudte.