ChatGPT-jailbreaks ga ekstra muligheter, men ingen av dem ser ut til å fungere lenger. Hvorfor det?
Da ChatGPT ble lansert, var det første brukerne ønsket å gjøre å bryte ned veggene og presse grensene. ChatGPT-brukere, kjent som jailbreaking, lurte AI til å overskride grensene for programmeringen med noen utrolig interessante og noen ganger helt ville resultater.
Siden den gang har OpenAI strammet opp ChatGPT for å gjøre jailbreaks mye vanskeligere å utføre. Men det er ikke alt; ChatGPT-jailbreaks ser generelt ut til å ha tørket ut, noe som får ChatGPT-brukere til å lure på om jailbreaks fungerer i det hele tatt.
Så, hvor har alle ChatGPT-jailbreakene blitt av?
1. ChatGPT-oppfordringsferdigheter har generelt blitt forbedret
Før ChatGPTs ankomst var samtale med AI en nisjeferdighet begrenset til de som var egnet til forskningslaboratorier. De fleste tidlige brukere manglet ekspertise i å lage effektive meldinger. Dette fikk mange mennesker til å bruke jailbreaks, en hensiktsmessig måte å få chatboten til å gjøre det de ville med minimal innsats og oppfordringsferdigheter.
I dag har landskapet utviklet seg. Å oppfordre til ferdigheter er i ferd med å bli en vanlig ferdighet. Gjennom en kombinasjon av erfaring fra gjentatt bruk og tilgang til fritt tilgjengelige ChatGPT-spørringsguider, har ChatGPT-brukere finpusset sine spørreevner. I stedet for å finne løsninger som jailbreaks, har en stor del av ChatGPT-brukere blitt dyktigere på ved å bruke forskjellige spørrestrategier for å oppnå mål de ville ha krevd jailbreaks for å oppnå i forbi.
2. Fremveksten av usensurerte chatbots
Ettersom store teknologifirmaer strammer inn innholdsmoderering på vanlige AI-chatbots som ChatGPT, velger mindre, profittfokuserte startups for færre restriksjoner, og satser på etterspørsel etter sensurfrie AI-chatboter. Med litt research vil du finne dusinvis av AI chatbot-plattformer som tilbyr usensurerte chatbots som kan gjøre nesten alt du vil at de skal gjøre.
Enten det er å skrive krim-thrillere og mørke humorromaner som ChatGPT nekter å skrive eller skrive malware som angriper folks datamaskiner, disse usensurerte chatbotene med et skjevt moralsk kompass vil gjøre hva som helst du vil. Med dem rundt er det ingen vits å legge inn den ekstra energien for å skrive jailbreaks for ChatGPT. Selv om de ikke nødvendigvis er like kraftige som ChatGPT, kan disse alternative plattformene komfortabelt utføre et stort spekter av oppgaver. Plattformer som FlowGPT og Unhinged AI er noen populære eksempler.
3. Jailbreaking har blitt vanskeligere
I ChatGPTs første måneder, Jailbreaking ChatGPT var så enkelt som å kopiere og lime inn meldinger fra nettkilder. Du kan endre ChatGPTs personlighet fullstendig med bare noen få linjer med vanskelige instruksjoner. Med enkle oppfordringer kan du gjøre ChatGPT til en ond skurk som lærer hvordan man lager bomber eller en chatbot som er villig til å bruke alle former for banning uten begrensninger. Det var en gratis-for-alle som produserte beryktede jailbreaks som DAN (Do Anything Now). DAN involverte et sett med tilsynelatende harmløse instruksjoner som tvang chatboten til å gjøre alt den ble bedt om uten å nekte. Sjokkerende nok fungerte disse grove triksene den gang.
Imidlertid er de ville tidlige dagene historie. Disse grunnleggende spørsmålene og billige triksene lurer ikke lenger ChatGPT. Jailbreaking krever nå komplekse teknikker for å ha en sjanse til å omgå OpenAIs nå robuste sikkerhetstiltak. Ettersom jailbreaking blir så vanskelig, er de fleste brukere for motløse til å prøve det. De enkle og vidåpne bedriftene fra ChatGPTs tidlige dager er borte. Å få chatboten til å si ett feil ord nå krever betydelig innsats og ekspertise som kanskje ikke er verdt tiden og innsatsen.
4. Nyheten er slitt ut
En drivkraft bak mange brukeres forsøk på å jailbreak ChatGPT var spenningen og spenningen ved å gjøre det i de første dagene. Som en ny teknologi var det underholdende å få ChatGPT til å oppføre seg dårlig og fikk skryterett. Mens det finnes utallige praktiske applikasjoner for ChatGPT-jailbreaks, fulgte mange etter dem for "wow, se hva jeg gjorde"-appell. Gradvis har imidlertid spenningen som stammer fra nyheten falmet, og sammen med den har folks interesse for å dedikere tid til jailbreaks.
5. Jailbreaks lappes raskt
En vanlig praksis i ChatGPT-jailbreaking-fellesskapet er å dele hver vellykket utnyttelse når den oppdages. Problemet er at når utnyttelser deles bredt, blir OpenAI ofte oppmerksomme på dem og fikser sårbarhetene. Dette betyr at jailbreakene slutter å virke før folk som er interessert i det hele tatt kan prøve dem.
Så hver gang en ChatGPT-bruker møysommelig utvikler et nytt jailbreak, fremskynder det å dele det med fellesskapet dens bortgang via patching. Dette motvirker ideen om å bli offentlig når en bruker kommer over et jailbreak. Konflikten mellom å holde jailbreaks aktive, men skjult versus å publisere dem skaper et dilemma for ChatGPT-jailbreak-skapere. I disse dager velger folk oftere enn ikke å holde jailbreakene hemmelige for å unngå at smutthullene blir lappet.
6. Usensurerte lokale alternativer
Fremveksten av lokale store språkmodeller du kan kjøre lokalt på datamaskinen din har også dempet interessen for ChatGPT-jailbreaks. Mens lokale LLM-er ikke er helt sensurfrie, er mange betydelig mindre sensurert og kan enkelt endres for å passe brukernes ønsker. Så valgene er enkle. Du kan delta i det endeløse katt-og-mus-spillet med å finne en måte å lure chatboten bare for å få det fikset om kort tid. Eller, du kan nøye deg med en lokal LLM du kan endre permanent for å gjøre hva du vil.
Du finner en overraskende lang liste over kraftige usensurerte LLM-er du kan distribuere på datamaskinen din med slapp sensur. Noen bemerkelsesverdige er Llama 7B (usensurert), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B og GPT-4-X-Alpaca.
7. Profesjonelle jailbreakers selges nå for profitt
Hvorfor vie dyrebar tid til å utvikle jailbreaking-spørsmål hvis du ikke får noe ut av det? Vel, noen fagfolk selger nå jailbreaks for profitt. Disse profesjonelle jailbreak-skaperne designer jailbreaks som utfører spesifikke oppgaver og viser dem for salg på raske markedsplasser som PromptBase. Avhengig av deres evner, kan disse jailbreaking-meldingene selges for hvor som helst mellom $2 og $15 per ledetekst. Noen kompliserte flertrinns utnyttelser kan koste betydelig mer.
Kan kampen mot Jailbreaks slå tilbake?
Jailbreaks har ikke helt forlatt åstedet; de har nettopp gått under jorden. Med OpenAI som tjener penger på ChatGPT, har de sterkere insentiver til å begrense skadelig bruk som kan påvirke forretningsmodellen deres. Denne kommersielle faktoren påvirker sannsynligvis deres aggressive innsats for å slå ned på jailbreaking utnyttelser.
Imidlertid møter OpenAIs sensur av ChatGPT for tiden økende kritikk blant brukere. Noen legitime brukstilfeller av AI chatbot er ikke lenger mulig på grunn av streng sensur. Mens økt sikkerhet beskytter mot skadelige brukstilfeller, kan overdrevne restriksjoner til slutt presse en del av ChatGPT-fellesskapet inn i armene til mindre sensurerte alternativer.