Med millioner av ChatGPT-brukere lurer du kanskje på hva OpenAI gjør med alle samtalene sine. Analyserer den hele tiden tingene du snakker om med ChatGPT?
Svaret på det er, ja, ChatGPT lærer av brukerinnspill – men ikke på den måten folk flest tror. Her er en dybdeveiledning som forklarer hvorfor ChatGPT sporer samtaler, hvordan den bruker dem og om sikkerheten din er kompromittert.
Husker ChatGPT samtaler?
ChatGPT tar ikke forespørsler til pålydende. Den bruker kontekstuelt minne til å huske og referere til tidligere innganger, og sikrer relevante, konsistente svar.
Ta samtalen nedenfor som et eksempel. Da vi spurte ChatGPT om oppskriftsideer, vurderte den vår forrige melding om peanøttallergi.
Her er ChatGPTs trygge oppskrift.
Kontekstminne lar også AI utføre flertrinnsoppgaver. Bildet nedenfor viser ChatGPT som holder seg i karakter selv etter å ha gitt den en ny melding.
ChatGPT kan huske dusinvis av instruksjoner i samtaler. Utgangen forbedres faktisk i nøyaktighet og presisjon ettersom du gir mer kontekst. Bare sørg for at du forklarer instruksjonene dine eksplisitt.
Du bør også administrere forventningene dine fordi ChatGPTs kontekstuelle minne fortsatt har begrensninger.
ChatGPT-samtaler har begrenset minnekapasitet
Kontekstuelt minne er begrenset. ChatGPT har begrensede maskinvareressurser, så den husker bare opptil spesifikke punkter i aktuelle samtaler. Plattformen glemmer tidligere meldinger når du treffer minnekapasiteten.
I denne samtalen instruerte vi ChatGPT til å rollespille en fiktiv karakter ved navn Tomie.
Den begynte å svare på spørsmål som Tomie, ikke ChatGPT.
Selv om forespørselen vår fungerte, brøt ChatGPT karakter etter å ha mottatt en forespørsel på 1000 ord.
OpenAI har aldri avslørt ChatGPTs eksakte grenser, men ryktene sier at den bare kan behandle 3000 ord om gangen. I eksperimentet vårt fungerte ChatGPT etter bare 2800+ ord.
Du kan dele opp meldingene dine i to sett på 1500 ord, men ChatGPT vil sannsynligvis ikke beholde alle instruksjonene dine. Bare start en ny chat helt. Ellers må du gjenta spesifikke detaljer flere ganger gjennom samtalen.
ChatGPT husker kun emnerelevante innganger
ChatGPT bruker kontekstuelt minne for å forbedre utdatanøyaktigheten. Den beholder ikke bare informasjon for å samle den inn. Plattformen glemmer nesten automatisk irrelevante detaljer, selv om du er langt fra å nå token-grensen.
I bildet nedenfor prøver vi å forveksle AI med forskjellige usammenhengende, irrelevante instruksjoner.
Vi holdt våre kombinerte innspill under 100 ord, men ChatGPT glemte fortsatt vår første instruksjon. Det brøt raskt karakter.
I mellomtiden fortsatte ChatGPT å spille rollespill under denne samtalen fordi vi bare stilte emnerelevante spørsmål.
Ideelt sett må hver dialog følge et enkelt tema for å opprettholde nøyaktige, relevante utdata. Du kan fortsatt legge inn flere instruksjoner samtidig. Bare sørg for at de stemmer overens med det generelle emnet, ellers kan ChatGPT slippe instruksjoner som den anser som irrelevante.
Treningsinstruksjoner overvelder brukerinndata
ChatGPT vil alltid prioritere forhåndsbestemte instruksjoner fremfor brukergenererte input. Den stopper ulovlige aktiviteter gjennom restriksjoner. Plattformen avviser enhver melding som den anser som farlig eller skadelig for andre.
Ta rollespillforespørsler som eksempler. Selv om de overstyrer visse begrensninger på språk og frasering, kan du ikke bruke dem til å begå ulovlige aktiviteter.
Selvfølgelig er ikke alle restriksjoner rimelige. Hvis stive retningslinjer gjør det utfordrende å utføre spesifikke oppgaver, fortsett å omskrive spørsmålene dine. Ordvalg og tone påvirker utgangene sterkt. Du kan hente inspirasjon fra de fleste effektive, detaljerte spørsmål på GitHub.
Hvordan studerer OpenAI brukersamtaler?
Kontekstminne gjelder bare for den nåværende samtalen. ChatGPTs statsløse arkitektur behandler samtaler som uavhengige instanser; den kan ikke referere til informasjon fra tidligere. Å starte nye chatter tilbakestiller alltid modellens tilstand.
Dette er ikke å si at ChatGPT dumper brukersamtaler umiddelbart. OpenAIs bruksvilkår oppgi at selskapet samler inn input fra ikke-API-forbrukertjenester som ChatGPT og Dall-E. Du kan til og med be om kopier av chatloggen din.
Mens ChatGPT har fritt tilgang til samtaler, OpenAIs personvernpolicy forbyr aktiviteter som kan kompromittere brukere. Trenere kan bare bruke dataene dine til produktforskning og -utvikling.
Utviklere ser etter smutthull
OpenAI siler gjennom samtaler etter smutthull. Den analyserer tilfeller der ChatGPT demonstrerer dataskjevheter, produserer skadelig informasjon eller hjelper til med å begå ulovlige aktiviteter. Plattformens etiske retningslinjer fornyes kontinuerlig.
For eksempel de første versjonene av ChatGPT svarte åpent på spørsmål om koding av skadelig programvare eller bygge eksplosiver. Disse hendelsene fikk brukerne til å føle OpenAI har ingen kontroll over ChatGPT. For å gjenvinne publikums tillit, trente den opp chatboten til å avvise ethvert spørsmål som kunne gå i strid med retningslinjene.
Trenere samler inn og analyserer data
ChatGPT bruker veiledet læringsteknikker. Selv om plattformen husker alle innganger, lærer den ikke av dem i sanntid. OpenAI-trenere samler inn og analyserer dem først. Å gjøre det sikrer at ChatGPT aldri absorberer den skadelige, skadelige informasjonen den mottar.
Veiledet læring krever mer tid og energi enn teknikker uten tilsyn. Imidlertid har det allerede vist seg skadelig å overlate AI til å analysere input alene.
Ta Microsoft Tay som et eksempel – en av de ganger maskinlæring gikk galt. Siden den konstant analyserte tweets uten veiledning fra utviklere, trente ondsinnede brukere den til slutt opp til å spytte rasistiske, stereotype meninger.
Utviklere ser hele tiden opp for skjevheter
Flere eksterne faktorer forårsaker skjevheter i AI. Ubevisste fordommer kan oppstå fra forskjeller i treningsmodeller, datasettfeil og dårlig konstruerte restriksjoner. Du vil se dem i forskjellige AI-applikasjoner.
Heldigvis har ChatGPT aldri vist diskriminerende eller rasemessige skjevheter. Den kanskje verste skjevheten brukere har lagt merke til er ChatGPTs tilbøyelighet til venstreorienterte ideologier, ifølge en New York Post rapportere. Plattformen skriver mer åpent om liberale enn konservative temaer.
For å løse disse skjevhetene, forbød OpenAI ChatGPT fra å gi politisk innsikt helt. Den kan bare svare på generelle fakta.
Moderatorer gjennomgår ChatGPTs ytelse
Brukere kan gi tilbakemelding på ChatGPTs utdata. Du finner tommel opp og tommel ned-knappene på høyre side av hvert svar. Førstnevnte indikerer en positiv reaksjon. Etter å ha trykket på like eller dislike-knappen, vil et vindu dukke opp der du kan sende tilbakemelding med dine egne ord.
Tilbakemeldingssystemet er nyttig. Bare gi OpenAI litt tid til å se gjennom kommentarene. Millioner av brukere kommenterer ChatGPT regelmessig - utviklerne prioriterer sannsynligvis alvorlige tilfeller av skjevheter og generering av skadelig produksjon.
Er ChatGPT-samtalene dine trygge?
Med tanke på OpenAIs personvernregler, kan du være trygg på at dataene dine forblir trygge. ChatGPT bruker kun samtaler til datatrening. Utviklerne studerer den innsamlede innsikten for å forbedre utdatanøyaktigheten og påliteligheten, ikke stjele personlige data.
Med det sagt, ingen AI-systemer er perfekte. ChatGPT er ikke iboende partisk, men ondsinnede individer kan fortsatt utnytte sårbarhetene, for eksempel datasettfeil, uforsiktig opplæring og sikkerhetshull. For din beskyttelse, lær å bekjempe disse risikoene.