Det er nyere, men tregere. Hva gir?
Med den nyeste versjonen av ChatGPT, GPT-4, utgitt i mars 2023, lurer mange nå på hvorfor den er så treg sammenlignet med forgjengeren GPT-3.5. Så hva er hovedgrunnen her?
Akkurat hvorfor er ChatGPT-4 så treg, og bør du holde deg til GPT-3.5 i stedet?
Hva er ChatGPT-4?
ChatGPT-4 er den nyeste modellen av OpenAIs chatbot, kjent generelt som ChatGPT. ChatGPT er drevet av kunstig intelligens, slik at den kan svare på spørsmål og forespørsler langt bedre enn tidligere chatbots. ChatGPT bruker en stor språkmodell drevet av en GPT (Generative Pre-trained Transformer) for å gi informasjon og innhold til brukere samtidig som de kan snakke.
ChatGPT har et bredt spekter av muligheter, noe som gjør det nyttig for millioner. ChatGPT kan for eksempel skrive historier, formulere vitser, oversette tekst, utdanne brukere og mer. Mens ChatGPT også kan brukes til mer ulovlige handlinger, som f.eks opprettelse av skadelig programvare, dens allsidighet er noe revolusjonerende.
ChatGPTs GPT-4-modell ble utgitt 14. mars 2023. Denne versjonen av ChatGPT er designet for å bedre forstå emosjonelt språk gjennom tekst samtidig som den forstår forskjellige språkdialekter og bildebehandling bedre. GPT-4 kan også holde lengre samtaler og effektivt svare på lengre brukeroppfordringer.
I tillegg overskrider GPT-4s parametere i stor grad de for GPT-3.5. ChatGPTs parametere bestemmer hvordan AI behandler og reagerer på informasjon. Kort sagt, parametere bestemmer ferdighetene chatboten har til å samhandle med brukere. Mens GPT-3.5 har 175 milliarder parametere, har GPT-4 utrolige 100 billioner til 170 billioner (rykter – OpenAI har ikke bekreftet dette tallet).
Det var OpenAIs GPT-3.5 som ble brukt til å drive ChatGPT, som nå er den mest populære AI-chatboten i verden. Så GPT-3.5 har gjort et ubestridelig preg i AI-området. Men ting går alltid fremover i teknologibransjen, så det er ingen overraskelse at GPT-3.5 nå har en etterfølger i GPT-4.
GPT-4 er imidlertid på ingen måte perfekt. Faktisk skaper GPT-4s lange responstider en del oppsikt. Så la oss se nærmere på dette problemet og hvorfor det kan skje.
ChatGPT-4 er treg
Mange la merke til ved utgivelsen av GPT-4 at OpenAIs nye chatbot var utrolig treg. Dette gjorde mange brukere frustrerte, ettersom GPT-4 var ment å være et steg opp fra GPT-3.5, ikke bakover. Som et resultat har GPT-4-brukere tatt til online-plattformer, som Reddit og OpenAIs fellesskapsstyre, for å diskutere problemet.
På OpenAIs fellesskapsforum, har en rekke brukere kommet frem med sine GPT-4-forsinkelsesfrustrasjoner. En bruker uttalte at GPT-4 var "ekstremt treg" på sin side, og at selv små forespørsler til chatboten resulterte i uvanlig lange forsinkelser på over 30 sekunder.
Andre brukere var raske til å dele sine erfaringer med GPT-4, med en som kommenterte under innlegget at "den samme samtalen med samme data kan ta opptil 4 ganger langsommere enn 3,5 turbo."
I en annen OpenAI Community Forum-innlegg, kommenterte en bruker at spørsmålene deres noen ganger blir møtt med en "feil i kroppsstrømmen"-melding, noe som resulterer i ingen respons. I samme tråd uttalte en annen person at de ikke kunne få GPT-4 til å "svare vellykket med en komplett skript." En annen bruker kommenterte at de stadig fikk nettverksfeil mens de prøvde å bruke GPT-4.
Med forsinkelser og mislykkede eller halvferdige svar, ser det ut til at GPT-4 er full av problemer som raskt setter brukerne av.
Så hvorfor, nøyaktig, skjer dette? Er det noe galt med GPT-4?
Hvorfor er GPT-4 treg sammenlignet med GPT-3.5?
I OpenAI Community Forum-innlegget referert ovenfor, svarte en bruker og antydet at forsinkelsen skyldtes et "nåværende problem med hele infrastrukturen overbelastning," og legger til at det er en utfordring å "takle skalerbarhet på en så kort tidsramme med denne populariteten og antallet brukere av både chat og API."
I en Reddit innlegg lastet opp i r/singularity subreddit, la en bruker opp noen mulige årsaker til GPT-4s treghet, og startet med en større kontekststørrelse. Innenfor GPT-økosystemet refererer kontekststørrelse til hvor mye informasjon en gitt chatbotversjon kan behandle og deretter produsere informasjon. Mens GPT-3.5s kontekststørrelse var 4K, er GPT-4 det dobbelte. Så, å ha en 8K kontekststørrelse kan ha en innvirkning på GPT-4s totale hastigheter.
Reddit-forfatteren foreslo også at den forbedrede styringen og kontrollen av GPT-4 kan spille en rolle i chatbotens behandlingstider. Her uttalte forfatteren at GPT-4s større styrbarhet og kontroll over hallusinasjoner og upassende språket kan være synderne, siden disse funksjonene legger til ekstra trinn til GPT-4s prosesseringsmetode informasjon.
Videre ble det foreslått at GPT-4s evne til å behandle bilder kunne bremse ting. Denne nyttige funksjonen er elsket av mange, men kan komme med en hake. Gitt at det har vært rykter om at GPT-4 tar 10-20 sekunder å behandle et gitt bilde, er det en sjanse for at denne komponenten strekker ut responstidene (selv om dette ikke forklarer forsinkelsene som oppleves av brukere som bare gir tekstmeldinger).
Andre brukere har antydet at det nye med ChatGPT-4 spiller en stor rolle i disse forsinkelsene. Med andre ord, noen tror at OpenAIs nyeste chatbot må oppleve noen voksesmerter før alle feil kan rettes ut.
Men den største grunnen til at GPT-4 er treg, er antallet parametere GPT-4 kan bruke kontra GPT-3.5. De Fenomenal økning i parametere betyr ganske enkelt at det tar lengre tid for den nyere GPT-modellen å behandle informasjon og svare nøyaktig. Du får bedre svar med økt kompleksitet, men å komme dit tar litt lengre tid.
Bør du velge GPT-3.5 fremfor GPT-4?
Så, med disse problemene i tankene, bør du bruke GPT-3.5 eller GPT-4?
I skrivende stund ser det ut til at GPT-3.5 er det raskere alternativet fremfor GPT-4. Så mange brukere har opplevd forsinkelser at det er sannsynlig at tidsproblemet er tilstede over hele linja, ikke bare hos noen få individer. Så hvis ChatGPT-3.5 for øyeblikket oppfyller alle forventningene dine, og du ikke vil vente på svar i bytte mot ekstra funksjoner, kan det være lurt å holde seg til denne versjonen foreløpig.
Du bør imidlertid merke deg at GPT-4 ikke bare er GPT-3.5, men tregere. Denne versjonen av OpenAIs chatbot har mange fordeler i forhold til forgjengeren. Hvis du leter etter en mer avansert AI-chatbot og ikke har noe imot å vente lenger på svar, kan det være verdt å gå over fra GPT-3.5 til GPT-4.
Over tid kan GPT-4s forsinkelser bli mindre eller fullstendig løst, så tålmodighet kan være en dyd her. Enten du prøver å bytte til GPT-4 nå eller venter litt lenger for å se hvordan ting går med denne versjonen, kan du fortsatt få mye ut av OpenAIs kjekke lille chatbot.
GPT-4 er mer avansert, men kommer med etterslep
Mens GPT-4 har mange avanserte funksjoner i forhold til GPT-3.5, har betydelige forsinkelser og responsfeil gjort den ubrukelig for noen. Disse problemene kan bli løst i nær fremtid, men foreløpig har GPT-4 absolutt noen hindringer å overvinne før den blir akseptert i større skala.