Flere og flere bedrifter forbyr ChatGPT på arbeidsplassen, men hva ligger bak forbudene?
Til tross for sine imponerende evner, har flere store selskaper forbudt sine ansatte å bruke ChatGPT.
I mai 2023 forbød Samsung bruken av ChatGPT og andre generative AI-verktøy. Så, i juni 2023, fulgte Commonwealth Bank of Australia etter, sammen med selskaper som Amazon, Apple og JPMorgan Chase & Co. Noen sykehus, advokatfirmaer og offentlige etater har også forbudt ansatte fra å bruke ChatGPT.
Så hvorfor forbyr flere og flere selskaper ChatGPT? Her er fem hovedgrunner.
1. Datalekkasjer
ChatGPT krever en stor mengde data for å trene og operere effektivt. Chatboten ble trent ved å bruke enorme mengder data hentet fra internett, og den fortsetter å bli trent.
I følge OpenAI sin hjelpeside, hver del av data, inkludert konfidensielle kundedetaljer, forretningshemmeligheter og sensitiv virksomhet informasjonen du mater chatboten vil sannsynligvis bli gjennomgått av dens trenere, som kan bruke dataene dine til å forbedre deres systemer.
Mange selskaper er underlagt strenge databeskyttelsesbestemmelser. Som et resultat er de forsiktige med å dele personopplysninger med eksterne enheter, da dette øker risikoen for datalekkasjer.
Dessuten tilbyr ikke OpenAI noen idiotsikker databeskyttelse og konfidensialitetsforsikring. I mars 2023, OpenAI bekreftet en feil som lar noen brukere se chattitlene i andre aktive brukeres historie. Selv om denne feilen ble fikset og OpenAI lanserte et bug bounty-program, selskapet garanterer ikke sikkerheten og personvernet til brukerdata.
Mange organisasjoner velger å begrense ansatte fra å bruke ChatGPT for å unngå datalekkasjer, som kan skade deres omdømme, føre til økonomiske tap, og sette deres kunder og ansatte på Fare.
2. Cybersikkerhetsrisikoer
Samtidig som det er uklart om ChatGPT er genuint utsatt for cybersikkerhetsrisiko, er det en sjanse for at utplasseringen i en organisasjon kan introdusere potensielle sårbarheter som nettangripere kan utnytte.
Hvis et selskap integrerer ChatGPT og det er svakheter i chatbotens sikkerhetssystem, kan angripere være i stand til å utnytte sårbarhetene og injisere skadevarekoder. ChatGPTs evne til å generere menneskelignende svar er også et gullegg for phishing-angripere som kan ta over en konto eller utgi seg for legitime enheter for å lure selskapets ansatte til å dele sensitive informasjon.
3. Opprettelse av personlige chatbots
Til tross for sine innovative funksjoner, kan ChatGPT produsere falsk og villedende informasjon. Som et resultat har mange selskaper laget AI-chatbots for arbeidsformål. For eksempel ba Commonwealth Bank of Australia sine ansatte om å bruke Gen.ai i stedet, en kunstig intelligens (AI) chatbot som bruker CommBanks informasjon for å gi svar.
Selskaper som Samsung og Amazon har utviklet avanserte naturlige språkmodeller, slik at bedrifter enkelt kan lage og distribuere personlige chatbots basert på eksisterende transkripsjoner. Med disse interne chatbotene kan du forhindre de juridiske og omdømmemessige konsekvensene forbundet med feilhåndtering av data.
4. Mangel på regulering
I bransjer der selskaper er underlagt regulatoriske protokoller og sanksjoner, er ChatGPTs mangel på regulatorisk veiledning et rødt flagg. Uten presise regulatoriske betingelser som regulerer bruken av ChatGPT, kan selskaper møte alvorlige juridiske konsekvenser når de bruker AI-chatboten for sine operasjoner.
I tillegg kan mangelen på regulering redusere et selskaps ansvarlighet og åpenhet. De fleste selskaper kan være forvirret når det gjelder å forklare AI-språkmodellens beslutningsprosesser og sikkerhetstiltak til sine kunder.
Selskaper begrenser ChatGPT, frykter potensielle brudd på personvernlover og bransjespesifikke forskrifter.
5. Uansvarlig bruk av ansatte
I mange selskaper stoler noen ansatte utelukkende på ChatGPT-svar for å generere innhold og utføre pliktene sine. Dette avler latskap i arbeidsmiljøet og styrker kreativitet og innovasjon.
Å være AI-avhengig kan hindre din evne til å tenke kritisk. Det kan også skade et selskaps troverdighet, ettersom ChatGPT ofte gir unøyaktige og upålitelige data.
Selv om ChatGPT er et kraftig verktøy, kan bruk av det til å adressere komplekse spørsmål som krever domenespesifikk ekspertise skade et selskaps drift og effektivitet. Noen ansatte husker kanskje ikke å faktasjekke og verifisere svar levert av AI-chatboten, og behandler svar som en løsning for alle.
For å dempe problemer som disse, legger selskaper forbud mot chatboten slik at ansatte kan fokusere på oppgavene sine og gi brukere feilfrie løsninger.
ChatGPT-forbud: Bedre trygt enn beklager
Selskaper som forbyr ChatGPT indikerer cybersikkerhetsrisikoer, ansattes etiske standarder og utfordringer med overholdelse av regulatoriske krav. ChatGPTs manglende evne til å lindre disse utfordringene samtidig som de tilbyr bransjeløsninger, vitner om deres begrensninger og behov for å utvikle seg videre.
I mellomtiden går bedrifter over til alternative chatbots eller bare begrenser ansatte fra å bruke ChatGPT for å unngå potensielle datainnbrudd og upålitelige sikkerhets- og regulatoriske protokoller knyttet til chatbot.