ChatGPT er nyttig for mange oppgaver, men det er noen kritiske mangler som bør få deg til å tenke deg om to ganger før du stoler på det for medisinsk råd.
ChatGPT – en kunstig intelligens (AI) chatbot utviklet av OpenAI – har blitt et alt-i-ett-verktøy for å svare på mange enkle og vanskelige spørsmål, inkludert forespørsler om medisinsk rådgivning. Den kan svare på medisinske spørsmål og oppnå United States Medical Licensing Exam (USMLE), men den kan ikke erstatte en avtale med en lege på sykehuset.
Etter hvert som ChatGPT utvikler seg, har det potensial til å transformere helsesektoren fullstendig. Når det er integrert med helsesystemer, kan det forbedre pasienttilgangen til omsorg og øke legers arbeidseffektivitet. Men fordi det er AI-basert, eksisterer det flere bekymringer om potensielle farer.
1. ChatGPT har begrenset kunnskap
ChatGPT vet ikke alt. I følge OpenAI har ChatGPT begrenset kunnskap, spesielt når det gjelder hva som skjedde etter september 2021.
ChatGPT har ikke direkte tilgang til søkemotorer eller internett. Den ble trent ved å bruke en enorm mengde tekstdata fra en rekke kilder, inkludert bøker, nettsteder og andre tekster. Den "vet" ikke dataene den leverer. ChatGPT bruker i stedet tekst den har lest for å lage spådommer om ordene som skal brukes og i hvilken rekkefølge.
Derfor kan den ikke få aktuelle nyheter om utviklingen innen medisinske felt. Ja, ChatGPT er uvitende om hjertetransplantasjonen fra gris til menneske eller andre helt nye gjennombrudd innen medisinsk vitenskap.
2. ChatGPT kan produsere feil informasjon
ChatGPT kan svare på spørsmålene du stiller, men svarene kan være unøyaktige eller partiske. I følge a PLoS Digital Health studien utførte ChatGPT med minst 50 % nøyaktighet på tvers av alle USMLE-undersøkelser. Og selv om den overskred 60 % passeringsterskelen i noen aspekter, er det fortsatt mulighet for feil.
Dessuten er ikke all informasjonen som brukes til å trene ChatGPT, autentisk. Svar basert på ubekreftet eller potensielt partisk informasjon kan være feil eller utdatert. I medisinens verden kan unøyaktig informasjon til og med koste livet.
Fordi ChatGPT ikke uavhengig kan undersøke eller verifisere materiale, kan den ikke skille mellom fakta og fiksjon. Respekterte medisinske tidsskrifter, inkludert Journal of the American Medical Association (JAMA), har etablert strenge regler som bare mennesker kan skrive vitenskapelige studier publisert i tidsskrift. Som et resultat, du bør hele tiden faktasjekke ChatGPTs svar.
3. ChatGPT undersøker deg ikke fysisk
Medisinske diagnoser er ikke utelukkende avhengig av symptomer. Leger kan få innsikt i mønsteret og alvorlighetsgraden av en sykdom gjennom en pasients fysiske undersøkelse. For å diagnostisere pasienter bruker leger i dag både medisinsk teknologi og de fem sansene.
ChatGPT kan ikke utføre en fullstendig virtuell kontroll eller til og med en fysisk undersøkelse; den kan bare svare på symptomene du oppgir som meldinger. For en pasients sikkerhet og omsorg kan feil ved fysisk undersøkelse – eller fullstendig ignorering av fysisk undersøkelse – være skadelig. Fordi ChatGPT ikke undersøkte deg fysisk, vil det gi en feil diagnose.
4. ChatGPT kan gi falsk informasjon
En fersk studie av University of Maryland School of Medicine på ChatGPTs råd for brystkreftscreening fant følgende resultater:
"Vi har sett i vår erfaring at ChatGPT noen ganger lager falske tidsskriftartikler eller helsekonsortier for å støtte påstandene." —Paul Yi M.D., assisterende professor i diagnostisk radiologi og nukleærmedisin ved UMSOM
Som en del av vår testing av ChatGPT, ba vi om en liste over faglitterære bøker som dekker emnet underbevisstheten. Som et resultat produserte ChatGPT en falsk bok med tittelen "The Power of the Unconscious Mind" av Dr. Gustav Kuhn.
Da vi forhørte oss om boken, svarte den at det var en «hypotetisk» bok den skapte. ChatGPT vil ikke fortelle deg om en tidsskriftartikkel eller bok er falsk hvis du ikke spør mer.
5. ChatGPT er bare en AI-språkmodell
Språkmodeller fungerer ved å huske og generalisere tekst i stedet for å undersøke eller studere en pasients tilstand. Til tross for å generere svar som samsvarer med menneskelige standarder når det gjelder språk og grammatikk, ChatGPT inneholder fortsatt en rekke problemer, omtrent som andre AI-roboter.
ChatGPT er ikke en erstatning for legen din
Menneskelige leger vil alltid være nødvendig for å ta den endelige samtalen om helsevesenets beslutninger. ChatGPT anbefaler vanligvis å snakke med en autorisert helsepersonell når du ber om medisinsk råd.
Kunstig intelligens-drevne verktøy som ChatGPT kan brukes til å planlegge legebesøk, hjelpe pasienter med å motta behandlinger og vedlikeholde helseinformasjonen deres. Men det kan ikke erstatte en leges ekspertise og empati.
Du bør ikke stole på et AI-basert verktøy for å diagnostisere eller behandle helsen din, enten den er fysisk eller mental.