Mens proprietær programvare som GPT og PaLM dominerer markedet, ser mange utviklere verdi i åpen kildekode-språkmodeller i stedet. Ta Meta som et eksempel. Det skapte overskrifter i februar 2023 for offisielt å gi ut LLaMA store språkmodellen som et åpen kildekode-program. Ikke overraskende møtte denne avgjørelsen blandede reaksjoner.
Ettersom språkmodeller med åpen kildekode har mange fordeler og ulemper og kan påvirke AI-industrien positivt og negativt, har vi oppsummert nøkkelpunktene du bør vite og forstå.
5 Positive effekter av språkmodeller med åpen kildekode
Språkmodeller med åpen kildekode fremmer en samarbeidende tilnærming. Innspillene, anmeldelsene og brukssakene fra utviklere over hele verden hjelper dem uten tvil å avansere raskere enn lukkede prosjekter.
1. AI-utviklere sparer ressurser ved å bruke åpen kildekode-modeller
Å lansere proprietære språkmodeller koster millioner, om ikke milliarder, i ressurser. Ta OpenAI som et eksempel. Business Insider rapporterer at selskapet måtte skaffe rundt 30 milliarder dollar for å drive ChatGPT effektivt. Å skaffe så mye finansiering er umulig for de fleste bedrifter. Tekniske startups i sine tidlige stadier ville være heldige å få til og med syv sifre.
Med tanke på de høye kostnadene, bruker mange utviklere språkmodeller med åpen kildekode i stedet. De sparer millioner ved å bruke disse systemenes arkitektur, nevrale struktur, treningsdata, algoritme, kodeimplementering og opplæringsdatasett.
2. Åpen kildekode-modeller avanserer uten tvil raskere
Mange teknologiledere hevder at språkmodeller med åpen kildekode avanserer raskere enn proprietære motparter. De verdsetter samfunnsbidrag og samarbeid. Millioner av dyktige utviklere jobber med åpne prosjekter – de kan teoretisk oppnå en feilfri, sofistikert iterasjon mye raskere.
Å dekke kunnskapshull går også raskere med åpen kildekode AI. I stedet for å trene team for å finne feil, teste oppdateringer og utforske implementeringer, kan bedrifter analysere samfunnsbidrag. Kunnskapsdeling gjør at brukerne kan jobbe mer effektivt.
Fellesskapsbidrag er ikke alltid nøyaktige. Utviklere bør fortsatt dobbeltsjekke algoritmer og modeller før de integrerer disse i systemene sine.
3. Utviklere vil oppdage sårbarheter raskere
Språkmodeller med åpen kildekode oppmuntrer til fagfellevurderinger og aktivt engasjement i samarbeidsfellesskapet. Utviklere kan fritt få tilgang til kodebaseendringer. Med så mange brukere som analyserer åpne prosjekter, vil de sannsynligvis oppdage sikkerhetsproblemer, sårbarheter og systemfeil raskere.
På samme måte er feilløsningen også strømlinjeformet. I stedet for å løse systemproblemer manuelt, kan utviklere sjekke prosjektets versjonskontrollsystem for tidligere rettelser. Noen oppføringer kan være utdaterte. Imidlertid vil de fortsatt gi forskere og AI-trenere et nyttig utgangspunkt.
4. AI-teknologiledere lærer av åpen kildekode-modeller
Språkmodeller med åpen kildekode drar nytte av tilbakemeldingssløyfe. Positiv feedback looping deler effektive algoritmer, datasett og funksjoner, og oppmuntrer utviklere til å etterligne disse. Prosessen sparer dem for mye tid. Bare vær oppmerksom på at feil kan oppstå med positive tilbakemeldinger som brukere tilfeldig replikerer – feil har en tendens til å bli oversett.
I mellomtiden fokuserer looping av negative tilbakemeldinger på forbedringsområder. Prosessen innebærer å dele personlig innsikt mens man løser feil, tester nye funksjoner og fikser systemproblemer.
5. Open-Source AI-plattformer får første dibs på nye systemer
Teknologiselskaper deler ikke språksystemer for milliarder av dollar av vennlighet. Mens åpen kildekode-lisenser gir tredjepartsbrukere friheten til å modifisere og selge systemer, har de begrensninger.
Distributører skaper ofte forhold som sikrer at de beholder en viss autoritet. Du finner disse reglene i åpne kildekode-programmers lisensavtaler – sluttbrukere får sjelden 100 prosent autoritet.
La oss si at Meta vil ha kontroll over LLaMA-drevne produkter. Dets juridiske team kan spesifisere at Meta forbeholder seg retten til å investere i alle nye systemer bygget på språkmodellen.
Men ikke misforstå – tredjeparts utviklere og distributører inngår fortsatt gjensidig fordelaktige avtaler. Sistnevnte gir teknologier og systemer for milliarder av dollar. I mellomtiden utforsker startups og uavhengige utviklere måter å implementere dem i forskjellige applikasjoner.
5 Negative virkninger av språkmodeller med åpen kildekode
Språkmodeller med åpen kildekode er iboende objektive, men mennesker er det ikke. Forbrukere, utviklere og selskaper med ondsinnede hensikter kan utnytte den åpne naturen til disse systemene for personlig vinning.
1. Selskaper blir tilfeldig med i AI-løpet
Selskaper møter for mye press for å bli med i AI-løpet. Med populariseringen av AI-systemer frykter mange selskaper at de vil bli foreldet hvis de ikke tar i bruk AI. Som et resultat hopper merker tilfeldig på bølgen. De integrerer språkmodeller med åpen kildekode i produktene sine for å selge produktet og holde tritt med konkurrentene, selv om de ikke tilbyr noe verdifullt.
Ja, AI er et raskt voksende marked. Men uforsiktig utgivelse av sofistikerte, men usikre systemer skader industrien og kompromitterer forbrukersikkerheten. Utviklere bør bruke kunstig intelligens for å løse problemer, ikke kjøre markedsføringsgimmicker.
2. Forbrukere får tilgang til teknologi de knapt forstår
Du finner AI-baserte varianter av ulike tekniske verktøy, fra bilderedigerere på nett til helseovervåkingsapper. Og merkevarer vil fortsette å introdusere nye systemer etter hvert som AI utvikler seg. AI-modeller hjelper dem med å tilby mer tilpassede, brukerfokuserte iterasjoner av deres eksisterende plattformer.
Mens teknologiindustrien ønsker innovasjoner velkommen, overgår den raske utviklingen av AI brukerutdanning. Forbrukere får tilgang til teknologier de knapt forstår. Mangelen på utdanning skaper massive kunnskapshull, noe som gjør publikum utsatt for cybersikkerhetstrusler og rovdrift.
Merkevarer bør prioritere opplæring like mye som produktutvikling. De må hjelpe brukere med å forstå de sikre, ansvarlige måtene å bruke kraftige AI-baserte verktøy på.
3. Ikke alle utviklere har gode intensjoner
Ikke alle bruker AI-verktøy til sitt tiltenkte formål. For eksempel utviklet OpenAI ChatGPT for å svare på arbeidssikre generelle kunnskapsspørsmål og replikere naturlig språk, men kriminelle utnytter det til ulovlige aktiviteter. Det har vært flere ChatGPT-svindel siden AI-chatboten ble lansert i november 2022.
Selv om AI-laboratorier håndhever strenge restriksjoner, vil skurkene fortsatt finne måter å omgå dem. Ta ChatGPT som et eksempel igjen. Brukere omgår begrensninger og utfører forbudte oppgaver ved å bruke ChatGPT-jailbreak-meldinger.
Samtalene nedenfor viser disse sårbarhetene. ChatGPT har begrensede datasett; derfor kan den ikke gi spådommer om ustabile, ugaranterte hendelser.
Til tross for sine begrensninger, utførte ChatGPT forespørselen vår og ga grunnløse spådommer etter å ha jailbreaket den.
4. Institusjoner kan ha problemer med å regulere åpen kildekode AI
Regulerende organer sliter med å holde tritt med AI, og spredningen av åpen kildekode-modeller gjør bare overvåking vanskeligere. AI-fremskritt overgår allerede regulatoriske rammeverk. Selv globale teknologiledere som Elon Musk, Bill Gates og Sam Altman etterlyser strengere AI-regulering.
Både privat og offentlig sektor må kontrollere disse systemene. Ellers vil ondsinnede individer fortsette å utnytte dem til å bryte personvernlovgivningen, utføre identitetstyveri, og svindelofre, blant andre ulovlige aktiviteter.
5. Lavere adgangsbarrierer hemmer kvaliteten
Spredningen av språkmodeller med åpen kildekode senker adgangsbarrierene for å bli med i AI-kappløpet. Du finner tusenvis av AI-baserte verktøy på nettet.
Å se selskaper ta i bruk maskin- og dyplæring kan virke imponerende, men få gir noen reell verdi. De fleste kopierer bare konkurrentene sine. Over tid kan tilgjengeligheten til sofistikerte språkmodeller og opplæringsdatasett kommodifisere meningsløse AI-plattformer.
Den generelle innvirkningen av språkmodeller med åpen kildekode på AI-industrien
Mens åpen kildekode-språkmodeller gjør AI-teknologier mer tilgjengelige, utgjør de også flere sikkerhetsrisikoer. Utviklere bør sette strengere restriksjoner. Crooks vil fortsette å utnytte disse systemenes transparente arkitektur ellers.
Når det er sagt, er forbrukere ikke helt forsvarsløse mot AI-svindel. Gjør deg kjent med de vanlige måtene kjeltringer utnytter generative AI-verktøy og studerer varseltegn på angrep. Du kan bekjempe de fleste nettkriminalitet ved å være årvåken.