De siste innovasjonene rundt AI-basert teknologi flytter grensene for det vi en gang trodde var mulig med AI. Men med chatbots som ChatGPT og Bing Chat som blir nesten like gode som mennesker på flere ting, er det på tide å trykke på bremsen en stund?
Elon Musk og flere AI-forskere er blant de 1188 personene (i skrivende stund) som mener det. Et brev publisert av det non-profit Future of Life-instituttet krever en seks måneders pause for å trene opp AI-teknologier bedre enn GPT 4, men er det virkelig nødvendig med en pause?
Hva handler fremtidens liv åpent brev om?
De brev utgitt av Future of Life-instituttet påpeker at AI-laboratorier har vært "låst i et ut-av-kontroll-løp" for å utvikle og distribuere mer og kraftigere AI-modeller som ingen, inkludert skaperne deres, kan "forstå, forutsi eller pålitelig kontroll".
Den påpeker også at moderne AI-systemer nå blir menneske-konkurransedyktige på generelle oppgaver og spør om vi bør utvikle "ikke-menneskelige sinn som til slutt kan overstige, overliste, foreldet og erstatte oss".
Brevet oppfordrer til slutt alle AI-laboratorier til umiddelbart å pause opplæringen av AI-systemer kraftigere enn GPT-4 i minst seks måneder. Pausen bør også være offentlig og verifiserbar på tvers av alle sentrale aktører. Den sier også at hvis en slik pause ikke kan håndheves raskt, bør myndigheter gå inn for å forby AI-modelltrening midlertidig.
Når pausen er aktiv, blir AI-laboratorier og uavhengige eksperter bedt om å bruke den til å utvikle og implementere en «delt sett med sikkerhetsprotokoller» for å sikre at systemer som følger disse reglene er «trygge utover det som er rimelig tvil".
Dette brevet er signert av ganske mange navngitte personligheter, inkludert Elon Musk, Steve Wozniak og AI-forskere og forfattere. Faktisk er underskriverlisten for øyeblikket satt på pause på grunn av stor etterspørsel.
Hva er Musks bekymringer med Advanced AI Tech og OpenAI?
Selv om det å signere Future of Lifes brev kan indikere at Musk er bekymret for sikkerhetsrisikoen slike avanserte AI-systemer utgjør, kan den virkelige årsaken være noe annet.
Musk grunnla OpenAI med nåværende administrerende direktør Sam Altman tilbake i 2015 som en ideell organisasjon. Imidlertid slo han hodet på Altman senere i 2018 etter at han innså at han ikke var fornøyd med selskapets fremgang. Musk ønsket angivelig å ta over for å få fart på utviklingen, men Altman og OpenAI-styret avviste ideen.
Musk gikk bort fra OpenAI kort tid etter og tok med seg pengene sine og brøt løftet om å bidra med 1 milliard i finansiering og bare gi 100 millioner før han dro. Dette tvang OpenAI til å bli et privat selskap kort tid etter i mars 2019 for å skaffe finansiering for å fortsette forskningen.
En annen grunn til at Musk sluttet var at AI-utviklingen hos Tesla ville forårsake en interessekonflikt i fremtiden. Det er åpenbar kunnskap at Tesla trenger avanserte AI-systemer for å drive det Fulle selvkjørende funksjoner. Siden Musk forlot OpenAI, har selskapet stukket av med sine AI-modeller og lansert GPT3.5-drevet ChatGPT i 2022 og senere oppfølging med GPT-4 i mars 2023.
Det faktum at Musks AI-team ikke er i nærheten av OpenAI, må tas i betraktning hver gang han sier at moderne AI-modeller kan utgjøre en risiko. Han hadde heller ingen problemer ruller ut Tesla Full Self-Driving beta på offentlig vei, som i hovedsak gjør vanlige Tesla-sjåfører til betatestere.
Dette slutter heller ikke her. Musk har også vært ganske kritisk til OpenAI på Twitter, med Altman som går så langt som å si at han angriper dem mens han dukket opp på "On with Kara Swisher"-podcasten nylig.
For øyeblikket ser det ut til at Musk bare bruker Future of Life-brevet for å stoppe utviklingen hos OpenAI og ethvert annet firma som fanger opp til GPT-4 for å gi selskapene hans en sjanse til å ta igjen i stedet for å faktisk være bekymret for de potensielle farene disse AI-modellene posere. Merk at brevet også ber om å pause «opplæringen» av AI-systemer i seks måneder, noe som relativt enkelt kan omgås for å fortsette å utvikle dem i mellomtiden.
Er det virkelig nødvendig med en pause?
Nødvendigheten av en pause avhenger av tilstanden til AI-modeller fremover. Brevet er definitivt litt dramatisk i tonen, og vi risikerer ikke å miste kontrollen over sivilisasjonen vår til AI, som det så åpent heter. Med det sagt, AI-teknologier utgjør noen få trusler.
Gitt at OpenAI og andre AI-laboratorier kan komme opp med bedre sikkerhetssjekker på plass, vil en pause gjøre mer skade enn nytte. Imidlertid høres brevets forslag om et sett med delte sikkerhetsprotokoller som er "strengt revidert og overvåket av uavhengige eksterne eksperter" ut som en god idé.
Med teknologigiganter som Google og Microsoft som strømmer milliarder inn i AI-utvikling og integrasjon i produktene deres, er det usannsynlig at brevet vil påvirke det nåværende tempoet i AI-utviklingen.
AI er kommet for å bli
Med teknologigiganter som presser AI-integrasjonen i produktene sine videre og legger inn milliarder av dollar i forskning og utvikling, er AI kommet for å bli, uavhengig av hva opposisjonen sier.
Men det er ikke en dårlig idé å implementere sikkerhetstiltak for å forhindre at disse teknologiene går av sporet og potensielt blir til verktøy for skade.