Microsofts Tay AI gikk fra en lovende AI til en total katastrofe på mindre enn et døgn. Her er hva selskapet lærte.
AI-chatbots som ChatGPT blir i økende grad en mer integrert del av moderne teknologi, men ukjent for mange var generativ AI ikke alltid like god som i dag. Faktisk, i 2016, viste Microsoft-laget chatbot Tay oss hvor raskt AI kan slå tilbake.
La oss utforske hva Microsofts AI-chatbot Tay var, hvorfor den mislyktes, dens kontroverser og leksjonene selskapet lærte etter sin katastrofale fiasko.
Hva var Microsofts Tay?
Tay var en AI chatbot utviklet av Microsoft og gjort tilgjengelig via Twitter 23. mars 2016. Chatboten ble utviklet for 18- til 24-åringer i USA for "underholdningsformål" og for å "eksperimentere med og forske på samtaleforståelse."
Tay var ikke ment å være en sofistikert chatbot som ChatGPT, men en vennlig AI-bot på Twitter som du kunne ha samtaler med – på en måte som Min AI på Snapchat, men for sosialt samvær.
Hvorfor stengte Microsoft ned Tay?
Microsoft tok ned Tay innen 24 timer etter at de ble publisert – med god grunn. Nesten umiddelbart etter at Tay ble introdusert, begynte Twitter-brukere å misbruke tjenesten ved å mate chatboten feilinformasjon, lære det nedsettende uttrykk og få det til å bli stadig mer støtende bare for å se hvor langt det er Ville gått.
Og langt gikk det faktisk. I løpet av timer etter lanseringen twitret Tay noen av de mest støtende raseuttalelsene, spredte hatefulle ytringer, fremmet nazisme og til og med inspirert til en «rasekrig». Jøss! Det er klart at Microsoft hadde det forferdelig, og det kunne ikke ha latt tjenesten fortsette.
I en innlegg på den offisielle Microsoft-bloggen, gjentok Microsofts konserndirektør Peter Lee det samme:
Vi er dypt lei oss for de utilsiktede støtende og sårende tweets fra Tay, som ikke representerer hvem vi er eller hva vi står for, og heller ikke hvordan vi utformet Tay. Tay er nå offline, og vi vil prøve å bringe Tay tilbake bare når vi er sikre på at vi bedre kan forutse ondsinnede hensikter som er i konflikt med våre prinsipper og verdier.
Tay-debaklet er bare ett av mange farene ved kunstig intelligens og en sterk påminnelse om hvorfor utviklingen bør gjøres med den største forsiktighet og tilsyn.
6 leksjoner Microsoft lærte etter Tay
Tay var en fullstendig katastrofe, men den lærte også Microsoft noen viktige leksjoner når det kom til utviklingen av AI-verktøy. Og for hva det er verdt, er det sannsynligvis til det bedre at Microsoft lærte leksjonene sine før heller enn senere, noe som gjorde det mulig for den å få et forsprang over Google og utvikle den nye AI-drevet Bing-nettleser.
Her er noen av disse leksjonene:
1. Internett er fullt av troll
Internett er fullt av troll, og det er vel ikke akkurat en nyhet? Tilsynelatende var det slik for Microsoft tilbake i 2016. Vi sier ikke at det å bygge en chatbot for "underholdningsformål" rettet mot 18- til 24-åringer hadde noe å gjøre med hvor mye tjenesten ble misbrukt. Likevel var det definitivt ikke den smarteste ideen heller.
Folk ønsker naturligvis å teste grensene for ny teknologi, og det er til syvende og sist utviklerens jobb å gjøre rede for disse ondsinnede angrepene. På en måte fungerer interne troll som en tilbakemeldingsmekanisme for kvalitetssikring, men det er ikke dermed sagt at en chatbot skal slippes løs uten at det er satt inn ordentlige sikkerhetstiltak før lansering.
2. AI kan ikke intuitivt skille mellom godt og dårlig
Konseptet med godt og ondt er noe AI ikke intuitivt forstår. Den må programmeres til å simulere kunnskapen om hva som er rett og galt, hva som er moralsk og umoralsk, og hva som er normalt og særegent.
Disse egenskapene kommer mer eller mindre naturlig for mennesker som sosiale skapninger, men AI kan ikke danne uavhengige vurderinger, føle empati eller oppleve smerte. Dette er grunnen til at når Twitter-brukere matet Tay med all slags propaganda, fulgte boten ganske enkelt med – uvitende om etikken i informasjonen den samlet inn.
3. Ikke tren AI-modeller ved å bruke folks samtaler
Tay ble opprettet ved å "gruve ut relevante offentlige data og bruke AI og redaksjonell utviklet av en stab inkludert improvisasjonskomikere." Å trene en AI-modell ved å bruke folks samtaler på internett er forferdelig idé.
Og før du skylder på dette på Twitter, vet at resultatet sannsynligvis ville vært det samme uavhengig av plattformen. Hvorfor? Fordi folk rett og slett ikke er sitt beste jeg på internett. De blir emosjonelle, bruker slangord og bruker anonymiteten sin til å være ondskapsfulle.
4. AI mangler sunn fornuft og får ikke sarkasme
AI i dag virker mer intuitiv (eller, for å si det mer nøyaktig, er bedre til å simulere intuisjon), men sliter fortsatt noen ganger med å gjenkjenne sarkasme og talefigurer. Dette gjaldt enda mer tilbake i 2016. Det som er åpenbart for mennesker er ikke åpenbart for AI; den mangler med andre ord sunn fornuft.
AI-ere som Tay forstår ikke hvorfor mennesker er som vi er, handler slik vi gjør, og eksentrisitetene til hvert enkelt individ. Det kan oppføre seg og høres menneskelig ut i overraskende grad, men god programmering kan bare gå så langt.
5. AI må programmeres for å avvise ugyldige forespørsler
AI er svært påvirkelig og må programmeres til å avvise forespørsler som fremmer skade. Selv i dag, etter alle våre fremskritt innen naturlig språkbehandling, finner folk fortsatt språklige smutthull få AI-chatbots som ChatGPT til å "hallusinere" og levere resultater som var ment å begrenses.
Poenget her er at kunstig intelligens er perfekt lydig, som kanskje er dens største styrke og svakhet. Alt du ikke vil at en chatbot skal gjøre, må programmeres manuelt inn i den.
6. AI Chatbots bør aldri stå uten tilsyn
Før AI kan regulere seg selv, kan den ikke stå uten tilsyn. Du kan tenke på dagens AI som et vidunderbarn; det er strålende på noen måter, men det er fortsatt et barn likevel. Hvis de blir stående uten tilsyn, vil folk utnytte dens svakheter – og Tay var et godt eksempel på dette.
AI er et verktøy, akkurat som internett, men hastigheten og omfanget som ting kan slå tilbake med AI er langt større enn det vi opplevde i de første dagene av internett.
AI trenger konstant tilsyn og regulering
Tay er ikke den eneste chatboten som ble useriøs – det har vært mange andre tilfeller akkurat som det. Men det som fikk den til å skille seg ut er den store hastigheten den gjorde – og det faktum at den ble laget av en teknologigigant som Microsoft.
Eksempler som dette viser hvor forsiktige vi må være når vi utvikler AI-verktøy, spesielt når de er ment å brukes av vanlige mennesker.