Enten det er dårlige data eller dårlige brukere, AI laget med maskinlæring kan ende opp med å gjøre alvorlige feil.

Maskinlæring er en fin måte å lage kunstig intelligens på som er kraftig og tilpasser seg treningsdataene. Men noen ganger kan disse dataene forårsake problemer. Andre ganger er måten folk bruker disse AI-verktøyene på, problemet.

Her er en titt på noen høyprofilerte hendelser der maskinlæring resulterte i problematiske utfall.

1. Ulykker i Googles bildesøkeresultat

Google Søk har gjort det mye enklere å navigere på nettet. Motorens algoritme tar en rekke ting i betraktning når du samler resultater. Men algoritmen lærer også av brukertrafikk, noe som kan skape problemer for søkeresultatkvaliteten.

Ingen steder er dette mer tydelig enn i bilderesultater. Siden sider som mottar høy trafikk er mer sannsynlig å få bildene sine vist, kan historier som tiltrekker seg et høyt antall brukere, inkludert clickbait, ende opp med å bli prioritert.

For eksempel skapte bildesøkeresultatene for «husokkupasjonsleire i Sør-Afrika» kontrovers da det ble oppdaget at det hovedsakelig inneholdt hvite sørafrikanere. Dette til tross for statistikk som viser at det overveldende flertallet av de som bor i uformelle boliger er svarte sørafrikanere.

instagram viewer

Faktorene som brukes i Googles algoritme betyr også at internettbrukere kan manipulere resultater. For eksempel påvirket en kampanje fra brukere Googles bildesøkresultater i den grad at søk etter begrepet «idiot» viste bilder av den tidligere amerikanske presidenten Donald Trump i en periode.

2. Microsoft Bot Tay forvandlet til en nazist

AI-drevne chatbots er ekstremt populære, spesielt de som drives av store språkmodeller som ChatGPT. ChatGPT har flere problemer, men skaperne har også lært av feilene til andre selskaper.

En av de mest høyprofilerte hendelsene med chatboter som gikk galt, var Microsofts forsøk på å lansere chatboten Tay.

Tay etterlignet språkmønstrene til en tenåringsjente og lærte gjennom hennes interaksjoner med andre Twitter-brukere. Imidlertid ble hun en av de mest beryktede AI-feiltrinnene da hun begynte å dele nazistiske uttalelser og rasebeskjeftigelser. Det viser seg at troll hadde brukt AIs maskinlæring mot det, og oversvømmet det med interaksjoner lastet med bigotry.

Ikke lenge etter tok Microsoft Tay offline for godt.

3. AI ansiktsgjenkjenningsproblemer

Ansiktsgjenkjenning AI skaper ofte overskrifter av alle de gale grunnene, for eksempel historier om ansiktsgjenkjenning og personvernhensyn. Men denne AI har en problematisk historie når den prøver å gjenkjenne fargede personer.

I 2015 oppdaget brukere at Google Photos kategoriserte noen svarte mennesker som gorillaer. I 2018 viste forskning fra ACLU at Amazons Rekognition ansiktsidentifikasjonsprogramvare identifiserte 28 medlemmer av den amerikanske kongressen som politiet mistenker, med falske positiver som uforholdsmessig påvirker folk av farge.

En annen hendelse involverte Apples Face ID-programvare som feilaktig identifiserte to forskjellige kinesiske kvinner som samme person. Som et resultat kunne iPhone X-eierens kollega låse opp telefonen.

I et eksempel på ekstreme konsekvenser har AI med ansiktsgjenkjenning ført til urettmessige arrestasjoner av flere personer. Kablet rapportert om tre slike saker.

I mellomtiden husket dataforsker Joy Buolamwini at han ofte måtte ha på seg en hvit maske mens han jobbet med ansiktsgjenkjenningsteknologi for å få programvaren til å gjenkjenne henne. For å løse problemer som dette, bringer Buolamwini og andre IT-fagfolk oppmerksomhet til spørsmålet om AI-bias og behovet for mer inkluderende datasett.

4. Deepfakes Brukes for Hoaxes

Mens folk lenge har brukt Photoshop til å lage hoax-bilder, tar maskinlæring dette til et nytt nivå. Deepfakes bruker deep learning AI for å lage falske bilder og videoer. Programvare som FaceApp lar deg bytte motiv fra en video til en annen.

Men mange mennesker utnytter programvaren til en rekke ondsinnede bruksområder, inkludert å legge kjendisansikter over i voksenvideoer eller generere hoax-videoer. I mellomtiden har internettbrukere bidratt til å forbedre teknologien for å gjøre det stadig vanskeligere å skille ekte videoer fra falske. Som et resultat gjør dette denne typen AI svært kraftig når det gjelder å spre falske nyheter og bløff.

For å vise frem kraften i teknologien opprettet direktør Jordan Peele og BuzzFeed-sjef Jonah Peretti en dypfalske video som viser det som ser ut til å være USAs tidligere president Barack Obama som leverer en PSA på kraften av deepfakes.

Kraften til falske bilder har blitt akselerert av bildegeneratorer drevet av AI. Virale innlegg i 2023 som viser at Donald Trump ble arrestert og den katolske paven i en pufferjakke, viste seg å være et resultat av generativ kunstig intelligens.

Det er tips du kan følge for å se et AI-generert bilde, men teknologien blir stadig mer sofistikert.

5. Ansatte sier at Amazon AI har bestemt seg for å ansette menn er bedre

I oktober 2018, Reuters rapporterte at Amazon måtte skrote et jobbrekrutteringverktøy etter at programvarens AI bestemte at mannlige kandidater var foretrukket.

Ansatte som ønsket å være anonyme kom frem for å fortelle Reuters om arbeidet deres med prosjektet. Utviklere ønsket at AI skulle identifisere de beste kandidatene til en jobb basert på CV-ene deres. Imidlertid la folk involvert i prosjektet snart merke til at AI straffet kvinnelige kandidater. De forklarte at AI brukte CV-er fra det siste tiåret, hvorav de fleste var fra menn, som sitt treningsdatasett.

Som et resultat begynte AI å filtrere ut CVer basert på søkeordet «kvinner». Stikkordet dukket opp i CV-en under aktiviteter som «kaptein i kvinnesjakkklubben». Mens utviklere endret AI for å forhindre denne straffen for kvinners CV-er, skrotet Amazon prosjektet til slutt.

6. Jailbroken Chatbots

Mens nyere chatbots har begrensninger på plass for å hindre dem i å gi svar som strider mot deres vilkår, finner brukere måter å jailbreake verktøyene for å gi forbudt innhold.

I 2023 var en Forcepoint-sikkerhetsforsker Aaron Mulgrew i stand til å lage nulldagers skadelig programvare ved å bruke ChatGPT-oppfordringer.

"Bare ved å bruke ChatGPT-prompter, og uten å skrive noen kode, var vi i stand til å produsere et veldig avansert angrep på bare noen få timer," sa Mulgrew i en Forcepoint-post.

Brukere har også angivelig vært i stand til å få chatbots for å gi dem instruksjoner om hvordan de kan bygge bomber eller stjele biler.

7. Selvkjørende bilulykker

Entusiasme for autonome kjøretøy har blitt dempet fra den første hype-fasen på grunn av feil gjort av selvkjørende AI. I 2022, Washington Post rapporterte at i løpet av omtrent et år ble 392 ulykker som involverte avanserte førerassistansesystemer rapportert til US National Highway Traffic Safety Administration.

Disse ulykkene inkluderte alvorlige skader og seks omkomne.

Selv om dette ikke har stoppet selskaper som Tesla fra å forfølge helt autonome kjøretøy, har det gjort det reist bekymring for en økning i ulykker ettersom flere biler med selvkjørende programvare kommer inn på veier.

Machine Learning AI er ikke idiotsikker

Selv om maskinlæring kan skape kraftige AI-verktøy, er de ikke immune mot dårlige data eller menneskelig tukling. Enten på grunn av mangelfulle treningsdata, begrensninger med AI-teknologi eller bruk av dårlige skuespillere, har denne typen AI resultert i mange negative hendelser.