Til mange menneskers vantro oppdager levende kunstnere at kunsten deres har blitt brukt til å trene AI-modeller uten deres samtykke. Ved å bruke et nettverktøy kalt "Har jeg blitt trent?", kan du i løpet av få minutter vite om bildene dine ble matet til Midjourney, NightCafe og andre populære AI-bildegeneratorer.
Hvis du finner bildet ditt i et av datasettene som brukes til å trene disse AI-systemene, ikke fortvil. Noen organisasjoner har utviklet måter å velge bort denne praksisen på, slik at bildene dine ikke blir slettet fra internett og sendt videre til AI-selskaper.
Hvordan AI-bildegeneratorer trenes i utgangspunktet
Når du ber et AI-system som DALL-E om å generere et bilde av en "hund med bursdagshatt", må den først vite hvordan en hund ser ut og hvordan en bursdagshatt også ser ut. Den henter denne informasjonen fra enorme datasett som samler milliarder av lenker til bilder over hele internett.
Som vi alle vet, inneholder internett omtrent alle slags bilder du kan tenke deg, inkludert, med all sannsynlighet, tonnevis av bilder av en "hund med bursdagshatt". Med nok data som dette kan en AI-modell finne ut hvordan den skal gjenskape et bilde i likhet med de den har blitt trent på.
Men hva om disse bildene opprinnelig var opphavsrettsbeskyttet? Og hva om disse bildene tilhørte kunstnere, fotografer eller vanlige mennesker som ikke var klar over at bildene deres matet et AI-system?
Problemet for kunstnere
Mange AI-bildegeneratorer har et betalt nivå der brukere kan kjøpe kreditt for å lage flere bilder, noe som gir dem en fortjeneste. Men den fortjenesten er tjent på ryggen til ukrediterte personer hvis bilder ble brukt til å trene AI-systemet i utgangspunktet.
Etter hvert som flere artister finner ut at bildene deres ble brukt til å utvikle AI-systemer, er det tydelig at ikke alle har det bra med det. I det minste ønsker de at AI-selskaper skal få samtykke før de bruker bildene deres.
Spesielt hvis du er en populær, kjent artist, kan det å ha bilder generert i stilen din fortrenge markedet ditt, med fans eller potensielle lånetakere, uten å vite om kunsten ble skapt av deg eller replikert i din likhet med AI. Hva er enda verre, folk kan lage kunstverk i stilen din for å støtte verdier du ikke tror på.
Dette er ikke et nytt problem, deepfakes har eksistert i årevis og er potensielt i ferd med å bli verre med fremveksten av AI. I dag er det raskt, billig og enkelt å reprodusere "falsk" kunst. Det er bare noen få måter å identifisere et AI-generert bilde på, noe som gjør det vanskelig å oppdage den originale kunsten fra den AI-genererte motparten.
Datasett: Finne og indeksere bildene dine
Som vi nevnte tidligere, brukes bildedatasett av AI-selskaper for å trene modellene sine. Disse datasettene ser ut som et gigantisk Excel-regneark med en kolonne som inneholder en lenke til et bilde på internett, mens en annen har bildeteksten.
Ikke alle AI-selskaper vil avsløre datasettet de bruker, DALL-E er et eksempel. Dette gjør det vanskelig å vite hva det refereres til når det genererer et bilde og legger til den generelle mystikken til AI-systemer.
På den annen side har Stable Diffusion, en modell utviklet av Stability AI, gjort det klart at den ble bygget på LAION-5B datasett, som har kolossale 5,85 milliarder CLIP-filtrerte bilde-tekst-par. Siden dette datasettet er åpen kildekode, står alle fritt til å se bildene det indekserer, og på grunn av dette har det fått tung kritikk.
Tidlig i 2023, Getty Images saksøkte Stability AI for å skrape bilder fra nettstedet for å trene opp AI-bildegeneratoren, Stable Diffusion. Hvis du lurer på hvem som i sin tur bruker Stable Diffusion, vil det være NightCafe, Midjourney og DreamStudio, noen av de største aktørene på feltet.
Hvordan vite om bildene dine ble brukt til å trene en AI-modell
Sett opp av en gruppe artister, Gyting er et kollektiv som har som mål å hjelpe folk å finne ut om bildene deres er på datasett som LAION-5B, som brukes til å trene AI-modeller. Nettsøkemotoren deres ringte Har jeg blitt trent? lar deg enkelt søke etter nøkkelord som artistnavnet ditt.
Har jeg blitt trent?
Have I Been Trained fungerer mye som et Google-bildesøk, bortsett fra at søket ditt samsvarer med resultatene i LAION-5B-datasettet. Du har muligheten til å søke enten på nøkkelord eller på bilde, sistnevnte er nyttig hvis du vil se om et eksakt bilde er brukt.
Vi brukte navnet til kunstneren Frida Kahlo (1907-1954) for å teste det ut og fant en blanding av historiske fotografier og det som ser ut som fankunst i form av kruseduller, malerier, korssting, hekling og illustrasjoner.
Hvis du er en av disse skaperne, er du en av de mange ukrediterte menneskene hvis kreativitet gjorde det mulig for AI-bildegeneratorer å eksistere. Og med den kraften kan hvem som helst lage Frida-bilder som dette bisarre portrettet av "Frida Kahlo spiser is".
Prøv å skrive inn ditt eget artistnavn i søkefeltet for å se om arbeidet ditt har blitt brukt til å trene en AI-modell.
Hvordan velge bort AI-treningsdatasett
Det samme teamet bak nettstedet Have I Been Trained har laget et verktøy for folk å velge inn eller ut av AI-kunstsystemer. Det er én måte for kunstnere å opprettholde kontroll og tillatelser over hvem som bruker kunsten deres og til hvilket formål.
Andre kunstplattformer begynner å følge etter, og for øyeblikket tilbyr DeviantArt et alternativ for å ekskludere bildene deres fra å bli søkt i bildedatasett.
Ved siden av å kunne søke etter bildet ditt, kan du også velge bilder for å velge bort LAION-5B treningsdata ved å bruke nettstedet Have I Been Trained.
Du må først opprette en konto, og etter dette, høyreklikk på et bilde og velg å Velg bort dette bildet.
Hvis du velger dette alternativet, legges det bildet til fravalgslisten din som du får tilgang til ved å klikke på kontosymbolet ditt øverst til høyre på siden, og deretter velge Mine lister. For å fjerne det fra listen, høyreklikk på bildet og velg Fjern fra oppt-out-liste.
Hvis du er en produktiv kunstner, er denne metoden kjedelig og ikke tilstrekkelig til å velge bort alle bildene dine effektivt. Dessverre er det ikke et bedre alternativ i skrivende stund, men det er sannsynlig at det vil bli gjort forbedringer på dette systemet i fremtiden.
Disse oppt-out-listene blir deretter gitt videre til selskapet bak LAION-5B, som har gått med på å fjerne disse bildene fra datasettet.
DeviantArt Opt-out-preferanse
DeviantArt har så langt ledet an for kunst vertsplattformer ved å gi brukerne muligheten til å velge bort kunsten deres. I utgangspunktet måtte du finne preferansen og velge avmerkingsboksen for å velge bort. Men etter sterke tilbakemeldinger fra DeviantArt-fellesskapet, er dette alternativet nå slått på som standard.
Det betyr at ingen bilder som er lagt ut til DeviantArt gjøres tilgjengelige for bildedatasett, med mindre brukere har valgt å delta. Selv om den ikke er helt idiotsikker, innebærer mekanismen den bruker å flagge et bilde med en "noai" HTML-tag. Dette forteller AI-datasett at bildet ikke er tillatt å brukes, og hvis det er det, vil selskapet bryte DeviantArts vilkår for bruk.
Du kan finne bortvalgspreferansen ved å holde musen over ditt personlige kontoikon og klikke Kontoinnstillinger. Klikk deretter Generell fra menyen til venstre og bla ned til du ser overskriften Fortell AI-datasett at de ikke kan bruke innholdet ditt.
Respekt for kunstnernes arbeid
Det vil ta tid å finne et godt kompromiss mellom AI-systemer og artister hvis arbeid bidrar til å trene dem. Hvis du er en skaper, ikke føl deg maktesløs. Med sterke svar fra miljøene som bruker kunstplattformer som DeviantArt, kan du ha kontroll over hvem som bruker kunsten din.
Ikke alle vil velge bort heller, noen mennesker har ikke et problem med bildene deres som trener AI-modeller. Men det viktigste er at AI-selskaper får samtykke og utarbeider et rettferdig og respektfullt rom for AI-modeller og artister å eksistere sammen.