6. juni 2022 ble Chris Umé og Thomas Graham, grunnleggerne av Metaphysic, med på America's Got Talent-scenen med Daniel Emmet. Ved å bruke teknologien Metaphysic utviklet, fremførte Daniel Emmet «You’re the Inspiration» ved å bruke AGT-dommer Simon Cowells likhet live på scenen.

Denne forestillingen forbløffet dommerne og fanget publikum, noe som resulterte i fire ja. Gruppen går videre til neste runde av AGT – men hva betyr bruken av deepfake-teknologi for fremtidens underholdning?

Hva skjedde på AGT-scenen?

Hoveddeltakerne for showet var Chris og Thomas. Da de presenterte seg selv sa de:

"Vi bruker kunstig intelligens for å lage hyperekte innhold."

De tok da med seg Daniel Emmet på scenen. Da Simon spurte hvordan han kom inn i duoen, sa han:

"Jeg er fan av det de gjør på nettet, og de er fans av AGT. Og da de spurte meg om å være en del av denne fantastiske, unike, originale tingen de skal gjøre, kunne jeg ikke si nei.»

Så, med alt mystikken rundt trioen, ønsket Cowell dem lykke til, og de startet showet.

instagram viewer

Mens Emmet forberedte seg på å synge, gikk et kamera inn på scenen for å registrere ham i profil, og blokkerte publikums (og dommerens syn). Da musikken startet, gikk kameraets feed live på scenens skjerm, der vi så Simons hyper-ekte avatar lagt på David og synge live på scenen.

Publikum ble elleville da de så det, men Simon var først forvirret. Etter hvert som forestillingen fortsatte, gikk Cowell fra forvirret til flau til underholdt. Til slutt ga han (og resten av publikum) handlingen en stående applaus, og gruppen fikk et "ja" fra alle fire dommerne.

Hvordan Deepfakes påvirker underholdning

Mens deepfakes kan virke som en ny utvikling for folk flest, er dette ikke tilfelle, spesielt i Hollywood. Gitt at dette sannsynligvis er første gang deepfake-teknologi har vist seg i en live-setting, men filmer har brukt denne teknologien i mange år nå.

Et populært eksempel er Furious 7-filmen fra 2015, der en av hovedpersonene, Paul Walker, døde i en bilulykke midtveis i innspillingen. I stedet for å drepe karakteren hans i filmen, bestemte produsentene seg for å filme ham ved å bruke brødrene sine som stand-ins og deretter bruke CGI for å sette ansiktet til Paul på dem.

Denne teknikken dukket også opp i Rogue One: A Star Wars Story i 2016, og ble brukt på Grand Moff Tarkin og prinsesse Leia. Dessverre døde skuespilleren som spilte karakteren, Peter Cushing, i 1994. Og mens Carrie Fisher fortsatt var i live under filmingen, hadde utseendet hennes endret seg betydelig siden 1977.

For denne filmen brukte produksjonen stand-ins og teknologi som ligner på deepfakes for å gjenskape de originale karakterene digitalt.

Og selv om du kanskje tror dette er en nylig utvikling, kan du bli overrasket over å vite at 2000-tallets Gladiator også brukte lignende teknologi. Da en av hovedrolleinnehaverne, Oliver Reed, plutselig døde under innspillingen, valgte produksjonen å gjenskape ham digitalt mens de brukte en kroppsdobbel til selve opptaket.

Denne teknologien går imidlertid lenger enn å gjenopplive og vende tilbake kjendiser. De brukte det til og med i Captain America: The First Avenger for å bytte ut Chris Evans store kropp med Leander Deenys mindre ramme. Selv om de også brukte forskjellige andre teknikker for å gjøre det lille utseendet hans før Howard Starks eksperiment, var deepfake-teknologi et av verktøyene deres.

Hvordan Deepfakes kan revolusjonere underholdningsindustrien

En ting alle eksemplene ovenfor har til felles er at de måtte bruke måneder og millioner av dollar for å få den effekten de ønsket å oppnå. Men på AGT-scenen viste Metaphysic at de kunne gjenskape en annen kjendis i høy kvalitet i sanntid.

Selv om produksjonen deres på AGT-scenen ikke er 100 % realistisk, er den nær nok den ekte varen hvis du ikke ser nøye etter. Og en stor ting er at de gjør det i sanntid. Med måten teknologien utvikler seg på, vil vi snart finne en sanntidsdeepfake-applikasjon som umiddelbart kan produsere en realistisk video.

Utviklingen kan redusere studioers avhengighet av avanserte sporingsdresser og omfattende etterbehandling, og strømlinjeforme deres etterproduksjonsarbeid ytterligere. Og mens lage sømløse deepfake-videoer er ikke så lett som det høres ut, du trenger ikke lenger være et produksjonsselskap på flere millioner dollar for å ha råd til det.

Teknologiens mainstream-introduksjon ville tillate mindre studioer og til og med uavhengige filmskapere å ha råd til og bruke den til sine kreasjoner. Faktisk kan alle med en smarttelefon prøv denne teknologien gjennom apper for ansiktsbytte, selv om de ikke er like gode som på AGT-scenen.

Fremtiden til Deepfakes i filmer og TV

Ettersom deepfake-teknologien utvikler seg, kan vi snart finne en tid studioer lett kan bruke kjendiser i fortiden for å bringe liv til sine nyeste filmer. Disse vil bidra til å opprettholde kontinuiteten, spesielt ettersom produksjoner (og filmgjengere) foretrekker langvarige franchiser, der de møter problemer med aldring eller til og med døende kjendiser.

Imidlertid har denne utviklingen også en annen fasett - den kan brukes til å gjenskape en persons likhet uten deres samtykke. Videre kan den samme videoen brukes til å så frykt, spenning og forvirring blant folk, spesielt hvis den er fra en politisk skikkelse og den dype falsken ikke er gjenkjennelig som sådan.

Så mye som vi er fornøyd med denne teknologien innen underholdning, bør vi også være forsiktige med at den brukes etisk og aldri for å så kaos.