Hela historien börjar med en papper som publicerades av forskare vid UC Berkeley den 22 augusti 2018 och demonstrerade hur en dator kan lägga ett ”digitalt skelett” på en människas likhet för att få personen att se ut som en bra dansare. Det låter som kul, eller hur?
Vem av oss med två vänstra fötter skulle inte vilja presentera en video av oss själva dansa som nästa Michael Jackson? Det faktum att vi blandar artificiell intelligens med videoredigerings- och renderingsprogramvara kan dock ha några ganska olyckliga konsekvenser om tekniken missbrukas.
Introduktion av forskarnas arbete
Papperet som publicerades av forskarna som nämnts tidigare var i grunden en demonstration av hur maskininlärning kunde användas för att ”överföra rörelse mellan människor i olika videor”, vilket effektivt överlagrade en persons rörelser på en annan. Du kan se resultaten av deras arbete här:
Det ser janky ut och lite roligt, men de verkligheter vi kan möta när en sådan teknik fortsätter att utvecklas kan vara utmanande för oss som samhälle i framtiden. Även om vi använder ordet ”AI” löst genom att säga att detta är en demonstration av en videoredigeringsmetod som implementerar konceptet, är det verkligen en av föregångarna till artificiell intelligens (t.ex. ”föreställa sig” någon i en situation) .
Låt oss prata om Deepfakes
Använd “deepfake” som sökord på YouTube och du hittar många arbetsvänliga videor som presenterar kändisers ansiktsbyte och några halvt övertygande förfalskningar som produceras på plats. Även om detta ofta görs med gott humör, har inte alla goda avsikter med denna programvara.
Deepfakes tar en ansiktsprofil av en individ och superimponerar den över en annans ansikte. Du kan se vart vi ska med det här, och om du inte kan, här är det: Det finns många människor som använder denna teknik för att skapa en ”hämndporr” -video av andra, som implicerar dem i en mycket skrämmande situation där de hitta deras likhet kopplat till uttryckligt innehåll och har ingen möjlighet att använda. Det ser helt ut som om de gjorde vad som helst som händer i videon.
En mer avancerad överläggningsteknik kan göra det möjligt för datorer att rita ett virtuellt skelett som sedan gör det möjligt för skadliga aktörer att lägga en hel person i en potentiellt kompromissande situation. Vad vi slutar med är en cocktail av verktyg som kan användas för att tillverka bevis. En skytt kan få se ut som någon annan i brottsplatsen.
Vilken effekt skulle detta ha juridiskt?
De flesta länder har redan ett rättssystem som tydligt definierar förfalskning av händelser eller ett falskt vittne. När det gäller ”virtuell imitation” av en individ faller användningen av dessa tekniker för att modifiera en video redan under dessa lagar.
Där saker blir komplicerade är det när det gäller domstolar som erkänner videobevis. Om vi har tekniken för att läka videor i den utsträckning som vi gör just nu, föreställ dig vad vi skulle kunna göra om fem år. Hur skulle en domstol kunna betrakta den inlämnade videon som tillförlitlig? Det är inte särskilt svårt att göra en duplikathandling precis som ett original. När allt är allt digitalt.
Domstolar är redan mycket ovilliga att acceptera videobevis i sina ärenden. Denna teknikutveckling kan faktiskt skjuta dem över kanten, till den punkt där de inte kan lita på någonting som fångades på video av rädsla för att acceptera något som är doktrerat.
I slutändan, oavsett om vi gillar det eller inte, verkar det som om den här nya typen av teknik är här för att stanna hos oss, och vi måste anpassa oss därefter. Ett av de första stegen vi kunde ta är att sprida medvetenheten om att videor skulle kunna fejkas mycket lättare – och med mycket färre resurser och kompetenskrav – än de brukade göra på 80-talet. Så småningom kommer människor att vara mer skeptiska till de videor de ser.
”Tekniken blir bara mer och mer avancerad … Människor kommer att bli rädda. Och jag har verkligen medkänsla med dem. Men eftersom tekniken inte kan uppfinnas måste vi gå vidare med den. Jag är mycket mer en förespråkare för själva deepfakes-algoritmen och dess potential snarare än vad den för närvarande används för. Men välkommen till Internet igen. ”
Detta är vad en viss Reddit-användare berättade för The Verge i en artikel publicerad i februari 2018.
Hur tycker du att vi ska sprida medvetenheten? Vad mer ska vi göra för att anpassa oss? Låt oss ha den här diskussionen i kommentarerna!