DeepFake: Appar eller program som för närvarande kan upptäcka sådant innehåll

DeepFake: Appar eller program som för närvarande kan upptäcka sådant innehåll

DeepFake har fångat världens uppmärksamhet, särskilt politiker, media och kändisar. Trots att tricket att manipulera en video länge har varit tillgängligt har deepfake gjort det mycket lättare att göra. Dessutom är den resulterande videon mycket mer nära att vara riktig, vilket betyder att den är mycket trovärdig.

DeepFake-tekniken bygger på artificiell intelligens (AI). Den används för att manipulera eller till och med skapa en video för att presentera något som inte ens inträffade. I djupfake-teknik studerar AI en persons ansikte och transponerar den sedan korrekt på någon annans uttryck.

På grund av användningen av AI och maskininlärning kan vem som helst enkelt och snabbt skapa en realistisk video. Programvaran för att skapa DeepFake-video är lätt tillgänglig, och de behöver ingen teknisk kunskap för att fungera. Detta har lett till massivt missbruk av denna teknik.

Vem som helst kan skapa en djupfake-video, som kan få allvarliga konsekvenser, som att utlösa internationell upprördhet, skada någons image, krascha aktiemarknaden och mer.

Vi har redan sett några exempel på djupa falska videor som blir virala, som Obamas public service-meddelande, Nancy Pelosi saktade ner videon, Zuckerberg talar uppriktigt videon, Trump föreläser Belgien och mer.

Nu finns det en växande oro för att djupa falska videor kan användas för att leda väljarna i presidentvalet 2020. Det största hotet med djupa falska videor är dock att om människor börjar ta dem till deras nominella värde, finns det chanser att alla kommer att börja tvivla på något videoinnehåll helt och hållet.

Med erkännande av sådana hot från den djupa falska tekniken kommer myndigheter runt om i världen med lagstiftning för att begränsa den oetiska användningen av tekniken. Lagstiftning räcker dock inte helt för att hantera den växande användningen av sådan teknik.

Därför kommer teknikföretag och forskningsorganisationer fram för att hjälpa till med att utveckla appar, program och verktyg för att upptäcka djupa falska videor och ta ner dem snabbt. Till exempel har forskare från USC Information Sciences Institute (USC ISI) skapat ett verktyg för att bekämpa deepfakes.

För att identifiera om en video manipuleras eller inte, studerar detta verktyg de svaga ansikts- och huvudrörelserna, tillsammans med artefakter i filerna. Enligt forskarna kan verktyget identifiera videon med upp till 96% noggrannhet. Det här verktyget tar enligt uppgift mindre datorkraft och tid.

Google har också nyligen bidragit till utvecklingen av deepfake-detekteringsverktyg. Sökjätten släppte “en stor uppsättning visuella deepfakes” eller deepfake-videor. Tanken är att forskare skulle använda dessa videor för att träna sin programvara för att identifiera eller upptäcka djupa falska videor och benchmarka prestanda för deras detektorer. Google sa:

Med hjälp av allmänt tillgängliga deepfake-genereringsmetoder skapade vi sedan tusentals deepfakes från dessa videor. De resulterande videorna, riktiga och falska, utgör vårt bidrag, som vi skapade för att direkt stödja djupfals upptäckt

På samma sätt arbetar Facebook, Microsoft, partnerskapet för AI-koalition och flera toppuniversitet tillsammans för att hjälpa till med utvecklingen av djupfalsdetekteringsverktygen. Syftet med dessa företag är att utveckla en uppsättning videor genom att organisera tävlingar.

Bortsett från dessa ansträngningar använder företagen andra vanliga åtgärder som att använda en algoritm för att upptäcka upphovsrättsskyddat innehåll, en algoritm som splittrar videon i delar för att spåra källan med bildsökning, omvänd bildsökning och manuell verifiering av användarna.

Experter anser dock att sådana verktyg eller program för att upptäcka AI-manipulerade videor inte är en permanent lösning. Prata med The Verge, professor vid University of Southern California och VD för Pinscreen, Hao Li, sade att det kan bli värdelöst att gå vidare med djupfalsdetekteringsverktyg. Li sa:

vid någon tidpunkt är det troligt att det inte kommer att vara möjligt att upptäcka [AI fakes] alls. Så en annan typ av strategi kommer att behöva införas för att lösa detta

De nuvarande djupfalsdetektorerna förlitar sig på att detektera ”mjuk biometri”, som är för subtila för att AI ska kunna efterlikna. Dessa ”mjuka biometriska” kan vara som hur Trump lyfter ögonbrynet när han betonar en punkt eller läpprörelser innan han svarar på en fråga.

Verktygen för djupfalsdetektering lär sig hur man upptäcker dessa subtila rörelser genom att studera tidigare videor av den personen. Men framåt skulle dessa detektorer bli värdelösa efter att den djupa falska tekniken lär sig att efterlikna dessa subtila rörelser också.

Således är behovet att utveckla en samordnad plan och göra dessa detektorer användbara framöver. För att planen ska bli framgångsrik finns det ett behov av att sociala plattformar tydligt definierar sin policy för djupfalsning. Li säger:

Som ett minimum bör videorna märkas om något upptäcks som manipulerat, baserat på automatiserade system

En annan del av den samordnade planen är att säkerställa fortsatt monetärt stöd till forskare och organisationer som utvecklar nya djupfalsdetekteringsverktyg. Finansieringen måste också säkerställas till forskare och organisationer som arbetar med att förbättra de nuvarande verktyg för djupfalsdetektering.

En användbar teknik som för närvarande är under utveckling är användningen av Blockchain-verifiering. Dare App, av Eristica Ltd. använder en sådan teknik för att motverka djupa förfalskningar eftersom vinnare på Eristica får betalt i kryptovaluta.

verktyg för djupfalsdetektering

Eristicas affärsmodell är baserad på att användaren lägger ut utmanande videor, och därmed skulle deepfake lätt kunna få ner företaget. På Blockchain kan man se allas transaktioner. Detta hjälper företaget att upptäcka saker som vadslagning av oegentligheter, inklusive en plötslig ökning av höga insatsutmaningar.

Ett annat verktyg för djupfalsdetektering som vissa forskare arbetar med är att träna möss för att upptäcka djupa falska videor. Enligt forskarna har möss ett hörselsystem som liknar människor. De kan emellertid inte förstå orden de hör, och detta, begränsning är vad forskare planerar att dra nytta av.

Detta beror på att möss inte kommer att förbise några verbala tecken eftersom de inte fokuserar på att få innebörden av ordet. Till exempel, felaktigt uttal av ett alfabet eller ett ord. Forskningens vitbok säger:

Vi tror att möss är en lovande modell för att studera komplex ljudbehandling och att studera beräkningsmekanismerna genom vilka däggdjurs auditiva system upptäcker falskt ljud kan informera nästa generations, generaliserande algoritmer för spoofdetektering

?