Jak poznat hluboké falešné tváře vyměněné video
Nedávno společnost Reddit zpravodajství zpřístupňuje s subdodavatelem, ve kterém lidé používají nástroj pro strojové učení nazvaný "Deep Fake", který automaticky nahradí tvář jedné osoby jinou ve videu. Je zřejmé, že jelikož se jedná o internet, lidé ji používají pro dvě věci: falešný porno celebrity a vložení Nicolas Cage do náhodných filmů.
Při výměně něčí tváře na fotografii bylo vždy poměrně snadné, vyměňovat si tvář někoho ve videu, které bylo časově náročné a obtížné. Až dosud je to většinou právě provedeno studiami VFX pro velké rozpočty hollywoodských filmů, kde se tvář herečky vymění na dvojici. Ale teď, s Deep Fake, každý s počítačem to dokáže rychle a automaticky.
Než půjdete dál, musíte vědět, jak vypadá Deep Fake. Podívejte se na video SFW, pod kterým je kompilace různých slavných osobních swapů, především Nic Cage.
Software Deep Fake funguje pomocí strojového učení. Je nejprve vycvičena s cílovou tváří. Deformované obrazy cíle jsou vedeny algoritmem a dozvídá se, jak je opravit tak, aby připomínaly nezměněnou cílovou plochu. Když je algoritmus poté podáván obrazům jiné osoby, předpokládá, že jsou zkreslené obrázky cíle a pokouší se je opravit. Chcete-li získat video, software Deep Fake pracuje na každém snímku jednotlivě.
Důvodem, proč se Deep Fakes z velké části angažuje v herních činnostech, je, že z mnoha úhlů je k dispozici spousta záznamů, které zvyšují efektivitu výcviku (Nicolas Cage má 91 titulů na IMDB). Avšak vzhledem k tomu, že počet fotografií a videozáznamů postoupí online a že skutečně potřebujete asi 500 obrázků pro výcvik algoritmu, není žádný důvod, proč by obyčejní lidé nemohli být zaměřeni příliš, ačkoli pravděpodobně s trochu méně úspěchem.
Jak nasadit hluboký faleš
Právě teď, Deep Fakes jsou docela snadné na místě, ale to bude těžší, jak se technologie zlepšuje. Zde jsou některé z darebáků.
Podivné tváře. Ve spoustě Deep Fakes tváře vypadají divně. Funkce nejsou dokonale vyrovnané a vše se zdá trochu voskovité jako na obrázku níže. Pokud vše ostatní vypadá normálně, ale obličej vypadá divně, je to pravděpodobně Deep Fake.
Blikající. Společným rysem špatných videí Deep Fake je tvář, která se objevuje blikáním, a originální funkce, které se občas objevují. Obvykle je zjevnější na okrajích obličeje, nebo když něco předchází. Pokud se stane divné blikání, díváte se na hluboký faleš.
Různé subjekty. Hluboké fakey jsou pouze výměny tváří. Většina lidí se snaží dostat dobrou hru, ale není to vždy možné. Pokud se člověk zdá být znatelně těžší, lehčí, vyšší, kratší nebo má tetování, které nemají v reálném životě (nebo nemá tetování, které mají v reálném životě), je tu hodně šance, že je to falešné. Můžete vidět opravdu zřejmý příklad níže, kde byla tvář Patricka Stewarta vyměněna s J.K. Simmons ve scéně z filmu Whiplash. Simmons je výrazně menší než Stewart, takže vypadá jen divně.
Krátké klipy. Právě teď, dokonce i když software Deep Fake funguje dokonale a vytváří téměř nerozlišitelnou výměnu tváří, může to udělat jen na krátkou dobu. Předtím, než začnete příliš dlouho, se jeden z výše uvedených problémů začne dělat. To je důvod, proč většina klipy Deep Fake, které lidé sdílejí, jsou dlouhé jen pár vteřin, zbytek stopáže je nepoužitelný. Pokud se vám ukázalo velmi krátká klip celebrity, která něco dělá, a není žádný důvod, proč je tak krátký, je to stopa, že je to hluboký falešný.
Žádný zvuk nebo špatné synchronizování. Software Deep Fake upravuje pouze funkce obličeje; to není kouzelně dělat jednu osobu znít jako jiný. Pokud s klipem není žádný zvuk a není důvod, aby nebyl zvuk, je to další věc, kterou hledáte v Deep Fake. Podobně, i když je zvuk, pokud se mluvená slova neodpovídají správně pohyblivým rtům (nebo jsou rty vypadat podivně, zatímco člověk mluví jako v klipu níže), můžete mít hlubokou falešnou.
Neuvěřitelné klipy. Tento druh je samozřejmostí, ale pokud se vám ukáže skutečně neuvěřitelný klip, existuje velká šance, že byste tomu vlastně neměli věřit. Nicolas Cage nikdy nehrál jako Loki ve filmu Marvel. To by bylo v pohodě.
Důvěrné zdroje. Stejně jako u falešných snímků, z nichž údajně pochází video, je často velkou stopou, pokud jde o jeho autenticitu. Pokud je v New York Times spuštěn příběh, je mnohem pravděpodobnější, že něco, co najdete v náhodném rohu Redditu.
Prozatím jsou Deep Fakes spíš děsivou zvědavostí než hlavním problémem. Výsledky se dají snadno odhalit a zatímco je nemožné odmítnout to, co se děje, nikdo se zatím nepokouší překonat Deep Fakes jako originální videa.
Vzhledem k tomu, že technologie se zlepšuje, je pravděpodobné, že budou mnohem větší problém. Například přesvědčivé falešné záběry Kim Jong Un o vyhlášení války USA by mohly způsobit velkou paniku.