Deepfake: Technologie, která krade tváře (a někdy i miliony)
Jak se naučit pochybovat o světě, kde se realita vyrábí na počkání
Kdyby tě ještě před pár lety někdo varoval, že je možné si vypůjčit tvůj obličej, naklonovat hlas a nechat tě něco říct nebo udělat bez tvého vědomí, asi bys tomu moc nevěřil*a. Možnosti umělé inteligence ale exponenciálně rostou ruku v ruce s jejími hrozbami. A to, co bylo včera ještě nemyslitelné, dnes žijeme.
Možná si vybavuješ první deepfaky v podobě vtipných videí se zpívajícími politiky. Z nevinného pobavení se ale vyvinuly v nástroje, které mohou rozvrátit vztah, zničit pověst, zmanipulovat volby nebo vytáhnout miliony z firemního účtu. A stačí k tomu pár minut z tvého YouTube videa nebo nahrávka z rozhovoru.
Co jsou deepfaky (a proč by tě to mělo zajímat)
Deepfake je falešný digitální obsah vytvořený pomocí AI nebo pokročilým audiovizuálním softwarem, který napodobuje skutečnou osobu tak věrohodně, že na první (a někdy i druhý) pohled nerozeznáš rozdíl. Zatímco kvalita deepfaků se zvyšuje, schopnost lidí rozlišit pravdu od fikce naopak klesá. Znepokojující britská studie od Royal Society Open Science ukázala, že pouze 21,6% respondentů dokázalo detekovat zmanipulovaná videa.
Nebavíme se o obyčejném upravení obrázku ve Photoshopu nebo nastrčení titulku k videu. Deepfake technologie používají strojové učení, které se učí z reálných dat, jako jsou obličeje, pohyby, výrazy, hlas, rytmus řeči, a na jejich základě vytváří zcela nový obsah. To znamená, že někdo může vytvořit video, kde například ty osobně pronášíš projev, který jsi nikdy neřekl*a. A to video bude působit naprosto reálně.
Deepfaky mohou být:
- Videa: Obličeje nasazené na jiná těla, falešné rozhovory nebo projevy.
- Audio: Hlas, který zní jako tvůj, ale pronáší cizí slova – použitelný třeba pro podvody po telefonu.
- Fotografie: Na první pohled autentické fotky z neexistujících situací.
- Dokumenty: Napodobení podpisu, stylu psaní, nebo dokonce celé falešné identity.
Dnes je běžné, že k vytvoření deepfaku stačí několikasekundový videozáznam nebo pár fotek z různých úhlů. Nástroje jako DeepFaceLab, FaceSwap, Reface nebo Zao jsou volně dostupné a díky jejich uživatelské přívětivosti je zvládne používat doslova kdokoliv. Čím víc veřejně dostupných materiálů máš (např. z profilů na sociálních sítích), tím větší je šance, že někdo vytvoří deepfake právě s tebou.
Jak deepfaky vznikají?
Za většinou deepfake videí stojí algoritmy strojového učení – konkrétně Generative Adversarial Networks (GANs). Dvě umělé inteligence mezi sebou soutěží: jedna se snaží vytvořit co nejpřesvědčivější fake, druhá se ho snaží odhalit. A tímhle soupeřením se jejich výkony zlepšují.
Existují ale i jiné techniky, například autoenkodéry, které fungují tak, že rozloží obraz na základní rysy a následně ho znovu složí – třeba s cizím obličejem. Ve výsledku vzniká realistická manipulace, kterou odhalí jen trénované oko – a někdy ani to ne.
To, co dřív vyžadovalo specializovaný hardware a programování, dnes zvládne smartphone a bezplatná aplikace. Vznikají nástroje typu „nahraj fotku a my tě přeměníme na filmovou hvězdu“, které nahrávají následnému zneužívání dat.
Kde už napáchaly škody?
- Kyberkriminalita: Podle zprávy 2025 Identity Fraud Report se v roce 2024 deepfake útok odehrál průměrně každých 5 minut. Jeden z nejznámějších případů vedl ke ztrátě 25 milionů dolarů, když zaměstnanec firmy uvěřil falešnému videohovoru se svým nadřízeným.
- Podvody v online vztazích: Žena z Francie poslala přes 800 000 eur člověku, který se vydával za Brada Pitta a navázal s ní virtuální milostný vztah. Videa i fotky byly deepfaky generované umělou inteligencí. Skutečná škoda? Kromě ztracených peněz i zničená důvěra.
- Politická manipulace: Před volbami na Slovensku i v USA se objevily deepfake videa kandidátů plná skandálních výroků. Často se šíří dřív, než je stihne někdo ověřit.
- Deepfake pornografie: V roce 2023 tvořilo 98 % všech deepfake videí pornografický obsah. Drtivá většina z nich zneužívala podobu žen, a zdaleka nešlo jen o celebrity. Stačí jedna veřejná fotka.
Jak poznat, že je video falešné?
Technologie se zlepšují, ale když víš, co hledat, můžeš se naučit rozpoznávat stopy:
1. Nezvykle plynulé pohyby: Některé deepfaky jsou „až moc dokonalé“ a chybí jim drobnosti, které dělají člověka člověkem: škubnutí koutku, autentická mimika, zaváhání v řeči.
2. Mrkání: U deepfaků bývá nepravidelné nebo chybí úplně. Oči často vypadají skelně a neživě.
3. Nesoulad mezi hlasem a obrazem: Zpožděné pohyby rtů, divná dikce, robotická intonace.
4. Svícení: Zvláštní stíny nebo světla, které neodpovídají prostředí. Tvář je nasvícená jinak než pozadí.
5. Rozmazané hrany: Všimnout si toho můžeš obzvlášť kolem vlasů, uší nebo lícních kostí.
6. Podezřelý kontext: Přemýšlej nad tím, proč by vůbec někdo něco takového zveřejnil, ptal se tě na podezřelou otázku nebo se choval nezvykle.
Jak se deepfakům bránit?
Deepfakům se nedá zcela vyhnout. Ale můžeme se proti nim naučit bránit.
1. Zapoj kritické myšlení
Zní to banálně, ale ne všechno, co vypadá reálně, je pravda. Zvlášť na internetu. Pokud tě někdo požádá o důvěrné informace, peníze nebo rychlé rozhodnutí, ověř si to raději vícero způsoby.
2. Omez sdílení osobních dat
Nechceme být paranoidní, ale pravdou je, že čím víc videí a fotek zveřejníš, tím více materiálu AI má. Dávej pozor, co sdílíš v plném rozlišení. Vysoce kvalitní selfie je pro deepfake software jako poklad.
3. Používej dvoufázové ověření
Zejména u e-mailů, bank, firemních účtů. Ani ten nejvěrnější deepfake neprojde přes biometrické zabezpečení nebo ověřovací kód.
4. Domluv si tajná hesla
Máte s blízkými nebo kolegy nějaký bezpečnostní signál? Jednoduché heslo nebo frázi, kterou deepfake neuhodne? Hodí se hlavně v případech, kdy nemáš jistotu, jestli opravdu mluvíš s tím, s kým si myslíš.
5. Využij detekční nástroje
Existují nástroje jako Reality Defender, Microsoft Video Authenticator nebo AI řešení od Sumsub, která dokážou video automaticky analyzovat a odhalit známky manipulace. Některé jsou dostupné i zdarma a stojí za to si je vyzkoušet.
Pokud podnikáš nebo pracuješ ve firmě:
- Nastav vícestupňové schvalování důležitých operací.
- Škol své zaměstnance, informovanost je základ.
- Sleduj neobvyklé chování účtů (např. časté změny IP adres, nový způsob komunikace).
- Investuj do bezpečnostního softwaru, který odhaluje nejen deepfaky, ale i další formy podvodů.
Co nás čeká dál?
Upřímně? Nevíme. Zatímco my se snažíme poznat první chyby, deepfaky se učí, jak je neopakovat. Výsledkem je prapodivný svět, kde musíme pochybovat i o vlastním oku a displeji.
Deepfaky budou ještě přesnější, rychlejší a dostupnější. Možná přijde doba, kdy budeme potřebovat ověřovací značku nejen u účtů, ale i u videí. Něco jako digitální razítko, že daný obsah je autentický.
Velké platformy, jako Meta, Microsoft nebo Google, už pracují na nástrojích, které by pomohly deepfaky označovat. Ale technologie se někdy vyvíjejí rychleji, než na ně stíháme reagovat.
Nejcennější rada, kterou teď můžeš dostat? Nevěř všemu, co vidíš na internetu. Ani když to má tvůj obličej.
Autor: Kateřina Slezáková