Deepfake videa, falešné vizuály a manipulované nahrávky se stávají běžnou součástí české politiky. To, co začínalo jako recese nebo laciný vtip, dnes ohrožuje samotnou férovost volební soutěže. Příklady ze Spojených států ukazují, že jediný podvrh dokáže ovlivnit tisíce voličů. V prostředí, kde je důvěra v politiku na kritickém minimu, je riziko pro Českou republiku o to větší.
Ani v letošní předvolební kampani se čeští voliči, kteří potřebují především důvěryhodné a relevantní informace k tomu, aby se mohli zodpovědně rozhodnout, komu odevzdají svůj hlas, nevyhnou manipulacím. Stále častěji se setkávají s dezinformacemi či dokonce s deepfake videi a vizuály, které překračují hranice férové politické soutěže a míří k jedinému cíli: vyvolat emoci, často negativní, a přimět občana rozhodovat se na základě strachu či nenávisti místo racionálních argumentů.
Už v loňském roce se stalo symbolem tohoto trendu masové nasazení umělé inteligence ve vizuálech hnutí SPD. Policie se případem začala zabývat a na začátku letošního roku dokonce spustila trestní stíhání na základě podezření z podněcování nenávisti vůči skupině osob či omezování jejich práv a svobod.
Stíhání se týká kampaně z období před krajskými a senátními volbami roku 2023, kdy hnutí SPD vyvěsilo plakáty s postavou muže tmavé pleti, v zakrvácené košili, s nožem od krve v ruce. Pod vizuálem stálo heslo: „Nedostatky ve zdravotnictví nevyřeší chirurgové z dovozu.“ Plakát, evidentně vytvořený pomocí generativní umělé inteligence, měl vyvolat dojem hrozby a strachu. V únoru letošního roku navíc Poslanecká sněmovna vydala Tomia Okamuru k trestnímu stíhání.
Fakt, že podobný vizuál lze dnes vytvořit v řádu minut, je znepokojivý. Stačí jediná věta zadání, a i obecně dostupný model umělé inteligence, jako třeba nejznámější ChatGPT, dokáže vygenerovat obraz, který je natolik věrohodný, že dokáže oklamat lidské oko. V éře sociálních sítí se pak taková manipulace šíří lavinovitě a působí na stovky tisíc lidí, kteří mnohdy nejsou schopni odlišit realitu od syntetické fikce. A zde leží největší nebezpečí. Technologie, která by mohla sloužit kreativní tvorbě či inovacím, se proměňuje v nástroj politického boje, jehož obětí se stává volič i samotná demokracie.
Jedním z nejnebezpečnějších příkladů letošní předvolební kampaně je obsah, který se objevil na kanálu VindlákovyKydy na sociální síti X. Tvůrci podporující komunistickou koalici Stačilo zde zveřejnili upravené video, v němž je hlas premiéra Petra Fialy nahrazen synteticky upravenou verzí. Premiér v něm pronáší: „Měl jsem delší dobu potíže s dlaní, protože mi ji evropští lídři pevně tisknou a mí voliči mi ruce líbají. No tak snad se k tomu ještě vrátím.“ V úvodní části pak padá ještě absurdnější tvrzení, v němž se Fiala chlubí sportovní kariérou: „Učil jsem Tondu Panenku kopat penalty.“
Na první pohled se může zdát, že jde o neškodný žert, jakousi internetovou recesi. Jenže každá mince má dvě strany. V tomto případě je zásadní skutečnost, jak snadné je změnit autentické vyjádření politika v něco, co z jeho úst nikdy nezaznělo – a přesto to může znít naprosto věrohodně. Takto zfalšované nahrávky mají potenciál nejen zesměšnit, ale i těžce dehonestovat veřejného činitele. Stačí málo a hranice mezi satirou a dezinformací se zcela smaže.
Tento příklad ukazuje, jak málo stačí k tomu, aby se technologie stala zbraní v politickém boji. Synteticky vytvořený hlas, vložený do reálného rozhovoru, působí na část publika přesvědčivě. V prostředí sociálních sítí se navíc podobný obsah šíří rychlostí blesku a může ovlivnit názory tisíců lidí, kteří nemají možnost či vůli si pravdivost ověřovat. A právě v tom spočívá hlavní nebezpečí: schopnost generativní umělé inteligence rozostřit hranici mezi realitou a fikcí natolik, že ztrácíme základní orientační bod – komu a čemu věřit.
Falešný obsah ovšem není jen výsadou protivládních politiků a jejich příznivců. Využívají jej i samotní zástupci vládních stran. Příkladem je případ kandidáta ODS Petra Sokola, který na sociálních sítích zveřejnil falešnou fotografii lídra hnutí Motoristé sobě Filipa Turka. Na snímku Turek drží v ruce tabulku s nápisem „sociologie“. Sokol k tomu doprovodně napsal: „Školství potřebuje reformy. Ne každá reforma je ale správná. Za příklad může sloužit nápad, aby politici kádrovali studijní obory a rozhodovali, za které se bude platit školné a za které ne. Varování: Muž na obrázku může být příští ministr školství.“
Na první pohled jde o recesi, ironické upozornění na riziko, že by se někdo jako Turek mohl podílet na řízení školství. Jenže i tato forma zábavy je dvojsečná. Ve chvíli, kdy politik zveřejní manipulovanou fotografii soupeře, byť s nadsázkou, posouvá se hranice politické komunikace. Satira se v očích části publika mění v údajný fakt, obraz se šíří bez kontextu a velmi rychle získává vlastní život.
Podobné příklady ukazují, že problém syntetického obsahu není omezen pouze na „dezinformační scénu“. Využívají jej i etablovaní politici, ať už k pobavení svých podporovatelů, nebo jako nástroj, jak zdiskreditovat soupeře. V důsledku však dochází k erodování důvěry voličů v to, že to, co vidí a čtou, odpovídá realitě.
Varování z USA
Už loňské prezidentské volby se Spojených státech byly protkány deepfake videi a dalším podvodným obsahem. Případ z amerického státu New Hampshire ukazuje, jak nebezpečná může být kombinace voleb a moderních technologií. Tisíce voličů zde obdržely telefonát, v němž se jim ozval hlas prezidenta Joea Bidena, který je údajně vyzýval, aby se primárek vůbec neúčastnili a „schovali si svůj hlas“ na listopadové volby.
Jenže Biden nic takového neřekl – šlo o deepfake vytvořený umělou inteligencí. Americké úřady reagovaly tvrdě. Autor, politický konzultant, byl pokutován šesti miliony dolarů a obviněn z trestného činu. Přesto tento incident ukázal, jak snadno lze zmanipulovat tisíce lidí během několika hodin a jak křehká je hranice mezi pravdou a fikcí.
Zkušenost z USA potvrzuje obavy odborníků, na něž upozornila americká stanice NPR. Nejde jen o ojedinělé „senzační podvrhy“ na poslední chvíli, ale o systematické zamořování informačního prostředí. Generativní umělá inteligence umožňuje produkci tisíců vizuálů, audií a memů, které sice nemusí být doslova lživé, ale posilují určité příběhy, stereotypy či karikatury. Jak upozornil profesor Hany Farid z UC Berkeley, jde o „smrt tisíci řezy“ – postupnou erozi důvěry, kdy voliči začínají rezignovat na schopnost rozeznat realitu od manipulace.
A právě tady se ukazuje paralela s Českou republikou. I zde už máme za sebou první případy deepfake videí a masového využívání AI v kampaních, ať už šlo o manipulované plakáty SPD s fiktivními „chirurgy z dovozu“, satirické montáže ODS, nebo zfalšovaný rozhovor s premiérem Fialou kolující na síti X. Stejně jako v USA i u nás platí, že největší hrozbou nemusí být jeden „skandální“ podvrh v předvečer voleb, ale každodenní proud zdánlivě nevinných, ale ve skutečnosti záměrně tendenčních memů a obrázků, které postupně deformují vnímání reality.
Pokud v Americe dokáže jediný deepfake telefonát mobilizovat tisíce voličů k chybnému rozhodnutí, pak v českém prostředí, kde se důvěra v politiku a instituce dlouhodobě pohybuje na kriticky nízké úrovni, je riziko možná ještě vyšší. Nejde už o „recese“ nebo laciné vtípky, ale o systematické ohrožení samotné podstaty demokratického rozhodování. A pokud si tento problém nebudeme ochotni přiznat, může být příští česká volební kampaň už plně ve znamení digitálně vyráběné reality.
Jak poznat deepfake?
Rozpoznat deepfake není snadné – a právě v tom spočívá jeho nebezpečí. Generativní umělá inteligence se během posledních let natolik zdokonalila, že dokáže napodobit lidský hlas či vzhled téměř dokonale. Přesto existují určité stopy, které mohou pozornému oku či uchu napovědět.
V obraze to bývají drobné detaily, jako nepřirozené stíny, prapodivně působící prsty, zuby nebo uši, nepatrné škubání mimiky, nebo neplynulé mrkání. U videí je častým problémem nesoulad mezi pohyby rtů a obsahem řeči, což efekt, který je sotva postřehnutelný při zběžném sledování, ale jasně viditelný při pečlivějším pohledu.
Podobně u deepfake nahrávek hlasu lze zachytit určité signály. Lidský hlas je plný drobných nedokonalostí, intonačních nuancí a přirozených přeřeků. Synteticky generovaná řeč má naopak tendenci být monotónní, bez přirozených pauz nebo s nepřesně napodobovanou intonací. Zkušenější ucho dokáže poznat, že „něco nesedí“, zejména pokud zná originální hlas dané osoby. V běžném provozu je to ale pro posluchače obtížné, a právě proto jsou deepfakes tak účinné.
Nejlepší obranou tedy zůstává zdravá míra skepticismu. Pokud se objeví nahrávka nebo video, které působí šokujícím dojmem, odporuje dosavadnímu vystupování daného člověka, nebo se šíří těsně před volbami – je třeba zpozornět. V takových případech má smysl hledat potvrzení z více nezávislých zdrojů, porovnat obsah s oficiálními záznamy či tiskovými vyjádřeními, případně využít specializované nástroje pro ověřování multimédií.
Deepfake se často pozná také tím, že se šíří v prostředí, kde se jinak dezinformace objevují pravidelně, třeba na anonymních účtech na sociálních sítích, v uzavřených skupinách či prostřednictvím hromadně rozesílaných zpráv. Tam je riziko manipulace vždy vyšší. Zatímco profesionální redakce mají povinnost ověřovat zdroje a záznamy, v těchto digitálních komunitách se šíří cokoli, co dokáže vyvolat emoce.
Související
Falešný Babiš varuje před deepfake technologiemi, problémem moderní doby
Inovace v rukou dezinformátorů. Jaké technologie užívají?
Aktuálně se děje
před 5 minutami
Merz na poslední chvíli mění plány. Nečekaně pojede kvůli Ukrajině do Bruselu
před 1 hodinou
Počasí o víkendu: V noci bude mrznout, přes den se citelně oteplí
včera
Pavel v úterý jmenuje Babiše premiérem
včera
Britský expert pro EZ: Globální potravinová bezpečnost bude stabilní, rizikem ale zůstává Putin
včera
Babiš oznámil, že se navždy vzdá Agrofertu
včera
New York Times podává žalobu na Pentagon a Hegsetha
včera
Letadlo se Zelenským pronásledovaly záhadné vojenské drony
včera
Je naprostá iluze věřit, že by Rusko mohlo na Ukrajině prohrát, prohlásil belgický premiér
Aktualizováno včera
Na Hrad dorazil Zůna, Šebestyán a Macinka. Jmenování Turka ministrem není pravděpodobné, řekl Pavel
včera
Macron tajně varoval evropské lídry: Existuje šance, že USA zradí Ukrajinu a Evropu
včera
Amerikou hýbe očkovací kauza: Po vakcíně zemřelo 10 dětí, tvrdí úřady. Důkazy ale nikdo nemá
včera
Král Karel III. pronesl vzácné prohlášení k Ukrajině. Odsoudil Rusko
včera
Zemřel světově proslulý kostýmní výtvarník Theodor Pištěk
včera
Co si myslí Evropané? Bojí se války a Trumpa vnímají jako nepřítele
včera
Eurovize čelí nejtěžšímu rozhodnutí v historii: Rozhodne, zda vyhodí Izrael
včera
Putin nezahálí. Po neúspěšném jednání o Ukrajině míří do Indie
včera
Cesta k míru na Ukrajině je nejistá, varuje Trump. Američtí vyslanci chystají setkání s kyjevským představitelem
včera
Proč rozhovory dosud nic nepřinesly? Putin na mír nespěchá, užívá si pocit, že se ho svět doprošuje
včera
Počasí na některých místech potrápí řidiče, avizovali meteorologové
3. prosince 2025 21:58
Na Štědrý den půjde nakoupit i letos. Jeden z řetězců ale bude pokračovat v tradici
Česko odpočítává první dny letošního prosince, během kterého se obchody znovu podřídí zákonu a během vybraných svátků zůstanou uzavřené. Na Štědrý den ale ještě na mnoha místech nakoupíte. Jeden z řetězců nicméně nechá prodejny ve středu 24. prosince uzavřené.
Zdroj: Jan Hrabě