Deepfake videa, falešné vizuály a manipulované nahrávky se stávají běžnou součástí české politiky. To, co začínalo jako recese nebo laciný vtip, dnes ohrožuje samotnou férovost volební soutěže. Příklady ze Spojených států ukazují, že jediný podvrh dokáže ovlivnit tisíce voličů. V prostředí, kde je důvěra v politiku na kritickém minimu, je riziko pro Českou republiku o to větší.
Ani v letošní předvolební kampani se čeští voliči, kteří potřebují především důvěryhodné a relevantní informace k tomu, aby se mohli zodpovědně rozhodnout, komu odevzdají svůj hlas, nevyhnou manipulacím. Stále častěji se setkávají s dezinformacemi či dokonce s deepfake videi a vizuály, které překračují hranice férové politické soutěže a míří k jedinému cíli: vyvolat emoci, často negativní, a přimět občana rozhodovat se na základě strachu či nenávisti místo racionálních argumentů.
Už v loňském roce se stalo symbolem tohoto trendu masové nasazení umělé inteligence ve vizuálech hnutí SPD. Policie se případem začala zabývat a na začátku letošního roku dokonce spustila trestní stíhání na základě podezření z podněcování nenávisti vůči skupině osob či omezování jejich práv a svobod.
Stíhání se týká kampaně z období před krajskými a senátními volbami roku 2023, kdy hnutí SPD vyvěsilo plakáty s postavou muže tmavé pleti, v zakrvácené košili, s nožem od krve v ruce. Pod vizuálem stálo heslo: „Nedostatky ve zdravotnictví nevyřeší chirurgové z dovozu.“ Plakát, evidentně vytvořený pomocí generativní umělé inteligence, měl vyvolat dojem hrozby a strachu. V únoru letošního roku navíc Poslanecká sněmovna vydala Tomia Okamuru k trestnímu stíhání.
Fakt, že podobný vizuál lze dnes vytvořit v řádu minut, je znepokojivý. Stačí jediná věta zadání, a i obecně dostupný model umělé inteligence, jako třeba nejznámější ChatGPT, dokáže vygenerovat obraz, který je natolik věrohodný, že dokáže oklamat lidské oko. V éře sociálních sítí se pak taková manipulace šíří lavinovitě a působí na stovky tisíc lidí, kteří mnohdy nejsou schopni odlišit realitu od syntetické fikce. A zde leží největší nebezpečí. Technologie, která by mohla sloužit kreativní tvorbě či inovacím, se proměňuje v nástroj politického boje, jehož obětí se stává volič i samotná demokracie.
Jedním z nejnebezpečnějších příkladů letošní předvolební kampaně je obsah, který se objevil na kanálu VindlákovyKydy na sociální síti X. Tvůrci podporující komunistickou koalici Stačilo zde zveřejnili upravené video, v němž je hlas premiéra Petra Fialy nahrazen synteticky upravenou verzí. Premiér v něm pronáší: „Měl jsem delší dobu potíže s dlaní, protože mi ji evropští lídři pevně tisknou a mí voliči mi ruce líbají. No tak snad se k tomu ještě vrátím.“ V úvodní části pak padá ještě absurdnější tvrzení, v němž se Fiala chlubí sportovní kariérou: „Učil jsem Tondu Panenku kopat penalty.“
Na první pohled se může zdát, že jde o neškodný žert, jakousi internetovou recesi. Jenže každá mince má dvě strany. V tomto případě je zásadní skutečnost, jak snadné je změnit autentické vyjádření politika v něco, co z jeho úst nikdy nezaznělo – a přesto to může znít naprosto věrohodně. Takto zfalšované nahrávky mají potenciál nejen zesměšnit, ale i těžce dehonestovat veřejného činitele. Stačí málo a hranice mezi satirou a dezinformací se zcela smaže.
Tento příklad ukazuje, jak málo stačí k tomu, aby se technologie stala zbraní v politickém boji. Synteticky vytvořený hlas, vložený do reálného rozhovoru, působí na část publika přesvědčivě. V prostředí sociálních sítí se navíc podobný obsah šíří rychlostí blesku a může ovlivnit názory tisíců lidí, kteří nemají možnost či vůli si pravdivost ověřovat. A právě v tom spočívá hlavní nebezpečí: schopnost generativní umělé inteligence rozostřit hranici mezi realitou a fikcí natolik, že ztrácíme základní orientační bod – komu a čemu věřit.
Falešný obsah ovšem není jen výsadou protivládních politiků a jejich příznivců. Využívají jej i samotní zástupci vládních stran. Příkladem je případ kandidáta ODS Petra Sokola, který na sociálních sítích zveřejnil falešnou fotografii lídra hnutí Motoristé sobě Filipa Turka. Na snímku Turek drží v ruce tabulku s nápisem „sociologie“. Sokol k tomu doprovodně napsal: „Školství potřebuje reformy. Ne každá reforma je ale správná. Za příklad může sloužit nápad, aby politici kádrovali studijní obory a rozhodovali, za které se bude platit školné a za které ne. Varování: Muž na obrázku může být příští ministr školství.“
Na první pohled jde o recesi, ironické upozornění na riziko, že by se někdo jako Turek mohl podílet na řízení školství. Jenže i tato forma zábavy je dvojsečná. Ve chvíli, kdy politik zveřejní manipulovanou fotografii soupeře, byť s nadsázkou, posouvá se hranice politické komunikace. Satira se v očích části publika mění v údajný fakt, obraz se šíří bez kontextu a velmi rychle získává vlastní život.
Podobné příklady ukazují, že problém syntetického obsahu není omezen pouze na „dezinformační scénu“. Využívají jej i etablovaní politici, ať už k pobavení svých podporovatelů, nebo jako nástroj, jak zdiskreditovat soupeře. V důsledku však dochází k erodování důvěry voličů v to, že to, co vidí a čtou, odpovídá realitě.
Varování z USA
Už loňské prezidentské volby se Spojených státech byly protkány deepfake videi a dalším podvodným obsahem. Případ z amerického státu New Hampshire ukazuje, jak nebezpečná může být kombinace voleb a moderních technologií. Tisíce voličů zde obdržely telefonát, v němž se jim ozval hlas prezidenta Joea Bidena, který je údajně vyzýval, aby se primárek vůbec neúčastnili a „schovali si svůj hlas“ na listopadové volby.
Jenže Biden nic takového neřekl – šlo o deepfake vytvořený umělou inteligencí. Americké úřady reagovaly tvrdě. Autor, politický konzultant, byl pokutován šesti miliony dolarů a obviněn z trestného činu. Přesto tento incident ukázal, jak snadno lze zmanipulovat tisíce lidí během několika hodin a jak křehká je hranice mezi pravdou a fikcí.
Zkušenost z USA potvrzuje obavy odborníků, na něž upozornila americká stanice NPR. Nejde jen o ojedinělé „senzační podvrhy“ na poslední chvíli, ale o systematické zamořování informačního prostředí. Generativní umělá inteligence umožňuje produkci tisíců vizuálů, audií a memů, které sice nemusí být doslova lživé, ale posilují určité příběhy, stereotypy či karikatury. Jak upozornil profesor Hany Farid z UC Berkeley, jde o „smrt tisíci řezy“ – postupnou erozi důvěry, kdy voliči začínají rezignovat na schopnost rozeznat realitu od manipulace.
A právě tady se ukazuje paralela s Českou republikou. I zde už máme za sebou první případy deepfake videí a masového využívání AI v kampaních, ať už šlo o manipulované plakáty SPD s fiktivními „chirurgy z dovozu“, satirické montáže ODS, nebo zfalšovaný rozhovor s premiérem Fialou kolující na síti X. Stejně jako v USA i u nás platí, že největší hrozbou nemusí být jeden „skandální“ podvrh v předvečer voleb, ale každodenní proud zdánlivě nevinných, ale ve skutečnosti záměrně tendenčních memů a obrázků, které postupně deformují vnímání reality.
Pokud v Americe dokáže jediný deepfake telefonát mobilizovat tisíce voličů k chybnému rozhodnutí, pak v českém prostředí, kde se důvěra v politiku a instituce dlouhodobě pohybuje na kriticky nízké úrovni, je riziko možná ještě vyšší. Nejde už o „recese“ nebo laciné vtípky, ale o systematické ohrožení samotné podstaty demokratického rozhodování. A pokud si tento problém nebudeme ochotni přiznat, může být příští česká volební kampaň už plně ve znamení digitálně vyráběné reality.
Jak poznat deepfake?
Rozpoznat deepfake není snadné – a právě v tom spočívá jeho nebezpečí. Generativní umělá inteligence se během posledních let natolik zdokonalila, že dokáže napodobit lidský hlas či vzhled téměř dokonale. Přesto existují určité stopy, které mohou pozornému oku či uchu napovědět.
V obraze to bývají drobné detaily, jako nepřirozené stíny, prapodivně působící prsty, zuby nebo uši, nepatrné škubání mimiky, nebo neplynulé mrkání. U videí je častým problémem nesoulad mezi pohyby rtů a obsahem řeči, což efekt, který je sotva postřehnutelný při zběžném sledování, ale jasně viditelný při pečlivějším pohledu.
Podobně u deepfake nahrávek hlasu lze zachytit určité signály. Lidský hlas je plný drobných nedokonalostí, intonačních nuancí a přirozených přeřeků. Synteticky generovaná řeč má naopak tendenci být monotónní, bez přirozených pauz nebo s nepřesně napodobovanou intonací. Zkušenější ucho dokáže poznat, že „něco nesedí“, zejména pokud zná originální hlas dané osoby. V běžném provozu je to ale pro posluchače obtížné, a právě proto jsou deepfakes tak účinné.
Nejlepší obranou tedy zůstává zdravá míra skepticismu. Pokud se objeví nahrávka nebo video, které působí šokujícím dojmem, odporuje dosavadnímu vystupování daného člověka, nebo se šíří těsně před volbami – je třeba zpozornět. V takových případech má smysl hledat potvrzení z více nezávislých zdrojů, porovnat obsah s oficiálními záznamy či tiskovými vyjádřeními, případně využít specializované nástroje pro ověřování multimédií.
Deepfake se často pozná také tím, že se šíří v prostředí, kde se jinak dezinformace objevují pravidelně, třeba na anonymních účtech na sociálních sítích, v uzavřených skupinách či prostřednictvím hromadně rozesílaných zpráv. Tam je riziko manipulace vždy vyšší. Zatímco profesionální redakce mají povinnost ověřovat zdroje a záznamy, v těchto digitálních komunitách se šíří cokoli, co dokáže vyvolat emoce.
Související
Falešný Babiš varuje před deepfake technologiemi, problémem moderní doby
Inovace v rukou dezinformátorů. Jaké technologie užívají?
Aktuálně se děje
Aktualizováno před 1 hodinou
Ve Španělsku se srazily rychlovlaky převážející stovky lidí. Nejméně 21 mrtvých a sto zraněných
Aktualizováno včera
Jan Darmovzal je zpět v Česku. Na letišti s ním přistál vládní speciál
včera
Experti nad Trumpovým zájmem o Grónsko kroutí hlavou. Čína a Rusko musí mít obrovskou radost, varuje EU
včera
Letadlo s vězněným Čechem je na cestě domů. V Praze přistane dnes večer
včera
Ukrajinci si do konce války nezatopí? Ruský plán, jak donutit Kyjev ke kapitulaci, znepokojuje experty
včera
Ať si nejprve ověří informace, vzkázal Pavel Macinkovi. Vysvětlil, jak to je s letouny pro Ukrajinu
včera
Zasadí Trump globální ekonomice drtivou ránu? Francie požaduje odvetu, USA se kvůli Grónsku bojí izolace
včera
Vedení ODS je kompletní. Post místopředsedy obhájil Vondra, mezi nově zvolenými je i Červíček
včera
Trump zpoplatní členství v mírové radě pro Gazu. Od států za ni bude chtít neuvěřitelnou částku
včera
Jako slon v porcelánu, zkritizoval Macinka Pavla. Není přitom jasné, jestli Ukrajině vůbec něco slíbil
včera
Vláda zahájí zestátnění ČEZ. Proces má trvat dva roky, tvrdí Havlíček
včera
Trump vyzval Íránce ke svržení režimu a ukončení vlády Chameneího
včera
Chameneí označil Trumpa za zločince. Přiznal, že při protestech umírají tisíce lidí
včera
Lavina v Alpách smetla skupinu Čechů. Tři na místě zemřeli
včera
Počasí: Do Česka se vrátí silné mrazy, příští týden bude až -15 stupňů
17. ledna 2026 21:59
Trump chce rozhodnout o tom, zda může Netflix koupit Warner Bros
17. ledna 2026 21:14
Nové vedení nestačí, říká pro EZ po prvním dni sjezdu Černochová. Členům poslala rázný vzkaz
17. ledna 2026 19:58
Trump zavede cla proti evropským zemím. Pokud mu neprodají Grónsko, od léta se zvýší
17. ledna 2026 18:41
Koalice SPOLU jde k ledu. Kupka ji dál rozvíjet nehodlá
Aktualizováno 17. ledna 2026 18:14
OBRAZEM: Zvrat na sjezdu ODS: Červíček se vzdal kandidatury, prvním místopředsedou je Portlík
Jednání o novém vedení ODS na pražském kongresu přineslo zvrat, o kterém se na sjezdu v zákulisí podle informací serveru EuroZprávy.cz spekulovalo celý den. O post statutárního místopředsedy se měla původně utkat dvojice silných kandidátů – senátor Martin Červíček a starosta Prahy 9 Tomáš Portlík. Červíček se však na závěr svého nominačního projevu rozhodl z boje odstoupit a vyzval delegáty, aby podpořili jeho soupeře Portlíka.
Zdroj: Libor Novák