Deepfake videa, falešné vizuály a manipulované nahrávky se stávají běžnou součástí české politiky. To, co začínalo jako recese nebo laciný vtip, dnes ohrožuje samotnou férovost volební soutěže. Příklady ze Spojených států ukazují, že jediný podvrh dokáže ovlivnit tisíce voličů. V prostředí, kde je důvěra v politiku na kritickém minimu, je riziko pro Českou republiku o to větší.
Ani v letošní předvolební kampani se čeští voliči, kteří potřebují především důvěryhodné a relevantní informace k tomu, aby se mohli zodpovědně rozhodnout, komu odevzdají svůj hlas, nevyhnou manipulacím. Stále častěji se setkávají s dezinformacemi či dokonce s deepfake videi a vizuály, které překračují hranice férové politické soutěže a míří k jedinému cíli: vyvolat emoci, často negativní, a přimět občana rozhodovat se na základě strachu či nenávisti místo racionálních argumentů.
Už v loňském roce se stalo symbolem tohoto trendu masové nasazení umělé inteligence ve vizuálech hnutí SPD. Policie se případem začala zabývat a na začátku letošního roku dokonce spustila trestní stíhání na základě podezření z podněcování nenávisti vůči skupině osob či omezování jejich práv a svobod.
Stíhání se týká kampaně z období před krajskými a senátními volbami roku 2023, kdy hnutí SPD vyvěsilo plakáty s postavou muže tmavé pleti, v zakrvácené košili, s nožem od krve v ruce. Pod vizuálem stálo heslo: „Nedostatky ve zdravotnictví nevyřeší chirurgové z dovozu.“ Plakát, evidentně vytvořený pomocí generativní umělé inteligence, měl vyvolat dojem hrozby a strachu. V únoru letošního roku navíc Poslanecká sněmovna vydala Tomia Okamuru k trestnímu stíhání.
Fakt, že podobný vizuál lze dnes vytvořit v řádu minut, je znepokojivý. Stačí jediná věta zadání, a i obecně dostupný model umělé inteligence, jako třeba nejznámější ChatGPT, dokáže vygenerovat obraz, který je natolik věrohodný, že dokáže oklamat lidské oko. V éře sociálních sítí se pak taková manipulace šíří lavinovitě a působí na stovky tisíc lidí, kteří mnohdy nejsou schopni odlišit realitu od syntetické fikce. A zde leží největší nebezpečí. Technologie, která by mohla sloužit kreativní tvorbě či inovacím, se proměňuje v nástroj politického boje, jehož obětí se stává volič i samotná demokracie.
Jedním z nejnebezpečnějších příkladů letošní předvolební kampaně je obsah, který se objevil na kanálu VindlákovyKydy na sociální síti X. Tvůrci podporující komunistickou koalici Stačilo zde zveřejnili upravené video, v němž je hlas premiéra Petra Fialy nahrazen synteticky upravenou verzí. Premiér v něm pronáší: „Měl jsem delší dobu potíže s dlaní, protože mi ji evropští lídři pevně tisknou a mí voliči mi ruce líbají. No tak snad se k tomu ještě vrátím.“ V úvodní části pak padá ještě absurdnější tvrzení, v němž se Fiala chlubí sportovní kariérou: „Učil jsem Tondu Panenku kopat penalty.“
Na první pohled se může zdát, že jde o neškodný žert, jakousi internetovou recesi. Jenže každá mince má dvě strany. V tomto případě je zásadní skutečnost, jak snadné je změnit autentické vyjádření politika v něco, co z jeho úst nikdy nezaznělo – a přesto to může znít naprosto věrohodně. Takto zfalšované nahrávky mají potenciál nejen zesměšnit, ale i těžce dehonestovat veřejného činitele. Stačí málo a hranice mezi satirou a dezinformací se zcela smaže.
Tento příklad ukazuje, jak málo stačí k tomu, aby se technologie stala zbraní v politickém boji. Synteticky vytvořený hlas, vložený do reálného rozhovoru, působí na část publika přesvědčivě. V prostředí sociálních sítí se navíc podobný obsah šíří rychlostí blesku a může ovlivnit názory tisíců lidí, kteří nemají možnost či vůli si pravdivost ověřovat. A právě v tom spočívá hlavní nebezpečí: schopnost generativní umělé inteligence rozostřit hranici mezi realitou a fikcí natolik, že ztrácíme základní orientační bod – komu a čemu věřit.
Falešný obsah ovšem není jen výsadou protivládních politiků a jejich příznivců. Využívají jej i samotní zástupci vládních stran. Příkladem je případ kandidáta ODS Petra Sokola, který na sociálních sítích zveřejnil falešnou fotografii lídra hnutí Motoristé sobě Filipa Turka. Na snímku Turek drží v ruce tabulku s nápisem „sociologie“. Sokol k tomu doprovodně napsal: „Školství potřebuje reformy. Ne každá reforma je ale správná. Za příklad může sloužit nápad, aby politici kádrovali studijní obory a rozhodovali, za které se bude platit školné a za které ne. Varování: Muž na obrázku může být příští ministr školství.“
Na první pohled jde o recesi, ironické upozornění na riziko, že by se někdo jako Turek mohl podílet na řízení školství. Jenže i tato forma zábavy je dvojsečná. Ve chvíli, kdy politik zveřejní manipulovanou fotografii soupeře, byť s nadsázkou, posouvá se hranice politické komunikace. Satira se v očích části publika mění v údajný fakt, obraz se šíří bez kontextu a velmi rychle získává vlastní život.
Podobné příklady ukazují, že problém syntetického obsahu není omezen pouze na „dezinformační scénu“. Využívají jej i etablovaní politici, ať už k pobavení svých podporovatelů, nebo jako nástroj, jak zdiskreditovat soupeře. V důsledku však dochází k erodování důvěry voličů v to, že to, co vidí a čtou, odpovídá realitě.
Varování z USA
Už loňské prezidentské volby se Spojených státech byly protkány deepfake videi a dalším podvodným obsahem. Případ z amerického státu New Hampshire ukazuje, jak nebezpečná může být kombinace voleb a moderních technologií. Tisíce voličů zde obdržely telefonát, v němž se jim ozval hlas prezidenta Joea Bidena, který je údajně vyzýval, aby se primárek vůbec neúčastnili a „schovali si svůj hlas“ na listopadové volby.
Jenže Biden nic takového neřekl – šlo o deepfake vytvořený umělou inteligencí. Americké úřady reagovaly tvrdě. Autor, politický konzultant, byl pokutován šesti miliony dolarů a obviněn z trestného činu. Přesto tento incident ukázal, jak snadno lze zmanipulovat tisíce lidí během několika hodin a jak křehká je hranice mezi pravdou a fikcí.
Zkušenost z USA potvrzuje obavy odborníků, na něž upozornila americká stanice NPR. Nejde jen o ojedinělé „senzační podvrhy“ na poslední chvíli, ale o systematické zamořování informačního prostředí. Generativní umělá inteligence umožňuje produkci tisíců vizuálů, audií a memů, které sice nemusí být doslova lživé, ale posilují určité příběhy, stereotypy či karikatury. Jak upozornil profesor Hany Farid z UC Berkeley, jde o „smrt tisíci řezy“ – postupnou erozi důvěry, kdy voliči začínají rezignovat na schopnost rozeznat realitu od manipulace.
A právě tady se ukazuje paralela s Českou republikou. I zde už máme za sebou první případy deepfake videí a masového využívání AI v kampaních, ať už šlo o manipulované plakáty SPD s fiktivními „chirurgy z dovozu“, satirické montáže ODS, nebo zfalšovaný rozhovor s premiérem Fialou kolující na síti X. Stejně jako v USA i u nás platí, že největší hrozbou nemusí být jeden „skandální“ podvrh v předvečer voleb, ale každodenní proud zdánlivě nevinných, ale ve skutečnosti záměrně tendenčních memů a obrázků, které postupně deformují vnímání reality.
Pokud v Americe dokáže jediný deepfake telefonát mobilizovat tisíce voličů k chybnému rozhodnutí, pak v českém prostředí, kde se důvěra v politiku a instituce dlouhodobě pohybuje na kriticky nízké úrovni, je riziko možná ještě vyšší. Nejde už o „recese“ nebo laciné vtípky, ale o systematické ohrožení samotné podstaty demokratického rozhodování. A pokud si tento problém nebudeme ochotni přiznat, může být příští česká volební kampaň už plně ve znamení digitálně vyráběné reality.
Jak poznat deepfake?
Rozpoznat deepfake není snadné – a právě v tom spočívá jeho nebezpečí. Generativní umělá inteligence se během posledních let natolik zdokonalila, že dokáže napodobit lidský hlas či vzhled téměř dokonale. Přesto existují určité stopy, které mohou pozornému oku či uchu napovědět.
V obraze to bývají drobné detaily, jako nepřirozené stíny, prapodivně působící prsty, zuby nebo uši, nepatrné škubání mimiky, nebo neplynulé mrkání. U videí je častým problémem nesoulad mezi pohyby rtů a obsahem řeči, což efekt, který je sotva postřehnutelný při zběžném sledování, ale jasně viditelný při pečlivějším pohledu.
Podobně u deepfake nahrávek hlasu lze zachytit určité signály. Lidský hlas je plný drobných nedokonalostí, intonačních nuancí a přirozených přeřeků. Synteticky generovaná řeč má naopak tendenci být monotónní, bez přirozených pauz nebo s nepřesně napodobovanou intonací. Zkušenější ucho dokáže poznat, že „něco nesedí“, zejména pokud zná originální hlas dané osoby. V běžném provozu je to ale pro posluchače obtížné, a právě proto jsou deepfakes tak účinné.
Nejlepší obranou tedy zůstává zdravá míra skepticismu. Pokud se objeví nahrávka nebo video, které působí šokujícím dojmem, odporuje dosavadnímu vystupování daného člověka, nebo se šíří těsně před volbami – je třeba zpozornět. V takových případech má smysl hledat potvrzení z více nezávislých zdrojů, porovnat obsah s oficiálními záznamy či tiskovými vyjádřeními, případně využít specializované nástroje pro ověřování multimédií.
Deepfake se často pozná také tím, že se šíří v prostředí, kde se jinak dezinformace objevují pravidelně, třeba na anonymních účtech na sociálních sítích, v uzavřených skupinách či prostřednictvím hromadně rozesílaných zpráv. Tam je riziko manipulace vždy vyšší. Zatímco profesionální redakce mají povinnost ověřovat zdroje a záznamy, v těchto digitálních komunitách se šíří cokoli, co dokáže vyvolat emoce.
Související
Falešný Babiš varuje před deepfake technologiemi, problémem moderní doby
Inovace v rukou dezinformátorů. Jaké technologie užívají?
Aktuálně se děje
před 11 minutami
Konflikt v Íránu má tři scénáře vývoje, tvrdí Macinka. Kvůli Čechům v zahraničí svolal krizový štáb
před 48 minutami
Írán vypálil rakety směrem ke Kypru, varuje Británie
před 1 hodinou
Česká republika je připravena okamžitě vyslat repatriační letadla pro své občany, oznámil Babiš
před 1 hodinou
Írán zahájil další vlnu raketových útoků. Nad Abú Dhabí se ozývají silné exploze
před 1 hodinou
OBRAZEM: Tradiční Matějská pouť opět rozzářila pražské Výstaviště
před 2 hodinami
Co teď čeká Írán? Zemi povede vytvořená rada, čeká ji boj o přežití režimu
před 3 hodinami
„Nezapomeneme na 7. říjen.“ Izraelská armáda opět udeřila v srdci Teheránu, Írán slibuje pomstu
před 4 hodinami
Po smrti je nejen ajatolláh. Zahynula Chameneího dcera, zeť, vnouče a 40 íránských představitelů
před 5 hodinami
Írán zahájil rozsáhlou vlnu útoků napříč celým Blízkým východem
před 6 hodinami
Rozzuření Íránci se pokusili vtrhnout na americké velvyslanectví
před 8 hodinami
Počasí: Příští týden jarní teploty setrvají, bude až 15 stupňů
včera
Ajatolláh Alí Chameneí je po smrti
včera
TOI: Íránské revoluční gardy zřejmě zablokovaly jednu z nejdůležitějších námořních cest světa, Hormuzský průliv
Aktualizováno včera
Chameneí je po smrti, tvrdí izraelské úřady
včera
Útok na Írán byl největší leteckou operací v historii Izraele. Mrtvých jsou stovky
včera
Izraelské letectvo zahájilo další nálety na Írán. Exploze zní v Teheránu i u jaderné elektrárny
Aktualizováno včera
Írán zahájil novou vlnu raketových útoků po celém Blízkém východě. Zasáhl luxusní hotel v Dubaji
včera
Trump: Zaútočili jsme, protože Írán vyvíjí rakety schopné zasáhnout USA. Podle rozvědky to není pravda, tvrdí CNN
včera
Válka na Blízkém východě: Íránský ministr i šéf revolučních gard jsou po smrti. Britská letadla jsou ve vzduchu, zasedne RB OSN
včera
Chameneí mohl být při útoku na Írán zabit, tvrdí Izrael. Teherán to popírá
Osud íránského nejvyššího vůdce ajatolláha Alího Chameneího zůstává po sobotních úderech nejasný a stává se ústředním bodem informační války. Izraelská televizní stanice Channel 12 s odvoláním na nejmenované zdroje uvedla, že Izrael aktuálně „vyhodnocuje“ možnost, že Chameneí byl při ranním útoku zabit. Podle stanice existuje pro tuto teorii stále více indicií.
Zdroj: Libor Novák