Deepfake videa, falešné vizuály a manipulované nahrávky se stávají běžnou součástí české politiky. To, co začínalo jako recese nebo laciný vtip, dnes ohrožuje samotnou férovost volební soutěže. Příklady ze Spojených států ukazují, že jediný podvrh dokáže ovlivnit tisíce voličů. V prostředí, kde je důvěra v politiku na kritickém minimu, je riziko pro Českou republiku o to větší.
Ani v letošní předvolební kampani se čeští voliči, kteří potřebují především důvěryhodné a relevantní informace k tomu, aby se mohli zodpovědně rozhodnout, komu odevzdají svůj hlas, nevyhnou manipulacím. Stále častěji se setkávají s dezinformacemi či dokonce s deepfake videi a vizuály, které překračují hranice férové politické soutěže a míří k jedinému cíli: vyvolat emoci, často negativní, a přimět občana rozhodovat se na základě strachu či nenávisti místo racionálních argumentů.
Už v loňském roce se stalo symbolem tohoto trendu masové nasazení umělé inteligence ve vizuálech hnutí SPD. Policie se případem začala zabývat a na začátku letošního roku dokonce spustila trestní stíhání na základě podezření z podněcování nenávisti vůči skupině osob či omezování jejich práv a svobod.
Stíhání se týká kampaně z období před krajskými a senátními volbami roku 2023, kdy hnutí SPD vyvěsilo plakáty s postavou muže tmavé pleti, v zakrvácené košili, s nožem od krve v ruce. Pod vizuálem stálo heslo: „Nedostatky ve zdravotnictví nevyřeší chirurgové z dovozu.“ Plakát, evidentně vytvořený pomocí generativní umělé inteligence, měl vyvolat dojem hrozby a strachu. V únoru letošního roku navíc Poslanecká sněmovna vydala Tomia Okamuru k trestnímu stíhání.
Fakt, že podobný vizuál lze dnes vytvořit v řádu minut, je znepokojivý. Stačí jediná věta zadání, a i obecně dostupný model umělé inteligence, jako třeba nejznámější ChatGPT, dokáže vygenerovat obraz, který je natolik věrohodný, že dokáže oklamat lidské oko. V éře sociálních sítí se pak taková manipulace šíří lavinovitě a působí na stovky tisíc lidí, kteří mnohdy nejsou schopni odlišit realitu od syntetické fikce. A zde leží největší nebezpečí. Technologie, která by mohla sloužit kreativní tvorbě či inovacím, se proměňuje v nástroj politického boje, jehož obětí se stává volič i samotná demokracie.
Jedním z nejnebezpečnějších příkladů letošní předvolební kampaně je obsah, který se objevil na kanálu VindlákovyKydy na sociální síti X. Tvůrci podporující komunistickou koalici Stačilo zde zveřejnili upravené video, v němž je hlas premiéra Petra Fialy nahrazen synteticky upravenou verzí. Premiér v něm pronáší: „Měl jsem delší dobu potíže s dlaní, protože mi ji evropští lídři pevně tisknou a mí voliči mi ruce líbají. No tak snad se k tomu ještě vrátím.“ V úvodní části pak padá ještě absurdnější tvrzení, v němž se Fiala chlubí sportovní kariérou: „Učil jsem Tondu Panenku kopat penalty.“
Na první pohled se může zdát, že jde o neškodný žert, jakousi internetovou recesi. Jenže každá mince má dvě strany. V tomto případě je zásadní skutečnost, jak snadné je změnit autentické vyjádření politika v něco, co z jeho úst nikdy nezaznělo – a přesto to může znít naprosto věrohodně. Takto zfalšované nahrávky mají potenciál nejen zesměšnit, ale i těžce dehonestovat veřejného činitele. Stačí málo a hranice mezi satirou a dezinformací se zcela smaže.
Tento příklad ukazuje, jak málo stačí k tomu, aby se technologie stala zbraní v politickém boji. Synteticky vytvořený hlas, vložený do reálného rozhovoru, působí na část publika přesvědčivě. V prostředí sociálních sítí se navíc podobný obsah šíří rychlostí blesku a může ovlivnit názory tisíců lidí, kteří nemají možnost či vůli si pravdivost ověřovat. A právě v tom spočívá hlavní nebezpečí: schopnost generativní umělé inteligence rozostřit hranici mezi realitou a fikcí natolik, že ztrácíme základní orientační bod – komu a čemu věřit.
Falešný obsah ovšem není jen výsadou protivládních politiků a jejich příznivců. Využívají jej i samotní zástupci vládních stran. Příkladem je případ kandidáta ODS Petra Sokola, který na sociálních sítích zveřejnil falešnou fotografii lídra hnutí Motoristé sobě Filipa Turka. Na snímku Turek drží v ruce tabulku s nápisem „sociologie“. Sokol k tomu doprovodně napsal: „Školství potřebuje reformy. Ne každá reforma je ale správná. Za příklad může sloužit nápad, aby politici kádrovali studijní obory a rozhodovali, za které se bude platit školné a za které ne. Varování: Muž na obrázku může být příští ministr školství.“
Na první pohled jde o recesi, ironické upozornění na riziko, že by se někdo jako Turek mohl podílet na řízení školství. Jenže i tato forma zábavy je dvojsečná. Ve chvíli, kdy politik zveřejní manipulovanou fotografii soupeře, byť s nadsázkou, posouvá se hranice politické komunikace. Satira se v očích části publika mění v údajný fakt, obraz se šíří bez kontextu a velmi rychle získává vlastní život.
Podobné příklady ukazují, že problém syntetického obsahu není omezen pouze na „dezinformační scénu“. Využívají jej i etablovaní politici, ať už k pobavení svých podporovatelů, nebo jako nástroj, jak zdiskreditovat soupeře. V důsledku však dochází k erodování důvěry voličů v to, že to, co vidí a čtou, odpovídá realitě.
Varování z USA
Už loňské prezidentské volby se Spojených státech byly protkány deepfake videi a dalším podvodným obsahem. Případ z amerického státu New Hampshire ukazuje, jak nebezpečná může být kombinace voleb a moderních technologií. Tisíce voličů zde obdržely telefonát, v němž se jim ozval hlas prezidenta Joea Bidena, který je údajně vyzýval, aby se primárek vůbec neúčastnili a „schovali si svůj hlas“ na listopadové volby.
Jenže Biden nic takového neřekl – šlo o deepfake vytvořený umělou inteligencí. Americké úřady reagovaly tvrdě. Autor, politický konzultant, byl pokutován šesti miliony dolarů a obviněn z trestného činu. Přesto tento incident ukázal, jak snadno lze zmanipulovat tisíce lidí během několika hodin a jak křehká je hranice mezi pravdou a fikcí.
Zkušenost z USA potvrzuje obavy odborníků, na něž upozornila americká stanice NPR. Nejde jen o ojedinělé „senzační podvrhy“ na poslední chvíli, ale o systematické zamořování informačního prostředí. Generativní umělá inteligence umožňuje produkci tisíců vizuálů, audií a memů, které sice nemusí být doslova lživé, ale posilují určité příběhy, stereotypy či karikatury. Jak upozornil profesor Hany Farid z UC Berkeley, jde o „smrt tisíci řezy“ – postupnou erozi důvěry, kdy voliči začínají rezignovat na schopnost rozeznat realitu od manipulace.
A právě tady se ukazuje paralela s Českou republikou. I zde už máme za sebou první případy deepfake videí a masového využívání AI v kampaních, ať už šlo o manipulované plakáty SPD s fiktivními „chirurgy z dovozu“, satirické montáže ODS, nebo zfalšovaný rozhovor s premiérem Fialou kolující na síti X. Stejně jako v USA i u nás platí, že největší hrozbou nemusí být jeden „skandální“ podvrh v předvečer voleb, ale každodenní proud zdánlivě nevinných, ale ve skutečnosti záměrně tendenčních memů a obrázků, které postupně deformují vnímání reality.
Pokud v Americe dokáže jediný deepfake telefonát mobilizovat tisíce voličů k chybnému rozhodnutí, pak v českém prostředí, kde se důvěra v politiku a instituce dlouhodobě pohybuje na kriticky nízké úrovni, je riziko možná ještě vyšší. Nejde už o „recese“ nebo laciné vtípky, ale o systematické ohrožení samotné podstaty demokratického rozhodování. A pokud si tento problém nebudeme ochotni přiznat, může být příští česká volební kampaň už plně ve znamení digitálně vyráběné reality.
Jak poznat deepfake?
Rozpoznat deepfake není snadné – a právě v tom spočívá jeho nebezpečí. Generativní umělá inteligence se během posledních let natolik zdokonalila, že dokáže napodobit lidský hlas či vzhled téměř dokonale. Přesto existují určité stopy, které mohou pozornému oku či uchu napovědět.
V obraze to bývají drobné detaily, jako nepřirozené stíny, prapodivně působící prsty, zuby nebo uši, nepatrné škubání mimiky, nebo neplynulé mrkání. U videí je častým problémem nesoulad mezi pohyby rtů a obsahem řeči, což efekt, který je sotva postřehnutelný při zběžném sledování, ale jasně viditelný při pečlivějším pohledu.
Podobně u deepfake nahrávek hlasu lze zachytit určité signály. Lidský hlas je plný drobných nedokonalostí, intonačních nuancí a přirozených přeřeků. Synteticky generovaná řeč má naopak tendenci být monotónní, bez přirozených pauz nebo s nepřesně napodobovanou intonací. Zkušenější ucho dokáže poznat, že „něco nesedí“, zejména pokud zná originální hlas dané osoby. V běžném provozu je to ale pro posluchače obtížné, a právě proto jsou deepfakes tak účinné.
Nejlepší obranou tedy zůstává zdravá míra skepticismu. Pokud se objeví nahrávka nebo video, které působí šokujícím dojmem, odporuje dosavadnímu vystupování daného člověka, nebo se šíří těsně před volbami – je třeba zpozornět. V takových případech má smysl hledat potvrzení z více nezávislých zdrojů, porovnat obsah s oficiálními záznamy či tiskovými vyjádřeními, případně využít specializované nástroje pro ověřování multimédií.
Deepfake se často pozná také tím, že se šíří v prostředí, kde se jinak dezinformace objevují pravidelně, třeba na anonymních účtech na sociálních sítích, v uzavřených skupinách či prostřednictvím hromadně rozesílaných zpráv. Tam je riziko manipulace vždy vyšší. Zatímco profesionální redakce mají povinnost ověřovat zdroje a záznamy, v těchto digitálních komunitách se šíří cokoli, co dokáže vyvolat emoce.
Související
Falešný Babiš varuje před deepfake technologiemi, problémem moderní doby
Inovace v rukou dezinformátorů. Jaké technologie užívají?
Aktuálně se děje
před 11 minutami
Ukrajinská armáda provedla raketami Storm Shadow masivní úder na ruskou energetickou infrastrukturu
před 1 hodinou
Pentagon: Čína v roce 2027 rozpoutá válku s Tchaj-wanem
před 2 hodinami
Izraelská policie zatkla palestinského muže. Převlékl se za Santa Clause
před 3 hodinami
Předvánoční úspěchy českých sportovců, které dávají naději směrem k Zimním olympijským hrám
před 3 hodinami
Ještě v neděli závodil, před Štědrým dnem ho našli v hotelu. Zemřel biatlonista Bakken
před 3 hodinami
Zůna ukázal SPD tvrdou realitu. Bohužel však skončil dříve, než vůbec začal
před 3 hodinami
Na Kilimandžáru se zřítil vrtulník s pěti lidmi na palubě. Mezi mrtvými jsou čeští turisté
před 5 hodinami
Papež vyzval Ukrajinu a Rusko, aby zasedly k jednomu stolu a začaly jednat
před 5 hodinami
Soud poslal MMA zápasníka Karlose Vémolu do vazby
před 6 hodinami
Turecko zadrželo stovku sympatizantů Islámského státu. Chystali teroristické útoky během novoročních oslav
před 7 hodinami
Islámský stát v tichosti opět sílí. Vytváří statisíce nových uprchlíků
před 9 hodinami
Úřady oznámily, že našly přes milion nových dokumentů v kauze Epsteina
před 10 hodinami
Evropa může čelit válce s Ruskem do několika let. Podle expertů na to není vůbec připravena
před 11 hodinami
Počasí bude mrazivé i po svátcích, o víkendu se přidá sněžení
včera
Brusel vrací úder. Tlaku USA ustoupit nehodlá
včera
RECENZE: Záhada strašidelného zámku se bojí i vlastního stínu. Neurazí, ale upadne v zapomnění
včera
Napětí na Blízkém východě: Izrael stupňuje údery v Libanonu před klíčovým termínem
včera
Referendum o konci války, budoucnost Záporožské jaderné elektrárny. Co obsahuje 20bodový mírový plán?
včera
Jihomoravští záchranáři jsou na pokraji sil: Místo nehod řeší rýmu a teploty
včera
Ruské jednotky v noci vtrhly do ukrajinské vesnice. Odvlekly desítky lidí
Ukrajinští představitelé dnes oznámili, že během přeshraničního nájezdu na vesnici Hrabovske v Sumské oblasti odvlekly ruské invazní síly do Ruska 52 civilistů. Útok se odehrál v noci na sobotu, kdy do obce vtrhlo přibližně 100 ruských vojáků. Kromě civilního obyvatelstva bylo zajato také 13 ukrajinských vojáků, kteří v pohraniční oblasti působili.
Zdroj: Libor Novák