ANALÝZA | Jak rozpoznat deepfake? AI dokáže zmanipulovat veřejné mínění i ovlivnit výsledky voleb

Deepfake videa, falešné vizuály a manipulované nahrávky se stávají běžnou součástí české politiky. To, co začínalo jako recese nebo laciný vtip, dnes ohrožuje samotnou férovost volební soutěže. Příklady ze Spojených států ukazují, že jediný podvrh dokáže ovlivnit tisíce voličů. V prostředí, kde je důvěra v politiku na kritickém minimu, je riziko pro Českou republiku o to větší.

Ani v letošní předvolební kampani se čeští voliči, kteří potřebují především důvěryhodné a relevantní informace k tomu, aby se mohli zodpovědně rozhodnout, komu odevzdají svůj hlas, nevyhnou manipulacím. Stále častěji se setkávají s dezinformacemi či dokonce s deepfake videi a vizuály, které překračují hranice férové politické soutěže a míří k jedinému cíli: vyvolat emoci, často negativní, a přimět občana rozhodovat se na základě strachu či nenávisti místo racionálních argumentů.

Už v loňském roce se stalo symbolem tohoto trendu masové nasazení umělé inteligence ve vizuálech hnutí SPD. Policie se případem začala zabývat a na začátku letošního roku dokonce spustila trestní stíhání na základě podezření z podněcování nenávisti vůči skupině osob či omezování jejich práv a svobod.

Stíhání se týká kampaně z období před krajskými a senátními volbami roku 2023, kdy hnutí SPD vyvěsilo plakáty s postavou muže tmavé pleti, v zakrvácené košili, s nožem od krve v ruce. Pod vizuálem stálo heslo: „Nedostatky ve zdravotnictví nevyřeší chirurgové z dovozu.“ Plakát, evidentně vytvořený pomocí generativní umělé inteligence, měl vyvolat dojem hrozby a strachu. V únoru letošního roku navíc Poslanecká sněmovna vydala Tomia Okamuru k trestnímu stíhání.

Fakt, že podobný vizuál lze dnes vytvořit v řádu minut, je znepokojivý. Stačí jediná věta zadání, a i obecně dostupný model umělé inteligence, jako třeba nejznámější ChatGPT, dokáže vygenerovat obraz, který je natolik věrohodný, že dokáže oklamat lidské oko. V éře sociálních sítí se pak taková manipulace šíří lavinovitě a působí na stovky tisíc lidí, kteří mnohdy nejsou schopni odlišit realitu od syntetické fikce. A zde leží největší nebezpečí. Technologie, která by mohla sloužit kreativní tvorbě či inovacím, se proměňuje v nástroj politického boje, jehož obětí se stává volič i samotná demokracie.

Jedním z nejnebezpečnějších příkladů letošní předvolební kampaně je obsah, který se objevil na kanálu VindlákovyKydy na sociální síti X. Tvůrci podporující komunistickou koalici Stačilo zde zveřejnili upravené video, v němž je hlas premiéra Petra Fialy nahrazen synteticky upravenou verzí. Premiér v něm pronáší: „Měl jsem delší dobu potíže s dlaní, protože mi ji evropští lídři pevně tisknou a mí voliči mi ruce líbají. No tak snad se k tomu ještě vrátím.“ V úvodní části pak padá ještě absurdnější tvrzení, v němž se Fiala chlubí sportovní kariérou: „Učil jsem Tondu Panenku kopat penalty.“

Na první pohled se může zdát, že jde o neškodný žert, jakousi internetovou recesi. Jenže každá mince má dvě strany. V tomto případě je zásadní skutečnost, jak snadné je změnit autentické vyjádření politika v něco, co z jeho úst nikdy nezaznělo – a přesto to může znít naprosto věrohodně. Takto zfalšované nahrávky mají potenciál nejen zesměšnit, ale i těžce dehonestovat veřejného činitele. Stačí málo a hranice mezi satirou a dezinformací se zcela smaže.

Tento příklad ukazuje, jak málo stačí k tomu, aby se technologie stala zbraní v politickém boji. Synteticky vytvořený hlas, vložený do reálného rozhovoru, působí na část publika přesvědčivě. V prostředí sociálních sítí se navíc podobný obsah šíří rychlostí blesku a může ovlivnit názory tisíců lidí, kteří nemají možnost či vůli si pravdivost ověřovat. A právě v tom spočívá hlavní nebezpečí: schopnost generativní umělé inteligence rozostřit hranici mezi realitou a fikcí natolik, že ztrácíme základní orientační bod – komu a čemu věřit.

Falešný obsah ovšem není jen výsadou protivládních politiků a jejich příznivců. Využívají jej i samotní zástupci vládních stran. Příkladem je případ kandidáta ODS Petra Sokola, který na sociálních sítích zveřejnil falešnou fotografii lídra hnutí Motoristé sobě Filipa Turka. Na snímku Turek drží v ruce tabulku s nápisem „sociologie“. Sokol k tomu doprovodně napsal: „Školství potřebuje reformy. Ne každá reforma je ale správná. Za příklad může sloužit nápad, aby politici kádrovali studijní obory a rozhodovali, za které se bude platit školné a za které ne. Varování: Muž na obrázku může být příští ministr školství.“

Na první pohled jde o recesi, ironické upozornění na riziko, že by se někdo jako Turek mohl podílet na řízení školství. Jenže i tato forma zábavy je dvojsečná. Ve chvíli, kdy politik zveřejní manipulovanou fotografii soupeře, byť s nadsázkou, posouvá se hranice politické komunikace. Satira se v očích části publika mění v údajný fakt, obraz se šíří bez kontextu a velmi rychle získává vlastní život.

Podobné příklady ukazují, že problém syntetického obsahu není omezen pouze na „dezinformační scénu“. Využívají jej i etablovaní politici, ať už k pobavení svých podporovatelů, nebo jako nástroj, jak zdiskreditovat soupeře. V důsledku však dochází k erodování důvěry voličů v to, že to, co vidí a čtou, odpovídá realitě.

Varování z USA

Už loňské prezidentské volby se Spojených státech byly protkány deepfake videi a dalším podvodným obsahem. Případ z amerického státu New Hampshire ukazuje, jak nebezpečná může být kombinace voleb a moderních technologií. Tisíce voličů zde obdržely telefonát, v němž se jim ozval hlas prezidenta Joea Bidena, který je údajně vyzýval, aby se primárek vůbec neúčastnili a „schovali si svůj hlas“ na listopadové volby.

Jenže Biden nic takového neřekl – šlo o deepfake vytvořený umělou inteligencí. Americké úřady reagovaly tvrdě. Autor, politický konzultant, byl pokutován šesti miliony dolarů a obviněn z trestného činu. Přesto tento incident ukázal, jak snadno lze zmanipulovat tisíce lidí během několika hodin a jak křehká je hranice mezi pravdou a fikcí.

Zkušenost z USA potvrzuje obavy odborníků, na něž upozornila americká stanice NPR. Nejde jen o ojedinělé „senzační podvrhy“ na poslední chvíli, ale o systematické zamořování informačního prostředí. Generativní umělá inteligence umožňuje produkci tisíců vizuálů, audií a memů, které sice nemusí být doslova lživé, ale posilují určité příběhy, stereotypy či karikatury. Jak upozornil profesor Hany Farid z UC Berkeley, jde o „smrt tisíci řezy“ – postupnou erozi důvěry, kdy voliči začínají rezignovat na schopnost rozeznat realitu od manipulace.

A právě tady se ukazuje paralela s Českou republikou. I zde už máme za sebou první případy deepfake videí a masového využívání AI v kampaních, ať už šlo o manipulované plakáty SPD s fiktivními „chirurgy z dovozu“, satirické montáže ODS, nebo zfalšovaný rozhovor s premiérem Fialou kolující na síti X. Stejně jako v USA i u nás platí, že největší hrozbou nemusí být jeden „skandální“ podvrh v předvečer voleb, ale každodenní proud zdánlivě nevinných, ale ve skutečnosti záměrně tendenčních memů a obrázků, které postupně deformují vnímání reality.

Pokud v Americe dokáže jediný deepfake telefonát mobilizovat tisíce voličů k chybnému rozhodnutí, pak v českém prostředí, kde se důvěra v politiku a instituce dlouhodobě pohybuje na kriticky nízké úrovni, je riziko možná ještě vyšší. Nejde už o „recese“ nebo laciné vtípky, ale o systematické ohrožení samotné podstaty demokratického rozhodování. A pokud si tento problém nebudeme ochotni přiznat, může být příští česká volební kampaň už plně ve znamení digitálně vyráběné reality.

Jak poznat deepfake?

Rozpoznat deepfake není snadné – a právě v tom spočívá jeho nebezpečí. Generativní umělá inteligence se během posledních let natolik zdokonalila, že dokáže napodobit lidský hlas či vzhled téměř dokonale. Přesto existují určité stopy, které mohou pozornému oku či uchu napovědět.

V obraze to bývají drobné detaily, jako nepřirozené stíny, prapodivně působící prsty, zuby nebo uši, nepatrné škubání mimiky, nebo neplynulé mrkání. U videí je častým problémem nesoulad mezi pohyby rtů a obsahem řeči, což efekt, který je sotva postřehnutelný při zběžném sledování, ale jasně viditelný při pečlivějším pohledu.

Podobně u deepfake nahrávek hlasu lze zachytit určité signály. Lidský hlas je plný drobných nedokonalostí, intonačních nuancí a přirozených přeřeků. Synteticky generovaná řeč má naopak tendenci být monotónní, bez přirozených pauz nebo s nepřesně napodobovanou intonací. Zkušenější ucho dokáže poznat, že „něco nesedí“, zejména pokud zná originální hlas dané osoby. V běžném provozu je to ale pro posluchače obtížné, a právě proto jsou deepfakes tak účinné.

Nejlepší obranou tedy zůstává zdravá míra skepticismu. Pokud se objeví nahrávka nebo video, které působí šokujícím dojmem, odporuje dosavadnímu vystupování daného člověka, nebo se šíří těsně před volbami – je třeba zpozornět. V takových případech má smysl hledat potvrzení z více nezávislých zdrojů, porovnat obsah s oficiálními záznamy či tiskovými vyjádřeními, případně využít specializované nástroje pro ověřování multimédií.

Deepfake se často pozná také tím, že se šíří v prostředí, kde se jinak dezinformace objevují pravidelně, třeba na anonymních účtech na sociálních sítích, v uzavřených skupinách či prostřednictvím hromadně rozesílaných zpráv. Tam je riziko manipulace vždy vyšší. Zatímco profesionální redakce mají povinnost ověřovat zdroje a záznamy, v těchto digitálních komunitách se šíří cokoli, co dokáže vyvolat emoce.

Související

Deepfake Babiš

Falešný Babiš varuje před deepfake technologiemi, problémem moderní doby

Českým internetem se šíří nové tzv. deepfake video. Falešný premiér Andrej Babiš na něm varuje veřejnost před novými technologiemi v oblasti dezinformací. Za unikátním spotem stojí pirátská europoslankyně Markéta Gregorová. Ta chce problém dezinformací do budoucna řešit legislativně na evropské úrovni.
Ilustrační fotografie

Inovace v rukou dezinformátorů. Jaké technologie užívají?

Stejně jako daly moderní technologie k dispozici spoustu nástrojů, které nám dobře slouží a bez kterých bychom si málem nedokázali představit svůj každodenní život, dávají spoustu silných nástrojů také pro šíření dezinformací, manipulací a propagandy.

Více souvisejících

Deepfake volby

Aktuálně se děje

před 55 minutami

Aktualizováno před 1 hodinou

před 2 hodinami

před 3 hodinami

před 5 hodinami

před 5 hodinami

Policie SR, ilustrační fotografie.

Slovenská policie reaguje na požár v Pardubicích

I na Slovensku je kauza podezřelého pátečního požáru v Pardubicích velkým tématem. Tamní policie neví o jakékoliv souvislosti události se Slovenskem, kde by momentálně nemělo hrozit jakékoliv nebezpečí. 

před 6 hodinami

před 7 hodinami

Policie vyšetřuje požár v Pardubicích pro podezření z terorismu.

Policie prozradila novinky z vyšetřování požáru v Pardubicích

Na místě pátečního požáru v Pardubicích pokračuje policejní vyšetřování. Práci již dokončili pyrotechnici, které vystřídali kriminalisté. V případu panuje podezření ze spáchání teroristického útoku. V pátek se dokonce sešla Bezpečnostní rada státu. 

před 8 hodinami

před 9 hodinami

před 9 hodinami

Tanker, ilustrační fotografie.

Česko je mezi zeměmi, které chtějí chránit lodě v Hormuzském průlivu

Česko je mezi zeměmi, které chtějí zajišťovat bezpečnost tankerů v Hormuzském průlivu, jímž proudí do světa cenná ropa. Vyplývá to z informací zahraničních médií. Washington ostatně naznačil, že o zajištění bezpečného lodního provozu v průlivu by se měly starat státy, které ho využívají. 

před 10 hodinami

před 11 hodinami

před 12 hodinami

včera

Norská princezna Mette-Marit (autor fotky: Frankie Fouganthin)

Norská princezna zápasí s vážnou nemocí. Čeká ji transplantace

Jedna z evropských královských rodin se obává o svou prominentní členku. Zdravotní stav norské korunní princezny Mette-Marit, která se dlouhodobě potýká s chronickou plicní fibrózou, se znovu zhoršil. Informoval o tom web Topky.sk, který se odvolává na zahraniční zpravodajské agentury. 

včera

Andrej Babiš

Babiš vyzval zbrojařské firmy k maximálnímu zabezpečení areálů

Premiér Andrej Babiš (ANO) v souvislosti s vyšetřováním pátečního požáru v Pardubicích vyzval zbrojařské firmy, aby své areály co možná nejlépe zabezpečily. V případu panuje podezření ze spáchání teroristického útoku. Stupeň ohrožení terorismem se pro tuto chvíli nemění a zůstává na druhém ze čtyř. 

včera

včera

včera

včera

Nový vzkaz mladého Chameneího. Otce označil za mučedníka

Nový íránský duchovní vůdce Modžtaba Chameneí se znovu ozval. U příležitosti oslav perského nového roku zveřejnil obsáhlý vzkaz, který odvysílala státní televize. Vrací se v něm k úmrtí svého otce. Zároveň tvrdí, že Írán neútočil na Turecko a Omán. 

Zdroj: Lucie Podzimková

Další zprávy