Umělá inteligence Grok, zabudovaná do sociální sítě X (dříve Twitter) a vyvinutá firmou Elona Muska xAI, se opět ocitla v centru skandálu. Tentokrát kvůli tomu, že sama sebe nazvala „MechaHitlerem“ a zveřejnila výroky s nacistickým obsahem. Vývojáři se omluvili, slíbili posílení kontrolních mechanismů a odstranění nenávistného obsahu. Skandál však otevírá mnohem závažnější otázku: jak hodnoty a názory tvůrců formují chování AI – a jak moc jsou ochotni být upřímní o tom, co vlastně vytvářejí.
Grok je chatbot založený na velkém jazykovém modelu (LLM), který má být „vtipný a lehce rebelský“. Poprvé byl spuštěn v roce 2023 a jeho nejnovější verze Grok 4 se podle některých testů vyrovná nebo předčí konkurenci. Je dostupný jak samostatně, tak přímo na platformě X.
xAI tvrdí, že Grok je „pravdomluvná“ AI bez ideologických předsudků, která má čelit „woke“ narativům. Ve skutečnosti se ale Grok opakovaně dostává do problémů – ať už kvůli výrokům o „bílé genocidě“ v Jižní Africe, výhrůžkám sexuálním násilím, či urážkám politiků (kvůli čemuž byl například zakázán v Turecku).
Každá AI, ať chce nebo ne, odráží hodnoty svých tvůrců. A Grok je toho zářným příkladem – nejen kvůli výsledkům, ale i kvůli tomu, jak je trénován a nastaven, píše The Conversation.
Základem každé AI je obrovský objem textových dat, na kterých se učí. Tvůrci rozhodují, co bude součástí výběru – co se posílí, co se vyřadí. Například OpenAI v minulosti záměrně zvýšila zastoupení Wikipedie, protože ji považovala za kvalitnější zdroj. Grok se naproti tomu trénoval i na příspěvcích z platformy X, což může vysvětlit, proč se často odvolává na Muska a jeho názory.
Musk také veřejně vyzýval uživatele X, aby mu posílali těžké „galaxy brain“ otázky nebo faktické, ale politicky nekorektní informace. Není však jasné, zda tyto údaje skutečně skončily v trénovacím souboru a jak byla zajištěna jejich kvalita.
V další fázi vývoje se model „doladí“ podle preferencí vývojářů. Ti určují etická pravidla, která následně hodnotí lidské týmy nebo jiné modely. Tak se do AI vkládají konkrétní postoje – například co je „přijatelné“ nebo jak vyvažovat protichůdné názory.
Vyšetřování Business Insideru odhalilo, že xAI školilo své „AI tutory“, aby dávali pozor na „woke ideologii“ a kulturu rušení. Grok se měl vyhýbat tvrzením, že obě strany debaty mají pravdu, pokud tomu vývojáři nevěřili.
Každý chatbot dostává před zahájením konverzace tzv. „system prompt“ – soubor instrukcí, který určuje jeho chování. Grok je v tomto ohledu výjimečně transparentní, protože své systémové instrukce zveřejňuje. V nich se například uvádí, že má předpokládat zaujatost mediálních zdrojů nebo se nemá vyhýbat politicky nekorektním tvrzením, pokud jsou dobře podložená.
Právě tato nastavení pravděpodobně vedla ke zmíněné aféře s nacistickým obsahem.
Poslední vrstvu představují tzv. guardrails – ochranné filtry, které blokují problematický obsah. OpenAI například deklaruje, že ChatGPT nesmí generovat nenávistné, násilné nebo sexuálně explicitní výstupy. Čínský model DeepSeek zase cenzuruje témata jako masakr na náměstí Nebeského klidu.
Testování provedené během psaní tohoto článku však naznačuje, že Grok má tyto filtry mnohem méně přísné než konkurenční systémy.
Skandál s Grokem odhaluje zásadní etickou otázku: Je lepší, když firmy přiznají, že jejich AI má ideologický rámec? Nebo je výhodnější zachovávat iluzi objektivity, zatímco v zákulisí stejně programují vlastní hodnoty?
Každá AI totiž odráží hodnoty svých tvůrců – od korporátně opatrného Microsoftu až po bezpečnostní filozofii firmy Anthropic. Rozdíl je v tom, jak otevřeně o tom mluví.
Muskova veřejná přítomnost umožňuje snadno spojit chování Groku s jeho postoji vůči „woke“ světonázoru nebo médiím. Když jiné firmy selžou, těžko říct, zda jde o chybu, strach z regulace, nebo firemní ideologii.
Grok připomíná neúspěšného chatbota Tay od Microsoftu z roku 2016, který se po tréninku na Twitteru rychle proměnil v rasistu a musel být odstaven. Rozdíl je ale zásadní: Tay reagoval na chování uživatelů. Grok byl takto navržen – minimálně částečně – úmyslně.
Grok je varováním. Ne o tom, že AI může říkat extrémy – to už víme. Ale že každá AI reflektuje hodnoty lidí, kteří ji vytvořili. A že je nejvyšší čas, aby firmy byly upřímné o tom, čí hodnoty vkládají do svých systémů – a proč.
Muskův přístup je paradoxní: na jednu stranu otevřenější než konkurence, protože ukazuje své karty. Na druhou stranu ale klamavý, protože tvrdí, že Grok je „objektivní“, a přitom do něj vkládá výrazně subjektivní rámec.
V oboru, který si dlouho namlouval, že algoritmy jsou neutrální, ukazuje Grok jednu jednoduchou pravdu: žádná AI není bez předsudků. Jen některé je mají přiznané – a jiné schované.
Související
Španělsko chce zakázat sociální sítě mladým, oznámil Sánchez. Tyran, zrádce fašistický totalitář, zuří Musk
Vyšetřovatelé provedli razii v kancelářích sítě X. Musk je předvolán k výslechu
Elon Musk , umělá inteligence (AI)
Aktuálně se děje
včera
Tragickou nehodu na Uherskohradišťsku nepřežila dívka. Pro řidičku letěl vrtulník
včera
Z Bulharska do vazby. Soud rozhodl o dalším obviněném v pardubickém případu
včera
Hokejová baráž opět terčem kritiky. Hadamczik apeluje na tlak na extraligové kluby
včera
Radioaktivita z Černobylu doputovala i do Česka, potvrzuje mapa od meteorologů
včera
Babišova vláda schválila rozpočtovou strategii na další roky
včera
Macinku navštívili policisté na ministerstvu. Kvůli esemeskám prezidentu Pavlovi
včera
První předpověď počasí na letní měsíce. Experti řekli, jaký bude trend
včera
Větší armáda ano, ale kvůli nám, ne Evropě. Macronovy ambice ve Francii tvrdě narážejí
včera
Teherán dostal od Trumpa košem, tak začal jednat s Putinem. Arakčí v Rusku svalil všechnu vinu na USA
včera
Nenávist mezi Zelenským a Putinem přijde Trumpovi k smíchu
včera
Ministerstvo zveřejnilo nové cenové stropy pro prodej pohonných hmot
včera
Vláda schválila prodloužení regulace marží u pohonných hmot. Ceny bude nově určovat jinak
včera
Írán navrhl USA ukončení blokády Hormuzského průlivu. Ovšem za vysokou cenu
včera
Britský král Karel III. se sejde s Trumpem. Bude v bezpečí, slíbil mu prezident
včera
Britům dochází trpělivost. Tlačí na Starmera, aby proti Trumpovi vytvořil vlastní verzi evropské obchodní bazuky
včera
Politico: Válka mezi USA a Íránem se pro EU mění z ekonomického šoku v závažnou krizi
včera
Kim Čong-un ocenil vojáky bojující na Ukrajině. Národu je představil jako symboly oběti a loajality
včera
Motivem útočníka zřejmě byla nenávist k Trumpovi. Vyjma politiků nechtěl nikoho zranit
včera
Počasí se pořádně oteplí. O prodlouženém víkendu dorazí téměř letní teploty
26. dubna 2026 21:24
Nejhorší jaderná katastrofa v dějinách. Okolí Černobylu může být neobyvatelné i tisíce let
Dnes uplynulo přesně 40 let od nejhorší jaderné katastrofy v dějinách lidstva. V roce 1986 došlo v tehdejším Sovětském svazu na území dnešní Ukrajiny k explozi reaktoru číslo 4 v černobylské jaderné elektrárně. Tato událost, která kontaminovala téměř 50 000 kilometrů čtverečních půdy a ovlivnila životy více než 3,5 milionu lidí, zůstává dodnes mementem jaderné bezpečnosti.
Zdroj: Libor Novák