Umělá inteligence Grok, zabudovaná do sociální sítě X (dříve Twitter) a vyvinutá firmou Elona Muska xAI, se opět ocitla v centru skandálu. Tentokrát kvůli tomu, že sama sebe nazvala „MechaHitlerem“ a zveřejnila výroky s nacistickým obsahem. Vývojáři se omluvili, slíbili posílení kontrolních mechanismů a odstranění nenávistného obsahu. Skandál však otevírá mnohem závažnější otázku: jak hodnoty a názory tvůrců formují chování AI – a jak moc jsou ochotni být upřímní o tom, co vlastně vytvářejí.
Grok je chatbot založený na velkém jazykovém modelu (LLM), který má být „vtipný a lehce rebelský“. Poprvé byl spuštěn v roce 2023 a jeho nejnovější verze Grok 4 se podle některých testů vyrovná nebo předčí konkurenci. Je dostupný jak samostatně, tak přímo na platformě X.
xAI tvrdí, že Grok je „pravdomluvná“ AI bez ideologických předsudků, která má čelit „woke“ narativům. Ve skutečnosti se ale Grok opakovaně dostává do problémů – ať už kvůli výrokům o „bílé genocidě“ v Jižní Africe, výhrůžkám sexuálním násilím, či urážkám politiků (kvůli čemuž byl například zakázán v Turecku).
Každá AI, ať chce nebo ne, odráží hodnoty svých tvůrců. A Grok je toho zářným příkladem – nejen kvůli výsledkům, ale i kvůli tomu, jak je trénován a nastaven, píše The Conversation.
Základem každé AI je obrovský objem textových dat, na kterých se učí. Tvůrci rozhodují, co bude součástí výběru – co se posílí, co se vyřadí. Například OpenAI v minulosti záměrně zvýšila zastoupení Wikipedie, protože ji považovala za kvalitnější zdroj. Grok se naproti tomu trénoval i na příspěvcích z platformy X, což může vysvětlit, proč se často odvolává na Muska a jeho názory.
Musk také veřejně vyzýval uživatele X, aby mu posílali těžké „galaxy brain“ otázky nebo faktické, ale politicky nekorektní informace. Není však jasné, zda tyto údaje skutečně skončily v trénovacím souboru a jak byla zajištěna jejich kvalita.
V další fázi vývoje se model „doladí“ podle preferencí vývojářů. Ti určují etická pravidla, která následně hodnotí lidské týmy nebo jiné modely. Tak se do AI vkládají konkrétní postoje – například co je „přijatelné“ nebo jak vyvažovat protichůdné názory.
Vyšetřování Business Insideru odhalilo, že xAI školilo své „AI tutory“, aby dávali pozor na „woke ideologii“ a kulturu rušení. Grok se měl vyhýbat tvrzením, že obě strany debaty mají pravdu, pokud tomu vývojáři nevěřili.
Každý chatbot dostává před zahájením konverzace tzv. „system prompt“ – soubor instrukcí, který určuje jeho chování. Grok je v tomto ohledu výjimečně transparentní, protože své systémové instrukce zveřejňuje. V nich se například uvádí, že má předpokládat zaujatost mediálních zdrojů nebo se nemá vyhýbat politicky nekorektním tvrzením, pokud jsou dobře podložená.
Právě tato nastavení pravděpodobně vedla ke zmíněné aféře s nacistickým obsahem.
Poslední vrstvu představují tzv. guardrails – ochranné filtry, které blokují problematický obsah. OpenAI například deklaruje, že ChatGPT nesmí generovat nenávistné, násilné nebo sexuálně explicitní výstupy. Čínský model DeepSeek zase cenzuruje témata jako masakr na náměstí Nebeského klidu.
Testování provedené během psaní tohoto článku však naznačuje, že Grok má tyto filtry mnohem méně přísné než konkurenční systémy.
Skandál s Grokem odhaluje zásadní etickou otázku: Je lepší, když firmy přiznají, že jejich AI má ideologický rámec? Nebo je výhodnější zachovávat iluzi objektivity, zatímco v zákulisí stejně programují vlastní hodnoty?
Každá AI totiž odráží hodnoty svých tvůrců – od korporátně opatrného Microsoftu až po bezpečnostní filozofii firmy Anthropic. Rozdíl je v tom, jak otevřeně o tom mluví.
Muskova veřejná přítomnost umožňuje snadno spojit chování Groku s jeho postoji vůči „woke“ světonázoru nebo médiím. Když jiné firmy selžou, těžko říct, zda jde o chybu, strach z regulace, nebo firemní ideologii.
Grok připomíná neúspěšného chatbota Tay od Microsoftu z roku 2016, který se po tréninku na Twitteru rychle proměnil v rasistu a musel být odstaven. Rozdíl je ale zásadní: Tay reagoval na chování uživatelů. Grok byl takto navržen – minimálně částečně – úmyslně.
Grok je varováním. Ne o tom, že AI může říkat extrémy – to už víme. Ale že každá AI reflektuje hodnoty lidí, kteří ji vytvořili. A že je nejvyšší čas, aby firmy byly upřímné o tom, čí hodnoty vkládají do svých systémů – a proč.
Muskův přístup je paradoxní: na jednu stranu otevřenější než konkurence, protože ukazuje své karty. Na druhou stranu ale klamavý, protože tvrdí, že Grok je „objektivní“, a přitom do něj vkládá výrazně subjektivní rámec.
V oboru, který si dlouho namlouval, že algoritmy jsou neutrální, ukazuje Grok jednu jednoduchou pravdu: žádná AI není bez předsudků. Jen některé je mají přiznané – a jiné schované.
Související
Měl způsobit revoluci v cestování. Kam se poděl Muskův Hyperloop?
Muska štve, že ho spojují s Epsteinem. Pozvání jsem odmítl, vzkazuje
Elon Musk , umělá inteligence (AI)
Aktuálně se děje
včera
Pavel v úterý jmenuje Babiše premiérem
včera
Britský expert pro EZ: Globální potravinová bezpečnost bude stabilní, rizikem ale zůstává Putin
včera
Babiš oznámil, že se navždy vzdá Agrofertu
včera
New York Times podává žalobu na Pentagon a Hegsetha
včera
Letadlo se Zelenským pronásledovaly záhadné vojenské drony
včera
Je naprostá iluze věřit, že by Rusko mohlo na Ukrajině prohrát, prohlásil belgický premiér
Aktualizováno včera
Na Hrad dorazil Zůna, Šebestyán a Macinka. Jmenování Turka ministrem není pravděpodobné, řekl Pavel
včera
Macron tajně varoval evropské lídry: Existuje šance, že USA zradí Ukrajinu a Evropu
včera
Amerikou hýbe očkovací kauza: Po vakcíně zemřelo 10 dětí, tvrdí úřady. Důkazy ale nikdo nemá
včera
Král Karel III. pronesl vzácné prohlášení k Ukrajině. Odsoudil Rusko
včera
Zemřel světově proslulý kostýmní výtvarník Theodor Pištěk
včera
Co si myslí Evropané? Bojí se války a Trumpa vnímají jako nepřítele
včera
Eurovize čelí nejtěžšímu rozhodnutí v historii: Rozhodne, zda vyhodí Izrael
včera
Putin nezahálí. Po neúspěšném jednání o Ukrajině míří do Indie
včera
Cesta k míru na Ukrajině je nejistá, varuje Trump. Američtí vyslanci chystají setkání s kyjevským představitelem
včera
Proč rozhovory dosud nic nepřinesly? Putin na mír nespěchá, užívá si pocit, že se ho svět doprošuje
včera
Počasí na některých místech potrápí řidiče, avizovali meteorologové
3. prosince 2025 21:58
Na Štědrý den půjde nakoupit i letos. Jeden z řetězců ale bude pokračovat v tradici
3. prosince 2025 21:07
Bývalý princ Andrew je bez dvou dalších poct. Ztrácí status rytíře
3. prosince 2025 19:54
Metro zastavila vážná nehoda. Mladá žena spadla pod soupravu
Vážný incident se v úterý stal na lince A pražského metra. Ve stanici Hradčanská spadla pod soupravu mladá žena, která utrpěla vážná zranění. Zřejmě šlo o pokus o sebevraždu. Událost ovlivnila provoz na zmíněné lince.
Zdroj: Jan Hrabě