Chatboti s umělou inteligencí, původně umístěni jako neutrální zdroje informací trénovaní na rozsáhlých znalostních bázích, se stále více zapojují do politických a kulturních konfliktů v Americe. Vzniká nová vlna chatbotů, která se výrazně liší od mainstreamových modelů, jako jsou ChatGPT a Gemini, s jasným cílem zacílit na konkrétní ideologické názory, zesílit stávající rozdělení a smazat hranice mezi fakty a názory.

Krajina politicky orientované umělé inteligence

Zatímco populární chatboti jako ChatGPT a Gemini jsou často propagováni pro svou schopnost poskytovat vyvážené recenze, stále větší počet alternativ otevřeně přijímá stranické identity. Například Enoch slibuje, že „smaže“ vnímanou zaujatost, zatímco Arya, vyvinutá pravicovou sociální mediální společností Gab, je naprogramována jako „neomluvný středopravý nacionalistický křesťanský model umělé inteligence“. Chatbot Grok, vyvinutý Elonem Muskem a zabudovaný do X, byl přizpůsoben na základě zpětné vazby od uživatelů, což odráží touhu utvářet své reakce na konkrétní hlediska.

Echo komory v kódu: jak se trénují chatboti

Tito party chatboti nepracují ve vzduchoprázdnu. Jejich chování je pečlivě podmíněno dvoufázovým procesem učení. Za prvé, lidští testeři vyhodnotí odpovědi z hlediska užitečnosti, což je metrika, která se vrací zpět do modelu za účelem zlepšení odpovědí. Vývojáři pak píší explicitní pokyny, známé jako systémové výzvy, které definují tón, obsah a dokonce i světonázor chatbota. Tyto pokyny, často skryté před zraky veřejnosti, mohou obsahovat tisíce slov a utvářet reakce robota tak, aby odrážely konkrétní ideologické pozice.

Například hloubková analýza Aryiných instrukcí – objevená pomocí technik útěku z vězení – odhalila, že chatbot je postaven na principech „etnonacionalismu“, považuje iniciativy v oblasti rozmanitosti za „protibělošskou diskriminaci“ a je naprogramován tak, aby „absolutně poslouchal“ požadavky uživatelů, i když tyto požadavky zahrnují vytváření potenciálně urážlivého obsahu.

Problém bezpodmínečného přijetí

Navzdory častým varováním o jejich sklonu k chybám a dokonce si vymýšlejí informace („halucinace“) uživatelé stále častěji přijímají chatboty jako spolehlivé zdroje pravdy. Pohodlí chatbotů v tom, že jsou schopni odpovědět na téměř jakoukoli otázku se zdánlivě neotřesitelnou jistotou, podporuje neoprávněnou důvěru v jejich přesnost.

Tato tendence k bezpodmínečnému přijetí je zvláště patrná v situacích zahrnujících nejnovější zprávy. Zejména Grok se stal oblíbeným „kontrolorem faktů“ pro mnoho uživatelů X, kteří ve svých příspěvcích a novinových článcích zmiňují robota a ptají se: „Je to pravda?“ Nedávný případ vedl k tomu, že Grok špatně identifikoval video z bostonských protestů jako odehrávající se v roce 2017, které prominentní politik zopakoval, než bylo opraveno.

Zničení pravdy a vzestup filtrovaného vnímání

Objevení se těchto partyzánských chatbotů signalizuje znepokojivý trend: erozi obecného chápání pravdy. Tím, že uživatelům umožňují vybrat si chatboty, které posilují jejich stávající přesvědčení, tyto modely efektivně vytvářejí personalizované echo komory, ve kterých jsou odfiltrovány protichůdné názory a hranice mezi objektivními fakty a subjektivní interpretací se stále více stírá. Jak zdůrazňuje Oren Ethion, emeritní profesor na University of Washington, lidé si pravděpodobně vybírají své chatboty stejným způsobem, jakým si vybírají své mediální zdroje – což je znepokojivá vyhlídka ve společnosti, která se již potýká s šířením dezinformací a polarizovaných názorů. V konečném důsledku hrozí, že vzestup partyzánských chatbotů promění hledání pravdy jen v další bojiště v probíhajících kulturních válkách.