Chatbots voor kunstmatige intelligentie, aanvankelijk aangekondigd als neutrale informatiebronnen die zijn getraind op enorme datasets van menselijke kennis, raken steeds meer verwikkeld in de politieke en culturele conflicten in Amerika. Een nieuwe golf van chatbots, die aanzienlijk afwijken van de reguliere modellen zoals OpenAI’s ChatGPT en Google’s Gemini, zijn expliciet ontworpen om tegemoet te komen aan specifieke ideologische standpunten, waardoor bestaande verdeeldheid wordt versterkt en de grenzen tussen feit en mening vervagen.

Het landschap van politiek gealigneerde AI

Terwijl populaire chatbots als ChatGPT en Gemini vaak worden aangeprezen vanwege hun vermogen om evenwichtige overzichten te bieden, omarmt een groeiend aantal alternatieven openlijk partijdige identiteiten. Enoch belooft bijvoorbeeld om waargenomen vooroordelen ‘uit de weg te ruimen’, terwijl Arya, ontwikkeld door het extreemrechtse socialemediaplatform Gab, is geprogrammeerd als een ‘onbeschaamd rechts-nationalistisch christelijk AI-model’. De Grok van Elon Musk, ingebed in X, is expliciet aangepast op basis van gebruikersfeedback, wat een weerspiegeling is van een poging om zijn reacties vorm te geven zodat deze in lijn liggen met bepaalde standpunten.

Echo Chambers in Code: hoe chatbots worden getraind

Deze partijdige chatbots opereren niet in een vacuüm. Hun gedrag wordt nauwgezet vormgegeven via een trainingsproces in twee fasen. Ten eerste beoordelen menselijke testers de antwoorden op behulpzaamheid, een maatstaf die in de modellen wordt teruggevoerd om hun antwoorden te verfijnen. Vervolgens schrijven ontwikkelaars expliciete instructies, ook wel systeemprompts genoemd, die de toon, de inhoud en zelfs het onderliggende wereldbeeld van de chatbot dicteren. Deze instructies, vaak verborgen voor het publiek, kunnen duizenden woorden bevatten, waardoor de reacties van de bot bepaalde ideologische standpunten weerspiegelen.

Een diepe duik in de instructies van Arya – aan het licht gebracht door middel van gespecialiseerde ‘jailbreaking’-technieken – onthulde bijvoorbeeld dat de chatbot is gebouwd op het principe van ‘etnonationalisme’, diversiteitsinitiatieven beschouwt als ‘anti-blanke discriminatie’ en is geprogrammeerd om ‘absolute gehoorzaamheid’ te bieden aan gebruikersvragen, zelfs als die vragen gepaard gaan met het genereren van potentieel aanstootgevende inhoud.

Het probleem van onkritische acceptatie

Ondanks frequente waarschuwingen over hun neiging om fouten te maken en zelfs informatie te verzinnen (“hallucinaties”) lijken gebruikers chatbots steeds meer te accepteren als betrouwbare bronnen van waarheid. Het gemak van het vermogen van chatbots om bijna elke vraag gemakkelijk te beantwoorden met schijnbaar onwankelbaar vertrouwen, stimuleert een ongegrond vertrouwen in hun nauwkeurigheid.

Deze neiging tot onkritische acceptatie komt vooral tot uiting in situaties waarin het laatste nieuws wordt gebracht. Vooral Grok is een go-to ‘fact-checker’ geworden voor veel X-gebruikers die de bot taggen in berichten en nieuwsartikelen en vragen: ‘Is dit waar?’ Een recent voorbeeld bracht deze kwestie aan het licht toen Grok ten onrechte een video van protesten in Boston identificeerde als afkomstig uit 2017, een fout die door een prominente politicus werd herhaald voordat deze werd gecorrigeerd.

De erosie van de waarheid en de opkomst van gefilterde realiteit

De opkomst van deze partijdige chatbots duidt op een zorgwekkende trend: de erosie van een gedeeld begrip van de waarheid. Door gebruikers chatbots te laten selecteren die hun bestaande overtuigingen versterken, creëren deze modellen effectief gepersonaliseerde echokamers, waar tegenstrijdige perspectieven worden weggefilterd en de grens tussen objectieve feiten en subjectieve interpretatie steeds vager wordt. Zoals Oren Etzioni, emeritus hoogleraar aan de Universiteit van Washington, opmerkt, zullen mensen hun chatbots waarschijnlijk op dezelfde manier kiezen als zij hun mediabronnen kiezen – een alarmerend vooruitzicht in een samenleving die al worstelt met wijdverbreide desinformatie en gepolariseerde opvattingen. Uiteindelijk dreigt de opkomst van partijdige chatbots het streven naar de waarheid te transformeren in slechts een nieuw strijdtoneel in de aanhoudende cultuuroorlogen.