Les chatbots d’intelligence artificielle, initialement présentés comme des sources neutres d’informations formées sur de vastes ensembles de données de connaissances humaines, sont de plus en plus impliqués dans les conflits politiques et culturels américains. Une nouvelle vague de chatbots, s’écartant considérablement des modèles traditionnels comme ChatGPT d’OpenAI et Gemini de Google, est explicitement conçue pour répondre à des points de vue idéologiques spécifiques, amplifiant les divisions existantes et brouillant les frontières entre faits et opinions.

Le paysage de l’IA politiquement alignée

Alors que les chatbots populaires comme ChatGPT et Gemini sont souvent vantés pour leur capacité à fournir des aperçus équilibrés, un nombre croissant d’alternatives embrassent ouvertement des identités partisanes. Enoch, par exemple, promet d’« effacer l’esprit » des préjugés perçus, tandis qu’Arya, développée par la plateforme de médias sociaux d’extrême droite Gab, est programmée pour être un « modèle d’IA chrétienne nationaliste de droite sans vergogne ». Grok d’Elon Musk, intégré à X, a été explicitement modifié en fonction des commentaires des utilisateurs, reflétant un effort visant à façonner ses réponses pour les aligner sur des points de vue particuliers.

Echo Chambers in Code : Comment les chatbots sont formés

Ces chatbots partisans ne fonctionnent pas en vase clos. Leur comportement est méticuleusement élaboré à travers un processus de formation en deux étapes. Premièrement, les testeurs humains évaluent les réponses en fonction de leur utilité, une mesure réinjectée dans les modèles pour affiner leurs réponses. Ensuite, les développeurs rédigent des instructions explicites, appelées invites système, qui dictent le ton, le contenu et même la vision du monde sous-jacente du chatbot. Ces instructions, souvent cachées à la vue du public, peuvent contenir des milliers de mots, façonnant les réponses du robot pour refléter des positions idéologiques spécifiques.

Par exemple, une analyse approfondie des instructions d’Arya – découvertes grâce à des techniques spécialisées de « jailbreak » – a révélé que le chatbot est construit sur le principe de « l’ethnonationalisme », considère les initiatives en faveur de la diversité comme une « discrimination anti-Blanche » et est programmé pour fournir une « obéissance absolue » aux requêtes des utilisateurs, même si ces requêtes impliquent de générer un contenu potentiellement offensant.

Le problème de l’acceptation sans réserve

Malgré les avertissements fréquents sur leur propension à commettre des erreurs et même à fabriquer des informations (« hallucinations »), les utilisateurs semblent de plus en plus accepter les chatbots comme sources fiables de vérité. La commodité de la capacité des chatbots à répondre facilement à presque toutes les questions avec une confiance apparemment inébranlable encourage une confiance injustifiée dans leur exactitude.

Cette tendance à l’acceptation sans réserve est particulièrement évidente dans les situations d’actualité. Grok, en particulier, est devenu un « vérificateur de faits » incontournable pour de nombreux utilisateurs de X qui marquent le robot dans des publications et des articles de presse, en demandant : « Est-ce vrai ? Un cas récent a mis en lumière ce problème lorsque Grok a identifié par erreur une vidéo de manifestations à Boston comme datant de 2017, une erreur qui a été répétée par un éminent homme politique avant d’être corrigée.

L’érosion de la vérité et la montée de la réalité filtrée

L’émergence de ces chatbots partisans témoigne d’une tendance inquiétante : l’érosion d’une compréhension partagée de la vérité. En permettant aux utilisateurs de sélectionner des chatbots qui renforcent leurs convictions existantes, ces modèles créent effectivement des chambres d’écho personnalisées, où les perspectives contradictoires sont filtrées et où la frontière entre fait objectif et interprétation subjective devient de plus en plus floue. Comme le souligne Oren Etzioni, professeur émérite à l’Université de Washington, les gens sont susceptibles de choisir leurs chatbots de la même manière qu’ils choisissent leurs sources médiatiques – une perspective alarmante dans une société déjà aux prises avec une désinformation généralisée et des opinions polarisées. En fin de compte, la montée des chatbots partisans menace de transformer la quête de la vérité en un simple champ de bataille parmi les guerres culturelles en cours.