Os chatbots de inteligência artificial, inicialmente anunciados como fontes neutras de informação treinadas em vastos conjuntos de dados de conhecimento humano, estão cada vez mais envolvidos nos conflitos políticos e culturais da América. Uma nova onda de chatbots, divergindo significativamente dos modelos convencionais como o ChatGPT da OpenAI e o Gemini da Google, são explicitamente concebidos para atender a pontos de vista ideológicos específicos, amplificando as divisões existentes e confundindo os limites entre facto e opinião.
O cenário da IA politicamente alinhada
Embora chatbots populares como ChatGPT e Gemini sejam frequentemente elogiados pela sua capacidade de fornecer visões gerais equilibradas, um número crescente de alternativas abraça abertamente identidades partidárias. Enoch, por exemplo, promete “limpar a mente” dos preconceitos percebidos, enquanto Arya, desenvolvida pela plataforma de mídia social de extrema direita Gab, está programada para ser um “modelo de IA cristão nacionalista de direita sem remorso”. O Grok de Elon Musk, incorporado ao X, foi explicitamente ajustado com base no feedback do usuário, refletindo um esforço para moldar suas respostas para se alinharem com pontos de vista específicos.
Echo Chambers in Code: como os chatbots são treinados
Esses chatbots partidários não operam no vácuo. Seu comportamento é meticulosamente elaborado por meio de um processo de treinamento em duas etapas. Primeiro, os testadores humanos avaliam as respostas quanto à utilidade, uma métrica que é inserida nos modelos para refinar suas respostas. Em seguida, os desenvolvedores escrevem instruções explícitas, conhecidas como prompts do sistema, que ditam o tom, o conteúdo e até mesmo a visão de mundo subjacente do chatbot. Estas instruções, muitas vezes escondidas da vista do público, podem conter milhares de palavras, moldando as respostas do bot para refletir posições ideológicas específicas.
Por exemplo, um mergulho profundo nas instruções de Arya – descobertas através de técnicas especializadas de “jailbreaking” – revelou que o chatbot é construído com base no princípio do “etnonacionalismo”, vê as iniciativas de diversidade como “discriminação anti-branca” e está programado para fornecer “obediência absoluta” às consultas dos utilizadores, mesmo que essas consultas envolvam a geração de conteúdo potencialmente ofensivo.
O problema da aceitação acrítica
Apesar dos frequentes avisos sobre a sua propensão para cometer erros e até mesmo fabricar informações (“alucinações”), os utilizadores parecem cada vez mais aceitar os chatbots como fontes fiáveis da verdade. A conveniência da capacidade dos chatbots de responder prontamente a quase qualquer pergunta com uma confiança aparentemente inabalável incentiva uma fé injustificada na sua precisão.
Esta tendência para a aceitação acrítica é particularmente evidente em situações de notícias de última hora. Grok, em particular, tornou-se um “verificador de fatos” obrigatório para muitos usuários do X que marcam o bot em postagens e artigos de notícias, perguntando: “Isso é verdade?” Um caso recente destacou esta questão quando Grok identificou erroneamente um vídeo de protestos em Boston como originário de 2017, um erro que foi repetido por um político proeminente antes de ser corrigido.
A erosão da verdade e a ascensão da realidade filtrada
O surgimento destes chatbots partidários significa uma tendência preocupante: a erosão de uma compreensão partilhada da verdade. Ao permitir que os utilizadores selecionem chatbots que reforcem as suas crenças existentes, estes modelos criam efetivamente câmaras de eco personalizadas, onde as perspetivas conflitantes são filtradas e a linha entre factos objetivos e interpretação subjetiva torna-se cada vez mais ténue. Como salienta Oren Etzioni, professor emérito da Universidade de Washington, é provável que as pessoas escolham os seus chatbots da mesma forma que escolhem as suas fontes de comunicação social – uma perspetiva alarmante numa sociedade que já se debate com a desinformação generalizada e pontos de vista polarizados. Em última análise, a ascensão dos chatbots partidários ameaça transformar a busca da verdade em apenas mais um campo de batalha nas guerras culturais em curso.




















