Los chatbots de inteligencia artificial, inicialmente anunciados como fuentes neutrales de información formadas sobre vastos conjuntos de datos de conocimiento humano, se están involucrando cada vez más en los conflictos políticos y culturales de Estados Unidos. Una nueva ola de chatbots, que se diferencia significativamente de los modelos convencionales como ChatGPT de OpenAI y Gemini de Google, está diseñada explícitamente para atender puntos de vista ideológicos específicos, amplificando las divisiones existentes y desdibujando las líneas entre hechos y opiniones.
El panorama de la IA políticamente alineada
Si bien los chatbots populares como ChatGPT y Gemini a menudo son promocionados por su capacidad para brindar visiones generales equilibradas, un número creciente de alternativas adoptan abiertamente identidades partidistas. Enoch, por ejemplo, promete “borrar la mente” de los prejuicios percibidos, mientras que Arya, desarrollada por la plataforma de redes sociales de extrema derecha Gab, está programada para ser un “modelo de IA cristiano nacionalista de derecha sin remordimientos”. Grok de Elon Musk, integrado en X, ha sido modificado explícitamente en función de los comentarios de los usuarios, lo que refleja un esfuerzo por moldear sus respuestas para alinearse con puntos de vista particulares.
Cámaras de eco en el código: cómo se entrenan los chatbots
Estos chatbots partidistas no operan en el vacío. Su comportamiento se elabora meticulosamente a través de un proceso de entrenamiento de dos etapas. Primero, los evaluadores humanos califican las respuestas según su utilidad, una métrica que se retroalimenta a los modelos para refinar sus respuestas. Luego, los desarrolladores escriben instrucciones explícitas, conocidas como indicaciones del sistema, que dictan el tono, el contenido e incluso su visión del mundo subyacente del chatbot. Estas instrucciones, a menudo ocultas a la vista del público, pueden contener miles de palabras, lo que moldea las respuestas del robot para reflejar posiciones ideológicas específicas.
Por ejemplo, una inmersión profunda en las instrucciones de Arya (descubiertas a través de técnicas especializadas de “jailbreaking”) reveló que el chatbot se basa en el principio de “etnonacionalismo”, considera las iniciativas de diversidad como “discriminación contra los blancos” y está programado para brindar “obediencia absoluta” a las consultas de los usuarios, incluso si esas consultas implican generar contenido potencialmente ofensivo.
El problema de la aceptación acrítica
A pesar de las frecuentes advertencias sobre su propensión a cometer errores e incluso fabricar información (“alucinaciones”), los usuarios parecen aceptar cada vez más los chatbots como fuentes confiables de verdad. La conveniencia de la capacidad de los chatbots para responder fácilmente a casi cualquier pregunta con una confianza aparentemente imperturbable fomenta una fe injustificada en su precisión.
Esta tendencia hacia la aceptación acrítica es particularmente evidente en situaciones de noticias de última hora. Grok, en particular, se ha convertido en un “verificador de datos” al que recurren muchos usuarios de X que etiquetan al bot en publicaciones y artículos de noticias y preguntan: “¿Es esto cierto?”. Un caso reciente destacó este problema cuando Grok identificó erróneamente un video de protestas en Boston como originado en 2017, un error que fue repetido por un destacado político antes de ser corregido.
La erosión de la verdad y el surgimiento de la realidad filtrada
La aparición de estos chatbots partidistas indica una tendencia preocupante: la erosión de una comprensión compartida de la verdad. Al permitir a los usuarios seleccionar chatbots que refuerzan sus creencias existentes, estos modelos crean efectivamente cámaras de eco personalizadas, donde se filtran las perspectivas conflictivas y la línea entre los hechos objetivos y la interpretación subjetiva se vuelve cada vez más borrosa. Como señala Oren Etzioni, profesor emérito de la Universidad de Washington, es probable que las personas elijan sus chatbots de la misma manera que eligen sus fuentes de medios, una perspectiva alarmante en una sociedad que ya se enfrenta a una desinformación generalizada y opiniones polarizadas. En última instancia, el auge de los chatbots partidistas amenaza con transformar la búsqueda de la verdad en un campo de batalla más en las guerras culturales en curso.
