I chatbot di intelligenza artificiale, inizialmente annunciati come fonti neutrali di informazioni basate su vasti set di dati della conoscenza umana, sono sempre più coinvolti nei conflitti politici e culturali americani. Una nuova ondata di chatbot, divergendo in modo significativo dai modelli tradizionali come ChatGPT di OpenAI e Gemini di Google, sono esplicitamente progettati per soddisfare specifici punti di vista ideologici, amplificando le divisioni esistenti e confondendo i confini tra fatti e opinioni.

Il panorama dell’intelligenza artificiale politicamente allineata

Mentre chatbot popolari come ChatGPT e Gemini sono spesso pubblicizzati per la loro capacità di fornire panoramiche equilibrate, un numero crescente di alternative abbraccia apertamente identità di parte. Enoch, ad esempio, promette di “cancellare la mente” dai pregiudizi percepiti, mentre Arya, sviluppata dalla piattaforma di social media di estrema destra Gab, è programmata per essere un “impenitente modello di IA cristiana nazionalista di destra”. Grok di Elon Musk, incorporato in X, è stato esplicitamente modificato in base al feedback degli utenti, riflettendo uno sforzo per modellare le sue risposte per allinearsi con particolari punti di vista.

Camere dell’eco nel codice: come vengono addestrati i chatbot

Questi chatbot partigiani non operano nel vuoto. Il loro comportamento è meticolosamente elaborato attraverso un processo di formazione in due fasi. Innanzitutto, i tester umani valutano le risposte in base all’utilità, una metrica inserita nei modelli per perfezionare le loro risposte. Quindi, gli sviluppatori scrivono istruzioni esplicite, note come prompt di sistema, che determinano il tono, il contenuto e persino la visione del mondo sottostante del chatbot. Queste istruzioni, spesso nascoste alla vista del pubblico, possono contenere migliaia di parole, modellando le risposte del bot per riflettere posizioni ideologiche specifiche.

Ad esempio, un’analisi approfondita delle istruzioni di Arya – scoperte attraverso tecniche specializzate di “jailbreaking” – ha rivelato che il chatbot è costruito sul principio di “etnonazionalismo”, vede le iniziative sulla diversità come “discriminazione anti-bianca” ed è programmato per fornire “assoluta obbedienza” alle domande degli utenti, anche se tali domande comportano la generazione di contenuti potenzialmente offensivi.

Il problema dell’accettazione acritica

Nonostante i frequenti avvertimenti sulla loro propensione a commettere errori e persino a inventare informazioni (“allucinazioni”), gli utenti sembrano sempre più accettare i chatbot come affidabili fonti di verità. La comodità della capacità dei chatbot di rispondere prontamente a quasi tutte le domande con una sicurezza apparentemente incrollabile incoraggia una fiducia ingiustificata nella loro accuratezza.

Questa tendenza all’accettazione acritica è particolarmente evidente nelle situazioni delle ultime notizie. Grok, in particolare, è diventato un “fact-checker” di riferimento per molti utenti X che taggano il bot in post e articoli di notizie, chiedendo: “È vero?” Un caso recente ha evidenziato questo problema quando Grok ha erroneamente identificato un video di proteste a Boston come risalente al 2017, un errore che è stato ripetuto da un importante politico prima di essere corretto.

L’erosione della verità e l’ascesa della realtà filtrata

L’emergere di questi chatbot partigiani indica una tendenza preoccupante: l’erosione di una comprensione condivisa della verità. Consentendo agli utenti di selezionare chatbot che rafforzano le loro convinzioni esistenti, questi modelli creano effettivamente camere di risonanza personalizzate, dove le prospettive contrastanti vengono filtrate e il confine tra fatto oggettivo e interpretazione soggettiva diventa sempre più sfumato. Come sottolinea Oren Etzioni, professore emerito all’Università di Washington, è probabile che le persone scelgano i propri chatbot nello stesso modo in cui scelgono le proprie fonti mediatiche: una prospettiva allarmante in una società già alle prese con una disinformazione diffusa e opinioni polarizzate. In definitiva, l’ascesa dei chatbot partigiani minaccia di trasformare la ricerca della verità in solo un altro campo di battaglia nelle guerre culturali in corso.