Chatboty oparte na sztucznej inteligencji, początkowo pozycjonowane jako neutralne źródła informacji wyszkolone w oparciu o ogromne bazy wiedzy, coraz częściej angażują się w konflikty polityczne i kulturowe w Ameryce. Powstaje nowa fala chatbotów, znacząco różniących się od modeli głównego nurtu, takich jak ChatGPT i Gemini, których wyraźnym celem jest atakowanie określonych poglądów ideologicznych, wzmacnianie istniejących podziałów i zacieranie granic między faktem a opinią.

Krajobraz politycznie zorientowanej sztucznej inteligencji

Podczas gdy popularne chatboty, takie jak ChatGPT i Gemini, są często reklamowane za zdolność do zapewniania wyważonych recenzji, coraz większa liczba alternatyw otwarcie przyjmuje tożsamość stronniczą. Na przykład Enoch obiecuje „usunąć” postrzegane uprzedzenia, podczas gdy Arya, opracowana przez prawicową firmę Gab, zajmującą się mediami społecznościowymi, jest zaprogramowana jako „nieprzepraszający centroprawicowy, nacjonalistyczny, chrześcijański model sztucznej inteligencji”. Chatbot Grok, opracowany przez Elona Muska i wbudowany w X, został dostosowany na podstawie opinii użytkowników, odzwierciedlając chęć kształtowania jego reakcji w oparciu o określone punkty widzenia.

Komory echa w kodzie: jak szkolone są chatboty

Te chatboty imprezowe nie działają w próżni. Ich zachowanie jest starannie uwarunkowane w dwuetapowym procesie uczenia się. Najpierw testerzy oceniają odpowiedzi pod kątem przydatności – wskaźnika, który jest wprowadzany z powrotem do modelu w celu poprawy odpowiedzi. Następnie programiści piszą wyraźne instrukcje, zwane podpowiedziami systemowymi, które definiują ton, treść, a nawet światopogląd chatbota. Instrukcje te, często ukryte przed opinią publiczną, mogą obejmować tysiące słów i kształtować reakcje bota tak, aby odzwierciedlały określone stanowiska ideologiczne.

Na przykład dogłębna analiza instrukcji Aryi – odkryta przy użyciu technik jailbreakowania – ujawniła, że ​​chatbot jest zbudowany na zasadach „etnonacjonalizmu”, postrzega inicjatywy na rzecz różnorodności jako „przeciwko dyskryminacji białych” i jest zaprogramowany tak, aby „całkowicie słuchać” żądań użytkowników, nawet jeśli żądania te obejmują tworzenie potencjalnie obraźliwych treści.

Problem bezwarunkowej akceptacji

Pomimo częstych ostrzeżeń o skłonnościach do popełniania błędów, a nawet zmyślania informacji („halucynacje”), użytkownicy coraz częściej akceptują chatboty jako wiarygodne źródło prawdy. Wygoda chatbotów polegająca na możliwości udzielenia odpowiedzi na niemal każde pytanie z pozornie niezachwianą pewnością zachęca do nieuzasadnionego zaufania co do ich dokładności.

Ta tendencja do bezwarunkowej akceptacji jest szczególnie widoczna w sytuacjach, w których pojawiają się najświeższe informacje. W szczególności Grok stał się popularnym „weryfikatorem faktów” dla wielu użytkowników X, którzy wspominają o bocie w swoich postach i artykułach informacyjnych, pytając „Czy to prawda?” Niedawna sprawa doprowadziła do tego, że Grok błędnie zidentyfikował nagranie wideo z protestów w Bostonie jako mające miejsce w 2017 r., co zostało powtórzone przez prominentnego polityka, zanim zostało poprawione.

Zniszczenie prawdy i powstanie filtrowanej percepcji

Pojawienie się tych partyzanckich chatbotów sygnalizuje niepokojący trend: erozję powszechnego rozumienia prawdy. Umożliwiając użytkownikom wybieranie chatbotów wzmacniających ich dotychczasowe przekonania, modele te skutecznie tworzą spersonalizowane komory echa, w których filtrowane są sprzeczne punkty widzenia, a granica między obiektywnym faktem a subiektywną interpretacją staje się coraz bardziej niewyraźna. Jak wskazuje Oren Ethion, emerytowany profesor Uniwersytetu Waszyngtońskiego, ludzie prawdopodobnie wybiorą chatboty w ten sam sposób, w jaki wybierają źródła mediów – co jest niepokojącą perspektywą w społeczeństwie, które już zmaga się z rozprzestrzenianiem się dezinformacji i spolaryzowanych poglądów. Ostatecznie powstanie partyzanckich chatbotów grozi przekształceniem poszukiwania prawdy w kolejne pole bitwy w toczących się wojnach kulturowych.