Chatbots mit künstlicher Intelligenz, die ursprünglich als neutrale Informationsquellen angepriesen wurden, die auf riesigen Datensätzen menschlichen Wissens basieren, werden zunehmend in die politischen und kulturellen Konflikte Amerikas verwickelt. Eine neue Welle von Chatbots, die sich erheblich von den Mainstream-Modellen wie ChatGPT von OpenAI und Gemini von Google unterscheiden, sind explizit darauf ausgelegt, bestimmte ideologische Standpunkte zu berücksichtigen, bestehende Spaltungen zu verstärken und die Grenzen zwischen Fakten und Meinungen zu verwischen.
Die Landschaft politisch ausgerichteter KI
Während beliebte Chatbots wie ChatGPT und Gemini oft für ihre Fähigkeit gepriesen werden, ausgewogene Übersichten zu liefern, vertreten immer mehr Alternativen offen parteiische Identitäten. Enoch zum Beispiel verspricht, wahrgenommene Vorurteile „zu löschen“, während Arya, entwickelt von der rechtsextremen Social-Media-Plattform Gab, als „unapologetisches rechtsnationalistisches christliches KI-Modell“ programmiert wird. Elon Musks Grok, eingebettet in
Echokammern im Code: Wie Chatbots trainiert werden
Diese parteiischen Chatbots agieren nicht im luftleeren Raum. Ihr Verhalten wird durch einen zweistufigen Trainingsprozess sorgfältig ausgearbeitet. Zunächst bewerten menschliche Tester die Antworten auf ihre Nützlichkeit, eine Kennzahl, die in die Modelle zurückfließt, um ihre Antworten zu verfeinern. Anschließend schreiben die Entwickler explizite Anweisungen, sogenannte Systemaufforderungen, die den Ton, den Inhalt und sogar die zugrunde liegende Weltanschauung des Chatbots bestimmen. Diese häufig vor der Öffentlichkeit verborgenen Anweisungen können Tausende von Wörtern enthalten und die Antworten des Bots so gestalten, dass sie bestimmte ideologische Positionen widerspiegeln.
Ein tiefer Einblick in Aryas Anweisungen – die durch spezielle „Jailbreaking“-Techniken aufgedeckt wurden – ergab beispielsweise, dass der Chatbot auf dem Prinzip des „Ethnonationalismus“ basiert, Diversity-Initiativen als „Diskriminierung gegen Weiße“ betrachtet und so programmiert ist, dass er Benutzeranfragen „absoluten Gehorsam“ gewährt, selbst wenn diese Anfragen die Generierung potenziell anstößiger Inhalte beinhalten.
Das Problem der unkritischen Akzeptanz
Trotz häufiger Warnungen vor ihrer Neigung, Fehler zu machen und sogar Informationen zu fabrizieren („Halluzinationen“), scheinen Benutzer Chatbots zunehmend als zuverlässige Quellen der Wahrheit zu akzeptieren. Die praktische Fähigkeit von Chatbots, nahezu jede Frage mit scheinbar unerschütterlicher Zuversicht zu beantworten, fördert den ungerechtfertigten Glauben an ihre Genauigkeit.
Diese Tendenz zur unkritischen Akzeptanz zeigt sich insbesondere in Eilmeldungssituationen. Insbesondere Grok ist für viele X-Benutzer zum bevorzugten „Faktenprüfer“ geworden, die den Bot in Beiträgen und Nachrichtenartikeln markieren und fragen: „Ist das wahr?“ Ein aktueller Fall hat dieses Problem deutlich gemacht, als Grok fälschlicherweise ein Video von Protesten in Boston als aus dem Jahr 2017 stammend identifizierte, ein Fehler, den ein prominenter Politiker wiederholte, bevor er korrigiert wurde.
Die Erosion der Wahrheit und der Aufstieg der gefilterten Realität
Das Aufkommen dieser parteiischen Chatbots deutet auf einen besorgniserregenden Trend hin: die Erosion eines gemeinsamen Verständnisses der Wahrheit. Indem diese Modelle es Benutzern ermöglichen, Chatbots auszuwählen, die ihre bestehenden Überzeugungen verstärken, schaffen sie effektiv personalisierte Echokammern, in denen widersprüchliche Perspektiven herausgefiltert werden und die Grenze zwischen objektiver Tatsache und subjektiver Interpretation zunehmend verschwimmt. Wie Oren Etzioni, emeritierter Professor an der University of Washington, betont, wählen Menschen ihre Chatbots wahrscheinlich auf die gleiche Weise aus wie ihre Medienquellen – eine alarmierende Aussicht in einer Gesellschaft, die bereits mit weit verbreiteter Desinformation und polarisierten Ansichten zu kämpfen hat. Letztendlich droht der Aufstieg parteiischer Chatbots, das Streben nach Wahrheit zu einem weiteren Schlachtfeld in den anhaltenden Kulturkriegen zu machen.



















