Искусственный интеллект чат-боты, изначально позиционировавшиеся как нейтральные источники информации, обученные на огромных базах знаний, всё чаще оказываются вовлечёнными в политические и культурные конфликты в Америке. Новая волна чат-ботов, значительно отличающаяся от распространённых моделей, таких как ChatGPT и Gemini, создаётся с явной целью ориентироваться на конкретные идеологические взгляды, усиливая существующие разногласия и размывая границы между фактом и мнением.

Ландшафт политически ориентированных ИИ

В то время как популярные чат-боты, такие как ChatGPT и Gemini, часто рекламируются благодаря своей способности предоставлять сбалансированные обзоры, всё больше альтернатив открыто принимают партийную идентичность. Например, Enoch обещает «стереть из памяти» воспринимаемые предубеждения, а Arya, разработанная правыми социальными сетями Gab, запрограммирована как «неизвиняющаяся правоцентристская националистическая христианская модель ИИ». Чат-бот Grok, разработанный Илоном Маском и встроенный в X, был специально отрегулирован на основе отзывов пользователей, что отражает стремление сформировать его ответы в соответствии с определёнными точками зрения.

Эхо-камеры в коде: как обучаются чат-боты

Эти партийные чат-боты не работают в вакууме. Их поведение тщательно выстраивается посредством двухэтапного процесса обучения. Сначала человеческие тестировщики оценивают ответы на предмет полезности – показатель, который возвращается в модель для совершенствования ответов. Затем разработчики пишут явные инструкции, известные как системные подсказки, которые определяют тон, содержание и даже мировоззрение чат-бота. Эти инструкции, часто скрытые от публичного обозрения, могут содержать тысячи слов, формируя ответы бота для отражения конкретных идеологических позиций.

Например, углублённый анализ инструкций для Arya – обнаруженный с помощью специальных «jailbreaking»-техник – показал, что чат-бот построен на принципе «этнонационализма», считает инициативы по продвижению разнообразия «антибелым дискриминацией» и запрограммирован на «абсолютное повиновение» запросам пользователей, даже если эти запросы включают в себя создание потенциально оскорбительного контента.

Проблема безоговорочного принятия

Несмотря на частые предупреждения об их склонности допускать ошибки и даже выдумывать информацию («галлюцинации»), пользователи всё чаще принимают чат-ботов в качестве надёжных источников истины. Удобство чат-ботов в готовности давать ответы почти на любой вопрос с кажущейся непоколебимой уверенностью поощряет неоправданное доверие к их точности.

Эта тенденция к безоговорочному принятию особенно заметна в ситуациях, связанных со срочными новостями. Grok, в частности, стал популярным «факт-чекером» для многих пользователей X, которые упоминают бота в своих постах и новостных статьях, спрашивая: «Это правда?» Недавний случай привёл к тому, что Grok ошибочно идентифицировал видео протестов в Бостоне как происходящее в 2017 году, что было повторено видным политиком до исправления.

Разрушение правды и рост фильтрованного восприятия

Появление этих партийных чат-ботов сигнализирует о тревожной тенденции: разрушение общего понимания правды. Позволяя пользователям выбирать чат-ботов, которые подкрепляют их существующие убеждения, эти модели фактически создают персонализированные эхо-камеры, в которых противоречивые точки зрения отсеиваются, а грань между объективным фактом и субъективной интерпретацией становится всё более размытой. Как отмечает Орен Этион, профессор эмеритус Вашингтонского университета, люди, вероятно, будут выбирать свои чат-боты так же, как и свои медиаисточники — тревожная перспектива в обществе, которое уже сталкивается с распространением дезинформации и поляризованными взглядами. В конечном итоге, подъем партийных чат-ботов угрожает превратить поиск правды в всего лишь ещё одно поле битвы в продолжающихся культурных войнах.