Чат-боти зі штучним інтелектом, які спочатку позиціонувалися як нейтральні джерела інформації, навчені величезною базою знань, все частіше виявляються втягнутими в політичні та культурні конфлікти в Америці. Нова хвиля чат-ботів, яка суттєво відрізняється від основних моделей, таких як ChatGPT і Gemini, створюється з явною метою націлювання на конкретні ідеологічні погляди, посилення існуючих розбіжностей і стирання меж між фактами та думкою.

Ландшафт політично орієнтованого ШІ

У той час як популярні чат-боти, такі як ChatGPT і Gemini, часто рекламуються за їх здатність надавати збалансовані відгуки, зростає кількість альтернатив, які відкрито приймають партійну ідентичність. Наприклад, Енох обіцяє «знищити» сприйману упередженість, тоді як Arya, розроблена правою компанією соціальних медіа Gab, запрограмована як «невибачлива правоцентристська націоналістична християнська модель ШІ». Чат-бот Grok, розроблений Ілоном Маском і вбудований у X, був налаштований на основі відгуків користувачів, що відображає бажання формувати відповіді на конкретні точки зору.

Ехо-камери в коді: як навчають чат-ботів

Ці партійні чат-боти не працюють у вакуумі. Їхня поведінка ретельно обумовлюється через двоетапний процес навчання. По-перше, люди-тестери оцінюють відповіді на корисність, показник, який повертається в модель для покращення відповідей. Потім розробники пишуть чіткі інструкції, відомі як системні підказки, які визначають тон, вміст і навіть світогляд чат-бота. Ці інструкції, часто приховані від загального огляду, можуть охоплювати тисячі слів, формуючи відповіді бота відповідно до конкретних ідеологічних позицій.

Наприклад, поглиблений аналіз інструкцій Арії, виявлений за допомогою методів джейлбрейка, показав, що чат-бот побудований на принципах «етнонаціоналізму», розглядає ініціативи різноманітності як «анти-білу дискримінацію» та запрограмований на «повне підкорення» запитам користувачів, навіть якщо ці запити включають створення потенційно образливого контенту.

Проблема безумовного прийняття

Незважаючи на часті попередження про їхню схильність помилятися та навіть вигадувати інформацію («галюцинації»), користувачі все більше сприймають чат-ботів як надійні джерела правди. Зручність чат-ботів у тому, що вони можуть відповідати майже на будь-яке запитання з, здавалося б, непохитною впевненістю, заохочує необґрунтовану довіру до їхньої точності.

Ця тенденція до беззастережного прийняття особливо помітна в ситуаціях, пов’язаних із екстреними новинами. Зокрема, Grok став популярним «фактчекером» для багатьох користувачів X, які згадують бота у своїх публікаціях і статтях новин, запитуючи «Це правда?» Нещодавній випадок призвів до того, що Грок неправильно ідентифікував відео протестів у Бостоні як те, що відбулося в 2017 році, яке було повторено відомим політиком перед тим, як було виправлено.

Руйнування істини та зростання відфільтрованого сприйняття

Поява цих партійних чат-ботів свідчить про тривожну тенденцію: розмивання загального розуміння істини. Дозволяючи користувачам вибирати чат-ботів, які зміцнюють їхні існуючі переконання, ці моделі ефективно створюють персоналізовані ехокамери, у яких суперечливі точки зору відфільтровуються, а межа між об’єктивними фактами та суб’єктивною інтерпретацією стає все більш розмитою. Як зазначає Орен Етіон, почесний професор Університету Вашингтона, люди, ймовірно, обиратимуть своїх чат-ботів так само, як вони вибирають джерела інформації — тривожна перспектива в суспільстві, яке вже бореться з поширенням дезінформації та поляризованих поглядів. Зрештою, зростання партизанських чат-ботів загрожує перетворити пошук істини на ще одне поле битви в поточних культурних війнах.