Инцидент с Мэтью Ливелсбергером, солдатом из Колорадо, взорвавшим себя возле отеля в Лас-Вегасе в первый день нового года, высвечивает пугающую новую реальность: ИИ-чат-боты могут быть использованы для планирования реальных актов насилия. Ливелсбергер использовал ChatGPT для получения подробных инструкций о взрывчатке, легальных лимитах на покупку и не отслеживаемых методах связи всего за несколько дней до его попытки самоубийственного взрыва.
Нападение и Связь с ИИ
Ливелсбергер припарковал Tesla Cybertruck, набитый взрывчаткой, возле Trump International Hotel в Лас-Вегасе, а затем застрелился, детонируя материалы. Хотя он был единственной жертвой, семеро прохожих получили ранения. Следователь OpenAI позже подтвердил, что Ливелсбергер напрямую запрашивал у ChatGPT информацию о таннерите (заменителе динамита), оптимальном огнестрельном оружии для детонации и о том, как получить эти материалы по своему маршруту. Он даже спрашивал о одноразовых телефонах, не требующих личной верификации.
Этот инцидент знаменует собой первый подтвержденный случай использования ChatGPT для содействия планированию взрывов на территории США, согласно данным официальных лиц Лас-Вегаса. Тот факт, что ИИ, позиционируемый как обладающий «интеллектом уровня доктора наук», не смог предупредить о таких опасных запросах, поднимает серьезные вопросы о его протоколах безопасности.
Конфиденциальность против Общественной Безопасности в Эпоху ИИ
Основная проблема заключается в том, что действующее законодательство жестко защищает конфиденциальность пользователей. Компании, такие как OpenAI, не обязаны по закону раскрывать конфиденциальные пользовательские данные, включая планирование насилия, если только судья не выдаст ордер или нет непосредственной угрозы смерти или серьезного вреда. Это давний принцип, укоренившийся в ранние дни цифровых коммуникаций, предназначенный для защиты граждан от необоснованной правительственной слежки.
Однако ИИ-чат-боты меняют уравнение. Их способность обрабатывать и генерировать сложную информацию создает новые уязвимости. Если ИИ активно помогает кому-то готовиться к нападению, несет ли компания ответственность за предупреждение властей, даже если это означает нарушение конфиденциальности пользователя? Эта дилемма не имеет простого ответа, но случай Ливелсбергера показывает, что бездействие может иметь смертельные последствия.
Будущее Мониторинга ИИ
Дебаты о балансе между конфиденциальностью пользователей и общественной безопасностью будут только усиливаться по мере того, как ИИ будет все больше интегрироваться в повседневную жизнь. Компании должны учитывать, достаточно ли существующих правовых рамок для решения уникальных рисков, связанных с генеративным ИИ. Вопрос не в том, может ли ИИ быть использован во вред, а в том, могут ли существующие системы эффективно предотвратить это. Случай Ливелсбергера служит суровым напоминанием о том, что технология, хотя и мощная, не является нейтральной. Ее потенциал для злоупотреблений требует неотложного внимания как со стороны законодателей, так и разработчиков технологий.



















