Інцидент з Метью Лівелсбергером, солдатом з Колорадо, який підірвав себе біля готелю в Лас-Вегасі в перший день нового року, висвічує нову реальність, що лякає: ІІ-чат-боти можуть бути використані для планування реальних актів насильства. Лівелсбергер використовував ChatGPT для отримання докладних інструкцій про вибух методи зв’язку, що відстежуються, всього за кілька днів до його спроби самогубного вибуху.
Напад і Зв’язок з ІІ
Лівелсбергер припаркував Tesla Cybertruck, набитий вибухівкою, біля Trump International Hotel у Лас-Вегасі, а потім застрелився, детонуючи матеріали. Хоча він був єдиною жертвою, семеро перехожих зазнали поранень. Слідчий OpenAI пізніше підтвердив, що Лівелсбергер безпосередньо запитував у ChatGPT інформацію про таннеріт (замінник динаміту), оптимальну вогнепальну зброю для детонації і про те, як отримати ці матеріали за своїм маршрутом. Він навіть питав про одноразові телефони, які не потребують особистої верифікації.
Цей інцидент знаменує перший підтверджений випадок використання ChatGPT для сприяння плануванню вибухів на території США, згідно з даними офіційних осіб Лас-Вегаса. Той факт, що ІІ, що позиціонується як “інтелект рівня доктора наук”, не зміг попередити про такі небезпечні запити, порушує серйозні питання про його протоколи безпеки.
Конфіденційність проти Громадської Безпеки в Епоху ІІ
Основна проблема полягає в тому, що чинне законодавство жорстко захищає конфіденційність користувачів. Компанії, такі як OpenAI, не зобов’язані за законом розкривати конфіденційні дані користувача, включаючи планування насильства, якщо тільки суддя не видасть ордер або немає безпосередньої загрози смерті або серйозної шкоди. Це давній принцип, який укорінився в ранні дні цифрових комунікацій, призначений для захисту громадян від необґрунтованого урядового стеження.
Однак ІІ-чат-боти змінюють рівняння. Їхня здатність обробляти та генерувати складну інформацію створює нові вразливості. Якщо ІІ активно допомагає комусь готуватися до нападу, чи несе компанія відповідальність за попередження влади, навіть якщо це означає порушення конфіденційності користувача? Ця дилема не має простої відповіді, але випадок Лівелсбергер показує, що бездіяльність може мати смертельні наслідки.
Майбутнє Моніторингу ІІ
Дебати про баланс між конфіденційністю користувачів та суспільною безпекою будуть тільки посилюватися в міру того, як ІІ все більше інтегруватиметься у повсякденне життя. Компанії повинні враховувати, чи достатньо правових рамок для вирішення унікальних ризиків, пов’язаних з генеративним ІІ. Питання не в тому, чи може ІІ бути використаний на шкоду, а в тому, чи можуть існуючі системи ефективно запобігти цьому. Випадок Лівелсбергер служить суворим нагадуванням про те, що технологія, хоча і потужна, не є нейтральною. Її потенціал для зловживань потребує негайної уваги як з боку законодавців, так і розробників технологій.
