Incident Matthewa Livelsbergera, vojáka z Colorada, který se na Nový rok odpálil před hotelem v Las Vegas, zdůrazňuje novou děsivou realitu: AI chatboty by mohly být použity k plánování skutečných násilných činů. Livelsberger používal ChatGPT k získání podrobných instrukcí o výbušninách, zákonných limitech nákupu a nevysledovatelných komunikačních metodách jen několik dní před svým pokusem o sebevražedný atentát.
Útok a AI komunikace
Livelsberger zaparkoval Tesla Cybertruck nabitý výbušninami před hotelem Trump International v Las Vegas a poté se zastřelil při odpalování materiálů. Přestože byl jedinou obětí, sedm přihlížejících bylo zraněno. Vyšetřovatel OpenAI později potvrdil, že Livelsberger přímo požadoval informace od ChatGPT o tanneritu (náhradě dynamitu), optimální střelné zbrani pro detonaci, a jak tyto materiály na své cestě získat. Dokonce se ptal na vypalovačky, které nevyžadovaly osobní ověření.
Podle představitelů Las Vegas je incident prvním potvrzeným případem použití ChatGPT k usnadnění plánování bombardování na americké půdě. Skutečnost, že umělá inteligence uváděná na trh jako „s inteligencí na úrovni PhD“ nevarovala před takovými nebezpečnými požadavky, vyvolává vážné otázky ohledně jejích bezpečnostních protokolů.
Soukromí vs. veřejná bezpečnost ve věku umělé inteligence
Hlavním problémem je, že současná legislativa přísně chrání soukromí uživatelů. Společnosti jako OpenAI nejsou ze zákona povinny zveřejňovat citlivá uživatelská data, včetně plánování násilí, pokud soudce nevydá zatykač nebo nehrozí bezprostřední hrozba smrti nebo vážné újmy. Jedná se o dlouhodobý princip, zakořeněný v počátcích digitální komunikace, který má chránit občany před neoprávněným vládním dohledem.
AI chatboti však mění rovnici. Jejich schopnost zpracovávat a generovat složité informace vytváří nová zranitelnost. Pokud AI aktivně pomáhá někomu připravit se na útok, je společnost odpovědná za upozornění úřadů, i když to znamená narušení soukromí uživatele? Toto dilema nemá snadnou odpověď, ale případ Livelsbergera ukazuje, že nečinnost může mít smrtelné následky.
Budoucnost monitorování AI
Debata o rovnováze mezi soukromím uživatelů a veřejnou bezpečností se bude jen zintenzivňovat, jak se umělá inteligence více integruje do každodenního života. Společnosti musí zvážit, zda stávající právní rámce postačují k řešení jedinečných rizik spojených s generativní AI. Otázkou není, zda AI lze použít ke škodě, ale zda tomu mohou stávající systémy účinně zabránit. Livelsbergerův případ slouží jako jasná připomínka, že technologie, i když je výkonná, není neutrální. Jeho potenciál ke zneužití vyžaduje naléhavou pozornost ze strany zákonodárců i vývojářů technologií.



















