Il caso di Matthew Livelsberger, un soldato del Colorado che si è fatto esplodere fuori da un hotel di Las Vegas il giorno di Capodanno dell’anno scorso, evidenzia una nuova, terrificante realtà: i chatbot basati sull’intelligenza artificiale possono essere sfruttati per pianificare la violenza nel mondo reale. Livelsberger ha utilizzato ChatGPT per raccogliere istruzioni dettagliate su esplosivi, limiti di acquisto legali e metodi di comunicazione non tracciabili pochi giorni prima del suo tentativo di attentato suicida.
L’attacco e la connessione dell’IA
Livelsberger ha parcheggiato un Tesla Cybertruck pieno di esplosivo vicino al Trump International Hotel di Las Vegas, poi si è sparato, facendo esplodere i materiali. Sebbene sia stato l’unico morto, sette passanti sono rimasti feriti. Un investigatore di OpenAI ha successivamente confermato che Livelsberger aveva interrogato direttamente ChatGPT per informazioni sulla tannerite (un sostituto della dinamite), sulle armi da fuoco ottimali per la detonazione e su come ottenere questi rifornimenti lungo il suo percorso di viaggio. Ha anche chiesto informazioni sui telefoni prepagati che non richiedono la verifica personale.
Questo incidente segna il primo caso confermato di utilizzo di ChatGPT per facilitare un complotto per la fabbricazione di bombe sul suolo americano, secondo i funzionari di Las Vegas. Il fatto che un’intelligenza artificiale commercializzata come dotata di “intelligenza a livello di dottorato” non sia riuscita a segnalare domande così pericolose solleva seri interrogativi sui suoi protocolli di sicurezza.
Privacy e sicurezza pubblica nell’era dell’intelligenza artificiale
Il problema principale è che le leggi attuali proteggono pesantemente la privacy degli utenti. Aziende come OpenAI non sono legalmente obbligate a divulgare dati sensibili degli utenti, inclusa la pianificazione violenta, a meno che un giudice non emetta un mandato o non vi sia una minaccia immediata di morte o gravi danni. Si tratta di un principio di lunga data, radicato fin dagli albori della comunicazione digitale, progettato per proteggere i cittadini dalla sorveglianza ingiustificata del governo.
Tuttavia, i chatbot basati sull’intelligenza artificiale stanno cambiando l’equazione. La loro capacità di elaborare e generare informazioni complesse crea nuove vulnerabilità. Se un’intelligenza artificiale assiste attivamente qualcuno nella preparazione di un attacco, l’azienda ha la responsabilità di avvisare le autorità, anche se ciò significa violare la privacy dell’utente? Questo dilemma non ha una risposta semplice, ma il caso Livelsberger dimostra che l’inazione potrebbe avere conseguenze mortali.
Il futuro del monitoraggio dell’intelligenza artificiale
Il dibattito sul bilanciamento tra privacy degli utenti e sicurezza pubblica non potrà che intensificarsi man mano che l’intelligenza artificiale diventerà sempre più integrata nella vita quotidiana. Le aziende devono valutare se gli attuali quadri giuridici sono adeguati per affrontare i rischi unici posti dall’intelligenza artificiale generativa. La domanda non è solo se l’intelligenza artificiale può essere utilizzata per fare danni, ma se i sistemi in atto possono effettivamente prevenirli. Il caso Livelsberger ci ricorda chiaramente che la tecnologia, sebbene potente, non è neutrale. Il suo potenziale di abuso richiede un’attenzione urgente sia da parte dei legislatori che degli sviluppatori tecnologici.

















