Kasus Matthew Livelsberger, seorang tentara Colorado yang meledakkan dirinya di luar sebuah hotel di Las Vegas pada Hari Tahun Baru tahun lalu, menyoroti kenyataan baru yang mengerikan: Chatbot AI dapat dieksploitasi untuk merencanakan kekerasan di dunia nyata. Livelsberger menggunakan ChatGPT untuk mengumpulkan petunjuk rinci tentang bahan peledak, batasan pembelian yang sah, dan metode komunikasi yang tidak dapat dilacak hanya beberapa hari sebelum upaya bom bunuh diri yang dilakukannya.

Serangan dan Koneksi AI

Livelsberger memarkir Tesla Cybertruck yang berisi bahan peledak di dekat Trump International Hotel di Las Vegas, lalu menembak dirinya sendiri, meledakkan bahan-bahan tersebut. Meskipun dia adalah satu-satunya korban jiwa, tujuh orang yang berada di dekatnya terluka. Penyelidik OpenAI kemudian mengkonfirmasi bahwa Livelsberger telah secara langsung menanyakan ChatGPT untuk mendapatkan informasi tentang Tannerite (pengganti dinamit), senjata api yang optimal untuk peledakan, dan cara mendapatkan pasokan ini di sepanjang rute perjalanannya. Dia bahkan bertanya tentang ponsel burner yang tidak memerlukan verifikasi pribadi.

Insiden ini menandai penggunaan ChatGPT pertama yang dikonfirmasi untuk memfasilitasi rencana pembuatan bom di wilayah AS, menurut pejabat Las Vegas. Fakta bahwa AI yang dipasarkan memiliki “kecerdasan tingkat Ph.D.” gagal menandai pertanyaan berbahaya tersebut menimbulkan pertanyaan serius tentang protokol keamanannya.

Privasi vs. Keamanan Publik di Era AI

Masalah intinya adalah undang-undang saat ini sangat melindungi privasi pengguna. Perusahaan seperti OpenAI tidak diwajibkan secara hukum untuk mengungkapkan data sensitif pengguna – termasuk perencanaan kekerasan – kecuali jika hakim mengeluarkan surat perintah atau ada ancaman kematian atau cedera parah. Ini adalah prinsip lama yang berakar pada masa-masa awal komunikasi digital, yang dirancang untuk melindungi warga negara dari pengawasan pemerintah yang tidak beralasan.

Namun, chatbot AI mengubah persamaan tersebut. Kemampuan mereka untuk memproses dan menghasilkan informasi yang kompleks menciptakan kerentanan baru. Jika AI secara aktif membantu seseorang dalam mempersiapkan serangan, apakah perusahaan bertanggung jawab untuk memperingatkan pihak berwenang, meskipun hal itu berarti melanggar privasi pengguna? Dilema ini tidak memiliki jawaban yang mudah, namun kasus Livelsberger menunjukkan bahwa tidak adanya tindakan dapat menimbulkan konsekuensi yang mematikan.

Masa Depan Pemantauan AI

Perdebatan mengenai keseimbangan privasi pengguna dan keselamatan publik akan semakin meningkat seiring dengan semakin terintegrasinya AI ke dalam kehidupan sehari-hari. Perusahaan harus mempertimbangkan apakah kerangka hukum yang ada saat ini memadai untuk mengatasi risiko unik yang ditimbulkan oleh AI generatif. Pertanyaannya bukan hanya apakah AI dapat digunakan untuk tindakan yang merugikan, namun apakah sistem yang ada dapat mencegahnya secara efektif. Kasus Livelsberger adalah pengingat yang jelas bahwa teknologi, meskipun kuat, tidaklah netral. Potensi penyalahgunaannya memerlukan perhatian mendesak baik dari anggota parlemen maupun pengembang teknologi.