Waymo, sebuah perusahaan mobil self-driving terkemuka, menghadapi kenyataan yang meresahkan di Austin, Texas: kendaraannya berulang kali gagal berhenti di bus sekolah ketika lampunya berkedip dan lengan berhenti terulur. Meskipun ada pembaruan perangkat lunak dan bahkan penarikan kembali oleh pemerintah federal, masalah ini tetap ada, menimbulkan pertanyaan serius tentang keterbatasan teknologi otonom dan seberapa cepat teknologi tersebut dapat beradaptasi dengan bahaya di dunia nyata. Insiden tersebut, yang didokumentasikan oleh Austin Independent School District (AISD) dan diselidiki oleh Dewan Keselamatan Transportasi Nasional (NTSB), menunjukkan bahwa AI tingkat lanjut pun dapat kesulitan dengan protokol keselamatan yang tampaknya sederhana.
Kegagalan Berulang Meskipun Ada Intervensi
Selama berbulan-bulan, mobil Waymo diduga melewati bus sekolah secara ilegal setidaknya dalam 19 kasus, membahayakan anak-anak saat mereka naik atau keluar dari kendaraan. Perusahaan tersebut mengakui setidaknya 12 insiden tersebut kepada Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional (NHTSA), dan mengeluarkan penarikan kembali pada bulan Desember untuk mengatasi masalah tersebut. Namun, bahkan setelah penarikan kembali, pelanggaran terus berlanjut, dan AISD melaporkan empat insiden lagi pada pertengahan bulan Januari. Pejabat sekolah mencatat bahwa pengemudi manusia yang melanggar peraturan lalu lintas biasanya tidak mengulangi pelanggarannya, namun sistem Waymo tampaknya tidak dapat belajar dari kesalahannya, meskipun ada banyak pembaruan perangkat lunak.
Upaya Pengumpulan Data Gagal
Dalam upaya untuk mengatasi masalah ini, AISD berkolaborasi dengan Waymo, mengadakan acara “pengumpulan data” di mana bus sekolah dan sinyal stop-arm dikumpulkan untuk dianalisis oleh perusahaan. Distrik tersebut bahkan memberi Waymo spesifikasi rinci tentang sistem penerangan busnya. Terlepas dari upaya ini, insiden yang terjadi terus berlanjut, menyoroti keterbatasan pelatihan AI dalam lingkungan terkendali versus kondisi dunia nyata yang tidak dapat diprediksi. Laporan awal NTSB mengungkapkan bahwa dalam satu kasus, operator Waymo jarak jauh salah memberi tahu kendaraan bahwa sinyal bus sekolah tidak aktif, sehingga menyebabkan enam pelanggaran lagi.
Tantangan Teknologi yang Mendasari
Para ahli seperti Missy Cummings dari George Mason University menjelaskan bahwa perangkat lunak self-driving telah lama kesulitan mengenali lampu darurat yang berkedip dan perangkat keselamatan di jalan, terutama yang memiliki lengan yang panjang dan tipis. Philip Koopman dari Carnegie Mellon University menambahkan bahwa tanda berhenti memiliki arti berbeda dalam berbagai konteks, sehingga menyulitkan AI untuk menafsirkannya secara konsisten. Permasalahannya bukan sekedar mengenali suatu objek, namun memahami relevansinya dalam lingkungan yang dinamis.
Kegagalan Waymo untuk memperbaiki masalah ini menggarisbawahi tantangan yang lebih luas dalam pengembangan kendaraan otonom: mengajarkan mesin untuk menangani “1 persen terakhir” dari skenario yang tidak dapat diprediksi. Mencapai tingkat keselamatan 99 persen relatif mudah; persen terakhir memerlukan penanganan kasus-kasus kecil yang sulit diantisipasi atau ditiru dalam pengujian. Insiden ini menunjukkan bahwa pendekatan pembelajaran mesin saat ini mungkin tidak cukup untuk memastikan keselamatan yang konsisten di lingkungan yang kompleks.
Situasi ini masih diselidiki oleh NTSB, dan Waymo menolak berkomentar. Insiden tersebut menimbulkan pertanyaan mendasar tentang kesiapan kendaraan otonom untuk digunakan secara luas, khususnya di wilayah dengan populasi rentan seperti anak-anak sekolah.
