Waymo, azienda leader nel settore delle auto a guida autonoma, si è trovata ad affrontare una realtà inquietante ad Austin, in Texas: i suoi veicoli non sono riusciti ripetutamente a fermarsi per gli scuolabus mentre le luci lampeggiavano e i bracci di arresto erano tesi. Nonostante gli aggiornamenti software e persino un richiamo federale, il problema persisteva, sollevando seri interrogativi sui limiti della tecnologia autonoma e sulla rapidità con cui può adattarsi ai pericoli del mondo reale. Gli incidenti, documentati dall’Austin Independent School District (AISD) e indagati dal National Transportation Safety Board (NTSB), mostrano che anche l’intelligenza artificiale avanzata può avere difficoltà con protocolli di sicurezza apparentemente semplici.
Fallimenti ripetuti nonostante l’intervento
Per mesi, le auto Waymo avrebbero superato illegalmente gli scuolabus in almeno 19 casi, mettendo in pericolo i bambini mentre salivano o scendevano dai veicoli. La società ha riconosciuto almeno 12 di questi incidenti alla National Highway Traffic Safety Administration (NHTSA), emettendo un richiamo a dicembre per affrontare la questione. Tuttavia, anche dopo il richiamo, le violazioni sono continuate, con l’AISD che ha segnalato altri quattro incidenti entro metà gennaio. I funzionari scolastici hanno notato che i conducenti umani che violano il codice della strada in genere non ripetono il reato, ma il sistema di Waymo sembrava incapace di imparare dai propri errori, nonostante i numerosi aggiornamenti software.
Gli sforzi per la raccolta dei dati sono falliti
Nel tentativo di risolvere il problema, AISD ha collaborato con Waymo, ospitando un evento di “raccolta dati” in cui sono stati raccolti autobus scolastici e segnali di arresto affinché l’azienda potesse analizzarli. Il distretto ha fornito a Waymo anche le specifiche dettagliate dei sistemi di illuminazione dei suoi autobus. Nonostante questo sforzo, gli incidenti passeggeri sono continuati, evidenziando i limiti dell’addestramento dell’IA in ambienti controllati rispetto alle imprevedibili condizioni del mondo reale. Il rapporto preliminare dell’NTSB ha rivelato che in un caso un operatore Waymo remoto ha erroneamente comunicato al veicolo che i segnali dello scuolabus erano inattivi, portando ad altre sei violazioni.
Sfide tecnologiche sottostanti
Esperti come Missy Cummings della George Mason University spiegano che i software di guida autonoma hanno a lungo faticato a riconoscere le luci di emergenza lampeggianti e i dispositivi di sicurezza stradale, in particolare quelli con bracci lunghi e sottili. Philip Koopman della Carnegie Mellon University aggiunge che i segnali di stop hanno significati diversi in vari contesti, rendendo difficile per l’intelligenza artificiale interpretarli in modo coerente. Il problema non è semplicemente riconoscere un oggetto, ma comprenderne la rilevanza in un ambiente dinamico.
L’incapacità di Waymo di correggere questo problema sottolinea una sfida più ampia nello sviluppo di veicoli autonomi: insegnare alle macchine a gestire “l’ultimo 1%” di scenari imprevedibili. Raggiungere il 99% di sicurezza è relativamente semplice; la percentuale finale richiede di affrontare casi limite difficili da anticipare o replicare durante i test. Questo incidente suggerisce che gli attuali approcci all’apprendimento automatico potrebbero non essere sufficienti per garantire una sicurezza coerente in ambienti complessi.
La situazione rimane sotto indagine da parte dell’NTSB, con Waymo che rifiuta di commentare. Gli incidenti sollevano questioni fondamentali sulla disponibilità dei veicoli autonomi per un dispiegamento diffuso, in particolare nelle aree con popolazioni vulnerabili come i bambini in età scolare.
