A Waymo, uma empresa líder de automóveis autônomos, enfrentou uma realidade perturbadora em Austin, Texas: seus veículos falharam repetidamente em parar para os ônibus escolares enquanto suas luzes piscavam e os braços de parada estavam estendidos. Apesar das atualizações de software e até mesmo de um recall federal, o problema persistiu, levantando sérias questões sobre os limites da tecnologia autônoma e a rapidez com que ela pode se adaptar aos perigos do mundo real. Os incidentes, documentados pelo Austin Independent School District (AISD) e investigados pelo National Transportation Safety Board (NTSB), mostram que mesmo a IA avançada pode ter dificuldades com protocolos de segurança aparentemente simples.
Falhas repetidas apesar da intervenção
Durante meses, os carros Waymo supostamente ultrapassaram ônibus escolares ilegalmente em pelo menos 19 casos, colocando crianças em perigo ao embarcar ou sair dos veículos. A empresa reconheceu pelo menos 12 desses incidentes à Administração Nacional de Segurança de Tráfego Rodoviário (NHTSA), emitindo um recall em dezembro para resolver o problema. No entanto, mesmo após a recolha, as violações continuaram, com a AISD a reportar mais quatro incidentes até meados de Janeiro. Os funcionários da escola observaram que os motoristas humanos que violam as leis de trânsito normalmente não repetem a infração, mas o sistema da Waymo parecia incapaz de aprender com seus erros, apesar das múltiplas atualizações de software.
Os esforços de coleta de dados foram insuficientes
Na tentativa de resolver o problema, a AISD colaborou com a Waymo, organizando um evento de “coleta de dados” onde foram coletados ônibus escolares e sinais de parada para análise da empresa. O distrito até forneceu à Waymo especificações detalhadas dos sistemas de iluminação de seus ônibus. Apesar deste esforço, os incidentes passageiros continuaram, destacando as limitações do treinamento de IA em ambientes controlados versus condições imprevisíveis do mundo real. O relatório preliminar do NTSB revelou que, em um caso, um operador remoto da Waymo disse incorretamente ao veículo que os sinais do ônibus escolar estavam inativos, levando a mais seis violações.
Desafios tecnológicos subjacentes
Especialistas como Missy Cummings, da Universidade George Mason, explicam que o software de direção autônoma há muito luta para reconhecer luzes de emergência piscantes e dispositivos de segurança no trânsito, especialmente aqueles com braços longos e finos. Philip Koopman, da Universidade Carnegie Mellon, acrescenta que os sinais de stop têm significados diferentes em vários contextos, tornando difícil para a IA interpretá-los de forma consistente. O problema não é simplesmente reconhecer um objeto, mas compreender sua relevância em um ambiente dinâmico.
O fracasso da Waymo em corrigir este problema sublinha um desafio mais amplo no desenvolvimento de veículos autónomos: ensinar as máquinas a lidar com o “último 1%” de cenários imprevisíveis. Alcançar 99% de segurança é relativamente simples; a porcentagem final exige abordar casos extremos que são difíceis de antecipar ou replicar em testes. Este incidente sugere que as abordagens atuais à aprendizagem automática podem não ser suficientes para garantir uma segurança consistente em ambientes complexos.
A situação continua sob investigação pelo NTSB, e a Waymo se recusou a comentar. Os incidentes levantam questões fundamentais sobre a prontidão dos veículos autónomos para implantação generalizada, especialmente em áreas com populações vulneráveis, como crianças em idade escolar.




















