Waymo, una importante empresa de vehículos autónomos, se enfrentó a una realidad inquietante en Austin, Texas: sus vehículos no se detenían repetidamente ante los autobuses escolares mientras sus luces estaban encendidas y con los brazos extendidos. A pesar de las actualizaciones de software e incluso de un retiro federal, el problema persistió, lo que generó serias dudas sobre los límites de la tecnología autónoma y la rapidez con la que puede adaptarse a los peligros del mundo real. Los incidentes, documentados por el Distrito Escolar Independiente de Austin (AISD) e investigados por la Junta Nacional de Seguridad en el Transporte (NTSB), muestran que incluso la IA avanzada puede tener dificultades con protocolos de seguridad aparentemente simples.
Fracasos repetidos a pesar de la intervención
Durante meses, los automóviles Waymo supuestamente adelantaron ilegalmente a los autobuses escolares en al menos 19 casos, poniendo en peligro a los niños al subir o bajar de los vehículos. La compañía reconoció al menos 12 de estos incidentes ante la Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA), y en diciembre emitió un retiro para abordar el problema. Sin embargo, incluso después del retiro, las violaciones continuaron, y AISD informó cuatro incidentes más a mediados de enero. Los funcionarios escolares señalaron que los conductores humanos que violan las leyes de tránsito generalmente no repiten la infracción, pero el sistema de Waymo parecía incapaz de aprender de sus errores, a pesar de las múltiples actualizaciones de software.
Los esfuerzos de recopilación de datos fueron insuficientes
En un intento por resolver el problema, AISD colaboró con Waymo organizando un evento de “recopilación de datos” donde se recopilaron autobuses escolares y señales de alto para que la empresa los analizara. El distrito incluso proporcionó a Waymo especificaciones detalladas sobre los sistemas de iluminación de sus autobuses. A pesar de este esfuerzo, los incidentes de paso continuaron, destacando las limitaciones de entrenar IA en entornos controlados frente a condiciones impredecibles del mundo real. El informe preliminar de la NTSB reveló que en un caso, un operador remoto de Waymo le dijo incorrectamente al vehículo que las señales del autobús escolar estaban inactivas, lo que provocó seis infracciones más.
Desafíos tecnológicos subyacentes
Expertos como Missy Cummings de la Universidad George Mason explican que el software de conducción autónoma ha tenido dificultades durante mucho tiempo para reconocer las luces de emergencia intermitentes y los dispositivos de seguridad vial, particularmente aquellos con brazos largos y delgados. Philip Koopman, de la Universidad Carnegie Mellon, añade que las señales de alto tienen diferentes significados en distintos contextos, lo que dificulta que la IA las interprete de forma coherente. El problema no consiste simplemente en reconocer un objeto, sino en comprender su relevancia en un entorno dinámico.
El fracaso de Waymo para corregir este problema subraya un desafío más amplio en el desarrollo de vehículos autónomos: enseñar a las máquinas a manejar el “último 1 por ciento” de escenarios impredecibles. Lograr el 99 por ciento de seguridad es relativamente sencillo; el porcentaje final requiere abordar casos extremos que son difíciles de anticipar o replicar en las pruebas. Este incidente sugiere que los enfoques actuales del aprendizaje automático pueden no ser suficientes para garantizar una seguridad constante en entornos complejos.
La situación sigue siendo investigada por la NTSB, y Waymo se niega a hacer comentarios. Los incidentes plantean preguntas fundamentales sobre la preparación de los vehículos autónomos para un despliegue generalizado, particularmente en áreas con poblaciones vulnerables como los escolares.




















