Waymo, l’un des principaux constructeurs de voitures autonomes, a été confronté à une réalité inquiétante à Austin, au Texas : ses véhicules ne parvenaient pas à s’arrêter à plusieurs reprises pour les autobus scolaires alors que leurs feux clignotaient et leurs bras d’arrêt étaient tendus. Malgré les mises à jour logicielles et même un rappel fédéral, le problème a persisté, soulevant de sérieuses questions sur les limites de la technologie autonome et sur la rapidité avec laquelle elle peut s’adapter aux dangers du monde réel. Les incidents, documentés par l’Austin Independent School District (AISD) et enquêtés par le National Transportation Safety Board (NTSB), montrent que même l’IA avancée peut avoir des difficultés avec des protocoles de sécurité apparemment simples.

Échecs répétés malgré l’intervention

Pendant des mois, les voitures Waymo auraient dépassé illégalement des autobus scolaires dans au moins 19 cas, mettant ainsi les enfants en danger lorsqu’ils montaient ou descendaient des véhicules. L’entreprise a reconnu au moins 12 de ces incidents auprès de la National Highway Traffic Safety Administration (NHTSA), publiant un rappel en décembre pour résoudre le problème. Pourtant, même après le rappel, les violations ont continué, l’AISD signalant quatre autres incidents à la mi-janvier. Les responsables de l’école ont noté que les conducteurs humains qui enfreignent le code de la route ne récidivent généralement pas, mais le système de Waymo semble incapable d’apprendre de ses erreurs, malgré plusieurs mises à jour logicielles.

Les efforts de collecte de données ont échoué

Pour tenter de résoudre le problème, l’AISD a collaboré avec Waymo, en organisant un événement de « collecte de données » au cours duquel les signaux des bus scolaires et des bras d’arrêt ont été collectés pour que l’entreprise puisse les analyser. Le district a même fourni à Waymo des spécifications détaillées des systèmes d’éclairage de ses bus. Malgré ces efforts, les incidents se sont poursuivis, soulignant les limites de la formation de l’IA dans des environnements contrôlés par rapport aux conditions imprévisibles du monde réel. Le rapport préliminaire du NTSB a révélé que dans un cas, un opérateur Waymo à distance a indiqué à tort au véhicule que les signaux de l’autobus scolaire étaient inactifs, ce qui a entraîné six autres violations.

Défis technologiques sous-jacents

Des experts comme Missy Cummings de l’Université George Mason expliquent que les logiciels de conduite autonome ont longtemps eu du mal à reconnaître les feux de secours clignotants et les dispositifs de sécurité routière, en particulier ceux dotés de bras longs et fins. Philip Koopman de l’Université Carnegie Mellon ajoute que les panneaux d’arrêt ont des significations différentes selon les contextes, ce qui rend difficile pour l’IA de les interpréter de manière cohérente. Le problème ne consiste pas simplement à reconnaître un objet, mais à comprendre sa pertinence dans un environnement dynamique.

L’échec de Waymo à corriger ce problème souligne un défi plus large dans le développement de véhicules autonomes : apprendre aux machines à gérer le « dernier pour cent » de scénarios imprévisibles. Atteindre une sécurité de 99 pour cent est relativement simple ; le dernier pourcentage nécessite de traiter des cas extrêmes difficiles à anticiper ou à reproduire lors des tests. Cet incident suggère que les approches actuelles de l’apprentissage automatique pourraient ne pas suffire à garantir une sécurité constante dans des environnements complexes.

La situation fait toujours l’objet d’une enquête de la part du NTSB, Waymo refusant de commenter. Ces incidents soulèvent des questions fondamentales quant à l’état de préparation des véhicules autonomes à un déploiement généralisé, en particulier dans les zones abritant des populations vulnérables comme les écoliers.