Waymo, провідна компанія з розробки безпілотних автомобілів, зіткнулася з тривожною реальністю в Остіні, штат Техас: її транспортні засоби неодноразово не зупинялися перед шкільними автобусами, коли в них блимали стоп-сигнали та висувалися висувні стоп-рукави. Незважаючи на оновлення програмного забезпечення і навіть федеральний відгук, проблема залишалася, що викликає серйозні питання про межі автономних технологій та швидкості, з якою вони можуть адаптуватися до реальних небезпек. Інциденти, задокументовані незалежним шкільним округом Остіна (AISD) і розслідувані Національною радою з безпеки на транспорті (NTSB), показують, що навіть передовий ІІ може боротися з простими протоколами безпеки.
Повторні збої, незважаючи на втручання
Протягом кількох місяців автомобілі Waymo, ймовірно, незаконно проїжджали повз шкільні автобуси не менш ніж у 19 випадках, наражаючи на небезпеку дітей, коли вони сідали або виходили з транспортних засобів. Компанія визнала принаймні 12 цих інцидентів Національному управлінню безпекою руху на автомагістралях (NHTSA), випустивши відгук у грудні для вирішення проблеми. Проте, навіть після відкликання порушення тривали: AISD повідомила про чотири додаткові інциденти до середини січня. Представники школи зазначили, що водії-люди, які порушують правила дорожнього руху, зазвичай не повторюють правопорушення, але система Waymo, здавалося, не могла вчитися на своїх помилках, незважаючи на численні оновлення програмного забезпечення.
Зусилля зі збору даних виявилися недостатніми
У спробі вирішити проблему AISD співпрацював з Waymo, організувавши “захід зі збору даних”, де шкільні автобуси та стоп-сигнали були зібрані для аналізу компанією. Округ навіть надав Waymo докладні специфікації освітлювальних систем своїх автобусів. Незважаючи на ці зусилля, порушення продовжувалися, що наголошує на обмеженні навчання ІІ в контрольованих умовах порівняно з непередбачуваними реальними ситуаціями. Попередній звіт NTSB показав, що в одному випадку віддалений оператор Waymo неправильно повідомив транспортний засіб, що сигнали шкільного автобуса неактивні, що призвело до шести додаткових порушень.
Основні технологічні проблеми
Експерти, такі як Міссі Каммінгс з Університету Джорджа Мейсона, пояснюють, що програмне забезпечення для автономного водіння довгий час зазнавало труднощів із розпізнаванням миготливих аварійних вогнів і дорожніх засобів безпеки, особливо тих, у яких довгі тонкі важелі. Філіп Купман з Університету Карнегі — Меллона додає, що стоп-знаки мають різне значення в різних контекстах, що ускладнює ІІ їхню послідовну інтерпретацію. Проблема полягає не просто у розпізнаванні об’єкта, а в розумінні його актуальності у динамічному середовищі.
Нездатність Waymo виправити цю проблему наголошує на більш широкій проблемі в розробці автономних транспортних засобів: навчання машин справлятися з “останнім 1 відсотком” непередбачуваних сценаріїв. Досягнення 99-відсоткової безпеки щодо просто; останній відсоток вимагає вирішення крайніх випадків, які важко передбачити чи відтворити під час тестування. Цей інцидент передбачає, що поточні підходи до машинного навчання можуть бути недостатніми для забезпечення послідовної безпеки у складних умовах.
Ситуація залишається під слідством NTSB, а Waymo відмовилася давати коментарі. Інциденти порушують фундаментальні питання щодо готовності автономних транспортних засобів до широкого розгортання, особливо в районах із вразливими групами населення, такими як школярі.

















