авария с Тесла заснятая на камеры. Породила кучу вопросов.
из ФБ
Ольга Ускова
8 июня в 08:22
СПЕЦИАЛЬНОЕ ПРЕДУПРЕЖДЕНИЕ
Этот пост может быть чью-то жизнь спасёт или хотя бы чьи-нибудь мозги прочистит. Потому что официально достучаться ни до чиновников, ни до фанатов и модников мне не удаётся. А среди них попадаются приличные люди и таковых искренне жаль.
Итак, 1 июня 2020 года в 6.40 утра на Национальном Хайвее Тайваня мистер Хуанг на скорости 110 км/ч впечатался в лежащий на дороге перевернутый трак на Tesla Model 3, которая шла на автопилоте. День был солнечный, воздух прозрачный. Водитель перевернутого трака выскочил на дорогу и размахивал руками, но....
Впечаталась. Не снижая скорости. Не пикнув. В лоб.
Ниже приведу разбор ситуации профессиональными разработчиками систем Искусственного Интеллекта для автономных автомобилей, но сначала обозначу базовые вопросы и к чиновникам, и к Tesla, и к покупателям Tesla.
1) Тайваньская авария, по сути, повторяет инциденты во Флориде: ясная погода и препятствие в виде большого светлого прямоугольника, который автопилот игнорирует.
1 марта 2019 года во Флориде произошла аналогичная авария: водитель Tesla Model 3 Джереми Берен Баннер активировал автопилот, искусственный интеллект не распознал пересекавшую дорогу фуру и направил электромобиль под полуприцеп. Водитель Tesla от полученных в результате столкновения травм скончался.
Так почему же данная модель не была отозвана американским производителем после первого летального случая?
Какую вонь все подняли когда обнаружили, что Фольксваген мухлюет с выхлопами CO2. Их СТО до сих пор в тюрьме сидит за обман , отозвали миллионы машин и все такое.
Но эти правила не распространяются на Теслу. Почему?
2) Дорогие российские городские чиновники, прежде чем выпускать автомобили с автономными функциями на дороги общего пользования, определите технологические тесты для сертификации качества ИИ на борту. Не выпускайте "убийц" даже в режиме эксперимента.
3) Дорогие покупатели-фанаты Илона Маска, включите головы, пока они целы у вас еще. Тесла - машина с сырыми мозгами. Не пользуйтесь неоттестированными функциями. Берегите себя. Среди вас есть отличные ребята, не хочется, чтобы вы стали цифрой в аварийной статистике.
Теперь голоса разработчиков Cognitive Pilot:
Илья (machine lerning)
- По всей видимости для таких ситуаций нужно в гта 5 обучаться.
Думаю, что у них как минимум не было в выборках достаточного количества данных с такой проекцией грузовика, не говоря уже о том, что это несколько необычная ситуация на дороге + грузовик белый. Хотя логично предположить, что они в своих симуляторах должны были себе делать сцены с дорожными авариями для их успешного проезда. Полагаю, что грузовик, перевернутый на крышу был бы успешно распознан. Иначе слишком часто бы теслы в аварии попадали на месте чужого дтп, которое еще не успели отгородить.
Екатерина (видео-сенсоры)
- Я, конечно, о своем сейчас думаю, о пересветках. Вряд ли у Теслы не HDR-сенсоры, но если обычные (вдруг???), то засветка камеры может быть... грузовик белый, отражает хорошо.
В аварии 1 июня 2020 года и в аварии 1 марта 2019 участвовала Tesla Model 3, а она 2016г выпуска. HDR- сенсоры последние интересные (где нет артефактов движения и проч) появились в 2017 г. Так что вполне возможно, что камеры Tesla Model 3 именно ослепли. Вопрос теперь про радары...
Андрей (радары)
- я уже над этим думал.
скорее всего плоская крыша сработала как зеркало
и её саму особо не было видно
была просто большая тень позади
а может и увидели но по сумме показаний с разных датчиков решили что ложное срабатывание
она не строго перпендикулярна, возможно этого было достаточно
опять же что странно, перед фурой в 50 метрах ещё человек был, на него тоже системы не среагировали.
Николай (обработка данных радаров):
- Отражения должны были быть на краях кузова фуры, но об их уровне судить сложно. Возможно радар и давал отклик, но достаточной информации о режиме работы автопилота нет, поэтому сложно делать выводы.
Павел (machine lerning)
- Радар в случае с Tesla model 3 не должен был обращать внимание на перевернутый грузовик, так как грузовик не имел сонаправленного с Tesla движения и был неподвижен. Это называется Vehicle kinematic scenario.
Я долго не мог понять что не так с этим видео. Аварии в подобных случаях не редкость, но здесь случай нетривиальный. Дело в том, что за несколько секунд до столкновения на проезжей части стоял человек, но tesla не снизила скорость.
Я решил изучить часть материалов, описанных в инженерных стандартах для судебно-медицинской экспертизы. Вот что удалось обнаружить:
Система радар/стереокамера служит для предотвращения столкновений впереди стоящих объектов, в том числе пешеходов. Данную подсистему (Tesla AEB system) можно отключить кстати и данная подсистема независима от режима автопилотирования (ACC). Но поскольку авария произошла, водитель явно рассчитывал на нее, и она была включена.
Данные со стереокамер и радара в их нейронках возможно и смешиваются - это альтернатива лидара. Все же, перепутать с билбордом или пластиковым пакетом перевернутый грузовик система могла из-за несовершенства Mobileye EyeQ3 и их датасетов, но в случае с человеком уже менее вероятно. Кстати, свое сотрудничество они прекратили между собой в 2016-ом. Думаю данный чип и базы в данных моделях не обновляются.
Событие на видео для AEB system классифицируется как braking for crossing path collisions. Значит произошло следующее:
EyeQ3 определил перевернутый грузовик как false-negative (в обучающей выборке не было подобных сэмплов и, как следствие, не последовало активации), а сама подсистема AEB служит для устранения false positive brake activation, как я понял в противовес ACC системе. Кроме того, трейлер не имел сонаправленного с Tesla движения и был неподвижен, а следовательно не являлся целью для радара. Но это не объясняет отсутствие детекций пешехода.
Исходя из этого, единственной причиной столкновения (одновременного игнорирования пешехода и трейлера) стал отказ в одном из сенсоров. В этом случае система автоматического торможения на модели Tesla 3 работать не будет. Определить работоспособность радара как и камер в момент столкновения со стопроцентной вероятностью мы не можем. Однако можно воспользоваться Байесовкской теорией вероятности. Я воспользовался частотной вариацией метода. Даже предположив вероятности распознавания пешехода и грузовика равными и считая событие столкновения за 1, то вероятность отказа камер в три раза выше вероятности отказа радара в данном случае.
P.S. я здесь сохранила прямую речь экспертов. И мне кажется в life critiсаl технологиях очень важно учиться на чужих ошибках.
P.P.S. ссылка на статьи в комменте.
ролик на ФБ
СПЕЦИАЛЬНОЕ ПРЕДУПРЕЖДЕНИЕ Этот пост может быть чью-то жизнь спасёт или хотя бы чьи-нибудь мозги прочистит. Потому что официально достучаться ни до...
// www.facebook.com
исходная статья