[identity profile] solar-front.livejournal.com posting in [community profile] engineering_ru
Так и пишут: "physical attacks to spoof Tesla's autopilot".

Суть в том, что:
Чудесные, ультрасовременные нейронные сети видят реальность не так как мы. А управлять им приходится в реальном мире, со своими дурацкими представлениями о целесообразности и логике.

Эксперты показывают компьютерам картинки и учат их: "например, таким вещами, как разметка полос. Сеть постепенно научится распознавать маркировку линий на основе сходства, которое она обнаруживает в маркированном наборе данных, но ... это сходство может быть очень абстрактным."

Это несоответствие между тем, что на самом деле является маркировкой, и тем, что думают нейронные сети ведет к тому, что даже высокоточные нейронные сети могут быть "обмануты «враждебными» изображениями". На прошлой неделе исследователи из лаборатории Keen Security в Tencent показали, как обмануть систему обнаружения полосы движения в Tesla Model S. Приэтом чтобы метки полосы будут распознаваться человеком, но автопилот Тесла свернет в неправильную полосу без предупреждения.


И геймпадом управляют и т.д.:
Китайцы глумятся:


"наклейки, размещенные там, где нет других разметок полосы движения, могут привести к тому, что на автопилоте Tesla переключится на встречную полосу без предупреждения(!)"

Кстати, Тесла уже ответила на это исследование:

«В этой демонстрации исследователи скорректировали физическую среду (например, разместив ленту на дороге или изменив линии полосы движения) вокруг транспортного средства, чтобы заставить автомобиль вести себя по-разному, когда используется автопилот. Это не случай из реального мира. И надо помнить, что водитель может легко выключить автопилот в любое время, используя руль или тормоза, и он должен быть готов к этому в любое время ».

Т.е. дорогие друзья, это автопилот, но ты должен его постоянно пасти. Я представляю себе следующую ситуацию:
1) Вы в отпуске.
2) Вы двигаетесь по высокоскоростной трассе например в Австрии.
3) Трасса входит в тонель и перед ним раздельная полоса исчезает.
4) Автомобиль на автопилоте выбирает не верный вьезд в тунель (встречка).
5) Водитель в ужасе хватается за руль, но дтп происходит.
6) Виноват водитель: его реакция, он был "последним кто управлял средством".
7) Все довольны, все расходятся (пенсионный фонд, медстраховка, торговцы органами).

Date: 2019-04-10 01:45 pm (UTC)
From: [identity profile] Дмитрий Рождественский (from livejournal.com)
Тут благодарить особо не за что, так как они воспроизвели ситуацию, которая в реальности не встречается, и переучивать нейронку на которую не имеет смысла. А вот если бы они прислали фотографию реальной дорожной ситуации, в которой машина ведёт себя не правильно - это было бы действительно ценно.

Date: 2019-04-10 02:31 pm (UTC)
From: [identity profile] Дмитрий Рождественский (from livejournal.com)
Эти истории не имеют ничего общего. В первом случае была сымитирована ситуация, вероятность которой в реальной жизни ничтожна, но о возможности которой производитель предупреждает. Во втором имеет место недокументированная реакция на отказ датчиков. А отказ датчиков на самолёте на самом деле бывает намного чаще, чем на реальном автобане встречаются посторонние наклейки.

Date: 2019-04-10 06:32 pm (UTC)
From: [identity profile] aso.livejournal.com
Во втором имеет место недокументированная реакция на отказ датчиков.

Э-ээ, деточко, а Вы словосочетание "сертификация" слышале?
А "робустные системы"?
А "критические с точки зрения безопасности"?
(deleted comment)

Date: 2019-04-13 10:51 am (UTC)
From: [identity profile] aso.livejournal.com
Робастность, да.
Это отказоустойивость - т.е. способность продолжать нормальное функционирование при наличии отказов и помех - либо минимально и управляемо снижать свои функциональные возможности.

Date: 2019-04-10 06:30 pm (UTC)
From: [identity profile] aso.livejournal.com
Китайцы открыли способ, как Вас можно убить влёгкую - и избежать ответственности - а Вы всё рассуждаете про какую-то "реальность", в которой "это невозможно"?

Date: 2019-04-11 05:56 am (UTC)
From: [identity profile] Дмитрий Рождественский (from livejournal.com)
Меня нельзя убить, по крайней мере влёгкую, потому что я читаю инструкции и смотрю на дорогу, даже когда еду на автопилоте.

Date: 2019-04-11 06:15 pm (UTC)
From: [identity profile] aso.livejournal.com
Оптимист - лёгкая добыча для проблем.

Profile

engineering_ru: (Default)
Инженерия

December 2025

S M T W T F S
 123456
78910111213
14151617181920
2122232425 2627
28293031   

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Mar. 8th, 2026 06:56 am
Powered by Dreamwidth Studios