А-а-а-а-а-а!!!! Восстание машин!
May. 28th, 2015 01:43 pmВсем добрый день, кто про что а я про Volvo. Давно я здесь ничего не писал. У меня были посты в сообществе про интелектуальный шлем велосипедиста, про систему контроля дорожной обстаноки от этого автопроизводителя, но в последнее время новостей особых Volvo мне не подкидывала, и вот...
Этот видеоролик, записанный в Доминиканской Республике, запечатлел, как при демонстрации системы автоматической парковки Volvo XC60 машина повела себя неожиданным образом и сбила наблюдавших за процессом журналистов. Это можно было бы считать неприятным курьезом, но проблема гораздо глубже, и менно поэтому я решил о ней написать здесь.
Изначально было высказано предположение, что причиной послужила неисправность в компьютерной системе, однако, как в итоге выяснилось, с машиной все в порядке. Все дело в том, что хозяин авто не оплатил дополнительную опцию, которая позволяет системе радаров и камер Volvo XC60 распознавать пешеходов. В базовой комплектации автомобиль оснащен системой автоматического торможения для избежания столкновений, однако она работает только с другими автомобилями. Чтобы машина начала «видеть» пешеходов и тормозить, предотвращая возможные случаи наезда, владельцам машины необходимо доплатить определенную сумму. Данную информацию озвучил в интервью пресс-атташе Volvo Йохан Ларссон (Johan Larsson). Что касается двух пострадавших журналистов, то они отделались ушибами, обошлось без переломов.
И тут я подумал, что Volvo нарушила первый закон робототехники: "Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред." Не важно что там в пакете оплачено или нет, но если робот распознает человека как препятствие, а это технически реализовано в данной машине и все возможности для этого были, то наезд на него должен быть невозможен вне зависимости от того что оплатил, или не оплатил владелец.
Во-первых, он показывает бездумное отношение потребителя к "умному" устройству. Хозяин до конца не разобрался, что там у него включено в пакет, что нет, решил показать супер-пупер демонстрацию и вот результат. В целом человечество очень небрежно относится к новым техническим возможностям "интернета вещей", но не буду сильно эту тему развивать.
Во-вторых, виновата Volvo Cars и ее дилеры которые продавая автомобили с очень продвинутым функционалом даже не удосужились провести трейнинг по возможностям машины. Вы можете возразить, что так мы дойдем до того что дилеры должны будут права проверять у покупателя. Все же эти функции необычные, непривычные, можно именно для них сделать некоторое исключение. Возможно в будущем таких ликбезов и не понадобится.
В-третьих, конечно, во всем великолепии проявили себя современные маркетологи, которые так выстраивают ценообразования на дополнительные функции. Самое важное (и самое прибыльное) они продают отдельно с большой наценкой, а к чему приводит такая политика мы уже видели. Как можно было не включить в базовый пакет "наезд на пешехода"?
У меня такое ощущения что ни Volvo, ни другие производители занимающиеся "интернетом вещей" не понимают до конца на какую территорию они вступают. Ну да мы научили машину саму переключать передачи, удобно же и водителю облегчение. Ну да, мы поставили систему контроля мертвых зон, теперь машина пищит когда кто-то в опасной зоне, удобно же и водителю облегчение! Ну да, мы научили машину парковаться... Стоп, стоп стоп! Машину? Это уже робот, что мы и видим на этом примере.
Я может банальный вопрос задаю, но я немного из другой области, существуют ли действительно некие общие принципы организации безопасности самодостаточных автоматических устройств. Я специально не применю термин "робот". Просто то что мы увидели на этом видео пример, с моей точки зрения, вопиющей технической и организационной безграмотности.
Про законы робототехники. Их НЕТ! Айзек Азимов сформулировал их в 1947 году, и несмотря на то, что де-факто их все знают, де-юре они не существуют. Вопрос - может быть пора сформулировать законы, принципы построения самодостаточных автоматических устройст? Чтобы сев за руль японского пепелаца в прокатной конторе где-то в южных странах, где все в иероглифах, я тем не менее понял бы как его отключить, где у него пресловутая "Красная кнопка" и т.д. Просто дальше будет все сложнее и печальнее!
Добро пожаловать в прекрасное будущее!

UPD Я бы все же хотел вернуть дискуссию в техническое русло. Я не спрашивал кто виноват, машина, водитель, пешеходы. Здесь не ru_chp. Понятно что заголовок я такой больше для привлечения внимания сделал, но и в таком заголовке есть зерно истины.
Я спрашивал про то, существуют ли базовые принципы и непреложные правила обеспечения безопасности автономных устройств? Судя по всему нет, а мы семимильными шагами движемся к миру автономных предметов - домов, автомобилей, торговых автоматов и т.д.
no subject
Date: 2015-05-28 11:24 am (UTC)> существуют ли действительно некие общие принципы организации безопасности самодостаточных автоматических устройств
Нет. Только не совсем удачный, но уже нужный предупреждающий знак. :)
no subject
Date: 2015-05-28 12:14 pm (UTC)no subject
Date: 2015-05-28 12:33 pm (UTC)no subject
Date: 2015-05-28 02:27 pm (UTC)no subject
Date: 2015-05-28 03:27 pm (UTC)no subject
Date: 2015-05-28 03:40 pm (UTC)Негативные последствия неизбежно будут. Трагические тоже будут. Любая машина, и особенно автономная система -- это проекция (или материализация) мыслей автора. Какие у автора мысли, такая получится система. Каков критерий правильности? Например, для меня таким критерием можно назвать способность автономной системы управления летательным аппаратом обеспечить безопасность полёта не хуже высших насекомых (пчёлы, стрекозы) -- это дерзкая и многополезная задача, требующая абсолютно другого мышления автора (относительно нынешнего). Если эта задача решена, не будет абсолютной гарантии что система не грохнется на голову прохожему раз в ХХ тысяч часов -- возможности любой автономной системы ограничены, что лучше всего показано в сообществе ru_chp. Пока первые скромные результаты гугломобилей показывают их несовместимость с водителями -- по вине водителей, потому что те не смотрят на дорогу (четверть смотрит в фейсбук, ещё четверть лазит по инету). Как правильно развивать эти устройства? Их нужно изолировать от людей в аспекте управления -- на дороге только роботы, люди только в салоне. Думаю найдутся и другие взгляды на это -- "правильного" вы не найдёте путём дискуссий, только по практическим результатам. Тема интересная, но абсолютно сырая -- люди не готовы к встрече с автономными системами, что хорошо видно на показанном в этой теме примере.
no subject
Date: 2015-05-28 04:01 pm (UTC)no subject
Date: 2015-05-28 05:09 pm (UTC)no subject
Date: 2015-05-28 12:26 pm (UTC)no subject
Date: 2015-05-28 12:32 pm (UTC)"Нулевой закон робототехники": "Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред". Он приоритетнее первого закона, поэтому разрешает причинение вреда человеку, если это действие выполняется ради блага всего человечества.
Жители планеты Солярия стали создавать роботов, подчинявшихся Трём Законам, но имевших другое понимание слова «человек». Роботы на этой планете были обучены тому, что «человек» — это только тот, кто говорит с солярианским акцентом. Роботы свободно могли причинить вред чужаку, они даже специально были на это запрограммированы.
no subject
Date: 2015-05-28 12:43 pm (UTC)Желающему оспорить предложу подиктовать в распознавалку речи хотя бы с полчасика и оценить процент ошибок. А потом осознать, что распознавание визуальных образов - задача существенно более сложная. И если машина в автоматическом режиме будет давить только 10 человек из сотни - для задавленных будет весьма слабым объяснением, что они явились ошибкой эксперимента и входят в допустимый процент потерь.
no subject
Date: 2015-05-28 12:58 pm (UTC)no subject
Date: 2015-05-28 01:09 pm (UTC)Кто занимается распознаванием образов, те знают, что уровни порога распознавания - всегда компромисс между "минимум неопознанных" и "минимум ложных тревог". 100% не бывает, увы.
no subject
Date: 2015-05-28 01:12 pm (UTC)no subject
Date: 2015-05-28 01:33 pm (UTC)