[identity profile] volvo-cars.livejournal.com posting in [community profile] engineering_ru
Оригинал взят у [livejournal.com profile] volvo_cars в А-а-а-а-а-а!!!! Восстание машин!
27.05.2015, Independent

Всем добрый день, кто про что а я про Volvo. Давно я здесь ничего не писал. У меня были посты в сообществе про интелектуальный шлем велосипедиста, про систему контроля дорожной обстаноки от этого автопроизводителя, но в последнее время новостей особых Volvo мне не подкидывала, и вот...
Этот видеоролик, записанный в Доминиканской Республике, запечатлел, как при демонстрации системы автоматической парковки Volvo XC60 машина повела себя неожиданным образом и сбила наблюдавших за процессом журналистов. Это можно было бы считать неприятным курьезом, но проблема гораздо глубже, и менно поэтому я решил о ней написать здесь.



Изначально было высказано предположение, что причиной послужила неисправность в компьютерной системе, однако, как в итоге выяснилось, с машиной все в порядке. Все дело в том, что хозяин авто не оплатил дополнительную опцию, которая позволяет системе радаров и камер Volvo XC60 распознавать пешеходов. В базовой комплектации автомобиль оснащен системой автоматического торможения для избежания столкновений, однако она работает только с другими автомобилями. Чтобы машина начала «видеть» пешеходов и тормозить, предотвращая возможные случаи наезда, владельцам машины необходимо доплатить определенную сумму. Данную информацию озвучил в интервью пресс-атташе Volvo Йохан Ларссон (Johan Larsson). Что касается двух пострадавших журналистов, то они отделались ушибами, обошлось без переломов.

И тут я подумал,  что Volvo нарушила первый закон робототехники: "Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред." Не важно что там в пакете оплачено или нет, но если робот распознает человека как препятствие, а это технически реализовано в данной машине и все возможности для этого были, то наезд на него должен быть невозможен вне зависимости от того что оплатил, или не оплатил владелец.

Теперь комментарии от меня. Хорошо, что обошлось без серьезных повреждений, и тем более без жертв. Этот ролик очень показательный, и я надеюсь из этого случая извлекут уроки все.

Во-первых, он показывает бездумное отношение потребителя к "умному" устройству. Хозяин до конца не разобрался, что там у него включено в пакет, что нет, решил показать супер-пупер демонстрацию и вот результат. В целом человечество очень небрежно относится к новым техническим возможностям "интернета вещей", но не буду сильно эту тему развивать.

Во-вторых, виновата Volvo Cars и ее дилеры  которые продавая автомобили с очень продвинутым функционалом даже не удосужились провести трейнинг по возможностям машины. Вы можете возразить, что так мы дойдем до того что дилеры должны будут права проверять у покупателя. Все же эти функции необычные, непривычные, можно именно для них сделать некоторое исключение. Возможно в будущем таких ликбезов и не понадобится.

В-третьих, конечно, во всем великолепии проявили себя современные маркетологи, которые так выстраивают ценообразования на дополнительные функции. Самое важное (и самое прибыльное) они продают отдельно с большой наценкой, а к чему приводит такая политика мы уже видели. Как можно было не включить в базовый пакет "наезд на пешехода"?

У меня такое ощущения что ни Volvo, ни другие производители занимающиеся "интернетом вещей" не понимают до конца на какую территорию они вступают. Ну да мы научили машину саму переключать передачи, удобно же и водителю облегчение. Ну да, мы поставили систему контроля мертвых зон, теперь машина пищит когда кто-то в опасной зоне, удобно же и водителю облегчение! Ну да, мы научили машину парковаться... Стоп, стоп стоп! Машину? Это уже робот, что мы и видим на этом примере.

Я может банальный вопрос задаю, но я немного из другой области, существуют ли действительно некие общие принципы организации безопасности самодостаточных автоматических устройств. Я специально не применю термин "робот". Просто то что мы увидели на этом видео пример, с моей точки зрения, вопиющей технической и организационной безграмотности.

Про законы робототехники. Их НЕТ! Айзек Азимов сформулировал их в 1947 году, и несмотря на то, что де-факто их все знают, де-юре они не существуют. Вопрос - может быть пора сформулировать законы, принципы построения самодостаточных автоматических устройст?  Чтобы сев за руль японского пепелаца в прокатной конторе где-то в южных странах, где все в иероглифах, я тем не менее понял бы как его отключить, где у него пресловутая "Красная кнопка" и т.д. Просто дальше будет все сложнее и печальнее!

Добро пожаловать в прекрасное будущее!



UPD Я бы все же хотел вернуть дискуссию в техническое русло. Я не спрашивал кто виноват, машина, водитель, пешеходы. Здесь не ru_chp. Понятно что заголовок я такой больше для привлечения внимания сделал, но и в таком заголовке есть зерно истины.
Я спрашивал про то, существуют ли базовые принципы и непреложные правила обеспечения безопасности автономных устройств? Судя по всему нет, а мы семимильными шагами движемся к миру автономных предметов - домов, автомобилей, торговых автоматов и т.д.

Date: 2015-05-28 11:31 am (UTC)
From: [identity profile] ai-see.livejournal.com
Устройство должно подчиняться законам робототехники с того момента как оно будучи запущено и введено в автоматический режим, может причинить вред человеку. Т.е. в данном инциденте виновата компания, выпустившая данную машину. Альтернативой этому принципу может быть обязательная сертификация оператора. В таком случае был бы виноват человек, который перевёл машину в опасный режим, не убедившись в её безопасности для окружающих.

Date: 2015-05-28 11:38 am (UTC)
From: [identity profile] ggair.livejournal.com
> Устройство должно подчиняться законам робототехники
Устройство не должно подчиняться законам робототехники. Просто потому что эти законы - не более чем фантазия.

Date: 2015-05-28 11:41 am (UTC)
From: [identity profile] ai-see.livejournal.com
Любой действующий закон когда-то был фантазией. Понятно, что пока в каком-нибудь действующем кодексе его не пропишут, ответственности за его нарушение не будет. А нет ответственности - нет закона.

Date: 2015-05-28 12:14 pm (UTC)
From: [identity profile] ggair.livejournal.com
А значит пока что оно ничего никому не должно)

Date: 2015-05-28 12:29 pm (UTC)
From: [identity profile] ahitech.livejournal.com
Что бы мы ни делали, трагедии всё равно будут.

Date: 2015-05-28 01:01 pm (UTC)
From: [identity profile] izvne.livejournal.com
знание никак не гарантирует... вообще ничего не гарантирует. банальные примеры с войнами, самим фактом существования больших городов и так далее. и при этом капитал, маркетинг и сама наука не на стороне оценки последствий. для них это только тормоз. поэтому с высокой степенью вероятности готовить арбалеты и прочую безэлектронную утварь к восстанию ))

Date: 2015-05-28 12:28 pm (UTC)
From: [identity profile] makz-z-z.livejournal.com
http://engineering-ru.livejournal.com/344916.html?thread=22431316#t22431316

Date: 2015-05-28 03:10 pm (UTC)
From: [identity profile] nicka-startcev.livejournal.com
кстати, забавно что в контексте этих законов ни здесь ни у Азимова, ни у всяких авторов фанфиков я не видел, чтоб докапывались до терминов "вред" и "бездействие". потому что, навскидку, я не могу назвать ни одного действия, которое бы не принесло "вред".

ну и с таким набором правил робот будет тормозящим неврастеником.

Date: 2015-05-29 11:19 am (UTC)
From: [identity profile] cremate-rus.livejournal.com
>с таким набором правил робот будет тормозящим неврастеником
Тащемта, у Азимова часто так и случалось.

Date: 2015-06-07 03:18 pm (UTC)
From: [identity profile] vspvsp.livejournal.com
Если робот не в курсе, что данным действием нанесёт вред и вообще что там за вред (оторвать голову человеку не считать вредом, например). "Обезьяна с гранатой".
Ну и робот (машина) должна уже к тому моменту обладать самосознанием.

Date: 2015-06-07 03:16 pm (UTC)
From: [identity profile] vspvsp.livejournal.com
Даже у Азимова главный момент был в "робот должен знать, что он нанесёт вред (человеку)". По этому поводу определение человека максимально расширялось. Машина была в курсе, что может нанести вред? Она вообще может оценивать такое, не имея интеллекта/самосознания?

Так что просто несоблюдение ТБ владельцем.

Profile

engineering_ru: (Default)
Инженерия

December 2025

S M T W T F S
 123456
78910111213
14151617181920
2122232425 2627
28293031   

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Mar. 7th, 2026 10:25 am
Powered by Dreamwidth Studios